EP1419483A2 - Darstellung von anwenderinformationen - Google Patents

Darstellung von anwenderinformationen

Info

Publication number
EP1419483A2
EP1419483A2 EP02754527A EP02754527A EP1419483A2 EP 1419483 A2 EP1419483 A2 EP 1419483A2 EP 02754527 A EP02754527 A EP 02754527A EP 02754527 A EP02754527 A EP 02754527A EP 1419483 A2 EP1419483 A2 EP 1419483A2
Authority
EP
European Patent Office
Prior art keywords
camera
user information
information
image
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP02754527A
Other languages
English (en)
French (fr)
Inventor
Peter Wiedenberg
Soeren Moritz
Thomas Jodoin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1419483A2 publication Critical patent/EP1419483A2/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • the invention relates to a system and a method for
  • the invention has for its object to improve the simultaneous display of user information and image information of an environment.
  • This object is achieved by a system for displaying user information with a camera for recording image information of a section of an environment, a zoom device for changing the size of the recorded section according to a zoom factor and / or a device for three-dimensional alignment of the camera according to a space vector - with a computer unit for calculating location coordinates of the image information based on spatial coordinates of the camera and / or the control variables zoom factor and space vector, for assigning user information to the location coordinates and for calculating positions of images of the image information on a display surface of a visualization device and
  • This object is achieved by a method for displaying user information, in which
  • Image information of a section of an environment is recorded with a camera, the size of the recorded section being changeable with a zoom device in accordance with a zoom factor and / or the camera being aligned three-dimensionally with a device in accordance with a space vector, a computer unit - Location coordinates of the image information based on
  • an image processing unit calculates the image information and the user information for playback with the visualization device and for the correct display of the user information on the display surface at the positions of the images of the image information with location coordinates to which the respective user information is assigned.
  • the system or method according to the invention enables the dynamic insertion of user information - e.g. B. of process values, status information of a control program - in the user-visualized image of a section of an environment.
  • This image is recorded by a camera which is movable and / or by means of a zoom device offers the possibility of changing the size of the image section.
  • the camera therefore does not have to have a fixed image section, but a free definition of the image section (orientation and / or zoom factor) is possible.
  • the user information to be faded in does not have to relate to a static image in the sense of camera orientation and zoom factor, but rather receives a reference to the real spatial coordinates of the image information in the area currently captured by the camera.
  • the user information on the currently visible location section is automatically displayed at the correct position.
  • the dynamic overlays do not change their position in relation to the images of the image information (for example, objects) visible on the display surface of the visualization device a changed viewing angle of the camera, ie when the camera moves (rotations or inclinations, zoom factor).
  • the computer unit contains a control unit for controlling the camera, the zoom device and / or the device for three-dimensional alignment of the camera in accordance with the control variables zoom factor or space vector.
  • the control variables are thus already known to the computer unit and can be used directly by it to calculate the location coordinates of the
  • Image information of the section of the environment can be used.
  • a particular user friendliness can be achieved in that the image processing unit is used to select and display the user information depending on the zoom factor. It is conceivable. B. that in a wide-angle shot only for individual objects on the display surface user information, for. B. Object names can be shown. If the camera zooms in on these objects, detailed information could be displayed, e.g. B. level, temperature or the like. The detailed information would currently be read from an operating and monitoring system.
  • the user information in this embodiment is thus designed as a combination of static and dynamic information.
  • any other data sources can be connected, for example the connection to databases with static information or
  • control unit for controlling the camera, the zoom device and the device for three-dimensional alignment of the camera have means for operation by a user. So that the camera, regardless of the computer unit z. B. can also be moved with a remote control.
  • FIG. 1 shows a schematic overview of a system for displaying user information
  • FIG 3 shows views of a display surface of a 5 visualization device with different control variables, space vector and zoom factor.
  • FIG. 1 shows an embodiment of a system for
  • a camera 1 captures image information 2 of a Section of the surroundings of the camera 1.
  • the image information 2 is the view of a tank 21 with a valve 22.
  • the viewing angle 23 of the camera 1, which captures the section of the surroundings, is shown in a stylized manner.
  • the camera 1 is mounted on a device 4 for three-dimensional alignment of the camera and has a zoom device 3.
  • the camera 1 and the device 4 are connected to a computer unit 5.
  • the computer unit 5 contains a control unit 10 and a display area 7.
  • the computer unit 5 contains user information 6, which in the example is provided via a process connection 20 of measuring points 17, 18.
  • the user information 6 is linked in an image processing unit 9 with location coordinates 12 and is shown as a display 16 on the display surface 7 together with an image 13 of the image information 2.
  • the computer unit also has various input means for a user, a computer mouse 14, a keyboard 15 and other means 11 for operation by a user.
  • the camera 1 captures the objects 21, 22 lying in its viewing angle 23 as image information 2.
  • the viewing angle 23 can be adjusted with a zoom device 3, e.g. B. a focal length adjustment, adjustable in its opening angle and by rotating or tilting the camera 1 in its orientation.
  • the different size of the opening angle of the camera 1 is called the zoom factor and is an important control variable of the system.
  • the camera 1 captures a larger or smaller section of its surroundings.
  • the camera 1 is fastened on a device 4 for three-dimensional alignment and is therefore rotatable about two of its axes of movement.
  • the device 4 for three-dimensional alignment is driven, for. B.
  • the movement of the device 4, the adjustment of the zoom device 3 and the functions of the camera 1 are controlled by a control unit 10 of the computer unit 5.
  • the orientation of the camera 1 in the room is described by the control variable room vector.
  • the camera 1 and the device 4 for three-dimensional alignment return actual values of the space vector and zoom factor to the computer unit.
  • the placement of the camera 1 in the room is defined in the form of spatial coordinates of the camera 1.
  • the computer unit has further information about the surroundings of camera 1 available, e.g. B. in the form of a model which describes the essential points of the objects 21, 22 of the environment in the form of spatial coordinates or as vectors.
  • the computer unit 5 thus has enough information available to determine the location coordinates 12 of the image information 2 captured by the camera 1.
  • the location coordinates 12 are calculated from the control variables zoom factor and space vector and - in the case of linear movements - the space coordinates of the camera 1.
  • the result of this calculation determines the viewing angle 23 of the camera 1 in terms of its size and its position in space.
  • the image information 2 is processed by an image processing unit 9 of the computer unit 5 such that it can be represented as a two-dimensional image 13 of the objects 21, 22 on the display surface 7 of the visualization device. Based on the calculation of the location coordinates 12, the information is also available at which position on the
  • the actual values of the control variables room vector and zoom factor change continuously, and the detected section of the surroundings also changes accordingly.
  • the position of the image 13 on the display surface 7 changed as a result can also be calculated and the user information 6 can continue to be displayed in the same position relative to the image 13, even if its position on the display surface is thereby shifted.
  • the location coordinates 12 are thus assigned to the user information 6 and the current orientation (space vector) of the camera 1, the current zoom factor and - in the case of linear movement of the camera 1 in space - the space coordinates of the camera 1 (ie their placement in space) are known, so the display and the placement of the user information 6 for the overlay technology can currently be calculated, so that the user information 6 for the currently visible area is shown in the correct place.
  • a temperature sensor 17 is attached, and on the valve
  • the recorded process values of temperature or valve opening are transmitted via the process connection 20 to the computer unit 5, where they are then used as user information 6 Are available and displayed in the correct position in the image of objects 21, 22.
  • the image of objects 21, 22 displayed to the user is thus enriched with user information 6 with the additionally displayed process variables.
  • the user can operate the computer unit 5 with input means 14, 15 and also has the option of directly specifying the orientation and the zoom factor of the camera 1 by means 11 for operation.
  • the camera 1 is designed as a video camera 27, the computer unit 5 as a personal computer 28 and the visualization device as a screen 29.
  • the device 4 for three-dimensional alignment, on which the video camera 27 is attached, is in this
  • the turning and tilting device 30 pan, tilt
  • the zoom device 3 of the video camera 27 are connected via an RS232 connection 24 to a serial interface 25 of the personal computer 28.
  • VISCA a corresponding protocol
  • the video camera 27 can be moved by software and the resulting viewing angles can be read out.
  • the video camera 27 can also be moved independently of the personal computer using a remote control, which is not shown in FIG. 2. Since the associated data for rotation, tilt and zoom factor are read out from the video camera 27 for each video frame to be displayed on the screen 29, it is possible to do so Fade in user information dynamically in the correct position, regardless of whether the video camera 27 was moved by software or by remote control.
  • z. B Show supporting texts.
  • the particular advantage of the proposed system and method thus lies in the dynamic insertion of information into the video image, taking into account the area currently captured by the video camera 27.
  • the dynamic overlays do not change their position from those on the
  • Video image of visible objects during movements (rotations or inclinations, zoom factor) of the video camera 27 Only in the context of the lens distortion of the video camera 27 and the perspective distortion do the dynamic insertions move slightly compared to the visible objects.
  • Visualization device 8 with a display surface 7 at different viewing angles of a camera 1 according to FIG 1 in a system according to the invention. The one on the
  • Image be united. This is possible because the current position and zoom settings of camera 1 are also read out for each video image. In addition, depending on the zoom, more or less data can be shown in the image. It is conceivable. B. that in a
  • Tankl Wide angle shot only individual objects are named (e.g. Tankl, control cabinet2). If you zoom in on these elements, you could Detailed information about this is displayed (e.g. Tankl: fill level 3 m). These data would currently be read out from an operating and monitoring system.
  • the invention thus relates to a system and a method for displaying user information, in which the simultaneous display of user information and image information of an environment is improved.
  • the system contains a camera 1 for capturing image information 2 of a section of an environment, a zoom device 3 for changing the size of the captured section in accordance with a zoom factor and / or a device 4 for three-dimensionally aligning the camera 1 in accordance with a space vector, a computer unit 5 for calculating location coordinates 12 of the image information 2 on the basis of spatial coordinates of the camera 1 and / or the control variables zoom factor and space vector, for assigning user information 6 to the location coordinates 12 and for calculating positions of images 13 of the image information 2 on a display surface 7 of a visualization device 8 and an image processing unit 9 for processing the image information 2 and the user information 6 for reproduction with the visualization device 8 and for correctly displaying the user information 6 on the display surface 7 at the positions of the images 13 of the image information 2 with location coordinates 12, to which the respective user information 6 is assigned.

Abstract

Die Erfindung betrifft ein System sowie ein Verfahren zur Darstellung von Anwenderinformationen, bei welchem die gleichzeitige Darstellung von Anwenderinformationen und Bildinformationen einer Umgebung verbessert wird. Das System enthält eine Kamera (1) zur Erfassung von Bildinformationen (2) eines Ausschnitts einer Umgebung, wobei eine Zoom-einrichtung (3) zur Änderung der Grösse des erfassten Aus-schnitts entsprechend eines Zoomfaktors und/oder eine Vorrichtung (4) zur dreidimensionalen Ausrichtung der Kamera (1) entsprechend eines Raumvektors vorgesehen ist, eine Rechnereinheit (5) zur Berechnung von Ortskoordinaten (12) der Bildinformationen (2) anhand von Raumkoordinaten der Kamera (1) und/oder den Steuergrössen Zoomfaktor und Raumvektor, zur Zuordnung von Anwenderinformationen (6) zu den Ortskoordinaten (12) und zur Berechnung von Positionen von Abbildern (13) der Bildinformationen (2) auf einer Anzeigefläche (7) einer Visualisierungseinrichtung (8) und eine Bildverarbeitungseinheit (9) zur Aufbereitung der Bildinformationen (2) und der Anwenderinformationen (6) für eine Wiedergabe mit der Visualisierungseinrichtung (8) und für eine lagerichtige Einblendung der Anwenderinforma-tio-nen (6) auf der Anzeigefläche (7) an den Positionen der Abbilder (13) der Bildinformationen (2) mit Ortskoordi-naten (12), denen die jeweiligen Anwenderinformationen (6) zugeordnet sind.

Description

Beschreibung
Darstellung von AnwenderInformationen
Die Erfindung betrifft ein System und ein Verfahren zur
Darstellung von mit einer Kamera erfassten Bildinformationen und von Anwenderinformationen auf einem Visualisierungssystem.
Zur Information eines Anwenders über den aktuellen Zustand eines Prozesses werden üblicherweise Visualisierungssysteme eingesetzt. Sie sind in der Lage den aktuellen Prozesszustand einer Anlage über erfasste Prozesswerte und Zustandsdaten eines Prozesssteuerungsprogra ms mit sich veränderndem Text oder Graphikelementen (z. B. dynamischen Balken) als Anwenderinformationen zur Anzeige zu bringen. Die Prozesswerte werden über entsprechende Sensoren erfasst. Die Anwenderinformation beschränkt sich in diesem Fall auf jene, die über die Sensorik erfasst werden kann bzw. sich im Status des Steuerungsprogramms wiederspiegelt - aber nicht alles kann mit Hilfe von Sensoren erfasst werden. Aus diesem Grund wird verstärkt Videotechnologie zum Einsatz gebracht. Sie ermöglicht mit Hilfe eines aufgenommen Videobildes den sichtbaren Zustand des Prozesses und der Prozessumgebung dem Anwender auf dem Visualisierungssystem sichtbar zu machen. Da auf diesem Videobild nur sichtbare Zustände erkennbar sind, nicht aber Zustände, die sich physikalisch anders darstellen (wie z . B . die Temperatur in einem Tank oder der Zustand des Steuerungsprogramms im Speicher des RechnerSystems) muss bisher für eine vollständige Informationsdarstellung entweder der Bildschirmbereich des Visualisierungssystems aufgeteilt werden oder der Anwender zwischen unterschiedlichen Bildern des Visualisierungssystems hin- und herschalten.
Der Erfindung liegt die Aufgabe zugrunde, die gleichzeitige Darstellung von Anwenderinformationen und Bildinformationen einer Umgebung zu verbessern. Diese Aufgabe wird gelöst durch ein System zur Darstellung von Anwenderinformationen mit einer Kamera zur Erfassung von Bildinformationen eines Ausschnitts einer Umgebung, wobei eine Zoomeinrichtung zur Änderung der Größe des erfassten Ausschnitts entsprechend eines Zoomfaktors und/oder eine Vorrichtung zur dreidimensionalen Ausrichtung der Kamera entsprechend eines Raumvektors vorgesehen ist, - mit einer Rechnereinheit zur Berechnung von Ortskoordinaten der Bildinformationen anhand von Raumkoordinaten der Kamera und/oder den Steuergrößen Zoomfaktor und Raumvektor, zur Zuordnung von Anwenderinformationen zu den Ortskoordinaten und zur Berechnung von Positionen von Abbildern der Bildinformationen auf einer Anzeigefläche einer Visualisierungseinrichtung und
- mit einer Bildverarbeitungseinheit zur Aufbereitung der Bildinformationen und der Anwenderinformationen für eine
Wiedergabe mit der Visualisierungseinrichtung und für eine lagerichtige Einblendung der Anwenderinformationen auf der Anzeigefläche an den Positionen der Abbilder der Bildinformationen mit Ortskoordinaten, denen die jeweiligen Anwenderinformationen zugeordnet sind.
Diese Aufgabe wird gelöst durch ein Verfahren zur Darstellung von Anwenderinformationen, bei welchem
- Bildinformationen eines Ausschnitts einer Umgebung mit einer Kamera erfasst werden, wobei mit einer Zoomeinrichtung die Größe des erfassten Ausschnitts entsprechend eines Zoomfaktors änderbar ist und/oder die Kamera mit einer Vorrichtung entsprechend eines Raumvektors dreidimensional ausgerichtet wird, - eine Rechnereinheit - Ortskoordinaten der Bildinformationen anhand von
Raumkoordinaten der Kamera und/oder den Steuergrößen Zoomfaktor und Raumvektor berechnet,
Anwenderinformationen den Ortskoordinaten zuordnet und - Positionen von Abbildern der Bildinformationen auf einer Anzeigefläche einer Visualisierungseinrichtung berechnet und eine Bildverarbeitungseinheit die Bildinformationen und die Anwenderinformationen für die Wiedergabe mit der Visualisierungseinrichtung und für die lagerichtige Einblendung der Anwenderinformationen auf der Anzeigefläche an den Positionen der Abbilder der Bildinformationen mit Ortskoordinaten, denen die jeweiligen Anwenderinformationen zugeordnet sind, aufbereitet.
Das erfindungsgemäße System bzw. Verfahren ermöglicht die dynamische Einblendung von Anwenderinformationen - z. B. von Prozesswerten, Statusinformationen eines Steuerungsprogramms - in das einem Anwender visualisierte Bild eines Ausschnitts einer Umgebung. Dieses Bild wird von einer Kamera aufgenommen, welche beweglich ist und/oder mittels einer Zoomeinrichtung die Möglichkeit bietet, die Größe des Bildausschnitts zu ändern. Die Kamera muss somit keinen festen Bildausschnitt haben, sondern ein freies Festlegen des Bildausschnittes (Ausrichtung und/oder Zoomfaktor) ist möglich. Die einzublendenden Anwenderinformationen müssen sich bei der Erfindung nicht auf ein statisches Bild im Sinne von Kameraausrichtung und Zoomfaktor beziehen, sondern erhalten einen Bezug zu den realen Ortskoordinaten der Bildinformationen im momentan von der Kamera erfassten Bereich. Die Anwenderinformationen zum aktuell sichtbaren Ortsausschnitt werden automatisch an der jeweils richtigen Stelle eingeblendet. Dabei ändern die dynamischen Einblendungen ihre Position nicht gegenüber den auf der Anzeigefläche der Visualisierungseinrichtung sichtbaren Abbildern der Bildinformationen (z. B. von Objekten) bei einem geänderten Blickwinkel der Kamera, d. h. bei Bewegungen (Drehungen bzw. Neigungen, Zoomfaktor) der Kamera.
In einer vorteilhaften Ausgestaltung der Erfindung enthält die Rechnereinheit eine Ansteuereinheit zur Ansteuerung der Kamera, der Zoomeinrichtung und/oder der Vorrichtung zur dreidimensionalen Ausrichtung der Kamera entsprechend der Steuergrößen Zoomfaktor bzw. Raumvektor. Die Steuergrößen sind damit der Rechnereinheit bereits bekannt und können von dieser direkt zur Berechnung der Ortskoordinaten der
Bildinformationen des Ausschnitts der Umgebung genutzt werden .
Eine besondere Anwenderfreundlichkeit lässt sich dadurch erreichen, dass die Bildverarbeitungseinheit zur Auswahl und Einblendung der Anwenderinformationen in Abhängigkeit des Zoomfaktors genutzt wird. Vorstellbar ist z. B. dass in einer Weitwinkelaufnahme nur zu einzelnen Objekten auf der Anzeigefläche Anwenderinformationen, z. B. Objektbezeichnungen eingeblendet werden. Zoomt die Kamera auf diese Objekte, könnten Detailinformationen dazu angezeigt werden, z. B. Füllstand, Temperatur oder Ähnliches. Die Detailinformationen würden aktuell aus einem Bedien- und Beobachtungssystem ausgelesen werden. Die Anwenderinformationen in dieser Ausgestaltung sind somit als Kombination von statischen und dynamischen Informationen ausgebildet. Neben der Einblendung dynamischer Informationen, die z. B. von einer Prozessanbindung resultieren, sind beliebige andere Datenquellen anbindbar, so zum Beispiel die Anbindung an Datenbanken mit statischen Informationen oder
Internetseiten .
Zur einfachen Weiterverarbeitung der von der Kamera erfassten Bildinformationen ist die Kamera vorteilhaft als Videokamera und die Visualisierungseinrichtung als Bildschirm ausgebildet. Die von der Videokamera gelieferten Bilddaten werden von der Bildverarbeitungseinheit zur Wiedergabe auf dem Bildschirm aufbereitet .
Um dem Anwender erweiterte Bedienmöglichkeiten zu geben, wird vorgeschlagen, dass die Ansteuereinheit zur Ansteuerung der Kamera, der Zoomeinrichtung und der Vorrichtung zur dreidimensionalen Ausrichtung der Kamera Mittel zur Bedienung durch einen Anwender aufweist . Damit kann die Kamera unabhängig von der Rechnereinheit z. B. auch mit einer Fernsteuerung bewegt werden.
In einer weiteren Ausgestaltung der Erfindung werden die Anwenderinformationen entsprechend einer Abbildungsvorschrift auf der Anzeigefläche eingeblendet. Eine solche Abbildungsvorschrift enthält spezifische Regeln, Formate und Verknüpfungen, nach denen die Darstellung der jeweiligen Anwenderinformation erfolgt .
Nachfolgend wird die Erfindung anhand der in den Figuren dargestellten Ausführungsbeispiele näher beschrieben und erläutert.
Es zeigen:
FIG 1 einen schematischen Überblick über ein System zur Darstellung von Anwenderinformationen,
FIG 2 ein Ausschnitt des Systems mit PC und Videokamera und
FIG 3 - Ansichten einer Anzeigefläche einer FIG 5 Visualisierungseinrichtung bei unterschiedlichen Steuerungsgrößen Raumvektor und Zoomfaktor.
FIG 1 zeigt ein Ausführungsbeispiel eines Systems zur
Darstellung von Anwenderinformationen in einem schematischen Überblick. Eine Kamera 1 erfasst Bildinformationen 2 eines Ausschnitts der Umgebung der Kamera 1. Im Beispiel sind die Bildinformationen 2 die Sicht auf einen Tank 21 mit einem Ventil 22. Der Blickwinkel 23 der Kamera 1, der den Ausschnitt der Umgebung erfasst, ist stilisiert dargestellt. Die Kamera 1 ist auf einer Vorrichtung 4 zur dreidimensionalen Ausrichtung der Kamera montiert und weist eine Zoomvorrichtung 3 auf. Die Kamera 1 und die Vorrichtung 4 sind mit einer Rechnereinheit 5 verbunden. Die Rechnereinheit 5 enthält eine Ansteuereinheit 10 und eine Anzeigefläche 7. Des Weiteren enthält die Rechnereinheit 5 Anwenderinformationen 6, welche im Beispiel über eine Prozessanbindung 20 von Messpunkten 17, 18 geliefert werden. Die Anwenderinformationen 6 werden in einer Bildverarbeitungseinheit 9 mit Ortskoordinaten 12 verknüpft und als Einblendung 16 auf der Anzeigefläche 7 zusammen mit einem Abbild 13 der Bildinformationen 2 dargestellt. Die Rechnereinheit weist außerdem verschiedene Eingabemittel für einen Anwender auf, eine Computermaus 14, eine Tastatur 15 und weitere Mittel 11 zur Bedienung durch einen Anwender.
Im Folgenden soll anhand FIG 1 die grundsätzliche Funktionsweise des vorgeschlagenen Systems erläutert werden. Im Ausführungsbeispiel erfasst die Kamera 1 die in ihrem Blickwinkel 23 liegenden Objekte 21, 22 als Bildinformationen 2. Der Blickwinkel 23 ist mit einer Zoomvorrichtung 3, z. B. einer Brennweitenverstellung, in seinem Öffnungswinkel und durch Drehen oder Kippen der Kamera 1 in seiner Ausrichtung verstellbar. Die unterschiedliche Größe des Öffnungswinkels der Kamera 1 wird als Zoomfaktor bezeichnet und ist eine wichtige Steuergröße des Systems. Je nach Zoomfaktor erfasst die Kamera 1 einen größeren oder kleineren Ausschnitt ihrer Umgebung. Die Kamera 1 ist auf einer Vorrichtung 4 zur dreidimensionalen Ausrichtung befestigt und somit um zwei ihrer Bewegungsachsen drehbar. Die Vorrichtung 4 zur dreidimensionalen Ausrichtung ist angetrieben, z. B. durch einen motorischen oder pneumatischen Antrieb. Die Bewegung der Vorrichtung 4, die Verstellung der Zoomvorrichtung 3 und die Funktionen der Kamera 1 werden durch eine Ansteuereinheit 10 der Rechnereinheit 5 gesteuert. Die Ausrichtung der Kamera 1 im Raum wird durch die Steuergröße Raumvektor beschrieben. Die Kamera 1 und die Vorrichtung 4 zur dreidimensionalen Ausrichtung geben Istwerte von Raumvektor und Zoomfaktor an die Rechnereinheit zurück. Für den Fall, dass die Kamera nicht nur Dreh- und Kippbewegungen, sondern auch lineare Bewegungen durchführen kann, wird die Platzierung der Kamera 1 im Raum in Form von Raumkoordinaten der Kamera 1 definiert . Der Rechnereinheit stehen weitere Informationen über die Umgebung der Kamera 1 zur Verfügung, z. B. in Form eines Modells, welches die wesentlichen Punkte der Objekte 21, 22 der Umgebung in Form von Raumkoordinaten oder als Vektoren beschreibt. Somit stehen der Rechnereinheit 5 genügend Informationen zur Verfügung um die Ortskoordinaten 12 der von der Kamera 1 erfassten Bildinformationen 2 zu bestimmen. Die Ortskoordinaten 12 werden aus den Steuergrößen Zoomfaktor und Raumvektor und - im Falle von linearen Bewegungen - den Raumkoordinaten der Kamera 1 berechnet. Mit dem Ergebnis dieser Rechnung ist der Blickwinkel 23 der Kamera 1 in seiner Größe und seiner Lage im Raum bestimmt. Durch Bildung einer Schnittmenge mit den Informationen über die Umgebung kann bestimmt werden, welche Objekte 21, 22 in welcher Ansicht als Bildinformationen 2 durch die Kamera 1 erfasst werden. Die Bildinformationen 2 werden von einer Bildverarbeitungseinheit 9 der Rechnereinheit 5 so aufbereitet, dass sie als zweidimensionales Abbild 13 der Objekte 21, 22 auf der Anzeigefläche 7 der Visualisierungseinrichtung darstellbar sind. Aufgrund der Berechnung der Ortskoordinaten 12 ist auch die Information verfügbar, an welcher Position auf der
Wiedergabefläche 7 das Abbild 13 der Bildinformationen 2 bzw. der Objekte 21, 22 wiedergegeben wird. In einem Speicher der Rechnereinheit 5 oder in externen Speichermitteln, auf welche die Rechnereinheit 5 Zugriff hat, sind die Anwenderinformationen 6 jeweils bestimmten Ortskoordinaten 12 zugeordnet . Erkennt die Bildverarbeitungseinheit 9 der Rechnereinheit 5, dass Bildinformationen 2 von Objekten 21, 22 mit diesen bestimmten Ortskoordinaten 12 von der Kamera 1 erfasst werden, dann blendet sie die entsprechenden Anwenderinformationen 6 zusammen mit dem Abbild 13 auf der Anzeigefläche 7 ein. Da die Position des Abbilds 13 der Objekte 21, 22 bekannt ist, kann auch die diesen über die Ortskoordinaten 12 zugeordnete Anwenderinformation 6 lagerichtig, z. B. in direkter Nähe des Abbilds 13 eingeblendet werden. Bei Bewegungen der Kamera 1 oder einer Verstellung der Zoomeinrichtung 3 ändern sich die Istwerte der Steuergrößen Raumvektor und Zoomfaktor kontinuierlich und entsprechend ändert sich auch der erfasste Ausschnitt der Umgebung. Durch zeitnahe Berechnung der Ortskoordinaten 12 ist die dadurch geänderte Position des Abbilds 13 auf der Anzeigefläche 7 ebenfalls berechenbar und die Anwenderinformationen 6 können weiter in der gleichen Lage relativ zum Abbild 13 eingeblendet werden, auch wenn sich damit ihre Position auf der Anzeigefläche verschiebt. Sind somit die Ortskoordinaten 12 den Anwenderinformationen 6 zugeordnet und sind die aktuelle Ausrichtung (Raumvektor) der Kamera 1, der aktuelle Zoomfaktor und - bei linearer Bewegung der Kamera 1 im Raum - die Raumkoordinaten der Kamera 1 (d. h. deren Platzierung im Raum) bekannt, so kann die Einblendung und die Platzierung der Anwende informationen 6 für die Overlay-Technik aktuell berechnet werden, so dass die Anwenderinformationen 6 zum aktuell sichtbaren Ortsausschnitt an der jeweils richtigen Stelle eingeblendet werden.
Die Anwenderinformationen 6 können dynamische oder statische Informationen oder eine Kombination davon sein. Dynamische Informationen sind beispielsweise Prozesswerte. Im Sichtfeld der Kamera 1 befindet sich im Ausführungsbeispiel eine Anlage bestehend aus einem Tank 21 und einem Ventil 22. An dem Tank
21 ist ein Temperatursensor 17 angebracht, und an dem Ventil
22 eine Messeinrichtung 18 für den Öffnungszustand. Die erfassten Prozesswerte Temperatur bzw. Ventilöffnung werden über die Prozessanbindung 20 an die Rechnereinheit 5 übertragen, wo sie dann als Anwenderinformationen 6 zur Verfügung stehen und positionsrichtig im Abbild der Objekte 21, 22 eingeblendet werden. Das dem Anwender angezeigte Abbild der Objekte 21, 22 wird somit mit den zusätzlich eingeblendeten Prozessgrößen mit Anwenderinformationen 6 angereichert . Der Anwender kann die Rechnereinheit 5 mit Eingabemitteln 14, 15 bedienen und hat außerdem die Möglichkeit mit Mitteln 11 zur Bedienung die Ausrichtung und den Zoomfaktor der Kamera 1 direkt vorzugeben.
FIG 2 zeigt ein weiteres Ausführungsbeispiel der Erfindung, bei welchem die Kamera 1 als Videokamera 27, die Rechnereinheit 5 als Personalcomputer 28 und die Visualisierungseinrichtung als Bildschirm 29 ausgebildet ist. Die Vorrichtung 4 zur dreidimensionalen Ausrichtung, auf der die Videokamera 27 befestigt ist, ist in diesem
Ausführungsbeispiel als Dreh- und Kippvorrichtung 30 ausgebildet. Die Freiheitsgrade der Videokamera 27 sind mit Pfeilen 31 angedeutet. Der Personalcomputer 28 hat über eine Kameraansteuerung die Möglichkeit, die steuerbare Videokamera 27 bezüglich Zoom und Position auszurichten. Die von der Videokamera aufgenommenen Bildinformationen werden als Videosignal 26 an den Personalcomputer 28 bzw. an eine in diesem enthaltene sogenannte Framegrabberkarte gegeben. Mit Hilfe der Framegrabberkarte und der entsprechenden Software ist es möglich, das Videobild der Videokamera 27 auf dem
Bildschirm 29 darzustellen. Die Dreh- und Kippeinrichtung 30 (Pan, Tilt) und die Zoomeinrichtung 3 der Videokamera 27 werden über eine RS232-Verbindung 24 mit einer seriellen Schnittstelle 25 des Personalcomputers 28 verbunden. Über ein entsprechendes Protokoll (VISCA) kann die Videokamera 27 per Software bewegt werden und können die resultierenden Blickwinkel ausgelesen werden. Die Videokamera 27 kann unabhängig vom Personalcomputer auch mit einer Fernsteuerung bewegt werden, die in FIG 2 nicht dargestellt ist. Da bei jedem auf dem Bildschirm 29 darzustellenden Videoframe die dazugehörigen Daten für Drehung, Kippung und Zoomfaktor aus der Videokamera 27 ausgelesen werden, ist es möglich die Anwenderinformation lagerichtig dynamisch einzublenden, und zwar unabhängig davon, ob die Videokamera 27 per Software oder per Fernbedienung bewegt wurde. Durch eine Abbildungsvorschrift lassen sich in das Videobild z. B. unterstützende Texte einblenden. Der besondere Vorteil des vorgeschlagenen Systems und Verfahrens liegt somit in der dynamischen Einblendung von Informationen in das Videobild unter Berücksichtigung des aktuell von der Videokamera 27 erfassten Bereichs. Dabei ändern die dynamischen Einblendungen ihre Position nicht gegenüber den auf dem
Videobild sichtbaren Objekten bei Bewegungen (Drehungen bzw. Neigungen, Zoomfaktor) der Videokamera 27. Nur im Rahmen der Linsenverzerrung der Videokamera 27 und der perspektivischen Verzerrung bewegen sich die dynamischen Einblendungen geringfügig gegenüber den sichtbaren Objekten.
FIG 3 bis FIG 5 zeigen jeweils die gleiche
Visualisierungseinrichtung 8 mit einer Anzeigefläche 7 bei unterschiedlichen Blickwinkeln einer Kamera 1 entsprechend FIG 1 in einem System entsprechend der Erfindung. Die auf der
Anzeigefläche 7 projizierte Aufnahme einer Kamera 1 zeigen eine Anordnung von Schaltschränken. Dabei ist an einem Schaltschrank am Öffnungshebel 19 ein ergänzender Text 16 ins angezeigte Bild eingeblendet. Bei FIG 4 hat sich der Blickwinkel durch Drehung der Kamera 1 leicht geändert. Bei
FIG 5 wurde auf den Schaltschrank hingezoomt und wiederum der Blickwinkel verschoben. In allen drei Figuren scheint der Text 16 an dem Öffnungshebel 19 "zu kleben", da in der Rechnereinheit 5 der Text 16 und das Videobild mit Hilfe einer Abbildungsvorschrift aus den Positionsdaten zu einem
Bild vereint werden. Dies ist möglich, da zu jedem Videobild auch die aktuellen Positions- und Zoomeinstellungen der Kamera 1 ausgelesen werden. Zusätzlich lassen sich in Abhängigkeit des Zooms mehr oder weniger Daten in das Bild einblenden. Vorstellbar ist z. B. dass in einer
Weitwinkelaufnahme nur einzelne Objekte benannt sind (z. B. Tankl, Schaltschrank2) . Zoomt man auf diese Elemente, könnten Detailinformationen dazu angezeigt werden, (z. B. Tankl: Füllstand 3 m) . Diese Daten würden aktuell aus einem Bedien- und Beobachtungssystem ausgelesen werden.
Zusammengefasst betrifft die Erfindung somit ein System sowie ein Verfahren zur Darstellung von Anwenderinformationen, bei welchem die gleichzeitige Darstellung von Anwenderinformationen und Bildinformationen einer Umgebung verbessert wird. Das System enthält eine Kamera 1 zur Erfassung von Bildinformationen 2 eines Ausschnitts einer Umgebung, wobei eine Zoomeinrichtung 3 zur Änderung der Größe des erfassten Ausschnitts entsprechend eines Zoomfaktors und/oder eine Vorrichtung 4 zur dreidimensionalen Ausrichtung der Kamera 1 entsprechend eines Raumvektors vorgesehen ist, eine Rechnereinheit 5 zur Berechnung von Ortskoordinaten 12 der Bildinformationen 2 anhand von Raumkoordinaten der Kamera 1 und/oder den Steuergrößen Zoomfaktor und Raumvektor, zur Zuordnung von Anwenderinformationen 6 zu den Ortskoordinaten 12 und zur Berechnung von Positionen von Abbildern 13 der Bildinformationen 2 auf einer Anzeigefläche 7 einer Visualisierungseinrichtung 8 und eine Bildverarbeitungseinheit 9 zur Aufbereitung der Bildinformationen 2 und der Anwenderinformationen 6 für eine Wiedergabe mit der Visualisierungseinrichtung 8 und für eine lagerichtige Einblendung der Anwenderinformationen 6 auf der Anzeigefläche 7 an den Positionen der Abbilder 13 der Bildinformationen 2 mit Ortskoordinaten 12, denen die jeweiligen Anwenderinformationen 6 zugeordnet sind.

Claims

Patentansprüche
1. System zur Darstellung von Anwenderinformationen
- mit einer Kamera (1) zur Erfassung von Bildinformationen (2) eines Ausschnitts einer Umgebung, wobei eine Zoomeinrichtung (3) zur Änderung der Größe des erfassten Ausschnitts entsprechend eines Zoomfaktors und/oder eine Vorrichtung (4) zur dreidimensionalen Ausrichtung der Kamera (1) entsprechend eines Raumvektors vorgesehen ist, - mit einer Rechnereinheit (5) zur Berechnung von Ortskoordinaten (12) der Bildinformationen (2) anhand von Raumkoordinaten der Kamera (1) und/oder den Steuergrößen Zoomfaktor und Raumvektor, - zur Zuordnung von Anwenderinformationen (6) zu den Ortskoordinaten (12) und zur Berechnung von Positionen von Abbildern (13) der Bildinformationen (2) auf einer Anzeigefläche (7) einer Visualisierungseinrichtung (8) und - mit einer Bildverarbeitungseinheit (9) zur Aufbereitung der Bildinformationen (2) und der Anwenderinformationen (6) für eine Wiedergabe mit der Visualisierungseinrichtung und für eine lagerichtige Einblendung der Anwenderinformationen (6) auf der Anzeigefläche (7) an den Positionen der Abbilder (13) der Bildinformationen (2) mit Ortskoordinaten (12) , denen die jeweiligen Anwenderinformationen (6) zugeordnet sind.
2. System nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t , dass die Rechnereinheit (5) eine Ansteuereinheit (10) zur Ansteuerung der Kamera (1) , der Zoomeinrichtung (3) und/oder der Vorrichtung (4) zur dreidimensionalen Ausrichtung der Kamera (1) entsprechend der Steuergrößen Zoomfaktor bzw. Raumvektor aufweist.
3. System nach Anspruch 1 oder 2 , d a d u r c h g e k e n n z e i c h n e t , dass die Bildverarbeitungseinheit (9) zur Auswahl und Einblendung der Anwenderinformationen (6) in Abhängigkeit des Zoomfaktors vorgesehen ist.
4. System nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , dass die Anwenderinformationen (6) als statische und dynamische Informationen ausgebildet sind.
5. System nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , dass die Kamera (1) als Videokamera und die Visualisierungseinrichtung (8) als Bildschirm ausgebildet ist .
6. System nach einem der Ansprüche 2 bis 5, d a d u r c h g e k e n n z e i c h n e t , dass die Ansteuereinheit (10) zur Ansteuerung der Kamera (1) , der Zoomeinrichtung (3) und/oder der Vorrichtung (4) zur dreidimensionalen Ausrichtung der Kamera (1) Mittel (11) zur Bedienung durch einen Anwender aufweist .
7. System nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , dass die Bildverarbeitungseinheit (9) zur Aufbereitung der Bildinformationen (2) und der Anwenderinformationen (6) zur Wiedergabe mit der Visualisierungseinrichtung (8) und zur lagerichtigen Einblendung der Anwenderinformationen (6) auf der Anzeigefläche (7) entsprechend einer Abbildungsvorschrift vorgesehen ist .
8. Verfahren zur Darstellung von Anwenderinformationen, bei welchem
- Bildinformationen (2) eines Ausschnitts einer Umgebung mit einer Kamera (1) erfasst werden, wobei mit einer Zoom- einrichtung (3) die Größe des erfassten Ausschnitts entsprechend eines Zoomfaktors änderbar ist und/oder die Kamera (1) mit einer Vorrichtung (4) entsprechend eines Raumvektors dreidimensional ausgerichtet wird, - eine Rechnereinheit (5)
Ortskoordinaten (12) der Bildinformationen (2) anhand von Raumkoordinaten der Kamera (1) und/oder den Steuergrößen Zoomfaktor und Raumvektor berechnet, Anwenderinformationen (6) den Ortskoordinaten (12) zuordnet und
Positionen von Abbildern (13) der Bildinformationen (2) auf einer Anzeigefläche (7) einer Visualisierungseinrichtung (8) berechnet und eine Bildverarbeitungseinheit (9) die Bildinformationen (2) und die Anwenderinformationen (6) für die Wiedergabe mit der Visualisierungseinrichtung (8) und für die lagerichtige Einblendung der Anwenderinformationen (6) auf der Anzeigefläche (7) an den Positionen der Abbilder (13) der Bildinformationen (2) mit Ortskoordinaten (12) , denen die jeweiligen Anwenderinformationen (6) zugeordnet sind, aufbereitet .
9. Verfahren nach Anspruch 8 , d a d u r c h g e k e n n z e i c h n e t , dass die Rechnereinheit (5) mit einer Ansteuereinheit (10) die Kamera (1) , die Zoomeinrichtung (3) und/oder die Vorrichtung (4) zur dreidimensionalen Ausrichtung der Kamera (1) entsprechend der Steuergrößen Zoomfaktor bzw. Raumvektor ansteuert .
10. Verfahren nach Anspruch 8 oder 9, d a d u r c h g e k e n n z e i c h n e t , dass die Bildverarbeitungseinheit (9) die Anwenderinformationen (6) in Abhängigkeit des Zoomfaktors auswählt und einblendet.
11. Verfahren nach einem der Ansprüche 8 bis 10, d a d u r c h g e k e n n z e i c h n e t , dass die Anwenderinformationen (6) als statische und dynamische Informationen ausgebildet sind.
12. Verfahren nach einem der Ansprüche 8 bis 11, d a d u r c h g e k e n n z e i c h n e t , dass die Kamera (1) als Videokamera und die Visualisierungseinrichtung (8) als Bildschirm ausgebildet ist.
13. Verfahren nach einem der Ansprüche 9 bis 12, d a d u r c h g e k e n n z e i c h n e t , dass die Kamera (1) , die Zoomeinrichtung (3) und/oder die Vorrichtung (4) zur dreidimensionalen Ausrichtung der Kamera
(1) von einem Anwender mit Mitteln (11) der Ansteuereinheit (10) bedienbar sind.
14. Verfahren nach einem der Ansprüche 8 bis 13, d a d u r c h g e k e n n z e i c h n e t , dass die Bildverarbeitungseinheit (9) die Bildinformationen
(2) und die Anwenderinformationen (6) zur Wiedergabe mit der Visualisierungseinrichtung (8) und zur lagerichtigen Einblendung der Anwenderinformationen (6) auf der Anzeigefläche (7) entsprechend einer Abbildungsvorschrift aufbereitet .
EP02754527A 2001-08-24 2002-08-12 Darstellung von anwenderinformationen Ceased EP1419483A2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10141521A DE10141521C1 (de) 2001-08-24 2001-08-24 Darstellung von Anwenderinformationen
DE10141521 2001-08-24
PCT/DE2002/002956 WO2003019474A2 (de) 2001-08-24 2002-08-12 Darstellung von anwenderinformationen

Publications (1)

Publication Number Publication Date
EP1419483A2 true EP1419483A2 (de) 2004-05-19

Family

ID=7696487

Family Applications (1)

Application Number Title Priority Date Filing Date
EP02754527A Ceased EP1419483A2 (de) 2001-08-24 2002-08-12 Darstellung von anwenderinformationen

Country Status (4)

Country Link
US (1) US20040227818A1 (de)
EP (1) EP1419483A2 (de)
DE (1) DE10141521C1 (de)
WO (1) WO2003019474A2 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10089534B2 (en) * 2016-12-16 2018-10-02 Adobe Systems Incorporated Extracting high quality images from a video

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19900884A1 (de) * 1999-01-12 2000-07-20 Siemens Ag System und Verfahren zum Bedienen und Beobachten eines Automatisierungssystems mit Prozeßvisualisierung und Prozeßsteuerung durch virtuelle Anlagenmodelle als Abbild einer realen Anlage

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
JP3179623B2 (ja) * 1992-04-29 2001-06-25 キヤノン インフォメーション システムズ リサーチ オーストラリア プロプライエタリー リミテツド ビデオムービー
US5488675A (en) * 1994-03-31 1996-01-30 David Sarnoff Research Center, Inc. Stabilizing estimate of location of target region inferred from tracked multiple landmark regions of a video image
DE19710727A1 (de) * 1997-03-14 1998-09-17 Sick Ag Überwachungseinrichtung
DE10005213A1 (de) * 2000-02-05 2001-08-16 Messer Griesheim Gmbh Überwachungssystem und Verfahren zum Fernüberwachen von Messgrößen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19900884A1 (de) * 1999-01-12 2000-07-20 Siemens Ag System und Verfahren zum Bedienen und Beobachten eines Automatisierungssystems mit Prozeßvisualisierung und Prozeßsteuerung durch virtuelle Anlagenmodelle als Abbild einer realen Anlage

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BEHRINGER R ET AL: "A novel interface for device diagnostics using speech recognition, augmented reality visualization, and 3D audio auralization", MULTIMEDIA COMPUTING AND SYSTEMS, 1999. IEEE INTERNATIONAL CONFERENCE ON FLORENCE, ITALY 7-11 JUNE 1999, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 1, 7 June 1999 (1999-06-07), pages 427 - 432, XP010342778, ISBN: 978-0-7695-0253-3, DOI: 10.1109/MMCS.1999.779240 *
KOSAKA A ET AL: "AUGMENTED REALITY SYSTEM FOR SURGICAL NAVIGATION USING ROBUST TARGET VISION", PROCEEDINGS 2000 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. CVPR 2000. HILTON HEAD ISLAND, SC, JUNE 13-15, 2000; [PROCEEDINGS OF THE IEEE COMPUTER CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION], LOS ALAMITOS, CA : IEEE COMP., 13 June 2000 (2000-06-13), pages 187 - 194, XP001035639, ISBN: 978-0-7803-6527-8 *
See also references of WO03019474A3 *
ZINSER K ED - INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS: "Integrated multi media and visualisation techniques for process S&C", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN AND CYBERNETICS. LE TOUQUET, OCT. 17 - 20, 1993; [PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN AND CYBERNETICS], NEW YORK, IEEE, US, vol. -, 17 October 1993 (1993-10-17), pages 367 - 372, XP010132025, ISBN: 978-0-7803-0911-1, DOI: 10.1109/ICSMC.1993.384772 *

Also Published As

Publication number Publication date
US20040227818A1 (en) 2004-11-18
WO2003019474A3 (de) 2003-08-28
DE10141521C1 (de) 2003-01-09
WO2003019474A2 (de) 2003-03-06

Similar Documents

Publication Publication Date Title
EP1141799B1 (de) System und verfahren zum bedienen und beobachten eines automatisierungssystems
DE69233439T2 (de) Überwachungsvorrichtung mit Steuerung der Kamera und der Linsenmontage
EP2196892B1 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen
DE69629144T2 (de) Verfahren und Vorrichtung zur Kamerakontrolle
DE60031059T2 (de) Videokamerabeobachtungssystem und Vorrichtung zur Anzeige von Bildern von dieser Videobeobachtungskamera
DE19836681A1 (de) Stereoskopisches Aufnahme- und Wiedergabesystem
DE102012004793B4 (de) Kraftfahrzeug mit einem elektronischen Rückspiegel
DE102012203491B4 (de) Elektronisches Rückspiegel-System
WO2005045729A1 (de) System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
DE19932217A1 (de) Steuervorrichtung
EP1638064A2 (de) Simulator für das Training von minimal-invasiven medizinischen Operationen
DE102006049981A1 (de) Bedienungshilfe für eine Vorrichtung zum Behandeln von Behältnissen
EP2822814A1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
DE102006051533A1 (de) Bedienungshilfe für eine Vorrichtung zum Behandeln von Behältnissen (II)
DE10246652B4 (de) Verfahren zum Betrieb eines Darstellungssystems in einem Fahrzeug
EP0804757A1 (de) Verfahren und anordnung zum darstellen von bildern aus einer bildgruppe
EP3418839B1 (de) Verfahren zur überwachung einer automatisierungsanlage
DE10141521C1 (de) Darstellung von Anwenderinformationen
DE102006060904B4 (de) Flughafenverkehrsinformations-Anzeigesystem
EP2898666B1 (de) Client-einrichtung zur darstellung von kamerabildern einer steuerbaren kamera, verfahren, computerprogramm sowie überwachungssystem mit der client-einrichtung
DE102005050350A1 (de) System und Verfahren zur Überwachung einer technischen Anlage sowie Datenbrille auf Basis eines solchen Systems
DE19811286C2 (de) Kamerabewegungssteuerung
EP1912431A2 (de) Verfahren und Vorrichtung zur Steuerung einer schwenkbaren Kamera
DE60103454T2 (de) Prozesssteuerungssystem und -verfahren
DE4138453A1 (de) Prozessbeobachtungssystem und fensteranzeigeverfahren hierfuer

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20031212

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LI LU MC NL PT SE SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK RO SI

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIEMENS AKTIENGESELLSCHAFT

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIEMENS AKTIENGESELLSCHAFT

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIEMENS AKTIENGESELLSCHAFT

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20170606