EP1347672B1 - System und Verfahren zur Bestrahlung eines Objektes - Google Patents

System und Verfahren zur Bestrahlung eines Objektes Download PDF

Info

Publication number
EP1347672B1
EP1347672B1 EP03090076A EP03090076A EP1347672B1 EP 1347672 B1 EP1347672 B1 EP 1347672B1 EP 03090076 A EP03090076 A EP 03090076A EP 03090076 A EP03090076 A EP 03090076A EP 1347672 B1 EP1347672 B1 EP 1347672B1
Authority
EP
European Patent Office
Prior art keywords
irradiation
moved object
person
irradiation pattern
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
EP03090076A
Other languages
English (en)
French (fr)
Other versions
EP1347672A1 (de
Inventor
André Bernhardt
Nils Krüger
Prof. Joachim Sauter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Finger Christa
Staubach Helmut
Original Assignee
Finger Christa
Staubach Helmut
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Finger Christa, Staubach Helmut filed Critical Finger Christa
Publication of EP1347672A1 publication Critical patent/EP1347672A1/de
Application granted granted Critical
Publication of EP1347672B1 publication Critical patent/EP1347672B1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]

Definitions

  • the invention relates to a system for irradiation according to claim 1, a use of the system according to claim 15 and a method for irradiation according to claim 17.
  • the task is an object, e.g. to be irradiated with electromagnetic or particle radiation. In many cases it depends on the accurate irradiation of the object, so that the environment of the object is not irradiated.
  • this task is performed by an irradiation source, e.g. a headlamp, solved, which is focused on the object and as little as possible illuminated by the environment.
  • an irradiation source e.g. a headlamp
  • the problem is when the object is moving, such as a moving person on a stage. In this case, it is necessary to know the source of radiation, i. the stage headlights, manual track, which is expensive. Also, an object can not be accurately irradiated by a stage headlight.
  • From US 5,203,339 is a method for representing in particular the internal structure of cloudy objects such as e.g. Cell tissues known.
  • the object is irradiated with one or more modulated or unmodulated light beams.
  • the representation of the interior of the tissue then takes place firstly on the basis of the rays which shine directly through the tissue and / or on the basis of the interferences which form a plurality of modulated light rays.
  • the system has at least one detection means, at least one computing means and at least one irradiation means which cooperate with one another.
  • the detection means is used to detect the spatial position, an identification mark and / or the spatial extent of the at least one moving object.
  • the computing means determines at least one irradiation pattern for the at least one moving object.
  • the irradiation means then serves to irradiate the at least one moving object with at least one irradiation pattern.
  • the at least one moving object can be irradiated in a flexible manner.
  • At least one detection means at least one computing means and / or at least one irradiation means react in real time to at least one moving object, special flexible applications, such as e.g. the lighting of plays are realized.
  • the irradiation means has at least one radiation source for electromagnetic radiation and / or particle radiation. If people are to be irradiated, it will be advantageous way Use light in the visible region of the spectrum and / or in the infrared range. The other types of radiation may however be advantageous for medical or industrial purposes.
  • the at least one irradiation pattern advantageously has regions with at least two different electromagnetic wavelengths, in particular in the visible region of the spectrum. This allows an object to be illuminated in multiple colors.
  • an object is guided on a predetermined spatial path and / or is remotely controlled, whereby information about the web and / or the remote control is detected by the computing means for determining the spatial position of the object.
  • the recognition means has a receiver for signals emitted by at least one object. It is also advantageous if the detection means has a transmitter for signals, in particular a laser tracker, ultrasound tracker and / or an optical tracker, wherein the signals are reflected by at least one object.
  • At least one detection means to a video camera, with which the objects are detected in an efficient manner.
  • At least one computing means has a means for detecting a silhouette of at least one object.
  • At least one computing means has a means for processing situations in which at least two objects at a time at least partially overlap seen from one spatial direction. This can be used to determine which irradiation pattern is used for which object.
  • At least one computing means has a means for generating a volume model (for example a voxel model) for determining the spatial extent of at least one object.
  • a volume model for example a voxel model
  • At least one computing means has a means for associating an identification mark for at least one object based on properties and / or the temporal behavior of the object.
  • the irradiation pattern is adapted precisely to the spatial extent of at least one object.
  • an irradiation pattern comprises video data, in particular live video data.
  • the object is also achieved by using the system according to claim 1 for the irradiation of at least one moving person on a stage with the at least one irradiation pattern. This makes it possible to find completely new forms of expression for plays or show performances.
  • the irradiation patterns are predetermined and / or are derived adaptively from the spatial position of at least one object.
  • the task is also performed by a method of irradiation solved at least one moving object, in particular a moving person.
  • Fig. 1 is shown in a schematic manner as object O, a person who is to be irradiated with the system E, B, R according to the invention.
  • the irradiation is to take place here, for example, with multicolored light which is emitted by a lighting means B.
  • This lighting means B is constructed in the manner of a projector for projections.
  • the person O is located in a room or outdoor area, wherein the spatial position P of the person O is described by a coordinate system.
  • a coordinate system In the present case, a Cartesian, three-dimensional coordinate system x, y, z is used. Basically, other coordinate systems are possible.
  • the person O has a spatial extent A, which can also be detected by points in the coordinate system x, y, z.
  • the spatial extent A is symbolized only at one point by a double arrow.
  • the spatial extent of A expressed as coordinates thus provides information on the three-dimensional shape of the person O.
  • the position P due to the spatial extent A of the person O, the position P as a spatial coordinate (x 1 y 1, z 1) must be calculated. For example, a center of gravity calculation or the calculation of a Extremal value (eg the highest point of the extension A) take place, which are then used as position P.
  • the person O has an identification mark I which makes the person O distinguishable from other persons in the room. This can e.g. done by an individualized transponder or a barcode. Also, an identification mark I can be given virtually by the computing means by e.g. various persons in the order of their appearance in a room with a continuous identification mark I are provided.
  • a recognition means E serves to detect the spatial position P, the spatial extent A and / or the identification mark I in real time. Basically, however, the capture can also be saved and played back at a later time. Also, the spatial position P, the spatial extent A and the identification mark I need not be detected simultaneously. Rather, it is possible to adapt the capture the respective circumstances.
  • the spatial position P, the spatial extent A and the identification mark I are to be detected simultaneously and continuously in real time.
  • a video camera as recognition means E scans the room, e.g. with a laser tracker or an ultrasound tracker and thus obtains information about the spatial position P and the spatial extent A of the person O.
  • the identification mark I is also detected with the video camera; Alternatively, this can be done by a laser or ultrasound tracker.
  • the spatial extent A can be determined in an efficient manner.
  • a volume model becomes the three-dimensional scanning result is evaluated so that the spatial contour is approximated by simply constructed shapes, eg cubes (voxel model).
  • optical overlaps of the person O with other persons O or objects can be resolved.
  • the calculation means R it is ascertained on the basis of the volume models which part of the person to be irradiated lies in front of another of the person from the point of view of an irradiation medium.
  • Movements of the person O are then approximated simply by movements of the relatively few cubes, which considerably reduces the computing time. This is shown in more detail in FIGS. 2a and 2b.
  • the person O is scanned once from several pages with the recognition means E, so that the spatial model can be determined.
  • the detection means E thus has several video cameras.
  • the computing means R on the basis of the heuristic that the head is usually the uppermost part of the person O, also recognize this when the person O sits. With the help of such stored data, the computing means R can automatically decide how an irradiation pattern M must look. For example, if the task is to always illuminate the head in a color, this task can be solved, regardless of whether the person is standing, running or sitting. Should the person resist O Expecting to be upside down, the calculator recognizes that the typical contour of a person no longer exists and therefore does not rely on the stored heuristics for the normal case.
  • signals of a transponder are evaluated as identification means I of the person O, wherein the transponder is connected to the person O.
  • a barcode is scanned as an identification mark I from the detection means E.
  • the recognition means E generates in real time a data record which gives information about the position, extent and identity of the person O.
  • This data record is transmitted to a PC as a computing means R, which evaluates this information.
  • the computing means R knows the projection surface of the person O relative to the irradiation system B. Also stored in the calculation means R, in which way an irradiation of the person to be made.
  • the person P is to be irradiated with a colored radiation pattern M having stripes.
  • the shape, i. the contour of the irradiation pattern M results from the projection surface of the person O. If the person O shows e.g. with its narrow side in the direction of the irradiation means B, the contour will be correspondingly narrow. In this case, a person O may e.g. be irradiated from different directions with different irradiation patterns M.
  • the computing means R can also be controlled in such a way that the irradiation pattern M results adaptively and accurately from the movements, for example as a function of the time spent in a certain spatial area.
  • the irradiation patterns M can but also be projected in the form of animations, video clips or live camera images.
  • the colored stripe pattern is projected as irradiation pattern of the irradiation agent B on the person O.
  • the radiation means B is understood here to include various light sources that can illuminate the person O from different angles. Since the recognition means E tracks movements of the person O, the irradiation means B can follow the person with the projection and illuminate the whole person O with the irradiation pattern B. The person O appears colored striped, wherever she is and what movements she performs. If the irradiation means B has fast driven lasers, e.g. Even very fine structures in the irradiation pattern M can be realized.
  • irradiation pattern M thus has information about the outline of the person to be irradiated. Furthermore, it is also determined by irradiation pattern M what should be displayed within the silhoutte (e.g., stripe pattern).
  • silhoutte e.g., stripe pattern
  • the irradiation pattern M can be flexibly adjusted by illuminating certain predeterminable areas of the person O differently. Also, the lighting can change over time, which is shown in Fig. 3a, 3b in more detail.
  • the system according to the invention has been illustrated here by means of a person O. Often you will want to irradiate several people at the same time.
  • the system then works completely analogously, the spatial dimensions A, the spatial positions P and the identification marks I for the plurality of persons O being detected.
  • the computing means R can decide on the basis of the identification marks I and the other information, in particular from the volume model or from predetermined information about the objects O, which projection surfaces the persons offer from a certain angle.
  • the irradiation agent B can recognize from this information that e.g. the front person in yellow, the back person is irradiated in green. Also, areas lying in the shadow of the objects O can be selectively irradiated.
  • the system according to the invention is represented here by the illumination of one or more persons.
  • inanimate objects O which may be in the room e.g. Moved on rails can be irradiated in a flexible manner using the system. These visual effects can be e.g. be used in show performances.
  • the irradiation of an object O can also be carried out with other electromagnetic beams and / or particle beams.
  • an irradiation with infrared radiation or radioactive particle radiation possible.
  • an object could be deliberately heated while moving spatially.
  • a room is shown in which there is a person O as an object.
  • the spatial extent of the person O itself is approximated by a series of cubes.
  • the largest spatial extent of the person is symbolized by a cuboid Q.
  • the position P of the person O in space is determined by the centroid of the cubes of the solid model.
  • Fig. 2b is the same scene as shown in Fig. 2a, only from a different angle.
  • Figs. 3a and 3b a use of the system according to the invention and the method according to the invention is shown, namely the flexible lighting of actors on a stage.
  • the detection means E, the computing means R and the irradiation means B are not shown here.
  • the recognition means E detects the spatial extent A of the persons, their position P and their identity.
  • the arithmetic means now assigns to each of the persons O 1 , O 2 , O 3 , O 4 an irradiation pattern M 1 , M 2 , M 3 , M 4 , for example belonging to a specific group (eg irradiation pattern as a uniform) or a specific one Mood symbolizes.
  • the characters O 1 , O 2 , O 3 , O 4 play a play and therefore move around the room.
  • the recognition means E keeps track of the persons in the room, wherein the computing means R and the irradiation means B always ensure that the persons O 1 , O 2 , O 3 , O 4 with the defined irradiation pattern M 1 , M 2 , M 3 , M 4 accurately illuminated.
  • the assignment of the irradiation patterns M 1 , M 2 , M 3 , M 4 changed.
  • a person O 4 changes their mood or their affiliation to a group and accepts the radiation pattern M 3 of another person. This makes clear to all observers that a change has taken place here.
  • irradiation pattern M per person O was assumed here.
  • the persons O are then assigned the positions and spatial dimensions.
  • Such changes of the irradiation patterns M may be e.g. also be triggered automatically when a person O. enters a certain area of the stage. It is also possible to generate the irradiation patterns M continuously by means of prestored data or on-the-fly calculated animations or live video data.
  • teaching according to the invention does not only extend to the illumination of theatrical scenes, but generally to the flexible illumination of objects, in particular moving objects. This can e.g. also be useful in industrial processes, if individual objects from a crowd should be highlighted by coloring. Also, applications for show performances or sporting events are conceivable.
  • the invention is not limited in its execution to the above-mentioned preferred embodiments. Rather, a number of variants are conceivable which make use of the system according to the invention, the use of the system and the method even in fundamentally different embodiments.

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Heating, Cooling, Or Curing Plastics Or The Like In General (AREA)

Description

  • Die Erfindung betrifft ein System zur Bestrahlung nach Anspruch 1, eine Verwendung des Systems nach Anspruch 15 und ein Verfahren zur Bestrahlung nach Anspruch 17.
  • Häufig besteht in der Technik die Aufgabe ein Objekt z.B. mit elektromagnetischer oder Teilchenstrahlung zu bestrahlen. Dabei kommt es in vielen Fällen auf die passgenaue Bestrahlung des Objektes an, so dass die Umgebung des Objektes nicht bestrahlt wird. In der Regel wird diese Aufgabe durch eine Bestrahlungsquelle, z.B. einen Scheinwerfer, gelöst, der auf das Objekt fokussiert ist und möglichst wenig von der Umgebung ausleuchtet. Problematisch ist es, wenn sich das Objekt bewegt, wie z.B. eine sich bewegende Person auf einer Bühne. In diesem Fall ist es notwendig, die Bestrahlungsquelle, d.h. den Bühnenscheinwerfer, manuell nachzuführen, was aufwendig ist. Auch kann ein Objekt durch einen Bühnenscheinwerfer nicht passgenau bestrahlt werden.
  • Aus der US 5,203,339 ist ein Verfahren zur Darstellung insbesondere der internen Struktur von trüben Objekten wie z.B. Zellgewebe bekannt. Hierfür wird das Objekt mit einem oder mehreren modulierten oder nicht modulierten Lichtstrahlen bestrahlt. Die Darstellung des Gewebeinneren erfolgt dann zum einen anhand der direkt durch das Gewebe hindurch scheinenden Strahlen und/oder anhand der Interferenzen, die mehrere modulierte Lichtstrahlen bilden.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein System, eine Verwendung für das System und ein Verfahren zu schaffen, mit dem bewegte Objekte effizient und passgenau bestrahlt werden können.
  • Diese Aufgabe wird erfindungsgemäß durch ein System mit den Merkmalen des Anspruchs 1 gelöst.
  • Dazu weist das System mindestens ein Erkennungsmittel, mindestens ein Rechenmittel und mindestens ein Bestrahlungsmittel auf, die miteinander zusammenarbeiten.
  • Das Erkennungsmittel dient der Erfassung der räumlichen Position, einer Identifikationsmarkierung und / oder der räumlichen Ausdehnung des mindestens einen bewegten Objektes.
  • Aus den dabei erfassten Informationen über das Objekt bestimmt das Rechenmittel mindestens ein Bestrahlungsmuster für das mindestens eine bewegte Objekt.
  • Das Bestrahlungsmittel dient dann zur Bestrahlung des mindestens einen bewegten Objektes mit mindestens einem Bestrahlungsmuster.
  • Durch die Informationen über das bewegte Objekt kann ein passgenaues, z.B. auch individualisierendes oder wechselndes Bestrahlungsmuster erzeugt werden. Damit kann das mindestens eine bewegte Objekt in flexibler Weise bestrahlt werden.
  • Wenn mindestens ein Erkennungsmittel, mindestens ein Rechenmittel und / oder mindestens ein Bestrahlungsmittel in Echtzeit auf mindestens ein bewegliches Objekt reagieren, können besondere flexible Anwendungen, wie z.B. die Beleuchtungen von Theaterstücken realisiert werden.
  • Dabei ist es vorteilhaft, wenn das Bestrahlungsmittel mindestens eine Strahlungsquelle für elektromagnetische Strahlung und / oder Teilchenstrahlung aufweist. Sollen Personen bestrahlt werden, so wird man vorteilhafter Weise Licht im sichtbaren Bereich des Spektrums und / oder im Infrarot-Bereich verwenden. Die anderen Strahlungsarten können aber für medizinische oder industrielle Zwecke vorteilhaft sein.
  • Mit Vorteil weist das mindestens eine Bestrahlungsmuster Bereiche mit mindestens zwei unterschiedlichen elektromagnetischen Wellenlängen, insbesondere im sichtbaren Bereich des Spektrums auf. Damit kann ein Objekt mehrfarbig beleuchtet werden.
  • Für eine Verringerung der Rechenzeit ist es vorteilhaft, wenn ein Objekt auf einer vorbestimmten räumlichen Bahn geführt wird und / oder ferngesteuert ist, wobei Informationen über die Bahn und / oder die Fernsteuerung vom Rechenmittel zur Bestimmung der räumlichen Position des Objektes erfasst werden.
  • Die Zuordnung eines Objektes wird vorteilhafterweise erleichtert, wenn das Erkennungsmittel einen Empfänger für von mindestens einem Objekt ausgestrahlte Signalen aufweist. Auch ist es vorteilhaft, wenn das Erkennungsmittel einen Sender für Signale, insbesondere einen Lasertracker, Ultraschalltracker und / oder einen optischen Tracker, aufweist, wobei die Signale von mindestens einem Objekt reflektiert werden.
  • Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung weist mindestens ein Erkennungsmittel eine Videokamera auf, mit der die Objekte in effizienter Weise erfassbar sind.
  • Vorteilhaft ist es, wenn mindestens ein Rechenmittel ein Mittel zur Erkennung einer Silhouette mindestens eines Objektes aufweist.
  • Für die Anwendung des erfindungsgemäßen Systems bei mehreren Objekten ist es vorteilhaft, wenn mindestens ein Rechenmittel ein Mittel zur Verarbeitung von Situationen aufweist, bei denen mindestens zwei Objekte sich zu einem Zeitpunkt zumindest teilweise aus einer Raumrichtung gesehen überdecken. Damit kann ermittelt werden, welches Bestrahlungsmuster für welches Objekt verwendet wird.
  • Vorteilhaft ist ferner, wenn mindestens ein Rechenmittel ein Mittel zur Generierung eines Volumenmodells (z.B. Voxel-Modell) zur Ermittlung der räumlichen Ausdehnung mindestens eines Objektes aufweist.
  • Für eine Individualisierung ist es vorteilhaft, wenn mindestens ein Rechenmittel ein Mittel zur Zuordnung einer Identifizierungsmarkierung für mindestens ein Objekt anhand von Eigenschaften und / oder dem zeitlichen Verhalten des Objektes aufweist.
  • Vorteilhaft ist ferner, wenn das Bestrahlungsmuster passgenau auf die räumliche Ausdehnung mindestens eines Objektes angepasst ist.
  • Besondere Effekte lassen sich erzielen, wenn ein Bestrahlungsmuster Videodaten, insbesondere Live-Videodaten aufweist.
  • Die Aufgabe wird auch durch eine Verwendung des Systems nach Anspruch 1 für die Bestrahlung von mindestens einer sich bewegenden Person auf einer Bühne mit dem mindestens einen Bestrahlungsmuster gelöst. Damit lassen sich völlig neue Ausdrucksformen für Theaterstücke oder Showdarbietungen finden.
  • Dabei ist es vorteilhaft, wenn die Bestrahlungsmuster vorgegeben sind und / oder sich adaptiv aus der räumlichen Position mindestens eines Objektes ableiten.
  • Die Aufgabe wird auch durch ein Verfahren zur Bestrahlung mindestens eines bewegten Objektes, insbesondere einer sich bewegenden Person gelöst.
  • Die Erfindung wird nachfolgend unter Bezugnahme auf die Figuren der Zeichnungen an mehreren Ausführungsbeispielen näher erläutert. Es zeigen:
  • Fig. 1
    eine schematische Darstellung einer Person in einem Raum, der mit dem erfindungsgemäßen System ausgestattet ist;
    Fig. 2a, b
    schematische Darstellungen betreffend die Erfassung der räumlichen Position und der räumlichen Ausdehnung einer Person;
    Fig. 3a,b
    schematische Darstellungen zweier Szenen aus einer Verwendung des erfindungsgemäßen Systems.
  • In Fig. 1 ist in schematischer Weise als Objekt O eine Person dargestellt, die mit dem erfindungsgemäßen System E, B, R bestrahlt werden soll. Die Bestrahlung soll hier beispielsweise mit mehrfarbigem Licht erfolgen, das von einem Beleuchtungsmittel B abgestrahlt wird. Dieses Beleuchtungsmittel B ist in der Art eines Beamers für Projektionen aufgebaut.
  • Die Person O befindet sich in einem Raum oder einem Freigelände, wobei die räumliche Position P der Person O durch ein Koordinatensystem beschreibbar ist. Im vorliegenden Fall wird ein kartesisches, dreidimensionales Koordinatensystem x, y, z verwendet. Grundsätzlich sind auch andere Koordinatensysteme möglich.
  • Die Person O weist eine räumliche Ausdehnung A aus, die ebenfalls durch Punkte im Koordinatensystem x, y, z erfassbar ist. In Fig. 1 ist die räumliche Ausdehnung A nur an einer Stelle durch einen Doppelpfeil symbolisiert. Die räumliche Ausdehnung A, als Koordinaten ausgedrückt, gibt somit Auskunft über die räumliche Form der Person O. Es sei angemerkt, dass aufgrund der räumlichen Ausdehnung A der Person O die Position P als eine räumliche Koordinate (x1, y1, z1) berechnet werden muss. Dazu kann z.B. eine Schwerpunktsberechnung oder die Berechnung eines Extremalwertes (z.B. der höchste Punkt der Ausdehnung A) erfolgen, die dann als Position P verwendet werden.
  • Des weiteren weist die Person O eine Identifkationsmarkierung I auf, die die Person O von anderen Personen im Raum unterscheidbar macht. Dies kann z.B. durch einen individualisierten Transponder oder einen Barcode geschehen. Auch kann eine Identifikationsmarkierung I virtuell durch das Rechenmittel vergeben werden, indem z.B. verschiedene Personen in der Reihenfolge ihres Auftretens in einem Raum mit einer fortlaufenden Identifizierungsmarkierung I versehen werden.
  • Ein Erkennungsmittel E dient dazu, die räumliche Position P, die räumliche Ausdehnung A und / oder die Identifizierungsmarkierung I in Echtzeit zu erfassen. Grundsätzlich kann die Erfassung aber auch gespeichert werden und zu einem späteren Zeitpunkt wiedergegeben werden. Auch müssen nicht die räumliche Position P, die räumliche Ausdehnung A und die Identifizierungsmarkierung I gleichzeitig erfasst werden. Vielmehr ist es möglich die Erfassung den jeweiligen Gegebenheiten anzupassen.
  • Im vorliegenden Beispiel sollen die räumliche Position P, die räumliche Ausdehnung A und die Identifizierungsmarkierung I gleichzeitig und laufend in Echtzeit erfasst werden. Dazu tastet eine Videokamera als Erkennungsmittel E den Raum ab, z.B. mit einem Lasertracker oder einem Ultraschalltracker und gewinnt so Informationen über die räumliche Position P und die räumliche Ausdehnung A der Person O. Die Identifizierungsmarkierung I wird dabei ebenfalls mit der Videokamera erfasst; alternativ kann dies durch einen Laser- oder Ultraschalltracker geschehen.
  • Durch ein Mittel zur Bildung eines Volumenmodells für mindestens eine Person O kann die räumliche Ausdehnung A in effizienter Weise bestimmt werden. Für ein Volumenmodell wird das dreidimensionale Abtastergebnis so ausgewertet, dass die räumliche Kontur durch einfach aufgebaute Formen, z.B. Würfel, approximiert wird (Voxel-Modell). Je kleiner die Würfel des Modells sind, so besser ist die Annäherung des Volumenmodells an die Realität. Durch die Verwendung eines Volumenmodells der Person O können optische Überschneidungen der Person O mit anderen Personen O oder Gegenständen aufgelöst werden. Im Rechenmittel R wird anhand der Volumenmodelle festgestellt, welcher Teil der zu bestrahlenden Person aus Sicht eines Bestrahlungmittels vor einem anderen der Person liegt. Somit existiert eine virtuelle Kamera, die im Unterschied zu einer realen Kamera über Tiefeninformationen verfügt.
  • Bewegungen der Person O werden dann einfach durch Bewegungen der relativ wenigen Würfel approximiert, was die Rechenzeit erheblich verringert. Dies ist in Fig. 2a und 2b näher dargestellt.
  • Angewandt auf das vorliegende Beispiel wird die Person O einmal von mehreren Seiten mit dem Erkennungsmittel E abgetastet, so dass das räumliche Modell ermittelt werden kann. Das Erkennungsmittel E weist somit mehrere Videokameras auf.
  • Wird diese Erkennung z.B. an einer sich bewegenden Person vorgenommen, so kann anhand im Rechenmittel R hinterlegter Daten typischer Ausdehnungen von Menschen eine Zuordnung von Körperteilen vorgenommen werden. So kann das Rechenmittel R anhand der Heuristik, dass der Kopf meist der oberste Teil der Person O ist, diesen auch erkennen, wenn die Person O sitzt. Mit Hilfe solcher hinterlegten Daten kann das Rechenmittel R automatisch entscheiden, in welcher Weise ein Bestrahlungsmuster M aussehen muss. Soll z.B. die Aufgabe darin bestehen, stets den Kopf in einer Farbe zu beleuchten, so kann diese Aufgabe gelöst werden, unabhängig, ob die Person steht, läuft oder sitzt. Sollte die Person O wider Erwarten auf dem Kopf stehen, so erkennt das Rechenmittel, dass die typische Kontur einer Person nicht mehr vorliegt und greift demnach nicht auf die gespeicherten Heuristiken für den Normalfall zurück.
  • Auch werden Signale eines Transponders als Identifizierungsmittel I der Person O ausgewertet, wobei der Transponder mit der Person O verbunden ist. Alternativ wird ein Barcode als Identifizierungsmarkierung I vom Erkennungsmittel E abgetastet. In jedem Fall erstellt das Erkennungsmittel E in Echtzeit einen Datensatz, der Informationen über die Position, Ausdehnung und Identität der Person O gibt.
  • Dieser Datensatz wird an einen PC als Rechenmittel R übertragen, der diese Informationen auswertet.
  • Aufgrund der Informationen kennt das Rechenmittel R die Projektionsfläche der Person O relativ zum Bestrahlungssystem B. Auch ist im Rechenmittel R gespeichert, in welcher Weise eine Bestrahlung der Person vorgenommen werden soll. Im vorliegenden Beispiel soll die Person P mit einem farbigen Bestrahlungsmuster M bestrahlt werden, das Streifen aufweist. Die Form, d.h. die Kontur, des Bestrahlungsmusters M ergibt sich dabei aus der Projektionsfläche der Person O. Zeigt die Person O z.B. mit ihrer Schmalseite in Richtung auf das Bestrahlungsmittel B, so wird die Kontur entsprechend schmal ausfallen. Dabei kann eine Person O z.B. auch aus verschiedenen Richtungen mit unterschiedlichen Bestrahlungsmustern M bestrahlt werden.
  • Alternativ kann das Rechenmittel R auch so gesteuert werden, dass sich das Bestrahlungsmuster M adaptiv und passgenau aus den Bewegungen ergibt, z.B. in Abhängigkeit vom Aufenthalt in einem bestimmten Raumbereich. Die Bestrahlungsmuster M können aber auch in Form von Animationen, Videoclips oder Live-Kamerabildern projiziert werden.
  • Im vorliegenden Fall wird das farbige Streifenmuster als Bestrahlungsmuster vom Bestrahlungsmittel B auf die Person O projiziert.
  • Dabei ist das Beotrahlungsmittel B hier so zu verstehen, dass es verschiedene Lichtquellen aufweist, die die Person O aus unterschiedlichen Winkeln beleuchten können. Da das Erkennungsmittel E Bewegungen der Person O verfolgt, kann das Bestrahlungsmittel B der Person mit der Projektion folgen und die gesamte Person O mit dem Beatrahlungsmuster B ausleuchten. Die Person O erscheint farbig gestreift, wo immer sie sich aufhält und welche Bewegungen sie ausführt. Wenn das Bestrahlungsmittel B schnell angesteuerte Laser aufweist, können z.B. auch sehr feine Strukturen im Bestrahlungsmuster M realisiert werden.
  • Als Bestrahlungsmuster M weist somit Informationen über den Umriss der zu bestrahlenden Person auf. Ferner wird aber auch durch Bestrahlungsmuster M festgelegt, was innerhalb der Silhoutte dargestellt werden soll (z.B. Streifenmuster).
  • Dabei kann das Bestrahlungsmuster M flexibel angepasst werden, indem bestimmte, vorbestimmbare Bereiche der Person O unterschiedlich beleuchtet werden. Auch kann sich die Beleuchtung mit der Zeit ändern, was in Fig. 3a, 3b näher dargestellt wird.
  • Aus Gründen der Einfachheit ist hier das erfindungsgemäße System anhand einer Person O dargestellt worden. Häufig wird man aber mehrere O Personen gleichzeitig bestrahlen wollen. Das System funktioniert dann völlig analog, wobei die räumlichen Ausdehnungen A, die räumlichen Positionen P und die Identifizierungsmarkierungen I für die Vielzahl der Personen O erfasst wird.
  • Dabei wird der Fall eintreten, dass sich zwei Personen O aus bestimmten Richtungen gesehen verdecken. Das Rechenmittel R kann anhand der Identifizierungsmarkierungen I und der anderen Informationen, insbesondere aus dem Volumenmodell oder aus vorgegebenen Informationen über die Objekte O, entscheiden, welche Projektionsflächen die Personen aus einem bestimmten Winkel bieten. Das Bestrahlungsmittel B kann aus diesen Informationen erkennen, dass z.B. die vordere Person in Gelb, die hintere Person in Grün bestrahlt wird. Auch können im Schatten der Objekte O liegende Bereiche gezielt bestrahlt werden.
  • Das erfindungsgemäße System wird hier anhand der Beleuchtung von einer oder mehreren Personen darstellt. Grundsätzlich können aber auch unbelebte Objekte O, die im Raum z.B. auf Schienen bewegt werden mit Hilfe des Systems in flexibler Weise bestrahlt werden. Diese visuellen Effekte können z.B. bei Showdarbietungen eingesetzt werden.
  • Wird ein Objekt O mit einer vorbestimmbaren Bewegung, z.B. wegen einer Schienenführung, erfasst, so vereinfacht sich die Berechnung des Bestrahlungsmusters M, da die räumliche Bewegung festgelegt ist. Gleiches gilt, falls das Objekt ferngesteuert wird, da die Steuersignale unmittelbar Eingang in die Steuerung des Beleuchtungsmittels B finden können.
  • In alternativen Ausführungsformen kann die Bestrahlung eines Objektes O auch mit anderen elektromagnetischen Strahlen und / oder Teilchenstrahlen vorgenommen werden. So ist für medizinische Anwendungen z.B. eine Bestrahlung mit InfrarotStrahlung oder radioaktiver Teilchenstrahlung möglich. Im ersteren Fall könnte ein Objekt gezielt erwärmt werden, während es sich räumlich bewegt.
  • In Fig. 2a ist ein Raum dargestellt in dem sich als Objekt eine Person O befindet. Die räumliche Ausdehnung der Person O selbst ist durch eine Reihe von Würfeln approximiert. Die größte räumliche Ausdehnung der Person wird durch einen Quader Q symbolisiert. Die Position P der Person O im Raum wird durch den Schwerpunkt der Würfel des Volumenmodells bestimmt.
  • Unter Umständen kann es ausreichen, die Position P nur in der Ebene zu bestimmen. Die Position der Höhe muss dann nicht bestimmt werden, da aufgrund des Volumenmodells ausreichend Informationen bereit stehen, um eine gezielte Bestrahlung, z.B. des Kopfes der Person O vorzunehmen. In Fig. 2b ist die gleiche Szene wie in Fig. 2a dargestellt, nur aus einem anderen Blickwinkel.
  • In den Fig. 3a und 3b wird eine Verwendung des erfindungsgemäßen Systems und des erfindungsgemäßen Verfahrens dargestellt, nämlich die flexible Beleuchtung von Schauspielern auf einer Bühne. Aus Gründen der Einfachheit sind hier das Erkennungsmittel E, das Rechenmittel R und das Bestrahlungsmittel B nicht dargestellt.
  • Vier Personen O1, O2, O3, O4 stehen auf einer Bühne. Das Erkennungsmittel E erfasst die räumliche Ausdehnung A der Personen, deren Position P und deren Identität. Das Rechenmittel ordnet nun jeder der Personen O1, O2, O3, O4 ein Bestrahlungsmuster M1, M2, M3, M4 zu, das z.B. die Zugehörigkeit zu einer bestimmten Gruppe (z.B. Bestrahlungsmuster als Uniform) oder eine bestimmte Stimmungslage symbolisiert. Die Personen O1, O2, O3, O4 spielen ein Theaterstück und bewegen sich daher im Raum. Das Erkennungsmittel E verfolgt dabei die Personen im Raum, wobei das Rechenmittel R und das Bestrahlungsmittel B stets dafür sorgen, dass die Personen O1, O2, O3, O4 mit dem festgelegten Bestrahlungsmuster M1, M2, M3, M4 passgenau beleuchtet werden.
  • Zu einem vorgegebenen Zeitpunkt oder durch einen manuellen Eingriff wird die Zuordnung der Bestrahlungsmuster M1, M2, M3, M4 geändert. Eine Person O4 wechselt z.B. ihre Stimmung oder ihre Zugehörigkeit zu einer Gruppe und nimmt das Bestrahlungsmuster M3 einer anderen Person an. Damit wird für alle Betrachter deutlich, dass hier eine Veränderung stattgefunden hat.
  • Aus Gründen der Einfachheit wurde hier von einem Bestrahlungsmuster M pro Person O ausgegangen. Allgemein werden für i>0 Personen O und j>0 Bestrahlungsmittel Mij Bestrahlungsmuster erzeugt. Den Personen O werden dann die Positionen und räumlichen Ausdehnungen zugeordnet.
  • Solche Änderungen der Bestrahlungsmuster M können z.B. auch automatisch ausgelöst werden, wenn eine Person O z.B. einen bestimmten Bereich der Bühne betritt. Auch ist es möglich, die Bestrahlungsmuster M kontinuierlich mittels vorgespeicherter Daten oder on-the-fly berechneter Animationen oder Live-Video-Daten zu erzeugen.
  • Die erfindungsgemäße Lehre erstreckt sich aber nicht nur auf die Beleuchtung von Theaterszenen, sondern generell auf die flexible Beleuchtung von Objekten, insbesondere bewegten Objekten. Dies kann z.B. auch bei industriellen Vorgängen sinnvoll sein, wenn einzelne Objekte aus einer Menge durch Farbgebung hervorgehoben werden sollen. Auch sind Anwendungen für Showdarbietungen oder bei Sportveranstaltungen denkbar.
  • Die Erfindung beschränkt sich in ihrer Ausführung nicht auf die vorstehend angegebenen bevorzugten Ausführungsbeispiele. Vielmehr ist eine Anzahl von Varianten denkbar, die von dem erfindungsgemäßen System, der Verwendung des Systems und dem Verfahren auch bei grundsätzlich anders gearteten Ausführungen Gebrauch machen.
  • Bezugszeichenliste
  • A
    Maß für die Ausdehnung eines Objektes
    B
    Bestrahlungsmittel
    E
    Erkennungsmittel
    I
    Identifikationsmarkierung
    M
    Bestrahlungsmuster
    O
    Objekt
    P
    Position des Objektes
    Q
    Quader
    R
    Rechenmittel
    x,y,z
    Koordinatensystem

Claims (17)

  1. System zur Bestrahlung der Oberfläche mindestens eines bewegten, räumlich ausgedehnten Objektes (O), insbesondere einer sich bewegenden Person, wobei das System mindestens ein
    a) Erkennungsmittel (E) für die räumliche Position (P), eine Identifikationsmarkierung (I) und / oder der räumlichen Ausdehnung (A) des mindestens einen bewegten Objektes (O),
    b) Rechenmittel (R) zur Erzeugung mindestens eines Bestrahlungsmusters (M) für das mindestens eine bewegte Objekt (O) in Abhängigkeit von der räumlichen Position (P), der räumlichen Ausdehnung (A) und / oder der Identifikationsmarkierung (I) des mindestens einen bewegten Objektes (O) und
    c) Bestrahlungsmittel (B) zur Bestrahlung der Oberfläche des mindestens einen bewegten Objektes (O) mit mindestens einem Bestrahlungsmuster (M) aufweist, und
    d) dass mittels der mit dem Erkennungsmittel (E) erfassten Informationen über das bewegte Objekt (O) das mindestens eine Bestrahlungsmuster (M) passgenau auf die räumliche Ausdehnung (A) des mindestens einen bewegten Objektes (O) angepasst ist und
    e) mindestens ein Bestrahlungsmittel (B) in Echtzeit auf das mindestens eine bewegte Objekt (O) reagiert.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass mindestens ein Bestrahlungsmittel (B) mindestens eine Strahlungsquelle für elektromagnetische Strahlung und / oder Teilchenstrahlung aufweist.
  3. System nach Anspruch 2, dadurch gekennzeichnet, dass mindestens ein Bestrahlungsmittel (B) mit mindestens einer Lichtquelle im sichtbaren Bereich des Spektrums und / oder eine Strahlungsquelle im Infrarot-Bereich aufweist.
  4. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das mindestens eine Bestrahlungsmuster (M) Bereiche mit mindestens zwei unterschiedlichen elektromagnetischen Wellenlängen, insbesondere im sichtbaren Bereich des Spektrums aufweist.
  5. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Objekt (O) auf einer vorbestimmten räumlichen Bahn geführt wird und / oder ferngesteuert ist, wobei Informationen über die Bahn und / oder die Fernsteuerung zur Bestimmung der Position vom Rechenmittel (R) erfasst werden.
  6. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Erkennungsmittel (E) und / oder mindestens ein Rechenmittel (R) in Echtzeit auf das mindestens eine bewegte Objekt (O) reagieren.
  7. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Erkennungsmittel (E) einen Empfänger für von mindestens einem Objekt (O) ausgestrahlte Signale aufweist.
  8. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Erkennungsmittel (E) einen Sender für Signale aufweist, insbesondere einen Lasertracker, Ultraschalltracker und / oder einen optischen Tracker, wobei die Signale von mindestens einem Objekt (O) reflektiert werden.
  9. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, das mindestens ein Erkennungsmittel (E) eine Videokamera aufweist.
  10. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Rechenmittel (R) ein Mittel zur Erkennung einer Silhouette mindestens eines Objektes (O) aufweist.
  11. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Rechenmittel (R) ein Mittel zur Verarbeitung von Situationen hat, bei denen mindestens zwei Objekte sich zu einem Zeitpunkt zumindest teilweise aus einer Raumrichtung gesehen überdecken.
  12. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Rechenmittel (R) ein Mittel zur Generierung eines Volumenmodells zur Ermittlung der räumlichen Ausdehnung (A) mindestens eines Objektes (O) aufweist.
  13. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Rechenmittel (R) ein Mittel zur Zuordnung einer Identifizierungsmarkierung (I) für mindestens ein Objekt (O) anhand von Eigenschaften und / oder dem zeitlichen Verhalten des Objektes aufweist.
  14. System nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Bestrahlungsmuster (M) Videodaten, insbesondere Live-Videodaten aufweist.
  15. Verwendung des Systems nach Anspruch 1 für die Bestrahlung von mindestens einer sich bewegenden Person (O) auf einer Bühne mit dem mindestens einen Bestrahlungsmuster (M).
  16. Verwendung nach Anspruch 15, dadurch gekennzeichnet, dass die Bestrahlungsmuster (M) vorgegeben sind und / oder sich adaptiv aus der räumlichen Position (P) mindestens einer sich bewegenden Person (O) ableiten.
  17. Verfahren zur Bestrahlung mindestens eines bewegten Objektes (O), insbesondere einer sich bewegenden Person, bei dem
    a) eine räumliche Position (P), die räumliche Ausdehnung (A) und / oder eine Identifizierungsmarkierung des mindestens einem bewegten Objektes (O) mit mindestens einem Erkennungsmittel (E) erfasst wird,
    b) mindestens ein Rechenmittel (R) mindestens ein Bestrahlungsmusters (M) erzeugt, wobei das mindestens eine Bestrahlungsmuster (M) für das mindestens eine sich bewegende Objekt (O) in Abhängigkeit von der räumlichen Position (P), der räumlichen Ausdehnung (A) und / oder der Identifizierungsmarkierung des mindestens einen bewegten Objektes (O) berechnet wird und
    c) das mindestens eine bewegte Objekt (O) mit dem mindestens einen Bestrahlungsmuster (M) durch mindestens ein Bestrahlungsmittel (B) bestrahlt wird, wobei
    d) mittels der mit dem Erkennungsmittel (E) erfassten Informationen über das bewegte Objekt das mindestens eine Bestrahlungsmuster (M) passgenau auf die räumliche Ausdehnung (A) des mindestens einen bewegten Objektes (O) angepasst ist und
    e) mindestens ein Bestrahlungsmittel (B) in Echtzeit auf das mindestens eine bewegte Objekt (O) reagiert.
EP03090076A 2002-03-22 2003-03-21 System und Verfahren zur Bestrahlung eines Objektes Expired - Lifetime EP1347672B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10214227A DE10214227A1 (de) 2002-03-22 2002-03-22 System zur Bestrahlung mindestens eines Objektes, Verwendung des Systems und Verfahren zur Bestrahlung mindestens eines Objektes
DE10214227 2002-03-22

Publications (2)

Publication Number Publication Date
EP1347672A1 EP1347672A1 (de) 2003-09-24
EP1347672B1 true EP1347672B1 (de) 2006-11-15

Family

ID=27771533

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03090076A Expired - Lifetime EP1347672B1 (de) 2002-03-22 2003-03-21 System und Verfahren zur Bestrahlung eines Objektes

Country Status (3)

Country Link
EP (1) EP1347672B1 (de)
AT (1) ATE345660T1 (de)
DE (2) DE10214227A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007057757B4 (de) * 2006-11-30 2013-09-19 Thomas Patzner System und Verfahren zum automatischen Ausrichten eines Beleuchtungsmittels oder einer optischen Aufnahmevorrichtung
DE102018002765A1 (de) 2018-04-04 2019-10-10 Zactrack Gmbh Beleuchtungssystem
US10935222B1 (en) 2020-04-06 2021-03-02 Robert Bosch Gmbh Human tracking to produce improved jobsite lighting

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5203339A (en) 1991-06-28 1993-04-20 The Government Of The United States Of America As Represented By The Secretary Of The Department Health And Human Services Method and apparatus for imaging a physical parameter in turbid media using diffuse waves
JPH06223201A (ja) * 1993-01-22 1994-08-12 Matsushita Electric Ind Co Ltd 並列画像生成装置
US5406176A (en) * 1994-01-12 1995-04-11 Aurora Robotics Limited Computer controlled stage lighting system
US5920476A (en) * 1996-11-21 1999-07-06 Hennessey; John M. Computer controlled movement of stage effects and stage installation employing same
CA2315302A1 (en) * 2000-07-13 2002-01-13 Paul A. Halmshaw Three dimensional imaging system

Also Published As

Publication number Publication date
EP1347672A1 (de) 2003-09-24
DE10214227A1 (de) 2003-10-02
DE50305661D1 (de) 2006-12-28
ATE345660T1 (de) 2006-12-15

Similar Documents

Publication Publication Date Title
DE102014013677B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
DE60034555T2 (de) System zur objekterkennung und -verfolgung
DE102014013678B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE102019206644B3 (de) Verfahren zum Betrieb einer Umgebungsbeleuchtungseinrichtung eines Kraftfahrzeugs und Kraftfahrzeug
DE69935437T2 (de) Visuelle vorrichtung
DE102008040947A1 (de) 3D-Dentalkamera zur Erfassung von Oberflächenstrukturen eines Messobjekts mittels Triangulation
EP3526963A1 (de) Objektüberwachung mit infrarotbildaufnahme und infrarotpulsbeleuchtung
DE102018208203B4 (de) Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers
EP1888382A1 (de) Verfahren und vorrichtung zur steuerung einer fahrzeugwaschanlage
DE19809210A1 (de) Verfahren und Vorrichtung zur Überwachung einer Szene
DE19680709C1 (de) Computergesteuertes Spielsystem
DE112014001727T5 (de) Vorrichtung und Verfahren für die Überwachung von bewegten Objekten in einem Erfassungsbereich
EP2865987A1 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
EP1347672B1 (de) System und Verfahren zur Bestrahlung eines Objektes
EP4291942A1 (de) Mikrolinsenarray-projektionsvorrichtung, beleuchtungsvorrichtung und fahrzeug
EP3715779A1 (de) Verfahren und vorrichtung zur bestimmung von verformungen an einem objekt
EP1241442A2 (de) Verfahren zur Bestimmung der Lage von Messbildern eines Objektes relativ zum Objekt
DE102015106837A1 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu
DE102020213059B4 (de) Verfahren zur Umfelderfassung, Erfassungseinrichtung und Kraftfahrzeug
DE112020006212T5 (de) Lichtleiterplatte, Anzeigevorrichtung, Eingabevorrichtung und elektrische Vorrichtung
EP3877778A1 (de) Vorrichtung und verfahren zur unterscheidung und zählung von personen und gegenständen
DE102022002766B4 (de) Verfahren zur dreidimensionalen Rekonstruktion einer Fahrzeugumgebung
DE102014113015B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung, umfassend einen Handscanner mit Tragestruktur
AT503756B1 (de) Verfahren und vorrichtung zur rechnergestützten bestimmung von position und orientierung mindestens eines beweglichen objekts
DE10203992A1 (de) Eingabeeinrichtung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

17P Request for examination filed

Effective date: 20040323

AKX Designation fees paid

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT;WARNING: LAPSES OF ITALIAN PATENTS WITH EFFECTIVE DATE BEFORE 2007 MAY HAVE OCCURRED AT ANY TIME BEFORE 2007. THE CORRECT EFFECTIVE DATE MAY BE DIFFERENT FROM THE ONE RECORDED.

Effective date: 20061115

Ref country code: IE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REF Corresponds to:

Ref document number: 50305661

Country of ref document: DE

Date of ref document: 20061228

Kind code of ref document: P

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20070215

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20070215

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20070215

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20070226

REG Reference to a national code

Ref country code: CH

Ref legal event code: NV

Representative=s name: E. BLUM & CO. AG PATENT- UND MARKENANWAELTE VSP

GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)

Effective date: 20070215

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20070416

NLV1 Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act
ET Fr: translation filed
REG Reference to a national code

Ref country code: IE

Ref legal event code: FD4D

REG Reference to a national code

Ref country code: CH

Ref legal event code: PK

Free format text: KORREKTUR DES VORNAMENS GEM. MITTEILUNG DES EPA

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

REG Reference to a national code

Ref country code: FR

Ref legal event code: RM

26N No opposition filed

Effective date: 20070817

BERE Be: lapsed

Owner name: FINGER, CHRISTA

Effective date: 20070331

Owner name: STAUBACH, HELMUT

Effective date: 20070331

Owner name: KRUGER, NILS

Effective date: 20070331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20070331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20070331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20070216

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20070321

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20070516

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20061115

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 13

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 14

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20160304

Year of fee payment: 14

Ref country code: CH

Payment date: 20160322

Year of fee payment: 14

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20160322

Year of fee payment: 14

Ref country code: GB

Payment date: 20160322

Year of fee payment: 14

Ref country code: AT

Payment date: 20160318

Year of fee payment: 14

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 50305661

Country of ref document: DE

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 345660

Country of ref document: AT

Kind code of ref document: T

Effective date: 20170321

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20170321

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

Effective date: 20171130

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170331

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170321

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171003

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170331

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170321

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170331