WO2009033491A1 - Vorrichtung und verfahren zur steuerung eines elektronischen apparates durch gesten, insbesondere von kopf und oberkörper - Google Patents

Vorrichtung und verfahren zur steuerung eines elektronischen apparates durch gesten, insbesondere von kopf und oberkörper Download PDF

Info

Publication number
WO2009033491A1
WO2009033491A1 PCT/EP2007/007778 EP2007007778W WO2009033491A1 WO 2009033491 A1 WO2009033491 A1 WO 2009033491A1 EP 2007007778 W EP2007007778 W EP 2007007778W WO 2009033491 A1 WO2009033491 A1 WO 2009033491A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
angle
elements
head
profile
Prior art date
Application number
PCT/EP2007/007778
Other languages
English (en)
French (fr)
Inventor
Holger Linde
Original Assignee
Holger Linde
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Holger Linde filed Critical Holger Linde
Priority to PCT/EP2007/007778 priority Critical patent/WO2009033491A1/de
Publication of WO2009033491A1 publication Critical patent/WO2009033491A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Definitions

  • Device and method for controlling an electronic apparatus by gestures in particular of the head and upper body.
  • head and upper body gestures of a human user provides an alternative to traditional man-machine interaction through the use of buttons, switches and special input devices via hands and feet.
  • Common solutions for detecting these gestures are based e.g. on a camera with downstream, complex image processing.
  • a device hereafter called a “tracker”, which allows the control of an electronic device by gestures, in particular of the head and upper part of the body, is proposed, comprising an infrared sensor, a processing unit and a communication unit According to the invention, a method is provided which is capable of detecting the movements of the user from the sensor signal.
  • the invention can be used for the control of any kind of electronic devices, for example for the interaction of advertising installations or for the operation of entertainment software on a PC.
  • a device for detecting the position and the orientation of the head can be realized for example with a camera.
  • the user's direct environment is scanned and the position and orientation are extracted from the image using suitable algorithms.
  • a near infrared radiation source e.g., an infrared light emitting diode
  • an imaging sensor e.g., a CCD image sensor
  • DE10058244A1 there is described a measuring method and apparatus for detecting the position of an object in front of a screen, which provides a line of infrared light sources and phototransistors.
  • the infrared transmitters successively emit pulses which are reflected by the user's head and detected by the receivers.
  • the invention allows the recognition of gestures in a passive manner, that is, it must be no components such as active signal emitter or reflectors worn by the user.
  • the wearing of such elements limits the use of corresponding existing devices to a small group of people, which is equipped with appropriate components. Furthermore, the wearing of the mentioned components is often perceived as a nuisance.
  • the invention is characterized in that it is independent of the current lighting situation.
  • camera-based systems are highly dependent on ambient light and also fail in very different lighting conditions within a shot scene.
  • a minimum brightness is required for reliable recording.
  • imaging camera-based solutions pose legal problems when used in public places.
  • the device according to the invention or the method according to the invention is in principle able to recognize the gestures of the user without an imaging sensor.
  • Another disadvantage of camera-based solutions is the relatively complex image processing that is required in order to obtain information about the position or movement of the user from the recorded image data.
  • This intensive computational effort requires powerful signal processing hardware.
  • this calculation is typically outsourced to the controlled electronic device, which is mostly an electronic computer.
  • this computer is unnecessarily burdened to the detriment of other applications, such as computational real-time virtual reality applications.
  • the invention is characterized by a comparatively low computation effort, so that calculations do not necessarily have to be outsourced to the controlled electronic device or expensive processing hardware has to be involved.
  • NIR near infrared
  • Corresponding devices for detecting the position and / or orientation of the head which are based on the use of magnetic fields, are highly susceptible to external interference by cathode ray tubes and loudspeakers and are thus subject to a complex calibration process.
  • the method used in the proposed device is based on the use of multiple sensor elements.
  • the advantage here is the fact that deviations of these sensor elements can be eliminated from an ideal value by a suitable calibration of the system.
  • Fig. 1 shows the basic structure of the device.
  • Fig. 3 and Fig. 6 illustrate the structure of the sensor used and its receiving characteristic.
  • Fig. 7 finally explains the presented measuring method.
  • FIG. 1 a and 1 b illustrate the invention in its embodiment as a human-machine interface, wherein the device according to the invention is mounted on a screen.
  • the user (1) leads with his body or parts of his body, eg the head, Gestures off, which are detected by the tracker (2) and trigger corresponding actions.
  • these actions relate to a change in the image content displayed on an electronic display (3).
  • other actions can be triggered. For example, it is possible to control the sound characteristics of an audio output depending on the head position.
  • the tracker is able to detect both movements and the position of the user in the x and z direction, with the x coordinate being a position to the right or left of the tracker with respect to the position and orientation of the tracker, and Coordinate indicates the distance from the tracker.
  • the corresponding gestures of the user are also shown in FIG. 1a (left-right movement) and FIG. 1b (forward-backward movement).
  • Fig. 2a shows the block diagram of the embodiment of a device according to the invention for controlling an electronic apparatus.
  • the device (tracker) (2) basically consists of a set of point sensors (4a) and a sensor data processing unit (8).
  • the signals of the point sensors are amplified by amplifiers (6), digitized by analog-to-digital converters (7) and finally fed to the sensor data processing unit (8).
  • the tracker (2) Via a communication device (9), the tracker (2) is connected to an electronic data processing device (10), which responds to the actions of the user who detects the tracker.
  • the actions triggered by the data processing device (10) are made accessible to the user via an electronic display (3).
  • the method which is carried out on the data processing unit and / or the controlled device, determines from the sensor data the thermal profile of the scene under consideration (see section "Operation of the system").
  • a multi-element detector (4b) which integrates a plurality of sensor elements in a component.
  • the outputs of the individual elements are selected via an analog multiplexer (5). Subsequently, again, the amplification (6) and the digitization (7).
  • FIG. 3 shows an embodiment of a point sensor (4a) (FIG. 3a) or two multi-element detectors (4b), firstly as a line sensor (FIG. 3b), and secondly as a matrix sensor (FIG. 3c).
  • sensors are thermopiles or bolometers, which in the former case consist of a single and in the second and third case of several individual elements (11).
  • the embodiment shown in FIG. 3b has 8, in FIG. 3c more than 25 sensor elements (11).
  • FIG. 6 shows the typical relative sensitivity curve d ( ⁇ ) of a single sensor element as a function of the angle of incidence of the radiation.
  • the arrangement of the individual elements in an ordered structure, such as in Fig. 3b, is advantageous, but not essential.
  • the said condition can also be met in an alternative manner, which makes a rotation of the individual sensor elements against each other superfluous.
  • the required difference in the sensor characteristics can also be achieved by optical measures such as lenses or diaphragms (masks).
  • FIG. 1 unites the individual sensor elements (in the form of a multi-element detector or individual point sensors) into a logical unit. This is to be expressed by the term individual arrangement. However, other designs are conceivable.
  • Fig. 4 provides the combination of two logical units which operate, for example, according to the principle of cross-bearing. Analogously, the term double arrangement is introduced.
  • the device may find use in non-stationary scenarios, such as in integration into a mobile handset (15) ( Figure 5). In this embodiment, the handset can be controlled either by head movements or by tilting movements of the device.
  • the individual sensor elements are arranged in a matrix instead of in the row as described above.
  • This can in turn be realized by individual sensors (4a) as well as an integrated multi-element sensor (4b) in matrix design.
  • Such an arrangement makes it possible to detect its j-position as well as detecting the x and z positions of the head.
  • the rows and columns of the sensor are evaluated separately, whereby heat profiles are determined both for the rows and for the columns. From these, therefore, the height of the head can be additionally determined.
  • This concept is again applicable to both a single arrangement and a double arrangement.
  • the inclination of the device in two directions with respect to the head of the viewer can be determined.
  • both the source intensity and the spatial extent in the ⁇ r direction (when using an array sensor in the v direction) of the head can be estimated on the basis of the calculated heat profile shapes. This usually does not depend on absolutely correct values. Instead, the changes in these values over time are more of interest. Thus, e.g. from the change in the extent of the head in the direction of ⁇ to a change in the distance between the sensor and the head are closed (in the case of a single arrangement).
  • This information can in turn be combined with known methods in order to improve the reliability of the position determination or simply to extract only directions of movement.
  • the system presented here is based on a method which makes it possible to scan a line (ie a line-shaped section) of a defined environment and to create an intensity profile of the recorded radiation power for the scanned area.
  • the device (2) is directed to a human user (1).
  • the considered line (12) of the environment is limited to the detection area (13).
  • the opening angle of this range depends on the optical properties of the sensor.
  • the system does not have any moving components such as rotatable mirrors commonly used in laser scanners. The procedure works passively. That is, it has no active components that emit signals, but only absorbs heat radiation. This happens with thermal sensors like for example, thermopiles or bolometers.
  • the recorded line profile (14) is therefore a warmer profile.
  • the row profile is referred to below as b ( ⁇ ).
  • the angle at which the profile becomes maximum corresponds to the heat center of gravity of the head. The following describes the calculation of this angle, which is a measure of the movement along the x-axis.
  • the system exploits the angular dependence of the sensitivity characteristic of the sensor elements shown in FIG. Depending on the type of component, the sensitivity drops rapidly from the central axis. While it is often attempted by technical means to eliminate this angular dependence, the method presented here exploits precisely this property in order to extract directional information from the incident signal. The exact course of the reception characteristic is of secondary importance.
  • the tracker (2) has a number of L sensor elements (L ⁇ 1) arranged in one line.
  • the distance between two adjacent elements is very small compared to the minimum distance between the sensor elements and a person to be detected. All L sensor elements are aligned twisted against each other, with no two elements pointing in the same direction. This means that the maximum sensitivity of one sensor element lies in a different direction than that of any other sensor element.
  • adjacent sensors are rotated at a constant angle to each other.
  • the orientation of the sensor elements can be done in various ways. On the one hand, each element itself can be rotated in a certain direction, on the other hand it is possible to arrange the sensor elements side by side in a plane and the different alignment by means of a common optics, e.g.
  • the objective of the method is to reconstruct the intensity profile of the scene scanned by the sensor.
  • This reconstruction of the line profile is divided into two steps. First, with the help of Sensor readings and a set of parameters determined during system calibration calculates a set of virtual samples of the profile. Thereafter, based on the virtual samples, the actual approximate course of the line profile can be determined. Finally, the maximum value of the reconstructed line profile indicates the angle of the radiation source, ie of the user.
  • the shape of the line profile in particular the width of the curve below the maximum value, allows the calculation of the user's distance from the tracker.
  • The individual sensitivity behavior of a single sensor element / is referred ⁇ below with d ⁇ ( ⁇ ), where / is the index of a sensor element and 1 ⁇ / ⁇ L, ⁇ is the angle spanned by two lines emanating from the device and once the middle of the row under consideration and once any other point on the line (see also Fig. 7b).
  • the calculation method is based on the fact that with the aid of the sensitivity curves of the individual sensor elements d ⁇ ( ⁇ ) the sensitivity curve ho ( ⁇ - i • ⁇ r) of a virtual, pivotable sensor is simulated in a very finely graduated manner.
  • I ⁇ ⁇ r denotes the rotation of the virtual sensitivity curve
  • ⁇ r is on constant angle step with ⁇ f ov> ⁇ r> 0, where ⁇ F ov indicates the half detection range (13) of the device (see Fig. 7b).
  • This minimization problem can be directly transformed into a linear system of equations, so that for each / a corresponding set of L parameters ⁇ f can be determined.
  • the curves of the sensitivity functions d [( ⁇ ) do not have to be shift-symmetric. Rather, any variations of the minimization method are taken into account.
  • the approximation of h, (j ⁇ ⁇ r) to the shifted virtual sensitivity characteristic AoO " ⁇ r - i • ⁇ r" does not necessarily have to be done using the method of least squares, as shown in equation (2), but other common approximation methods are also used.
  • a consideration of the initially continuously assumed virtual sensitivity curve h o ( ⁇ ) in discrete angular steps is necessary.
  • the position of the head and upper body of the observed user can now be determined by determining the index of the element of s which indicates the maximum value of the sequence s. If this element is indexed with t ' rnax, then the direction ⁇ ma.x of the maximum, as seen from the tracker, also results
  • the described method can also be applied to the y-axis to determine the height of the head, provided that a matrix sensor is used as described above.
  • the user's distance (z-axis) from the tracker may be e.g. be determined by the absolute value of the maximum of the sequence s. Similarly, the width of the reconstructed curve immediately below the maximum determined can give information about the distance.

Abstract

Mit einer Vorrichtung, einem System und einem Verfahren zur Steuerung eines elektronischen Gerätes (10) mit Hilfe von Bewegung und Gesten eines menschlichen Benutzers (1), insbesondere von Kopf und Oberkörper, soll eine Lösung geschaffen werden, die deutlich einfacher, kostengünstiger und bessere Ergebnisse liefernd ist, als die bekannten Steuereinrichtungen. Dies wird dadurch erreicht, dass mehrere Infrarotpunktsensoren (4a) bzw. ein integrierter Infrarotmultielementdetektor (4b), bestehend aus mehreren Sensorelementen (11), wobei die Sensoren wahlweise als Thermosäulen oder Bolometer ausgeführt sind, Verwendung finden und die Sensorelemente (11) derart gestaltet sind, dass keine zwei Elemente dasselbe Sensitivitätsprofil über den gesamten Erfassungsbereich der Vorrichtung besitzen.

Description

1. Bezeichnung
Vorrichtung und Verfahren zur Steuerung eines elektronischen Apparates durch Gesten, insbesondere von Kopf und Oberkörper.
2. Kurzfassung
2.1. Technisches Problem der Erfindung
Die Erkennung von Gesten von Kopf und Oberkörper eines menschlichen Benutzers ermöglicht eine Alternative zur traditionellen Mensch-Maschine-Interaktion durch die Bedienung von Tastern, Schaltern und speziellen Eingabegeräten mittels Händen und Füßen. Gängige Lösungen zur Erfassung dieser Gesten basieren z.B. auf einer Kamera mit nachgeschalteter, aufwendiger Bildverarbeitung.
2.2. Lösung des Problems bzw. der technischen Aufgabe
Es wird eine Vorrichtung, im Folgenden „Tracker" genannt, die die Steuerung eines elektronischen Gerätes durch Gesten, insbesondere von Kopf und Oberkörper, erlaubt, vorgeschlagen. Diese umfaßt einen Infrarotsensor, eine Verarbeitungs- sowie eine Kommunikationseinheit. Der Sensor erfaßt die vom Menschen auf natürliche Weise abgegebene Wärmestrahlung. Erfindungsgemäß ist ein Verfahren vorgesehen, welches vermag, aus dem Sensorsignal die ausgeführten Bewegungen des Benutzers zu erfassen.
2.3. Anwendungsgebiet
Die Erfindung läßt sich für die Steuerung jeglicher Art elektronischer Geräte verwenden, z.B. zur Interaktion von Werbeinstallationen oder zur Bedienung von Unterhaltungssoftware auf einem PC.
1. Stand der Technik
Eine Vorrichtung zum Erfassen der Position und der Orientierung des Kopfes läßt sich beispielsweise mit einer Kamera realisieren. Dazu wird die direkte Umgebung des Benutzers bildlich abgetastet und die Position und Orientierung mit geeigneten Algorithmen aus dem Bild extrahiert.
Ein weiteres gängiges Verfahren, um die Position und Orientierung des Kopfes zu erfassen, verwendet eine Strahlungsquelle im nahen Infrarotbereich (z.B. eine Infrarotleuchtdiode), mit dem die beobachtete Szene bestrahlt wird. Ein Teil der emittierten Strahlung wird durch Reflektoren, die am Kopf des Benutzers angebracht sind, reflektiert, und von einem bildgebenden Sensor (z.B. ein CCD-Bildsensor) aufgenommen. Anhand der Position, Größe und Form der erfassten Reflektoren kann dann die Position und Orientierung des Kopfes bestimmt werden.
In DE10058244A1 wird ein Meßverfahren und eine Vorrichtung zur Ermittlung der Position eines Objektes vor einem Bildschirm beschrieben, welche(s) eine Zeile von Infrarotlichtquellen und Fototransistoren vorsieht. Die Infrarottransmitter senden aufeinanderfolgend Pulse aus, welche vom Kopf des Benutzers reflektiert und durch die Empfänger detektiert werden.
In US 5373857 A ist eine ähnliche Vorrichtung beschrieben, die die Orientierung des Kopfes über Magnetsensoren zu bestimmen vermag, wobei die Sensoren, die am Kopf getragen werden, die Neigung des Kopfes gegenüber dem Erdmagnetfeld erfassen. Die in JP2002081904A beschriebene Anordnung beruht auf einem ähnlichen Prinzip, jedoch wird hier ein magnetisches Wechselfeld auf künstliche Weise erzeugt.
2. Vorteile der Erfindung
Die Erfindung erlaubt das Erkennen von Gesten auf passive Weise, d.h., es müssen keinerlei Komponenten wie aktive Signalemitter oder Reflektoren vom Benutzer getragen werden. Das Tragen solcher Elemente begrenzt den Einsatz entsprechender existierender Geräte auf einen kleinen Personenkreis, welcher mit entsprechenden Komponenten ausgestattet ist. Ferner wird das Tragen der erwähnten Komponenten oft als lästig empfunden.
Ein weiterer Nachteil, den das Tragen von aktiven oder passiven Komponenten durch den Benutzer nach sich zieht, ist die Tatsache, daß eine regelmäßige Kalibrierung entsprechender Systeme erforderlich ist. Beispielsweise ist beim Tragen von Reflektoren am Kopf häufig nicht sichergestellt, daß beim Ab- und Wiederaufsetzen entsprechender Tragevorrichtungen der Reflektor stets dieselbe Ausrichtung und Position am Kopf erhält. Da bei der vorgestellten Erfindung keinerlei Komponenten getragen werden müssen, sinkt der Kalibrierungsaufwand in erheblichem Maße.
Darüberhinaus zeichnet sich die Erfindung dadurch aus, daß sie unabhängig von der momentanen Beleuchtungssituation ist. Im Gegensatz dazu sind kamerabasierte Systeme stark vom Umgebungslicht abhängig und versagen zudem bei stark unterschiedlichen Lichtverhältnissen innerhalb einer aufgenommenen Szene. Ebenso ist eine Mindesthelligkeit für eine zuverlässige Aufnahme erforderlich. Außerdem werfen bildgebende kamerabasierte Lösungen rechtliche Probleme beim Einsatz an öffentlichen Orten auf. Schließlich ist auch im privaten Umfeld eine Beobachtung durch ein Kamerasystem von den Nutzern oft nicht gewünscht. Die erfindungsgemäße Vorrichtung bzw. das erfindungsgemäße Verfahren ist prinzipbedingt in der Lage, die Gesten des Benutzers ohne einen bildgebenden Sensor zu erkennen.
Ein weiterer Nachteil von kamerabasierten Lösungen ist die relativ aufwendige Bildverarbeitung, die erforderlich ist, um aus den aufgenommenen Bildaten Informationen über die Position oder Bewegung des Benutzers zu gewinnen. Dieser intensive Rechenaufwand erfordert eine leistungsfähige Signalverarbeitungshardware. In bestehenden Implementierungen wird diese Berechnung typischerweise auf das gesteuerte elektronische Gerät ausgelagert, welches zumeist ein elektronischer Rechner ist. Dadurch wird dieser Rechner unnötigerweise zu Ungunsten anderer Applikationen, wie etwa recheniHtensiven Echtzeitanwendungen im Bereich der virtuellen Realität, belastet. Die Erfindung dagegen zeichnet sich durch einen vergleichsweise geringen Rechenaufwand aus, so daß nicht notwendigerweise Berechnungen auf das gesteuerte elektronische Gerät ausgelagert werden müssen oder kostspielige Verarbeitungshardware hinzugezogen werden muß.
Existierende optische Lösungen auf Basis modulierter Infrarotsignale im nahen Infrarotbereich (NIR) sind anfällig für Störungen durch Infrarotkommunikationssysteme, wie Fernbedienungen oder schnurlose Infrarotkopfhörer. In gleichem Umfange stören oder verhindern sie die einwandfreie Funktion dieser Kommunikationssysteme. Die hier genutzte natürliche Wärmestrahlung, die vom Kopf und Oberkörper des Benutzers abgegeben wird, ist langwelliger. Die oben genannten Störquellen beeinträchtigen die eingesetzten Sensoren daher nicht.
Entsprechende Vorrichtungen zur Erfassung von Position und/oder Orientierung des Kopfes, die auf dem Einsatz von Magnetfeldern basieren, sind stark anfällig gegen externe Störungen durch Kathodenstrahlröhren und Lautsprecher und unterliegen damit einem aufwendigen Kalibrierprozeß.
Das in der vorgeschlagenen Vorrichtung verwendete Verfahren beruht auf dem Einsatz mehrerer Sensorelemente. Vorteilhaft ist dabei die Tatsache, daß Abweichungen dieser Sensorelemente von einem Idealwert durch eine geeignete Kalibrierung des Systems eliminiert werden können.
3. Ausführungsbeispiel
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigen Fig. 1, Fig. 4 sowie Fig. 5 typische Anwendungen der Erfindung. Fig. 2 zeigt den prinzipiellen Aufbau der Vorrichtung. Fig. 3 und Fig. 6 illustrieren den Aufbau des verwendeten Sensors sowie dessen Empfangscharakteristik. Fig. 7 schließlich erläutert das vorgestellte Meßverfahren.
Fig. Ia und Fig. Ib stellen die Erfindung in ihrer Ausführung als Mensch-Maschine-Schnittstelle, wobei die erfindungsgemäße Vorrichtung auf einem Bildschirm befestigt ist, dar. Der Benutzer (1) führt mit seinem Körper oder Teilen seines Körpers, z.B. dem Kopf, Gesten aus, welche vom Tracker (2) erfaßt werden und entsprechende Aktionen auslösen. In der hier dargestellten Ausführung betreffen diese Aktionen eine Veränderung des auf einer elektronischen Anzeige (3) dargestellten Bildinhaltes. Es können aber auch andere Aktionen ausgelöst werden. So ist es etwa möglich, abhängig von der Kopfposition die Klangeigenschaften einer Audioausgabe zu steuern. Erfindungsgemäß vermag der Tracker, sowohl Bewegungen als auch die Position des Benutzers in x- als auch z-Richtung zu erfassen, wobei in Bezug auf die Position und Orientierung des Trackers die x- Koordinate eine Position rechts oder links vom Tracker, und die z-Koordinate die Entfernung vom Tracker angibt. Die entsprechenden Gesten des Benutzers sind ebenfalls in Fig. Ia (Links-Rechts-Bewegung) und Fig. Ib (Vor-Zurück-Bewegung) dargestellt.
Fig. 2a zeigt das Blockschaltbild des Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung zur Steuerung eines elektronischen Apparates. Die Vorrichtung (Tracker) (2) besteht im Kern aus einem Satz von Punktsensoren (4a) und einer Sensordatenverarbeitungseinheit (8). Die Signale der Punktsensoren werden durch Verstärker (6) verstärkt, durch Analog-Digital-Wandler (7) digitalisiert und schließlich der Sensordatenverarbeitungseinheit (8) zugeführt. Über eine Kommunikationsvorrichtung (9) ist der Tracker (2) mit einem elektronischen Datenverarbeitungsgerät (10) verbunden, welches auf die Aktionen des Benutzers, die der Tracker erfaßt, reagiert. Die vom Datenverarbeitungsgerät (10) ausgelösten Aktionen werden dem Benutzer über eine elektronische Anzeige (3) zugänglich gemacht. Das Verfahren, welches auf der Datenverarbeitungseinheit und/oder dem gesteuerten Gerät ausgeführt wird, ermittelt aus den Sensordaten das Wärmeprofil der betrachteten Szene (vgl. Abschnitt „Arbeitsweise des Systems").
Die in Fig. 2b dargestellte Variante unterscheidet sich von dem in Fig. 2a gezeigten Aufbau insofern, daß statt des Satzes von Punktsensoren ein Multielementdetektor (4b) zum Einsatz kommt, der mehrere Sensorelemente in einem Bauelement integriert. Die Ausgänge der einzelnen Elemente werden über einen Analogmultiplexer (5) selektiert. Anschließend erfolgt wiederum die Verstärkung (6) und die Digitalisierung (7).
Fig. 3 zeigt eine Ausführung eines Punktsensors (4a) (Fig. 3a) bzw. zweier Multielementdetektoren (4b), zum einen als Zeilensensor (Fig. 3b), zum anderen als Matrixsensor (Fig. 3c). Erfindungsgemäß handelt es sich bei diesen Sensoren um Thermosäulen oder Bolometer, welche im ersteren Fall aus einem einzelnen und im zweiten und dritten Fall aus mehreren Einzelelementen (11) bestehen. Die in Fig. 3b dargestellte Ausführung verfügt über 8, die in Fig. 3c über 25 Sensorelemente (11).
In Fig. 6 ist der typische relative Sensitivitätsverlauf d(φ) eines einzelnen Sensorelements in Abhängigkeit vom Einfallswinkel der Strahlung dargestellt. Die Anordnung der Einzelelemente in einer geordneten Struktur, wie etwa in Fig. 3b, ist vorteilhaft, jedoch nicht zwingend erforderlich. Ebensowenig ist eine identische Kennlinie der einzelnen Sensorelemente erforderlich. Unbedingte Voraussetzung ist lediglich ein unterschiedlicher Verlauf der Sensitivitätskennlinien der verschiedenen Elemente über den gesammten Erfassungsbereich des Sensors gesehen. Dies kann z.B. durch eine Drehung der Sensorelemente erfolgen, so dass jedes Sensorelement in eine andere Richtung ausgerichtet ist und demnach einen anderen Teil der betrachteten Szene abdeckt. Die genannte Voraussetzung kann jedoch auch auf alternative Weise erfüllt werden, die eine Verdrehung der einzelnen Sensorelemente gegeneinander überflüssig macht. Der geforderte Unterschied der Sensorkennlinien kann auch durch optische Maßnahmen wie Linsen oder Blenden (Masken) erfolgen.
Der in Fig. 1 dargestellte Aufbau vereinigt die einzelnen Sensorelemente (in Form eines Multielementdetektors oder einzelner Punktsensoren) zu einer logischen Einheit. Dies soll durch den Begriff Einzelanordnung ausgedrückt werden. Es sind jedoch auch andere Ausführungen denkbar. Fig. 4 sieht die Kombination zweier logischer Einheiten vor, welche beispielsweise nach dem Prinzip der Kreuzpeilung operieren. Analog wird die Bezeichnung Doppelanordnung eingeführt. Darüberhinaus kann die Vorrichtung in nicht stationären Szenarien Verwendung finden, wie etwa bei der Integration in ein mobiles Handgerät (15) (Fig. 5). Bei dieser Ausführung kann das Handgerät entweder durch Kopfbewegungen oder durch Neigebewegungen des Geräts gesteuert werden.
In einer weiteren alternativen Ausführung werden die einzelnen Sensorelemente statt in der Zeile wie oben beschrieben in einer Matrix angeordnet. Dies kann wiederum durch Einzelsensoren (4a) wie auch einen integrierten Multielementsensor (4b) in Matrixbauform realisiert werden. Eine solche Anordnung erlaubt es, neben einer Erfassung der x- und z-Position des Kopfes ebenso seine j-Position zu erkennen. Hierbei werden die Zeilen und Spalten des Sensors separat ausgewertet, wobei sowohl für die Zeilen als auch für die Spalten Wärmeprofile ermittelt werden. Aus diesen läßt sich also zusätzlich die Höhe des Kopfes ermitteln. Dieses Konzept ist wiederum sowohl auf eine Einzelanordnung wie auch eine Doppelanordnung anwendbar. Zudem kann bei einer Integration des Ansatzes in einem mobilen Handgerät bei Matrixanordnung der Sensorelemente die Neigung des Gerätes in zwei Richtungen in Bezug auf den Kopf des Betrachters ermittelt werden.
Neben der Bestimmung der Position des Kopfes der Person lassen sich auch weitere Informationen aus dem bzw. den Profilen gewinnen. So können sowohl die Quellenstärke als auch die räumliche Ausdehnung in Λr-Richtung (bei Verwendung eines Array-Sensors auch in v-Richtung) des Kopfes anhand der errechneten Wärmeprofilformen abgeschätzt werden. Hierbei kommt es meist nicht auf absolut korrekte Werte an. Stattdessen sind eher die Änderungen dieser Werte über die Zeit von Interesse. So kann z.B. aus der Veränderung der Ausdehung des Kopfes in ^-Richtung auf eine Veränderung des Abstandes zwischen Sensor und Kopf geschlossen werden (im Falle einer Einzelanordnung). Diese Information kann wiederum mit bekannten Verfahren kombiniert werden, um die Zuverlässigkeit der Positionsbestimmung zu verbessern oder auch einfach nur Bewegungsrichtungen zu extrahieren.
4. Arbeitsweise des Systems
Das hier vorgestellte System basiert auf einem Verfahren, welches es erlaubt, eine Zeile (also einen linienförmigen Ausschnitt) einer festgelegten Umgebung abzutasten und für den abgetasteten Bereich ein Intensitätsprofil der aufgenommenen Strahlungsleistung zu erstellen. In der in Fig. 7a dargestellten Szene ist die Vorrichtung (2) auf einen menschlichen Benutzer (1) gerichtet. Die betrachtete Zeile (12) der Umgebung ist auf den Erfassungsbereich (13) begrenzt. Der Öffnungswinkel dieses Bereichs ist abhängig von den optischen Eigenschaften des Sensors. Das System verfügt über keinerlei bewegliche Komponenten wie etwa drehbare Spiegel, wie sie in Laserscannern häufig eingesetzt werden. Das Verfahren arbeitet passiv. D.h., es verfügt über keinerlei aktive Komponenten, welche Signale emittieren, sondern nimmt lediglich Wärmestrahlung auf. Dies geschieht mit thermalen Sensoren wie beispielsweise Thermosäulen oder Bolometern. Bei dem aufgenommenen Zeilenprofil (14) handelt es sich demnach um ein Wärmerprofil. Das Zeilenprofil wird im Folgenden mit b(φ) bezeichnet. Derjenige Winkel, an dem das Profil maximal wird, entspricht dem Wärmeschwerpunkt des Kopfes. Im Folgenden wird die Berechnung dieses Winkels, der ein Maß für die Bewegung entlang der x-Achse darstellt, beschrieben.
Das System nutzt die Winkelabhängigkeit der in Fig. 6 dargestellten Sensitivitätscharakteristik der Sensorelemente aus. Abhängig vom Bauteiletyp fällt hierbei die Sensitivität von der Mittelachse aus gesehen rasch ab. Während oft mit technischen Mitteln versucht wird, diese Winkelabhängigkeit zu eliminieren, nutzt das hier vorgestellte Verfahren genau diese Eigenschaft aus, um aus dem einfallenden Signal Richtungsinformationen zu extrahieren. Der genaue Verlauf der Empfangscharakteristik ist dabei von untergeordneter Bedeutung.
Der Tracker (2) verfügt über eine Anzahl von L Sensorelementen (L ≥ 1), die in einer Zeile angeordnet sind. Der Abstand zweier benachbarter Elemente voneinander ist hierbei sehr klein im Vergleich zum minimalen Abstand zwischen den Sensorelementen und einer zu erfassenden Person. Alle L Sensorelemente sind gegeneinander verdreht ausgerichtet, wobei keine zwei Elemente in dieselbe Richtung weisen. Das bedeutet, daß die maximale Sensitivität eines Sensorelements in einer anderen Richtung liegt als die irgendeines anderen Sensorelements. In einer typischen Anordnung sind benachbarte Sensoren um einen konstanten Winkel zueinander verdreht. Die Ausrichtung der Sensorelemente kann auf verschiedene Arten erfolgen. Zum Einen kann jedes Element selbst in eine bestimmte Richtung gedreht werden, zum Anderen ist es möglich, die Sensorelemente nebeneinander in einer Ebene anzuordnen und die unterschiedliche Ausrichtung mittels einer gemeinsamen Optik, z.B. einer Linse, zu realisieren. Die letztere Variante erlaubt den Einsatz integrierter Multielementdetektoren. Unabhängig davon, wie die Verdrehung der Sensorelemente realisiert ist, gilt, daß die Sensorcharakteristik aller L Elemente nicht gleich sein muß, sondern unterschiedliche Kurvenverläufe als den in Fig. 6 gezeigten aufweisen kann.
Wie oben erwähnt, hat das Verfahren zum Ziel, das Intensitätsprofil der vom Sensor abgetasteten Szene zu rekonstruieren. Diese Rekonstruktion des Zeilenprofils gliedert sich in zwei Schritte. Zunächst wird mit Hilfe der Sensormeßwerte und eines Satzes von während der Kalibrierung des Systems bestimmten Parametern ein Satz von virtuellen Abtastwerten des Profils berechnet. Danach kann anhand der virtuellen Abtastwerte der eigentliche angenäherte Verlauf des Zeilenprofils bestimmt werden. Der Maximalwert des rekonstruierten Zeilenprofils schließlich gibt den Winkel der Strahlungsquelle, also des Benutzers, an. Die Form des Zeilenprofils, insbesondere die Breite der Kurve unterhalb des Maximalwertes, erlaubt die Berechnung der Entfernung des Benutzers vom Tracker.
Der individuelle Sensitivitätsverlauf eines einzelnen Sensorelements / wird im Folgenden mit dι(φ) bezeichnet, wobei / den Index eines Sensorelements angibt und 1 < / < L gilt, φ ist der Winkel, der von zwei Linien aufgespannt wird, die von der Vorrichtung ausgehen und einmal die Mitte der betrachteten Zeile treffen und einmal einen beliebigen anderen Punkt auf der Zeile (siehe dazu auch Fig. 7b).
Das Berechnungsverfahren beruht darauf, dass mit Hilfe der Sensitivitätsverläufe der einzelnen Sensorelemente dι(φ) sehr feinstufig der Sensitivitätsverlauf ho(φ - i • Δr) eines virtuellen, schwenkbaren Sensors nachgebildet wird, i Δr bezeichnet die Drehung des virtuellen Sensitivitätsverlaufs, Δr ist ein konstanter Winkelschritt mit Υfov > Δr > 0, wobei γFov den halben Erfassungsbereich (13) der Vorrichtung angibt (siehe Fig. 7b). i ist eine ganze Zahl, wobei -N ≤ i ≤ N mit N = Lyrov/ΔrJ gilt. Von dem virtuellen Sensor wird die Szene schrittweise in alle Richtungen hin abgetastet werden. 2N + 1 entspricht dabei der Gesamtzahl an Stellungen, in die der virtuelle Sensor gedreht wird. Die Drehung erfolgt jedoch nicht mechanisch, sondern algorithmisch.
Für ein konstantes Δr und ein beliebiges ganzzahliges i aus dem Weitebereich -N < i < N wird ho(φ - i • Δr) durch die Funktion
L hi(φ) = ∑ ω? - dι(φ) (1)
approximiert, wobei L die Anzahl der Sensorelemente ist. Die konstanten Koeffizienten ωf werden während der Kalibrierung des Systems bestimmt. Sie werden z.B. so gewählt, dass die Summe der Abweichungsquadrate zwischen h,{φ) und ho(φ - i Δr) an den Stellen φ = j Δr minimal ist:
N
2 (A1O" • Δr) - AoO" • Δr - i Δr))2 = min (2)
J=-N
Dieses Minimierungsproblem läßt sich direkt in ein lineares Gleichungssystem überführen, so dass für jedes / ein entsprechender Satz von L Parametern ωf bestimmt werden kann. Die Verläufe der Sensitivitätsfunktionen d[(φ) müssen hierbei nicht verschiebungssymmetrisch sein. Vielmehr werden etwaige Variationen vom Minimierungsverfahren mit berücksichtigt. Die Approximation von h,(j Δr) an die verschobene virtuelle Sensitivitätskennlinie AoO " Δr - i • Δr) muß nich zwingenderweise, wie in Gl. (2) gezeigt, über die Methode der kleinsten Fehlerquadrate erfolgen. Auch andere gängige Approximationsmethoden sind hier einsetzbar.
Jeder Mess Vorgang liefert einen Satz von L Sensorwerten X/. Aus den Werten Xi wird eine Sequenz z von virtuellen Abtastwerten für das Zeilenprofil berechnet: z = [Z-N, Z-N+\ , • ■ - Zo, . . . , ZN-] , ZN) mit
Figure imgf000012_0001
Die (reelle) Sequenz z kann nun z.B. mit Hilfe einer diskreten Fourier-Transformation (z.B. Fast Fourier Transformation) in ein in der Regel komplexwertiges Spektrum Z = {Z_/v, Z_#+1 , . . . , ZQ, ZN-\, ZN) überführt werden. Für den nächsten Schritt ist eine Betrachtung des zunächst kontinuierlich angenommenen virtuellen Sensitivitätsverlaufs ho(φ) in diskreten Winkelschritten notwendig. Dazu wird der Bezeichner g = [g.N, g-N+u . . . , go, gN-ι, 8N} mit gι = Ao(i Δr) eingeführt. Das diskrete Spektrum von g wird mit G = {G-N, G-N+\ , . . . , GO, GN-) , GN] bezeichnet, wobei dieselbe Transformationsvorschrift wie bei Z verwendet wird. Wird nun die Sequenz Z komponentenweise durch die Sequenz G dividiert, so läßt sich die virtuelle Sensitivitätskurve wieder herausrechnen:
S1 = -, mit -N ≤ i ≤ N (4)
G1
Die resultierende Sequenz S = [S-N, S-N+\, - - . , SQ, SN-\, SN) wird nun mit Hilfe einer inversen diskreten Fourier-Transformation, also entsprechend oben etwa der Inverse Fast Fourier Transformation (IFFT), zurück in den Winkelbereich transformiert:
s = IFFT(S), (5)
wobei für die resultierende Sequenz s = {s-N, S-N+\ , ... , 5Ό, SN-I, SN] gilt. Die resultierende Sequenz entspricht nun einer diskreten Approximation für das in Fig. 7a dargestellte Zeilenprofil b(φ), d.h. es gilt
J1- * & (i - Ar) (6)
Die Position von Kopf und Oberkörper des beobachteten Benutzers läßt sich nun über die Bestimmung des Index desjenigen Elements von s bestimmen, welches den Maximalwert der Sequenz s angibt. Wird dieses Element mit t'rnax indiziert, so ergibt sich die vom Tracker aus gesehene Richtung φma.x des Maximums also zu
0max = »max Ar. (7)
Das beschriebene Verfahren läßt sich ebenso auf die y-Achse anwenden, um die Höhe des Kopfes zu bestimmen, vorausgesetzt, es wird wie oben beschrieben ein Matrixsensor verwendet.
Die Entfernung (z- Achse) des Benutzers vom Tracker kann z.B. über den Absolutwert des Maximums der Sequenz s bestimmt werden. Ebenso kann die Breite der rekonstruierten Kurve unmittelbar unter dem ermittelten Maximum Auskunft über die Entfernung geben.

Claims

Patentansprüche :
1. Vorrichtung zur Steuerung eines elektronischen Gerätes (10) mit Hilfe von Bewegung und Gesten eines menschlichen Benutzers (1) , insbesondere von Kopf und Oberkörper, dadurch gekennzeichnet, dass mehrere Infrarotpunktsensoren (4a) bzw. ein integrierter Infrarotmultielementdetektor (4b) , bestehend aus mehreren Sensorelementen (11) , wobei die Sensoren wahlweise als Thermosäule oder Bolometer ausgeführt sind, Verwendung finden und die Sensorelemente (11) derart gestaltet sind, dass keine zwei Elemente dasselbe Sensitivitätsprofil über den gesamten Erfassungsbereich der Vorrichtung besitzen.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Infrarotsensoren auf den Benutzer ausgerichtet sind.
3. Vorrichtung nach Anspruch 1 oder 2 , dadurch gekennzeichnet, dass die Ausrichtung der einzelnen Sensorelemente gegeneinander verdreht ist.
4. Vorrichtung nach Anspruch 3 , dadurch gekennzeichnet, dass die Verdrehung optisch, etwa mittels einer Linse, oder durch Ausrichten jedes einzelnen Sensorelements realisiert ist.
5. Vorrichtung nach einem der vorangegangenen Ansprüche oder einem der folgenden, dadurch gekennzeichnet, dass ein Multielementdetektor (4b) zum Einsatz kommt, des- sen Elemente so angeordnet sind, dass Untermengen der Elemente zu verschieden räumlich ausgerichteten Zeilen, insbesondere senkrecht und waagerecht bei einem Matrixsensor, zusammenfassbar ausgebildet sind, wobei jede Zeile für sich betrachtet wiederum ein Profil der betrachteten Szene aufnimmt .
6. Vorrichtung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass sie auf einem stationären (3) oder mobilen (15) Gerät montiert ist.
7. Vorrichtung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass sie die von ihr aufgenommenen Sensordaten selbst verarbeitet oder die Verarbeitung an das gesteuerte Gerät auslagert.
8. Vorrichtung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass diese über eine Kommunikationsschnittstelle an das gesteuerte elektronische Gerät anschließbar ist.
9. System mit zwei oder mehr Vorrichtungen nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Vorrichtungen an räumlich unterschiedlichen Positionen und ggf. mit zueinander unterschiedlichen Ausrichtungen angeordnet sind.
10. Verfahren zur Steuerung einer Vorrichtung nach einem der Ansprüche 1 bis 8, bei dem von jedem Sensorelement ein Messwert aufgenommen wird, welcher ein Maß für die Bestrahlungsstärke dieses Elements ist, wobei die winkelabhängige Sensitivitätscharakteristik jedes Sensorelements ausgenutzt wird, und die beobachtete Szene im Profil abgetastet und mit Methoden der digitalen SignalVerarbeitung rekonstruiert wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass aus dem rekonstruierten Zeilenprofil die Position von Kopf und Oberkörper bestimmt wird.
12. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass mit Hilfe der individuellen winkelabhängigen Sensiti- vitätscharakteristika der Sensorelemente ein virtueller, algorithmisch schwenkbarer Punktsensor nachgebildet wird, der schrittweise die betrachtete Szene in der Zeile abtastet.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Kennlinie des virtuellen Sensors in jeder Drehstellung an einen um einen bestimmten Winkel verschobenen Kurvenverlauf approximiert wird, wobei dieser Winkel des verschobenen Kurvenverlaufs genau dem Winkel der Drehstellung, gemessen von der Grundausrichtung der Vorrichtung, entspricht.
14. Verfahren nach Anspruch 13 , dadurch gekennzeichnet, dass der zu approximierende Kurvenverlauf frei wählbar ist.
15. Verfahren zur Steuerung eines Systems nach Anspruch 9, bei dem von jedem Sensorelement ein Messwert aufgenommen wird, welcher ein Maß für die Bestrahlungsstärke dieses Elements ist, wobei die winkelabhängige Sensitivitätscharakteristik jedes Sensorelements ausgenutzt wird, und schließlich die beobachtete Szene aus verschiedenen Perspektiven im Profil abgetastet und mit Methoden der digitalen Signalverarbeitung rekonstruiert wird, und aus diesen rekonstruierten Profilen mit Methoden der digitalen Signalverarbeitung eine Abschätzung der Kopfposition bestimmt wird.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass mit Hife der individuellen winkelabhängigen Sensitivi- tätscharakteristika der Sensorelemente zwei oder mehrere virtuelle, algorithmisch schwenkbare Punktsensoren nachgebildet werden, die schrittweise die betrachtete Szene in unterschiedlich ausgerichteten Zeilen abtasten.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass die Kennlinien der virtuellen Sensoren in jeder Drehstellung an einen um einen bestimmten Winkel verschobenen Kurvenverlauf approximiert werden, wobei dieser Winkel des verschobenen Kurvenverlaufs genau dem Winkel der Drehstellung, gemessen von der Grundausrichtung der jeweiligen Vorrichtung, entspricht.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass die zu approximierenden Kurvenverläufe frei wählbar sind.
PCT/EP2007/007778 2007-09-06 2007-09-06 Vorrichtung und verfahren zur steuerung eines elektronischen apparates durch gesten, insbesondere von kopf und oberkörper WO2009033491A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2007/007778 WO2009033491A1 (de) 2007-09-06 2007-09-06 Vorrichtung und verfahren zur steuerung eines elektronischen apparates durch gesten, insbesondere von kopf und oberkörper

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2007/007778 WO2009033491A1 (de) 2007-09-06 2007-09-06 Vorrichtung und verfahren zur steuerung eines elektronischen apparates durch gesten, insbesondere von kopf und oberkörper

Publications (1)

Publication Number Publication Date
WO2009033491A1 true WO2009033491A1 (de) 2009-03-19

Family

ID=39323622

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/007778 WO2009033491A1 (de) 2007-09-06 2007-09-06 Vorrichtung und verfahren zur steuerung eines elektronischen apparates durch gesten, insbesondere von kopf und oberkörper

Country Status (1)

Country Link
WO (1) WO2009033491A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2960315A1 (fr) * 2010-05-20 2011-11-25 Opynov Procede et dispositif de captation de mouvements d'un individu par imagerie thermique
CN107346172A (zh) * 2016-05-05 2017-11-14 富泰华工业(深圳)有限公司 一种动作感应方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5059959A (en) * 1985-06-03 1991-10-22 Seven Oaks Corporation Cursor positioning method and apparatus
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
DE10242890A1 (de) * 2002-09-16 2004-03-25 Technische Universität München Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld
US20060049985A1 (en) * 2004-09-08 2006-03-09 Riel Ryan D Apparatus and methods for detecting and locating signals

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5059959A (en) * 1985-06-03 1991-10-22 Seven Oaks Corporation Cursor positioning method and apparatus
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
DE10242890A1 (de) * 2002-09-16 2004-03-25 Technische Universität München Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld
US20060049985A1 (en) * 2004-09-08 2006-03-09 Riel Ryan D Apparatus and methods for detecting and locating signals

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HOLGER LINDE: "On Aspects of Indoor Localization", 28 August 2006, UNIVERSITÄT DORTMUND, XP002480309 *
HOLGER LINDE: "On aspects of indoor localization", INTERNET ARTICLE, 28 August 2006 (2006-08-28), pages 1 - 2, XP002480331, Retrieved from the Internet <URL:https://eldorado.uni-dortmund.de/handle/2003/22854?mode=simple&submit_simple=Show+simple+item+record> [retrieved on 20080515] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2960315A1 (fr) * 2010-05-20 2011-11-25 Opynov Procede et dispositif de captation de mouvements d'un individu par imagerie thermique
CN107346172A (zh) * 2016-05-05 2017-11-14 富泰华工业(深圳)有限公司 一种动作感应方法及装置

Similar Documents

Publication Publication Date Title
DE102010061512B4 (de) Bilderfassungsvorrichtung, Verfahren zum Erfassen von Bildern unter Verwendung von Infrarotlicht oder sichtbarem Licht und computerlesbares Medium
DE112013005337T5 (de) Objekterfassung und Nachverfolgung mit veränderlichen Feldbeleuchtungsvorrichtungen
DE102018206406B3 (de) Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
DE102014226342B4 (de) Wärmebildkamera
DE102014209556A1 (de) Anzeigevorrichtung
WO2012156448A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
EP2584957A1 (de) Vorrichtung und verfahren zur kombinierten optischen und nuklearen bilderfassung
EP3425560B1 (de) Vorrichtung und verfahren zur erfassung von biometrischen merkmalen eines gesichts einer person
JP2012109733A (ja) 監視システム及び監視装置
EP1342150A2 (de) Messverfahren zur ermittlung der position eines objektes vor einem bildschirm und vorrichtung zur durchführung des verfahrens
EP2732334B1 (de) Vorrichtung und verfahren zur erfassung biometrischer merkmale
DE102012110460A1 (de) Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
DE102020205516A1 (de) Dreidimensionale koordinatenmessvorrichtung
WO2020127732A1 (de) Verfahren zum erzeugen und anzeigen eines virtuellen objektes durch ein optisches system
DE102012111345A1 (de) Mobiles Handgerät zur Ausrichtung eines Sensors
DE112019003962T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und informationsverarbeitungssystem
WO2009033491A1 (de) Vorrichtung und verfahren zur steuerung eines elektronischen apparates durch gesten, insbesondere von kopf und oberkörper
DE102021109684A1 (de) Verfahren und Systeme zur Steuerung des Betriebsmodus von Features bei einem elektronischen Gerät
DE19853915A1 (de) Verfahren zum Erfassen und Darstellen einer dreidimensionalen Struktur sowie Einrichtung zum Durchführen des Verfahrens
DE102019219908B4 (de) Verfahren zur fotografischen Erfassung eines Ohrs
DE10225077B4 (de) Objektverfolgeanordnung für medizinische Operationen
DE112018003820T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
DE102006010797A1 (de) Vorrichtung und Verfahren zur Steuerung eines elektronischen Apparates durch Gesten, insbesondere von Kopf und Oberkörper
DE102009010592B4 (de) Verfahren und Vorrichtung zum Aufnehmen und Auswerten von digitalen Bilddaten mit einem Operationsmikroskop
EP3171348A1 (de) Vorrichtung und verfahren zum bestimmen einer atypischen bewegung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07802177

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: FESTSTELLUNG EINES RECHTSVERLUSTS NACH REGEL 112(1) EPUE (EPA FORM 1205A VOM 15/06/2010)

122 Ep: pct application non-entry in european phase

Ref document number: 07802177

Country of ref document: EP

Kind code of ref document: A1