DE102014201313A1 - Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method - Google Patents

Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method Download PDF

Info

Publication number
DE102014201313A1
DE102014201313A1 DE102014201313.5A DE102014201313A DE102014201313A1 DE 102014201313 A1 DE102014201313 A1 DE 102014201313A1 DE 102014201313 A DE102014201313 A DE 102014201313A DE 102014201313 A1 DE102014201313 A1 DE 102014201313A1
Authority
DE
Germany
Prior art keywords
movement
detection area
detection
pixel
acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014201313.5A
Other languages
German (de)
Inventor
Friedrich Schick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tripleye GmbH
Original Assignee
Myestro Interactive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Myestro Interactive GmbH filed Critical Myestro Interactive GmbH
Priority to DE102014201313.5A priority Critical patent/DE102014201313A1/en
Priority to PCT/EP2015/050585 priority patent/WO2015110331A1/en
Priority to EP15700309.6A priority patent/EP3097511A1/en
Publication of DE102014201313A1 publication Critical patent/DE102014201313A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

Bei einem Verfahren zur Erkennung einer Bewegungsbahn (223; 221, 222) mindestens eines bewegten Objektes (23, 24) innerhalb eines Erfassungsbereiches wird dieser zunächst bildgebend erfasst. Hierbei wird ein erstes Erfassungsbild (11) erzeugt, dass den Erfassungsbereich zu einem ersten Erfassungszeitpunkt wiedergibt. Um einen Verzögerungszeitraum später wird ein zweites Erfassungsbild (12) erzeugt, dass den Erfassungsbereich zu einem entsprechend späteren Erfassungszeitpunkt zeigt. Anschließend werden Korrespondenzen von Bildbereichen (13 bis 22) der Erfassungsbilder (12) bestimmt und ausgewertet. Hierzu werden die Erfassungsbilder (12) verglichen, es wird eine Verteilungsdichte von hinsichtlich ihrer Lageveränderung im Erfassungsbild (12) korrespondierenden Bildbereichen (13 bis 23) ermittelt und die ermittelte Verteilungsdichte wird ausgewertet. Es werden dann Bildpunkte (23, 24) mit zugehörigem Bewegungsinkrement (223; 221, 222) zwischen den Erfassungsbildern (12) aufgrund der ausgewerteten Verteilungsdichte zugeordnet. Hieran schließt sich eine Bildpunktbewegungsauswertung an. Dieses Verfahren sowie ein dieses nutzende Gestikerkennungsverfahren können mit einfachen optischen Mitteln realisiert werden.In a method for detecting a movement path (223, 221, 222) of at least one moving object (23, 24) within a detection area, this is first detected by imaging. Here, a first detection image (11) is generated, which reproduces the detection area at a first detection time. At a later time, a second detection image (12) is generated, which shows the detection area at a corresponding later detection time. Subsequently, correspondences of image areas (13 to 22) of the acquisition images (12) are determined and evaluated. For this purpose, the acquisition images (12) are compared, a distribution density of image areas (13 to 23) corresponding to their change in position in the acquisition image (12) is determined, and the determined distribution density is evaluated. Pixels (23, 24) with associated motion increment (223, 221, 222) are then assigned between the acquisition images (12) on the basis of the evaluated distribution density. This is followed by a pixel motion evaluation. This method, as well as a gestikerkennungsverfahren using this can be realized with simple optical means.

Description

Die Erfindung betrifft ein Verfahren zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches. Ferner betrifft die Erfindung ein Verfahren zur Gestikerkennung unter Einsatz eines derartigen Erkennungsverfahrens und eine Vorrichtung zur Durchführung eines derartigen Erkennungsverfahrens bzw. Gestikerkennungsverfahrens.The invention relates to a method for detecting a movement path of at least one moving object within a detection area. Furthermore, the invention relates to a method for gesture recognition using such a recognition method and to an apparatus for carrying out such a recognition method or gesture recognition method.

Verfahren und Vorrichtungen zur Objekterkennung sind bekannt aus der WO 2012/095 258 A1 und der WO 2013/020 872 A1 .Methods and apparatus for object recognition are known from the WO 2012/095258 A1 and the WO 2013/020872 A1 ,

Es ist eine Aufgabe der vorliegenden Erfindung, ein Erkennungsverfahren mit einfachen optischen Mitteln zu ermöglichen.It is an object of the present invention to provide a detection method with simple optical means.

Diese Aufgabe ist erfindungsgemäß gelöst durch ein Erkennungsverfahren mit den im Anspruch 1 angegebenen Merkmalen.This object is achieved by a detection method with the features specified in claim 1.

Die beschriebene Erfindung misst eine Verteilungsdichte von Korrespondenzen zwischen Teilen aufeinanderfolgender Bilder. Dazu werden zwischen Bildausschnitten von zwei aufeinanderfolgenden Bildern Korrespondenzen ermittelt. Eine Korrespondenz ist gegeben, wenn sich zwei Bildausschnitte ähneln. Bei dieser Vorverarbeitung werden auch Korrespondenzen zugelassen, die nicht dem optischen Fluss entsprechen. Mit dem Verfahren entstehen jeweils für kleine Bildregionen Verteilungen von Korrespondenzvektoren unterschiedlicher Richtung und Länge, somit über das gesamte Bild Korrespondenzverteilungsverläufe. Diese Korrespondenzverteilungsverläufe werden in eine Korrespondenzverteilungsdichte umgerechnet. Der Bildfluss entspricht dann den größten Werten einer idealen Korrespondenzverteilungsdichte. Durch Messfehler, Bildwiederholungen und Messlücken wird die ideale Korrespondenzverteilungsdichte eines optischen Flusses in der Regel nicht erreicht. Das Vorverarbeitungsverfahren kann deshalb als fluss-orientierte Untersuchung (flow-orientedexamination, flox) charakterisiert werden.The invention described measures a distribution density of correspondences between parts of successive images. For this purpose correspondences are determined between image sections of two successive images. Correspondence is given when two parts of the picture are similar. In this preprocessing, correspondences are also permitted which do not correspond to the optical flow. With the method, distributions of correspondence vectors of different direction and length are produced for small image regions, thus correspondence distribution profiles over the entire image. These correspondence distribution profiles are converted into a correspondence distribution density. The image flow then corresponds to the largest values of an ideal correspondence distribution density. Due to measurement errors, image repetitions and measurement gaps, the ideal correspondence distribution density of an optical flow is generally not achieved. The preprocessing method can therefore be characterized as flow-oriented examination (flox).

Eine Teilmenge solcher Korrespondenzverteilungsdichten ist der optische Fluss. Durch Zuordnungsfehler wird die Verteilungsdichte eine Vielzahl weiterer Korrespondenzen finden. Die Verteilungsdichten werden auf potentielle Bewegungen kompakter Regionen überprüft und Bewegungsinkremente abgeleitet. Aus einer Folge von Bewegungsinkrementen werden Objektbewegungen verkettet und plausibilisiert. Korrespondenzen zwischen ähnlichen Bildpunkten bzw. Bildteilen, die nicht Abbildungen desselben Objektes sind, z.B. Korrespondenzen zwischen zwei benachbarten Aktenordnern, führen zu einer Scheinbewegung, die sich in der Regel örtlich nicht fortsetzt, sondern lokal bleibt, vergleichbar mit der Tachoanzeige bei durchdrehenden Reifen. Durch Vergleich von mehr als zwei Erfassungsbildern, die nacheinander aufgenommen werden, lassen sich derartige Scheinbewegungen ausschließen. Die Verkettung plausibilisierter Bewegungsinkremente führt dann zu einer Bewegung, die ihrerseits auf eine Geste hin überprüft wird.A subset of such correspondence distribution densities is the optical flow. By allocation errors, the distribution density will find a variety of other correspondences. The distribution densities are checked for potential movements of compact regions and motion increments are derived. From a sequence of motion increments object movements are concatenated and made plausible. Correspondences between similar pixels or image parts that are not images of the same object, e.g. Correspondences between two adjacent folders, lead to a pseudo-movement, which usually does not continue locally, but remains local, comparable to the speedometer with spinning tires. By comparing more than two acquisition images taken in succession, such apparent movements can be excluded. The concatenation of plausibilized motion increments then leads to a movement, which in turn is checked for a gesture.

Sollen Objekte im Nahbereich vermessen werden, wie z.B. Finger direkt vor der Kamera die in einer Brille eingebaut ist, werden mehrere Bildbereiche zu einer ähnlichen, also gemeinsamen Bewegung führen. In diesem Fall wird ein geeigneter Mittelwert der Koordinaten der gemeinsamen Bewegung zur Repräsentation des eigentlichen Objektes verwendet. In der Regel ist nicht die Position des Objektes maßgebend für die Bewegungsgeste, sondern die Form der Bahn, die in diesem Fall für alle gemeinsamen Bewegungen identisch ist.If objects in the vicinity are to be measured, such as e.g. Fingers directly in front of the camera, which is installed in a pair of glasses, will cause several image areas to move in a similar, ie common, movement. In this case, an appropriate average of the coordinates of the common motion is used to represent the actual object. As a rule, it is not the position of the object that determines the motion gesture, but the shape of the path, which in this case is identical for all common movements.

Neben einem Mittelwert kann auch der Oberste aller eine gemeinsame Bahn durchlaufenden Bildpunkte ausgewählt und zugeordnet werden. Das ist z.B. die Fingerspitze eines nach oben zeigenden Fingers im Bild.In addition to an average value, the supreme of all pixels traversing a common path can also be selected and assigned. This is e.g. the fingertip of an upward pointing finger in the picture.

Die Genauigkeit der Bahn muss dabei nur so gut sein, dass die den Gesten zugeordneten Bahnformen unterschieden werden können.The accuracy of the web has to be so good that it is possible to differentiate the web shapes assigned to the gestures.

Beim bildgebenden Erfassen können Kamerabilder zyklisch in einen Auswerterechner geladen werden.In the case of imaging, camera images can be cyclically loaded into an evaluation computer.

Der zeitliche Abstand der Bilder darf variieren, muss aber bekannt sein. Aus zwei aufeinanderfolgenden Bildern wird eine Korrespondenzverteilungsdichte ermittelt, aus der pro Bildpaar Bewegungsinkremente errechnet werden. Aus der Folge von Bewegungsinkrementen werden Bewegungssequenzen gefiltert, die ausgewählten Gestenbewegungen entsprechen können. Die Anzahl fehlerhafter Korrespondenzverteilungsdichten können durch grobes Entfernungswissen, durch geeignete Tiefensensoren oder durch Schärfe-Einstellungen der Kamera oder Blitzbeleuchtung reduziert werden, um die Sicherheit bei der Erkennung zu erhöhen.The temporal distance of the pictures may vary, but must be known. From two successive images, a correspondence distribution density is determined from which movement increments are calculated per image pair. From the sequence of motion increments, motion sequences are filtered that can correspond to selected gesture movements. The number of incorrect correspondence distribution densities can be reduced by coarse distance knowledge, by suitable depth sensors or by sharpness adjustments of the camera or flash lighting, in order to increase the security with the recognition.

Bei der Bildpunkt-Zuordnung erfolgt keine Objektform-Erkennung. Es wird überprüft, wo in korrespondierenden Bildpunktgruppen bzw. Bildbereichen Bewegungen, insbesondere schnelle Bewegungen, mit hoher Dichte, also Bewegungen von Bildpunktgruppen mit vergleichbaren Bewegungsinkrementen, detektiert. Aus einer detektierten Bildpunktgruppe erfolgt die Auswahl und Zuordnung eines repräsentativen Bildpunktes aufgrund von vorher festgelegten Kriterien für die ermittelte Verteilungsdichte und die zugehörigen Bewegungsinkremente. Es kann beispielsweise eine Mindestdichte von bewegten Bildpunkten vorgegeben werden und es kann unter den dann vorselektierten Bildpunkten, die innerhalb der Bildpunktgruppen mit der Mindestdichte liegen, eine Selektion nach dem größten Bewegungsinkrement vorgenommen werden. Alternativ kann nach bestimmten Bewegungsinkrementen vorselektiert werden und es kann innerhalb einer Bildpunktgruppe, die dieses Bewegungsinkrement aufweist, ein hinsichtlich seiner Lage ausgezeichneter Bildpunkt innerhalb dieser Bildpunktgruppe ausgewählt werden. Bei der Auswahl bzw. Zuordnung des Bildpunktes durch Auswertung der ermittelten Verteilungsdichte kann ein Vorhersage-Algorithmus eine Zuordnung eines spezifischen Bildpunktes vereinfachen. Hierzu wird anhand von beispielsweise drei aufeinanderfolgenden Erfassungsbildern überprüft, ob beim zuletzt aufgenommen Erfassungsbild ein Kandidaten-Bildpunkt in einem Bildbereich vorliegt, in dem er entsprechend seiner Bewegung in den ersten beiden nacheinander aufgenommenen Erfassungsbildern tatsächlich zu erwarten ist. Nur Bildpunkte, bei denen ein vorhergesagter Bildbereich erreicht wird, entsprechen dann der Vorhersage und erfüllen somit dieses Auswahlkriterium. Soweit nach Durchlaufen dieser verschiedenen Auswahlkriterien immer noch mehrere Bildpunkte verbleiben, kann eine einfache geometrische Auswahl erfolgen. Es kann beispielsweise ein oberster Bildpunkt ausgewählt und zugeordnet werden, der im Erfassungsbereich unter den Auswahlkandidaten vorliegt. Bei den Bildbereichen kann es sich um einzelne Bildpunkte oder um Bildpunktgruppen handeln.When pixel mapping is done no object shape detection. It is checked where in corresponding pixel groups or image areas movements, in particular fast movements, with high density, ie movements of pixel groups with comparable movement increments, detected. From a detected pixel group, the selection and assignment of a representative pixel takes place on the basis of previously defined criteria for the determined distribution density and the associated movement increments. It For example, a minimum density of moving pixels can be specified, and it is possible to make a selection for the largest movement increment among the then preselected pixels which lie within the pixel groups with the minimum density. Alternatively, it is possible to preselect according to certain movement increments and, within a pixel group having this movement increment, a pixel which is excellent in terms of its position can be selected within this pixel group. In the selection or assignment of the pixel by evaluation of the determined distribution density, a prediction algorithm can simplify an assignment of a specific pixel. For this purpose, it is checked on the basis of, for example, three successive acquisition images, if the last captured acquisition image is a candidate pixel in an image area in which it can actually be expected according to its movement in the first two successive acquisition images. Only pixels in which a predicted image area is reached then correspond to the prediction and thus fulfill this selection criterion. As far as several pixels remain after passing through these different selection criteria, a simple geometric selection can be made. For example, it is possible to select and assign an uppermost pixel which is present in the detection area among the selection candidates. The image areas may be individual pixels or pixel groups.

Die Definition eines Tiefenbereiches nach Anspruch 2 kann mit Hilfe eines Tiefensensors erfolgen. Hierzu kann auch die Schärfentiefe einer Vorsatzoptik des Kamerasensors genutzt werden. Auch Autofokus-Techniken können hierfür genutzt werden, was insbesondere zur Kontrastverstärkung und damit zur Verbesserung des Ergebnisses eines Vergleichs der Erfassungsbilder genutzt werden kann. Sobald eine Tiefe eines Objektes, dessen Bewegungsbahn erkannt wurde, bekannt ist, lassen sich zur Objektbewegung auch die Objektgeschwindigkeit messen und angeben.The definition of a depth range according to claim 2 can be carried out with the aid of a depth sensor. For this purpose, the depth of field of a front optics of the camera sensor can be used. Autofocus techniques can also be used for this purpose, which can be used in particular for contrast enhancement and thus for improving the result of a comparison of the acquisition images. As soon as a depth of an object whose trajectory has been detected is known, the object speed can also be measured and specified for the object movement.

Die Korrespondenzverteilungsdichte kann entsprechend nicht nur von Objekten in der Entfernung des erwarteten Objektes ermittelt werden, sondern auch von weniger oder weiter von dem Sensor entfernten Objekten. Mit auch grob auflösenden Tiefensensoren, auf Basis von strukturiertem Licht, Time-of-Flight oder auch Stereoskopie können Bildteile identifiziert werden, die nicht im Entfernungsbereich liegen und deren Verteilungsdichten ignoriert werden. Ein Tiefensensor auf Basis von strukturiertem Licht (Structured Light) ist beispielsweise bekannt aus der US 4,954,962 . Ein Tiefensensor auf Basis „Time-of-Flight“ ist bekannt aus der EP 2 378 310 A1 . Accordingly, the correspondence distribution density can be determined not only from objects in the distance of the expected object but also from objects less or further away from the sensor. With coarse-resolution depth sensors, based on structured light, time-of-flight or even stereoscopy, image parts can be identified that are not in the distance range and whose distribution densities are ignored. A depth sensor based on structured light (Structured Light) is known, for example from the US 4,954,962 , A depth sensor based on "Time-of-Flight" is known from the EP 2 378 310 A1 ,

Gröbere Auflösungen bieten zum Beispiel Ultraschallsensoren. Durch eine Kombination von einigen Ultraschallsensoren können die Richtungen von Objekten, die in der erwarteten Entfernung liegen, ermittelt werden und andere Bildbereiche diskriminiert werden.Coarser resolutions offer, for example, ultrasonic sensors. Through a combination of some ultrasonic sensors, the directions of objects that are within the expected distance can be determined and other image areas can be discriminated.

Entfernungsinformationen geben auch sogenannte Lichtfeld-Sensoren.Distance information is also provided by so-called light field sensors.

Kann in bestimmten Bildbereichen keine Schärfe für die gewünschte Entfernung errechnet werden, werden auch diese diskriminiert.If no sharpness can be calculated for the desired distance in certain image areas, these too will be discriminated.

Eine Tiefenbereichs-Definition nach Anspruch 3 ist, das Vorhandensein einer entsprechend ansteuerbaren Lichtquelle vorausgesetzt, mit hoher Präzision möglich. Alternativ oder zusätzlich kann zur Definition des Tiefenbereichs auch eine zeitliche Variation eines Beleuchtungszeitraums zu einem Belichtungszeitpunkt bei der bildgebenden Erfassung erfolgen.A depth range definition according to claim 3, provided the presence of a suitably controllable light source, with high precision possible. Alternatively or additionally, for the definition of the depth range, a temporal variation of an illumination period at an exposure time in the imaging acquisition can also take place.

Neben den direkten Tiefensensoren können also auch weitere entfernungsabhängige Effekte genutzt werden. Wird ein IR-Filter vor die Kamera gesetzt und die Umgebung mit begrenzter IR-Lichtleistung bestrahlt, ist die Reichweite begrenzt und Korrespondenzen dahinterliegender Objekte werden nicht mehr erfasst. Sind Objekte sehr nah, werden sie von der IR-Strahlung so stark angestrahlt, dass auf ihnen keine Kontraste mehr erkennbar sind. Es entsteht somit ein Tiefenbereich für messbare Korrespondenzen. Werden in kurzer zeitlicher Abfolge die IR-Strahlungsleitung und die Belichtungszeit variiert, können messbare Tiefenbereiche so versetzt werden, dass nur Ketten von Bewegungsinkrementen von den Objekten plausibilisiert werden können, die durchgängig in den messbaren Bereichen geblieben sind.In addition to the direct depth sensors so also further distance-dependent effects can be used. If an IR filter is placed in front of the camera and the environment is irradiated with limited IR light output, the range is limited and correspondence of underlying objects is no longer detected. If objects are very close, they are so strongly illuminated by the IR radiation that no contrasts are recognizable on them. This creates a depth range for measurable correspondences. If the IR radiation line and the exposure time are varied in a short time sequence, measurable depth ranges can be offset in such a way that only chains of movement increments can be made plausible by the objects that have remained throughout the measurable areas.

Ein weiterer entfernungsabhängiger Effekt ist die Schärfentiefe. Für lichtstarke Objektive ist die Schärfentiefe geringer als bei lichtschwachen Objektiven. Nur in diesem Bereich können Korrespondenzen gemessen werden. Über in kurzer zeitlicher Abfolge variierte Brennweite kann der messbare Tiefenbereich so versetzt werden, dass auch hier nur Ketten von Bewegungsinkrementen von den Objekten plausibilisiert werden können, die durchgängig im messbaren Bereich geblieben sind.Another distance-dependent effect is the depth of field. For high-intensity lenses, the depth of field is less than with low-focussed lenses. Only in this area can correspondences be measured. By varying the focal length in a short time sequence, the measurable depth range can be shifted so that only chains of movement increments can be made plausible by the objects that have remained consistently within the measurable range.

Die Kombination der beiden entfernungsabhängigen Effekte auch zusammen mit ihrer zeitlichen Variation führt zu dem gewünschten Effekt der Einschränkung des messbaren Bereiches. Es können also auch Kombinationen aus Schärfentiefe und/oder Beleuchtungsstärke und/oder Beleuchtungsdauer zur Tiefenbereichs-Definition herangezogen werden.The combination of the two distance-dependent effects together with their temporal variation leads to the desired effect of limiting the measurable range. It is therefore also possible to use combinations of depth of field and / or illuminance and / or illumination duration for the definition of the depth range.

Die Vorteile eines Gestikerkennungsverfahrens nach Anspruch 4 entsprechen denen, die vorstehend unter Bezugnahme auf das Bewegungsbahn-Erkennungsverfahren bereits erläutert wurden. The advantages of a gesture recognition method according to claim 4 correspond to those which have already been explained above with reference to the movement path recognition method.

Gesten entstehen durch die Bewegung von Körperteilen. Die unmittelbare Messung der Bewegung benötigt keine Modellierung wie Abbildungen von Händen oder Gelenkmodellen. Wird die Bewegung von kompakten, zum Beispiel faustgroßen, Objekten unmittelbar gemessen, kann auf die Modellierung zum Beispiel einer Handpose oder auf Gelenkmodelle verzichtet werden. Bei einem monokularen Kamerasystem sollte das faustgroße Objekt tendenziell quer zur Blickrichtung des Sensors bewegt werden. Zusammen mit einem geeigneten Tiefensensor können auch unmittelbar Entfernungsgeschwindigkeiten zum Sensor gemessen werden. In beiden Fällen müssen aber weder Handposen trainiert oder Gelenkmodelle mit einer im Wesentlichen ungestörten Umgebung berücksichtigt werden. Außerdem wird das Verhältnis Objektgröße zu Erfassungsbereich wegen der geringeren Anforderungen an Texturinformationen an das Objekt deutlich kleiner, so dass viele unabhängige Objekte in einem großen Volumen vermessen werden können.Gestures are created by the movement of body parts. Immediate measurement of motion does not require modeling, such as images of hands or joint models. If the movement of compact, for example, fist-sized, objects measured directly, can be dispensed with the modeling, for example, a hand pose or joint models. In a monocular camera system, the fist-sized object should tend to be moved transversely to the viewing direction of the sensor. Together with a suitable depth sensor, it is also possible to directly measure removal speeds to the sensor. In both cases, however, neither hand poses have to be trained or joint models with an essentially undisturbed environment must be taken into account. In addition, the smaller the object-to-detection-area ratio, the smaller the demands on texture information to the object, so that many independent objects in a large volume can be measured.

Die abgeleiteten Gesten können über die Verwendung von bekannten Verfahren wie „Inverse Kinematics“ oder „Template Matching“ weiter plausibilisiert werden. Die Bewegung muss von einer bestimmten Objektähnlichen Grauwerte-Verteilung ausgelöst worden sein. Eine Hand, Finger wie auch künstliche Objekte (Handschuhe, Marker) können als Basis dienen. Mit „Inverse Kinematics“ können Bewegungsvorhersagen getroffen werden und damit die Korrespondenzdichteverteilung gezielter ausgewertet werden. Durch vereinfachte, zum Beispiel planare, Bewegungsmodelle wie das Modell konstanter Geschwindigkeit kann die Korrespondenzdichteverteilung ebenfalls besser ausgewertet werden.The derived gestures may be further plausibilized via the use of known methods such as "Inverse Kinematics" or "Template Matching". The movement must have been triggered by a certain object-like gray value distribution. A hand, fingers as well as artificial objects (gloves, markers) can serve as a basis. With "Inverse Kinematics" motion forecasts can be made and thus the correspondence density distribution can be evaluated more specifically. Simplified, for example, planar, motion models such as the constant velocity model can also better evaluate the correspondence density distribution.

Ein „Inverse Kinematics“-Verfahren ist bekannt aus der CA 2 211 858 C . Ein „Template Matching“-Verfahren ist bekannt aus der EP 1 203 344 B1 .An "inverse kinematics" method is known from the CA 2 211 858 C , A "template matching" method is known from the EP 1 203 344 B1 ,

Modell-Bildpunktbewegungen nach Anspruch 5 ergeben einen Gestensatz, der für vielfältige Steuerungsaufgaben genutzt werden kann.Model pixel movements according to claim 5 result in a gesture set that can be used for a variety of control tasks.

Die Vorgabe eines Eingabebereiches mit einer Bereichsvorgabe-Geste nach Anspruch 6 ermöglicht die Definition eines beispielsweise hochauflösend erfassbaren Unterbereiches innerhalb des Erfassungsbereiches, was zu detaillierten Eingabezwecken genutzt werden kann. Bei der Bereichsvorgabe-Geste kann es sich um eine Kreisform-Bewegung handeln. In dem definierten Eingabebereich können dann weitere Eingaben erfolgen.The specification of an input area with an area specification gesture according to claim 6 makes it possible to define a sub-area which can be detected, for example, with high resolution, within the detection area, which can be used for detailed input purposes. The divisional gesture may be a circular motion. You can then make further entries in the defined input area.

Durch eine Gesichtserkennung nach Anspruch 7 kann eine Freigabe der Gestikerkennung erfolgen. Eine Gesichtserkennung kann in der Umgebung der Bewegung eine Person identifizieren. Es kann dann sichergestellt werden, dass nur bestimmte Personen Zugriff haben.By a face recognition according to claim 7, a release of the gesture recognition can take place. Face recognition can identify a person in the environment of the movement. It can then be ensured that only certain people have access.

Durch eine Auswahl bereitgestellter Modell-Bildpunktbewegungen nach Anspruch 8 ist die Vorgabe eines Nutzerprofils möglich.The selection of a user profile is possible by a selection of provided model pixel movements according to claim 8.

Die Vorteile einer Vorrichtung nach Anspruch 9 entsprechen denen, die vorstehend im Zusammenhang mit dem Bewegungsbahn-Erkennungsverfahren und dem Gestikerkennungsverfahren bereits erläutert wurden.The advantages of a device according to claim 9 correspond to those which have already been explained above in connection with the trajectory recognition method and the gesture recognition method.

Zur Vorrichtung kann eine Lichtquelle gehören, die mit dem Kamerasensor und/oder dem Auswerterechner in Signalverbindung steht, sodass die Lichtquelle, beispielsweise eine Belichtungsstärke oder ein Belichtungszeitraum, vom Kamerasensor und/oder vom Auswerterechner durch entsprechende Ansteuerung vorgegeben werden kann.The device may include a light source which is in signal communication with the camera sensor and / or the evaluation computer so that the light source, for example an exposure intensity or an exposure period, can be preset by the camera sensor and / or the evaluation computer by appropriate control.

Mit Hilfe einer Projektoreinrichtung nach Anspruch 10 kann beispielsweise in einem vorgegebenen Eingabebereich ein Eingabefeld oder eine Mehrzahl von Eingabefeldern, beispielsweise in Form einer Tastatur, durch Projektion erzeugt werden. Durch Betätigung des mindestens einen, projizierten Eingabefeldes kann der Benutzer dann eine definierte Steuerungsaktion auslösen oder auch eine Eingabe, beispielsweise eine Ja/Nein-Auswahl oder eine Texteingabe vornehmen.By means of a projector device according to claim 10, an input field or a plurality of input fields, for example in the form of a keyboard, can be generated by projection, for example in a predetermined input area. By actuating the at least one projected input field, the user can then trigger a defined control action or also make an input, for example a yes / no selection or a text input.

Ein Ausführungsbeispiel der Erfindung wird nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen:An embodiment of the invention will be explained in more detail with reference to the drawing. In this show:

1 stark schematisch eine Vorrichtung zur Durchführung eines Verfahrens zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches als Teil eines Gestikerkennungsverfahrens; 1 very schematically an apparatus for carrying out a method for detecting a movement path of at least one moving object within a detection area as part of a Gestikerkennungsverfahrens;

2 und 3 Momentaufnahmen von den Erfassungsbereich wiedergebenden Erfassungsbildern zu zwei aufeinanderfolgenden Erfassungszeitpunkten. 2 and 3 Snapshots of the capture area reflecting capture images at two consecutive capture times.

1 zeigt schematisch eine Vorrichtung 1 zur Durchführung eines Erkennungsverfahrens. Mit der Vorrichtung kann eine Bewegungsbahn 2 mindestens eines bewegten Objektes 3 innerhalb eines Erfassungsbereiches 4, der in der 1 gestrichelt dargestellt ist, erkannt werden. Als Beispiel für die Bewegungsbahn 2 ist in der 1 die Bahn einer bewegten Hand des Objektes 3 am Beispiel eines gestikulierenden Benutzers dargestellt. 1 schematically shows a device 1 to carry out a recognition process. With the device can be a trajectory 2 at least one moving object 3 within a coverage area 4 , the Indian 1 dashed lines are recognized. As an example of the trajectory 2 is in the 1 the path of a moving hand of the object 3 illustrated by the example of a gesticulating user.

Die Vorrichtung 1 hat einen monokularen Kamerasensor 5, bei dem es sich um eine hochauflösende CCD-Kamera oder CMOS-Kamera mit einer Vorsatzoptik 6 handelt, die in der Lage ist, eine vorgegebene Tiefe bzw. einen Tiefenbereich T des Erfassungsbereiches 4 mit vorgegebener Abbildungsschärfe zu erfassen. The device 1 has a monocular camera sensor 5 , which is a high-resolution CCD camera or CMOS camera with an optical attachment 6 which is capable of a predetermined depth or a depth range T of the detection range 4 to capture with given image sharpness.

Über eine Signalleitung 7 steht der Kamerasensor 5 mit einem Auswerterechner 8 in Signalverbindung. Letzterer steht über eine weitere Signalleitung 9 mit einem zu steuernden Gerät 10 in Signalverbindung. Alternativ kann es sich beim Auswerterechner 8 und dem zu steuernden Gerät 10 um ein und dieselbe Einheit handeln. Bei dem zu steuernden Gerät 10 kann es sich um eine Art Tablet-PC, ausgerüstet mit den Komponenten 5 und 8 zur Gestikerkennung handeln. Alternativ kann es sich bei dem zu steuernden Gerät 10 auch um ein in Bezug auf den Auswerterechner 8 externes Gerät handeln, beispielsweise um ein TV-Gerät oder um ein sonstiges Gerät der Unterhaltungselektronik. Auch ein haustechnisches Gerät, beispielsweise eine Lichtanlage oder eine Rolladensteuerung oder eine Heizanlage ist ein Beispiel für das anzusteuernde Gerät 10.Via a signal line 7 is the camera sensor 5 with an evaluation computer 8th in signal connection. The latter is over another signal line 9 with a device to be controlled 10 in signal connection. Alternatively, it may be the evaluation computer 8th and the device to be controlled 10 to act one and the same unit. In the device to be controlled 10 It can be a kind of tablet PC, equipped with the components 5 and 8th act for gesture recognition. Alternatively, the device to be controlled may be 10 also in relation to the evaluation computer 8th act external device, such as a TV or other device of consumer electronics. A home automation device, such as a lighting system or a shutter control or a heating system is an example of the device to be controlled 10 ,

Zum Erkennen der Bewegungsbahn 2 wird der Erfassungsbereich 4 mit dem Kamerasensor 5 bildgebend erfasst. Hierbei wird ein den Erfassungsbereich 4 wiedergebendes Erfassungsbild im Kamerasensor 5 erzeugt.For recognizing the trajectory 2 becomes the detection area 4 with the camera sensor 5 imaged. Here, a the detection area 4 reproducing acquisition image in the camera sensor 5 generated.

2 und 3 zeigen beispielhaft zwei derartige Erfassungsbilder 11 und 12 zu den Zeitpunkten t = 0 und t = 1, wobei beispielhaft willkürliche Zeiteinheiten verwendet werden. Das Erfassungsbild 12 ist um einen Verzögerungszeitraum später vom Kamerasensor 5 erzeugt als das Erfassungsbild 11. Die beiden Erfassungsbilder 11 und 12 werden in Echtzeit oder quasi in Echtzeit digitalisiert und im Auswerterechner 8 hinterlegt. Im Auswerterechner 8 findet dann ein Bestimmen und Auswerten von Korrespondenzen von Bildbereichen der Erfassungsbilder 11, 12 statt. Hierzu werden die Erfassungsbilder 11 und 12 im Auswerterechner 8 miteinander verglichen. Es wird sodann eine Verteilungsdichte von hinsichtlich ihrer Lageveränderung im Erfassungsbild korrespondierenden Bildbereichen ermittelt. 2 and 3 show by way of example two such detection images 11 and 12 at the times t = 0 and t = 1, using arbitrary time units as an example. The entry screen 12 is a delay period later from the camera sensor 5 generated as the capture image 11 , The two entry pictures 11 and 12 are digitized in real time or quasi in real time and in the evaluation computer 8th deposited. In the evaluation calculator 8th then finds a determination and evaluation of correspondences of image areas of the acquisition images 11 . 12 instead of. For this, the capture images 11 and 12 in the evaluation calculator 8th compared to each other. A distribution density of image areas corresponding to their change in position in the acquisition image is then determined.

Der Verzögerungszeitraum, also ein zeitlicher Abstand zwischen den Erfassungszeitpunkten der Erfassungsbilder 11 und 12 kann variierbar sein. Der Verzögerungszeitraum kann im Bereich zwischen 10 ms und 1 s liegen.The delay period, ie a time interval between the acquisition times of the acquisition images 11 and 12 can be variable. The delay period can be in the range between 10 ms and 1 s.

In den 2 und 3 sind derartige Bildbereiche durch kleine Quadrate 13 bis 22 beispielhaft dargestellt. Bei diesen Bildbereichen kann es sich um einzelne Bildpunkte oder um Bildpunktgruppen handeln. In the 2 and 3 are such image areas by small squares 13 to 22 exemplified. These image areas may be individual pixels or groups of pixels.

Die Erfassungsbilder 11 und 12 zeigen als Bildpunktgruppen, die erfasste Objekte repräsentieren, beispielhaft einen Regentropfen 23, der beispielsweise auf einer Kameralinse des Kamerasensors 5 vorliegen kann, sowie eine Hand 24 des Benutzers 3. Sowohl der Regentropfen 23 als auch die Hand 24 haben sich zwischen den beiden Erfassungszeitpunkten t = 0 und t = 1 der Erfassungsbilder 11 und 12 bewegt.The entry pictures 11 and 12 show as a pixel groups that represent detected objects, for example, a raindrop 23 for example, on a camera lens of the camera sensor 5 may be present, as well as a hand 24 the user 3 , Both the raindrop 23 as well as the hand 24 have between the two detection times t = 0 and t = 1 of the acquisition images 11 and 12 emotional.

Beim Ermitteln der Verteilungsdichte durch Vergleich der Erfassungsbilder 11 und 12 ergibt sich, dass im Bereich des Regentropfens 23 praktisch sämtliche Bildpunkte längs einer vergleichbaren Bewegungsbahn 2 23 verlaufen, was in der 3 anhand der Bewegung des obersten Bildbereiches 13 veranschaulicht ist. Hierbei ist die Position des Bildbereiches 13 zum Erfassungszeitpunkt t = 0 in der 3 gestrichelt dargestellt.When determining the distribution density by comparing the acquisition images 11 and 12 it turns out that in the area of raindrops 23 virtually all pixels along a comparable trajectory 2 23 , which is in the 3 based on the movement of the top image area 13 is illustrated. Here is the position of the image area 13 at the time of acquisition t = 0 in the 3 shown in dashed lines.

Die 3 zeigt ein typisches Ergebnis beim Auswerten der ermittelten Verteilungsdichte durch einen entsprechenden Auswertealgorithmus. Beispielsweise bei der Korrespondenzbestimmung zu den der Hand 24 zugeordneten Bildbereichen 19 bis 22 haben sich tatsächlich richtige Korrespondenzen (Bewegung der Bildbereiche 21 und 22) sowie tatsächlich falsche Korrespondenzen (Bewegung der Bildbereiche 19 und 20) ergeben. Zusammen mit anderen, der Hand 24 zuordenbaren Bildbereichen, die in den 2 und 3 nicht dargestellt sind, ergibt sich eine erhöhte Verteilungsdichte von hinsichtlich ihrer Lageveränderung im Erfassungsbild 12 mit den Bildbereichen 21 und 22 korrespondierenden Bildbereichen.The 3 shows a typical result when evaluating the determined distribution density by a corresponding evaluation algorithm. For example, in the correspondence determination to the hand 24 assigned image areas 19 to 22 actually have correct correspondences (movement of image areas 21 and 22 ) as well as actually wrong correspondences (movement of the picture areas 19 and 20 ). Together with others, the hand 24 assignable image areas that in the 2 and 3 are not shown, there is an increased distribution density of in terms of their change in position in the acquisition image 12 with the image areas 21 and 22 corresponding image areas.

Dargestellt sind weiterhin nicht körperlich als Objekte wiedergegebene weitere erfasste Bildpunktgruppen in den Erfassungsbildern 11 und 12 durch zugehörige Bildbereiche 14 bis 18 sowie die sich bei der Auswertung der Verteilungsdichte ergebenden korrespondierenden Bildbereiche 14 bis 18 nach dem Verzögerungszeitraum, also zum Zeitpunkt t = 1 (vgl. 3). Aus den sich ergebenden Bewegungsbahnen bzw. Bewegungsinkrementen 2 i (i = 13 bis 22) der Bildbereiche 13 bis 22 kann bei der Auswertung der jeweils zugehörigen ermittelten Verteilungsdichte der Bildbereiche darauf geschlossen werden, ob die sich ergebenden Bewegungsbahnen 2 i real sein können oder nicht.Also shown are not further captured pixel groups in the capture images that are rendered physically as objects 11 and 12 through associated image areas 14 to 18 as well as the corresponding image areas resulting from the evaluation of the distribution density 14 to 18 after the delay period, ie at time t = 1 (cf. 3 ). From the resulting trajectories or movement increments 2 i (i = 13 to 22) of the image areas 13 to 22 can be concluded in the evaluation of each associated associated distribution density of the image areas, whether the resulting trajectories 2 i may or may not be real.

Ergebnis des Auswertens ist ein Zuordnen einzelner Bildpunkte aus hinsichtlich ihrer Verteilungsdichte ausgewerteten Bildpunktgruppen mit zugehörigem Bewegungsinkrement zwischen den Erfassungsbildern 11, 12 aufgrund der ausgewerteten Verteilungsdichte. Das Ergebnis der Auswertung der Erfassungsbilder 11 und 12 ergibt jeweils zugeordnete Bildpunkte für die Objekte „Regentropfen“ und „Hand“ mit den tatsächlichen Bewegungsbahnen 2 23 für den Regentropfen 23 sowie 2 21 und 2 22 für die Hand 24.The result of the evaluation is an assignment of individual pixels from pixel groups evaluated with regard to their distribution density with associated movement increment between the acquisition images 11 . 12 due to the evaluated distribution density. The result of the evaluation of the acquisition images 11 and 12 results in each assigned pixels for the objects "raindrops" and "hand" with the actual trajectories 2 23 for the raindrop 23 such as 2 21 and 2 22 for the hand 24 ,

Die den zugeordneten Bildpunkten 13, 21, 22 und den zugeordneten Bewegungsinkrementen 2 23 sowie 2 21, 2 22 zugewiesenen Bildpunktbewegungen können dann ausgewertet werden.The assigned pixels 13 . 21 . 22 and the associated movement increments 2 23 as well 2 21 , 2 22 assigned pixel movements can then be evaluated.

Beim Ermitteln der Verteilungsdichte kann ein Erfassen ausgewählter Abschnitte der Erfassungsbilder 11, 12 erfolgen, die sich in den Erfassungsbildern 11, 12 unterscheiden. Im Bereich des Regentropfens 23 und im Bereich der Hand 24 kann also ein höher aufgelöstes Bestimmen und Auswerten von Korrespondenzen der Bildbereiche erfolgen. Beim Auswerten der Verteilungsdichte können Verfahren der Mittelwertbildung sowie statistische Verfahren zum Einsatz kommen.In determining the distribution density, it may be possible to detect selected portions of the acquisition images 11 . 12 done in the capture images 11 . 12 differ. In the area of raindrops 23 and in the field of the hand 24 Thus, a higher-resolution determination and evaluation of correspondences of the image areas can take place. When evaluating the distribution density, methods of averaging and statistical methods can be used.

Die Bestimmung und Auswertung von Korrespondenzen kann natürlich anhand einer Abfolge von Einzelbildern größerer Anzahl, zum Beispiel anhand einer Abfolge von drei, vier, fünf, sechs, acht, zehn, fünfundzwanzig, fünfzig, hundert oder noch mehr Einzelbildern erfolgen.The determination and evaluation of correspondences can, of course, be carried out on the basis of a sequence of individual images of a larger number, for example using a sequence of three, four, five, six, eight, ten, twenty-five, fifty, one hundred or even more individual images.

Zum reinen Erkennen der Bewegungsbahn 2 ist kein Gestenmodell erforderlich.For the pure recognition of the trajectory 2 no gesture model is required.

Wie anhand des Beispiels „Regentropfen 23“ und „Hand 24“ schon demonstriert, ermöglicht das Erkennungsverfahren ein Erfassen der Bewegungsbahnen mehrerer unabhängiger Objekte. Hierbei kann es sich auch um mehr als zwei unabhängige Objekte handeln (beispielsweise um drei, vier, fünf, zehn oder noch mehr unabhängige Objekte).As with the example "Raindrops 23 "And" hand 24 "Already demonstrated, the recognition method allows detecting the trajectories of several independent objects. These can also be more than two independent objects (for example, three, four, five, ten, or even more independent objects).

Beim bildgebenden Erfassen des Erfassungsbereichs 4 kann ein vorgegebener Tiefenbereich T, also ein Bereich vorgegebener Entfernungen, innerhalb dem Objekte, also beispielsweise der Benutzer 3, erfasst werden sollen, definiert werden. Als Tiefenbereich kann beispielsweise ein Entfernungsbereich vom Kamerasensor 5 zwischen 0,5 m und 3 m oder auch zwischen 1 m und 2,5 m vorgegeben werden. Auch eine tolerantere oder spezifischere Vorgabe eines Tiefenbereiches ist möglich. Die Definition des vorgegebenen Tiefenbereichs kann mittels eines Tiefensensors erfolgen. Hierbei können Techniken zum Einsatz kommen, die unter den Stichworten „Structured Light“, „TOF“ bekannt sind. Auch ein stereobildgebendes Verfahren mit zwei Kamerasensoren kann zur Definition des Tiefenbereiches zum Einsatz kommen. Hierzu kann auch ein Lichtfeld genutzt werden oder es kann Ultraschall bzw. Radarstrahlung genutzt werden. Auch die Schärfentiefe der Vorsatzoptik 6 kann zur Definition des Tiefenbereichs T herangezogen werden. Hierbei können beispielsweise Autofokus-Techniken zum Einsatz kommen. Sobald mit Hilfe eines derartigen Verfahrens die Tiefe des erfassten Objekts 3, also dessen Abstand zum Kamerasensor 5 bekannt ist, lässt sich nach Erfassen der Bewegungsbahn 2 auch eine Geschwindigkeit des in seiner Bewegung erfassten Objektes messen und angeben.During the imaging acquisition of the detection area 4 can a predetermined depth range T, ie a range of predetermined distances, within the objects, so for example the user 3 to be defined. As a depth range, for example, a distance range from the camera sensor 5 between 0.5 m and 3 m or between 1 m and 2.5 m. Also, a more tolerant or more specific specification of a depth range is possible. The definition of the predetermined depth range can be done by means of a depth sensor. This technique can be used, which are known under the keywords "Structured Light", "TOF". A stereobildgebendes method with two camera sensors can be used to define the depth range. For this purpose, a light field can be used or it can be used ultrasound or radar radiation. Also the depth of field of the intent optics 6 can be used to define the depth range T. In this case, for example, autofocus techniques can be used. Once using such a method, the depth of the detected object 3 that is its distance to the camera sensor 5 is known, can be after detecting the trajectory 2 also measure and indicate a speed of the object detected in its motion.

Die Definition des Tiefenbereiches kann auch durch Einstellung einer Beleuchtungsstärke einer Beleuchtung des Erfassungsbereiches mittels einer Lichtquelle 25 zu einer Belichtungszeit bei der bildgebenden Erfassung erfolgen. Die Lichtquelle 25 steht über eine nicht näher dargestellte Signalverbindung mit dem Kamerasensor 5 und/oder dem Auswerterechner 8 in Signalverbindung. Alternativ oder zusätzlich zu einer Beleuchtungsstärkeneinstellung kann zur Definition des Tiefenbereiches auch eine zeitliche Variation eines Beleuchtungszeitraums bei der Beleuchtung mit der Lichtquelle 25 in Relation zur Belichtungszeit des Kamerasensors 5 bei der bildgebenden Erfassung genutzt werden.The definition of the depth range can also be achieved by adjusting an illuminance of an illumination of the detection area by means of a light source 25 take place at an exposure time during the imaging. The light source 25 is via a signal connection, not shown, with the camera sensor 5 and / or the evaluation computer 8th in signal connection. As an alternative or in addition to an illuminance setting, a temporal variation of an illumination period in the illumination with the light source can also be used to define the depth range 25 in relation to the exposure time of the camera sensor 5 used in imaging.

Das vorstehend erläuterte Bewegungsbahn-Erkennungsverfahren kann innerhalb eines Verfahrens zur Gestikerkennung genutzt werden.The above-described trajectory recognition method can be used within a method of gesture recognition.

Hierbei werden mehrere Modell-Bildpunktbewegungen bzw. Modell-Objektbewegungen als Steuerungssymbole bereitgestellt und diese Modell-Bildpunktbewegungen werden mit den Bildpunktbewegungen verglichen, die mit dem Bewegungsbahn-Erkennungsverfahren ausgewertet wurden. Anschließend wird diejenige Modell-Bildpunktbewegung als ausgewähltes Steuerungssymbol identifiziert, welche die größte Übereinstimmung mit der ausgewerteten Bildpunktbewegung hat. Schließlich wird eine dem ausgewählten Steuerungssymbol zugeordnete Steuerungsaktion durchgeführt. Bei diesem Gestikerkennungsverfahren können Techniken zum Einsatz kommen, die im Stand der Technik als „Template Matching“ und „Inverse Kinematics“ bekannt sind.Here, a plurality of model pixel movements or model object movements are provided as control symbols, and these model pixel movements are compared with the pixel movements that have been evaluated by the movement path recognition method. Subsequently, the model pixel movement is identified as a selected control symbol, which has the greatest agreement with the evaluated pixel movement. Finally, a control action associated with the selected control icon is performed. In this gesture recognition technique, techniques known in the art as "template matching" and "inverse kinematics" may be used.

Die Modell-Bildpunktbewegungen können mindestens eines der folgenden Bewegungsmuster umfassen:

  • – Bewegung über den Erfassungsbereich von links nach rechts;
  • – Bewegung über den Erfassungsbereich von rechts nach links;
  • – Bewegung über den Erfassungsbereich von oben nach unten;
  • – Bewegung über den Erfassungsbereich von unten nach oben;
  • – Bewegung über den Erfassungsbereich in Herzform;
  • – Bewegung über den Erfassungsbereich in Z-Form;
  • – Bewegung über den Erfassungsbereich in Kreisform;
  • – Schließen einer offenen Hand zu einer Faust;
  • – keine Bewegung.
The model pixel movements may include at least one of the following motion patterns:
  • Movement across the detection area from left to right;
  • Movement across the detection area from right to left;
  • Movement over the detection area from top to bottom;
  • Movement over the detection area from bottom to top;
  • - movement over the detection area in heart shape;
  • Movement over the detection area in Z-shape;
  • - movement over the detection area in circular form;
  • - closing an open hand into a fist;
  • - no movement.

Die Steuerungsaktion kann die Vorgabe eines Eingabebereiches 26 innerhalb des gesamten Erfassungsbereiches 4 durch eine Bereichsvorgabe-Geste beinhalten. Diese Bereichsvorgabe-Geste kann beispielsweise durch eine Kreisform-Bewegung einer geöffneten oder geschlossenen Hand vollführt werden. Die Person 3 kann hierdurch innerhalb des gesamten Erfassungsbereichs 4 den Eingabebereich 26 definieren, der anschließend vom Kamerasensor 5 hochauflösend erfasst wird. Hierzu kann die Vorsatzoptik 6 beispielsweise als Zoom-Optik ausgeführt sein. In dem dann definierten Eingabebereich 26 können dann weitere, detailliertere Eingaben erfolgen. Innerhalb des Erfassungsbereiches 26 kann beispielsweise durch eine entsprechende Projektionstechnik mit Hilfe eines Projektionsmoduls bzw. einer Projektoreinrichtung 27 ein Eingaberaster projiziert werden, beispielsweise eine Tastaturbelegung. Der Nutzer kann dann eine in den Erfassungsbereich 4 mit der Projektoreinrichtung 27 projizierte Tastatur bedienen, was wiederum vom Kamerasensor 5 erfasst, erkannt und ausgewertet wird.The control action can be the specification of an input area 26 within the entire coverage area 4 by a range setting gesture. This range setting gesture may be performed, for example, by a circular motion of an open or closed hand. The person 3 can thereby be within the entire coverage 4 the input area 26 then the camera sensor 5 recorded in high resolution. For this purpose, the attachment optics 6 be executed for example as zoom optics. In the then defined input area 26 then further, more detailed inputs can be made. Within the coverage area 26 For example, by a corresponding projection technique using a projection module or a projector device 27 an input raster are projected, such as a keyboard layout. The user can then enter one in the coverage area 4 with the projector device 27 operated keyboard, which in turn from the camera sensor 5 is detected, recognized and evaluated.

Bei der Gestikerkennung kann vor dem Vergleichsschritt eine Gesichtserkennung erfolgen, die eine Voraussetzung für die Durchführung der weiteren Schritte der Gestikerkennung ist. Abhängig vom Ergebnis der Gesichtserkennung kann eine Auswahl der bereitgestellten Modell-Bildpunktbewegungen erfolgen. Hierdurch kann dem jeweils über die Gesichtserkennung erkannten Nutzer ein Profil an Modell-Bildpunktbewegungen zugeordnet werden. Es lassen sich also Nutzerprofile vorgeben.In the gesture recognition, facial recognition may be performed prior to the comparison step, which is a prerequisite for performing the further steps of gesture recognition. Depending on the result of the face recognition, a selection of the provided model pixel movements can be made. As a result, a profile of model pixel movements can be assigned to the user respectively recognized via the face recognition. So you can specify user profiles.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • WO 2012/095258 A1 [0002] WO 2012/095258 A1 [0002]
  • WO 2013/020872 A1 [0002] WO 2013/020872 A1 [0002]
  • US 4954962 [0014] US 4954962 [0014]
  • EP 2378310 A1 [0014] EP 2378310 A1 [0014]
  • CA 2211858 C [0025] CA 2211858 C [0025]
  • EP 1203344 B1 [0025] EP 1203344 B1 [0025]

Claims (10)

Verfahren zur Erkennung einer Bewegungsbahn (2; 2 i) mindestens eines bewegten Objektes (3; 23, 24) innerhalb eines Erfassungsbereiches (4) mit folgenden Schritten: – bildgebendes Erfassen des Erfassungsbereiches (4) und Erzeugen eines den Erfassungsbereich (4) wiedergebenden ersten Erfassungsbildes (11) zu einem ersten Erfassungszeitpunkt, – bildgebendes Erfassen des Erfassungsbereiches (4) und Erzeugen eines den Erfassungsbereich (4) wiedergebenden zweiten Erfassungsbildes (12) zu einem zweiten, um einen Verzögerungszeitraum späteren Erfassungszeitpunkt, – Bestimmen und Auswerten von Korrespondenzen von Bildbereichen (13 bis 22) der Erfassungsbilder (11, 12) mit folgenden Schritten: – Vergleichen der Erfassungsbilder (11, 12), – Ermitteln einer Verteilungsdichte von hinsichtlich ihrer Lageveränderung im Erfassungsbild (11, 12) korrespondierenden Bildbereichen (13 bis 22), – Auswerten der ermittelten Verteilungsdichte, – Zuordnen von mindestens einem Bildpunkt einer Bildpunktgruppe (23, 24) und/oder eines Bildbereiches (13 bis 22) mit zugehörigem Bewegungsinkrement (2 23; 2 21, 2 22) zwischen den Erfassungsbildern (11, 12) aufgrund der ausgewerteten Verteilungsdichte, – Auswerten von dem zugeordneten Bildpunkt und seinem Bewe gungsinkrement (2 23; 2 21, 2 22) zugewiesenen Bildpunktbewegungen. Method for detecting a trajectory ( 2 ; 2 i ) at least one moving object ( 3 ; 23 . 24 ) within a coverage area ( 4 ) comprising the following steps: - imaging acquisition of the detection area ( 4 ) and generating a coverage area ( 4 ) reproducing the first acquisition image ( 11 ) at a first detection time, - imaging detection of the detection area ( 4 ) and generating a coverage area ( 4 ) second capture image ( 12 ) to a second detection time, later by a delay period, - determination and evaluation of correspondences of image areas ( 13 to 22 ) of the acquisition images ( 11 . 12 ) comprising the following steps: - comparing the acquisition images ( 11 . 12 ), - determining a distribution density of in terms of their position change in the entry screen ( 11 . 12 ) corresponding image areas ( 13 to 22 ), - evaluating the determined distribution density, - assigning at least one pixel of a pixel group ( 23 . 24 ) and / or an image area ( 13 to 22 ) with associated movement increment ( 2 23 ; 2 21 , 2 22 ) between the acquisition images ( 11 . 12 ) on the basis of the evaluated distribution density, - evaluation of the assigned pixel and its movement increment ( 2 23 ; 2 21 , 2 22 ) assigned pixel movements. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim bildgebenden Erfassen des Erfassungsbereiches (4) ein vorgegebener Tiefenbereich (T), also ein Bereich vorgegebener Entfernungen, innerhalb dem Bildpunkte erfasst werden sollen, definiert wird.A method according to claim 1, characterized in that during the imaging acquisition of the detection area ( 4 ) is defined a predetermined depth range (T), ie a range of predetermined distances within which pixels are to be detected. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass eine Definition des Tiefenbereiches (T) durch Einstellung einer Beleuchtungsstärke einer Beleuchtung des Erfassungsbereiches zu einer Belichtungszeit bei der bildgebenden Erfassung erfolgt.A method according to claim 2, characterized in that a definition of the depth range (T) by adjusting an illuminance of an illumination of the detection area to an exposure time in the imaging acquisition takes place. Verfahren zur Gestikerkennung unter Einsatz eines Erkennungsverfahrens nach einem der Ansprüche 1 bis 3 mit folgenden weiteren Schritten: – Bereitstellen mehrerer Modell-Bildpunktbewegungen als Steuerungssymbole, – Vergleichen der mit dem Erkennungsverfahren ausgewerteten Bildpunktbewegungen mit den Modell-Bildpunktbewegungen, – Identifizieren derjenigen Modell-Bildpunktbewegung, die die größte Übereinstimmung mit der ausgewerteten Bildpunktbewegung hat, als ausgewähltes Steuerungssymbol, – Durchführen einer dem ausgewählten Steuerungssymbol zugeordneten Steuerungsaktion.Method for detecting a gesture using a recognition method according to one of Claims 1 to 3, with the following further steps: Providing multiple model pixel motions as control symbols, Comparing the pixel movements evaluated with the recognition method with the model pixel movements, Identifying as the selected control symbol the model pixel movement which has the greatest agreement with the evaluated pixel movement; - Perform a control action associated with the selected control icon. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Modell-Bildpunktbewegungen mindestens eine der folgenden Bewegungsmuster umfassen: – Bewegung über den Erfassungsbereich von links nach rechts; – Bewegung über den Erfassungsbereich von rechts nach links; – Bewegung über den Erfassungsbereich von oben nach unten; – Bewegung über den Erfassungsbereich von unten nach oben; – Bewegung über den Erfassungsbereich in Herzform; – Bewegung über den Erfassungsbereich in Z-Form; – Bewegung über den Erfassungsbereich in Kreisform; – Schließen einer offenen Hand zu einer Faust; – keine Bewegung.A method according to claim 4, characterized in that the model pixel movements comprise at least one of the following movement patterns: movement over the detection area from left to right; Movement across the detection area from right to left; Movement over the detection area from top to bottom; Movement over the detection area from bottom to top; - movement over the detection area in heart shape; Movement over the detection area in Z-shape; - movement over the detection area in circular form; - closing an open hand into a fist; - no movement. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Steuerungsaktion die Vorgabe eines Eingabebereichs (26) innerhalb des Erfassungsbereichs (4) durch eine Bereichsvorgabe-Geste beinhaltet.Method according to Claim 4 or 5, characterized in that the control action specifies the specification of an input range ( 26 ) within the scope ( 4 ) by a range setting gesture. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass vor dem Vergleichen eine Gesichtserkennung erfolgt.Method according to one of claims 4 to 6, characterized in that prior to comparing a face recognition. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass abhängig vom Ergebnis der Gesichtserkennung eine Auswahl der bereitgestellten Modell-Bildpunktbewegungen erfolgt.A method according to claim 7, characterized in that depending on the result of the face recognition, a selection of the provided model pixel movements takes place. Vorrichtung (1) zur Durchführung eines Erkennungsverfahrens nach einem der Ansprüche 1 bis 8 – mit einem monokularen Kamerasensor (5), – mit einem Auswerterechner (8), der mit dem Kamerasensor (5) in Signalverbindung (7) steht.Contraption ( 1 ) for carrying out a recognition method according to one of claims 1 to 8 - with a monocular camera sensor ( 5 ), - with an evaluation computer ( 8th ) connected to the camera sensor ( 5 ) in signal connection ( 7 ) stands. Vorrichtung nach Anspruch 9, gekennzeichnet durch eine Projektoreinrichtung (27).Apparatus according to claim 9, characterized by a projector device ( 27 ).
DE102014201313.5A 2014-01-24 2014-01-24 Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method Withdrawn DE102014201313A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014201313.5A DE102014201313A1 (en) 2014-01-24 2014-01-24 Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method
PCT/EP2015/050585 WO2015110331A1 (en) 2014-01-24 2015-01-14 Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method
EP15700309.6A EP3097511A1 (en) 2014-01-24 2015-01-14 Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014201313.5A DE102014201313A1 (en) 2014-01-24 2014-01-24 Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method

Publications (1)

Publication Number Publication Date
DE102014201313A1 true DE102014201313A1 (en) 2015-07-30

Family

ID=52347334

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014201313.5A Withdrawn DE102014201313A1 (en) 2014-01-24 2014-01-24 Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method

Country Status (3)

Country Link
EP (1) EP3097511A1 (en)
DE (1) DE102014201313A1 (en)
WO (1) WO2015110331A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016201704A1 (en) 2016-02-04 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft A gesture recognition apparatus and method for detecting a gesture of an occupant of a vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017216065A1 (en) 2017-09-12 2019-03-14 Robert Bosch Gmbh Method and device for evaluating pictures, operational assistance method and operating device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954962A (en) 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
EP1203344B1 (en) 1999-07-15 2005-11-09 Precise Biometrics AB Method and system for fingerprint template matching
CA2211858C (en) 1996-08-02 2007-06-26 Microsoft Corporation Control solutions for the resolution plane of inverse kinematics chains
EP2378310A1 (en) 2010-04-15 2011-10-19 Cedes Safety & Automation AG Time of flight camera unit and optical surveillance system
WO2012095258A1 (en) 2011-01-12 2012-07-19 3Vi Gmbh Remote-control device and interface module for controlling an apparatus on the basis of a moving object
WO2013020872A1 (en) 2011-08-09 2013-02-14 3Vi Gmbh Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120277B2 (en) * 2001-05-17 2006-10-10 Koninklijke Philips Electronics N.V. Segmentation unit for and method of determining a second segment and image processing apparatus
US9760214B2 (en) * 2005-02-23 2017-09-12 Zienon, Llc Method and apparatus for data entry input
JP5374220B2 (en) * 2009-04-23 2013-12-25 キヤノン株式会社 Motion vector detection device, control method therefor, and imaging device
US20110299737A1 (en) * 2010-06-04 2011-12-08 Acer Incorporated Vision-based hand movement recognition system and method thereof
JP2012253482A (en) * 2011-06-01 2012-12-20 Sony Corp Image processing device, image processing method, recording medium, and program
US9625993B2 (en) * 2012-01-11 2017-04-18 Biosense Webster (Israel) Ltd. Touch free operation of devices by use of depth sensors
CN104145276B (en) * 2012-01-17 2017-05-03 厉动公司 Enhanced contrast for object detection and characterization by optical imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954962A (en) 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
CA2211858C (en) 1996-08-02 2007-06-26 Microsoft Corporation Control solutions for the resolution plane of inverse kinematics chains
EP1203344B1 (en) 1999-07-15 2005-11-09 Precise Biometrics AB Method and system for fingerprint template matching
EP2378310A1 (en) 2010-04-15 2011-10-19 Cedes Safety & Automation AG Time of flight camera unit and optical surveillance system
WO2012095258A1 (en) 2011-01-12 2012-07-19 3Vi Gmbh Remote-control device and interface module for controlling an apparatus on the basis of a moving object
WO2013020872A1 (en) 2011-08-09 2013-02-14 3Vi Gmbh Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Black, Michael J., and Allan D. Jepson. "A probabilistic framework for matching temporal trajectories: Condensation-based recognition of gestures and expressions." Computer Vision-ECCV'98. Springer Berlin Heidelberg, 1998. 909-924 *
Black, Michael J., and Allan D. Jepson. "A probabilistic framework for matching temporal trajectories: Condensation-based recognition of gestures and expressions." Computer Vision—ECCV'98. Springer Berlin Heidelberg, 1998. 909-924

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016201704A1 (en) 2016-02-04 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft A gesture recognition apparatus and method for detecting a gesture of an occupant of a vehicle

Also Published As

Publication number Publication date
WO2015110331A1 (en) 2015-07-30
EP3097511A1 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
EP3642696B1 (en) Method and device for detecting a user input on the basis of a gesture
DE102007056528B3 (en) Method and device for finding and tracking pairs of eyes
EP3103059A1 (en) 3-d image analyzer for determining viewing direction
DE102008016215A1 (en) Information device operating unit
DE102013217354A1 (en) EDGE VIDEO TOOL AND INTERFACE WITH AUTOMATIC PARAMETERS ALTERNATIVES
DE102016202928A1 (en) Improved autofocus method for a coordinate measuring machine
EP1223538A2 (en) Hand recognition with position detection
DE102014201313A1 (en) Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method
DE102011002577A1 (en) Remote control device for controlling a device based on a moving object and interface module for communication between modules of such a remote control device or between one of the modules and an external device
EP2887010A1 (en) Method and device for three dimensional optical measurement of objects with a topometric measuring method and computer programme for same
EP3642697B1 (en) Method and device for detecting a user input on the basis of a gesture
EP3005565B1 (en) Switch actuation system, mobile device and method for actuating a switch using a non-tactile push gesture
DE102014224599A1 (en) Method for operating an input device, input device
DE102012105401B3 (en) Three-dimensional camera i.e. stereoscopic security camera, for monitoring e.g. press, has classification unit to form measuring curve of correlation quality based on depth maps produced at different exposure times
DE102013217347A1 (en) USER INTERFACE FOR PARAMETER ADJUSTMENT FOR EDGE MEASUREMENT VIDEO TOOLS
DE102017129627B4 (en) Distance determination based on different depth of field with different focus settings of a lens
DE102011000088A1 (en) Method for determining structures and/or geometry of workpiece, involves defining path to be passed and/or sequence of executions for specified range and/or fixed amount of measuring points and/or measuring elements
AT521934A1 (en) Procedure for capturing fingerprints
DE102015112411A1 (en) System for the stereoscopic display of images of an endoscope
DE112019000857T5 (en) Reference position setting method and apparatus for displaying a virtual image
DE102017221656A1 (en) Motion detection of objects by means of motion detectors
DE102016013294A1 (en) Adaptive exposure control by evaluating facial expressions and / or gestures
DE102012100848A1 (en) System for stereoscopic display of images of endoscope using dimensional map, has analyzing unit to test whether detected overexposure is reflection of light by object in spatial area based on three-dimensional model of spatial area
DE102011075877A1 (en) Evaluation method for a sequence of temporally successive depth images
DE102016202526A1 (en) Method and device for detecting a control gesture of a user, in particular in a motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R120 Application withdrawn or ip right abandoned