DE102014201313A1 - Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method - Google Patents
Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method Download PDFInfo
- Publication number
- DE102014201313A1 DE102014201313A1 DE102014201313.5A DE102014201313A DE102014201313A1 DE 102014201313 A1 DE102014201313 A1 DE 102014201313A1 DE 102014201313 A DE102014201313 A DE 102014201313A DE 102014201313 A1 DE102014201313 A1 DE 102014201313A1
- Authority
- DE
- Germany
- Prior art keywords
- movement
- detection area
- detection
- pixel
- acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Bei einem Verfahren zur Erkennung einer Bewegungsbahn (223; 221, 222) mindestens eines bewegten Objektes (23, 24) innerhalb eines Erfassungsbereiches wird dieser zunächst bildgebend erfasst. Hierbei wird ein erstes Erfassungsbild (11) erzeugt, dass den Erfassungsbereich zu einem ersten Erfassungszeitpunkt wiedergibt. Um einen Verzögerungszeitraum später wird ein zweites Erfassungsbild (12) erzeugt, dass den Erfassungsbereich zu einem entsprechend späteren Erfassungszeitpunkt zeigt. Anschließend werden Korrespondenzen von Bildbereichen (13 bis 22) der Erfassungsbilder (12) bestimmt und ausgewertet. Hierzu werden die Erfassungsbilder (12) verglichen, es wird eine Verteilungsdichte von hinsichtlich ihrer Lageveränderung im Erfassungsbild (12) korrespondierenden Bildbereichen (13 bis 23) ermittelt und die ermittelte Verteilungsdichte wird ausgewertet. Es werden dann Bildpunkte (23, 24) mit zugehörigem Bewegungsinkrement (223; 221, 222) zwischen den Erfassungsbildern (12) aufgrund der ausgewerteten Verteilungsdichte zugeordnet. Hieran schließt sich eine Bildpunktbewegungsauswertung an. Dieses Verfahren sowie ein dieses nutzende Gestikerkennungsverfahren können mit einfachen optischen Mitteln realisiert werden.In a method for detecting a movement path (223, 221, 222) of at least one moving object (23, 24) within a detection area, this is first detected by imaging. Here, a first detection image (11) is generated, which reproduces the detection area at a first detection time. At a later time, a second detection image (12) is generated, which shows the detection area at a corresponding later detection time. Subsequently, correspondences of image areas (13 to 22) of the acquisition images (12) are determined and evaluated. For this purpose, the acquisition images (12) are compared, a distribution density of image areas (13 to 23) corresponding to their change in position in the acquisition image (12) is determined, and the determined distribution density is evaluated. Pixels (23, 24) with associated motion increment (223, 221, 222) are then assigned between the acquisition images (12) on the basis of the evaluated distribution density. This is followed by a pixel motion evaluation. This method, as well as a gestikerkennungsverfahren using this can be realized with simple optical means.
Description
Die Erfindung betrifft ein Verfahren zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches. Ferner betrifft die Erfindung ein Verfahren zur Gestikerkennung unter Einsatz eines derartigen Erkennungsverfahrens und eine Vorrichtung zur Durchführung eines derartigen Erkennungsverfahrens bzw. Gestikerkennungsverfahrens.The invention relates to a method for detecting a movement path of at least one moving object within a detection area. Furthermore, the invention relates to a method for gesture recognition using such a recognition method and to an apparatus for carrying out such a recognition method or gesture recognition method.
Verfahren und Vorrichtungen zur Objekterkennung sind bekannt aus der
Es ist eine Aufgabe der vorliegenden Erfindung, ein Erkennungsverfahren mit einfachen optischen Mitteln zu ermöglichen.It is an object of the present invention to provide a detection method with simple optical means.
Diese Aufgabe ist erfindungsgemäß gelöst durch ein Erkennungsverfahren mit den im Anspruch 1 angegebenen Merkmalen.This object is achieved by a detection method with the features specified in
Die beschriebene Erfindung misst eine Verteilungsdichte von Korrespondenzen zwischen Teilen aufeinanderfolgender Bilder. Dazu werden zwischen Bildausschnitten von zwei aufeinanderfolgenden Bildern Korrespondenzen ermittelt. Eine Korrespondenz ist gegeben, wenn sich zwei Bildausschnitte ähneln. Bei dieser Vorverarbeitung werden auch Korrespondenzen zugelassen, die nicht dem optischen Fluss entsprechen. Mit dem Verfahren entstehen jeweils für kleine Bildregionen Verteilungen von Korrespondenzvektoren unterschiedlicher Richtung und Länge, somit über das gesamte Bild Korrespondenzverteilungsverläufe. Diese Korrespondenzverteilungsverläufe werden in eine Korrespondenzverteilungsdichte umgerechnet. Der Bildfluss entspricht dann den größten Werten einer idealen Korrespondenzverteilungsdichte. Durch Messfehler, Bildwiederholungen und Messlücken wird die ideale Korrespondenzverteilungsdichte eines optischen Flusses in der Regel nicht erreicht. Das Vorverarbeitungsverfahren kann deshalb als fluss-orientierte Untersuchung (flow-orientedexamination, flox) charakterisiert werden.The invention described measures a distribution density of correspondences between parts of successive images. For this purpose correspondences are determined between image sections of two successive images. Correspondence is given when two parts of the picture are similar. In this preprocessing, correspondences are also permitted which do not correspond to the optical flow. With the method, distributions of correspondence vectors of different direction and length are produced for small image regions, thus correspondence distribution profiles over the entire image. These correspondence distribution profiles are converted into a correspondence distribution density. The image flow then corresponds to the largest values of an ideal correspondence distribution density. Due to measurement errors, image repetitions and measurement gaps, the ideal correspondence distribution density of an optical flow is generally not achieved. The preprocessing method can therefore be characterized as flow-oriented examination (flox).
Eine Teilmenge solcher Korrespondenzverteilungsdichten ist der optische Fluss. Durch Zuordnungsfehler wird die Verteilungsdichte eine Vielzahl weiterer Korrespondenzen finden. Die Verteilungsdichten werden auf potentielle Bewegungen kompakter Regionen überprüft und Bewegungsinkremente abgeleitet. Aus einer Folge von Bewegungsinkrementen werden Objektbewegungen verkettet und plausibilisiert. Korrespondenzen zwischen ähnlichen Bildpunkten bzw. Bildteilen, die nicht Abbildungen desselben Objektes sind, z.B. Korrespondenzen zwischen zwei benachbarten Aktenordnern, führen zu einer Scheinbewegung, die sich in der Regel örtlich nicht fortsetzt, sondern lokal bleibt, vergleichbar mit der Tachoanzeige bei durchdrehenden Reifen. Durch Vergleich von mehr als zwei Erfassungsbildern, die nacheinander aufgenommen werden, lassen sich derartige Scheinbewegungen ausschließen. Die Verkettung plausibilisierter Bewegungsinkremente führt dann zu einer Bewegung, die ihrerseits auf eine Geste hin überprüft wird.A subset of such correspondence distribution densities is the optical flow. By allocation errors, the distribution density will find a variety of other correspondences. The distribution densities are checked for potential movements of compact regions and motion increments are derived. From a sequence of motion increments object movements are concatenated and made plausible. Correspondences between similar pixels or image parts that are not images of the same object, e.g. Correspondences between two adjacent folders, lead to a pseudo-movement, which usually does not continue locally, but remains local, comparable to the speedometer with spinning tires. By comparing more than two acquisition images taken in succession, such apparent movements can be excluded. The concatenation of plausibilized motion increments then leads to a movement, which in turn is checked for a gesture.
Sollen Objekte im Nahbereich vermessen werden, wie z.B. Finger direkt vor der Kamera die in einer Brille eingebaut ist, werden mehrere Bildbereiche zu einer ähnlichen, also gemeinsamen Bewegung führen. In diesem Fall wird ein geeigneter Mittelwert der Koordinaten der gemeinsamen Bewegung zur Repräsentation des eigentlichen Objektes verwendet. In der Regel ist nicht die Position des Objektes maßgebend für die Bewegungsgeste, sondern die Form der Bahn, die in diesem Fall für alle gemeinsamen Bewegungen identisch ist.If objects in the vicinity are to be measured, such as e.g. Fingers directly in front of the camera, which is installed in a pair of glasses, will cause several image areas to move in a similar, ie common, movement. In this case, an appropriate average of the coordinates of the common motion is used to represent the actual object. As a rule, it is not the position of the object that determines the motion gesture, but the shape of the path, which in this case is identical for all common movements.
Neben einem Mittelwert kann auch der Oberste aller eine gemeinsame Bahn durchlaufenden Bildpunkte ausgewählt und zugeordnet werden. Das ist z.B. die Fingerspitze eines nach oben zeigenden Fingers im Bild.In addition to an average value, the supreme of all pixels traversing a common path can also be selected and assigned. This is e.g. the fingertip of an upward pointing finger in the picture.
Die Genauigkeit der Bahn muss dabei nur so gut sein, dass die den Gesten zugeordneten Bahnformen unterschieden werden können.The accuracy of the web has to be so good that it is possible to differentiate the web shapes assigned to the gestures.
Beim bildgebenden Erfassen können Kamerabilder zyklisch in einen Auswerterechner geladen werden.In the case of imaging, camera images can be cyclically loaded into an evaluation computer.
Der zeitliche Abstand der Bilder darf variieren, muss aber bekannt sein. Aus zwei aufeinanderfolgenden Bildern wird eine Korrespondenzverteilungsdichte ermittelt, aus der pro Bildpaar Bewegungsinkremente errechnet werden. Aus der Folge von Bewegungsinkrementen werden Bewegungssequenzen gefiltert, die ausgewählten Gestenbewegungen entsprechen können. Die Anzahl fehlerhafter Korrespondenzverteilungsdichten können durch grobes Entfernungswissen, durch geeignete Tiefensensoren oder durch Schärfe-Einstellungen der Kamera oder Blitzbeleuchtung reduziert werden, um die Sicherheit bei der Erkennung zu erhöhen.The temporal distance of the pictures may vary, but must be known. From two successive images, a correspondence distribution density is determined from which movement increments are calculated per image pair. From the sequence of motion increments, motion sequences are filtered that can correspond to selected gesture movements. The number of incorrect correspondence distribution densities can be reduced by coarse distance knowledge, by suitable depth sensors or by sharpness adjustments of the camera or flash lighting, in order to increase the security with the recognition.
Bei der Bildpunkt-Zuordnung erfolgt keine Objektform-Erkennung. Es wird überprüft, wo in korrespondierenden Bildpunktgruppen bzw. Bildbereichen Bewegungen, insbesondere schnelle Bewegungen, mit hoher Dichte, also Bewegungen von Bildpunktgruppen mit vergleichbaren Bewegungsinkrementen, detektiert. Aus einer detektierten Bildpunktgruppe erfolgt die Auswahl und Zuordnung eines repräsentativen Bildpunktes aufgrund von vorher festgelegten Kriterien für die ermittelte Verteilungsdichte und die zugehörigen Bewegungsinkremente. Es kann beispielsweise eine Mindestdichte von bewegten Bildpunkten vorgegeben werden und es kann unter den dann vorselektierten Bildpunkten, die innerhalb der Bildpunktgruppen mit der Mindestdichte liegen, eine Selektion nach dem größten Bewegungsinkrement vorgenommen werden. Alternativ kann nach bestimmten Bewegungsinkrementen vorselektiert werden und es kann innerhalb einer Bildpunktgruppe, die dieses Bewegungsinkrement aufweist, ein hinsichtlich seiner Lage ausgezeichneter Bildpunkt innerhalb dieser Bildpunktgruppe ausgewählt werden. Bei der Auswahl bzw. Zuordnung des Bildpunktes durch Auswertung der ermittelten Verteilungsdichte kann ein Vorhersage-Algorithmus eine Zuordnung eines spezifischen Bildpunktes vereinfachen. Hierzu wird anhand von beispielsweise drei aufeinanderfolgenden Erfassungsbildern überprüft, ob beim zuletzt aufgenommen Erfassungsbild ein Kandidaten-Bildpunkt in einem Bildbereich vorliegt, in dem er entsprechend seiner Bewegung in den ersten beiden nacheinander aufgenommenen Erfassungsbildern tatsächlich zu erwarten ist. Nur Bildpunkte, bei denen ein vorhergesagter Bildbereich erreicht wird, entsprechen dann der Vorhersage und erfüllen somit dieses Auswahlkriterium. Soweit nach Durchlaufen dieser verschiedenen Auswahlkriterien immer noch mehrere Bildpunkte verbleiben, kann eine einfache geometrische Auswahl erfolgen. Es kann beispielsweise ein oberster Bildpunkt ausgewählt und zugeordnet werden, der im Erfassungsbereich unter den Auswahlkandidaten vorliegt. Bei den Bildbereichen kann es sich um einzelne Bildpunkte oder um Bildpunktgruppen handeln.When pixel mapping is done no object shape detection. It is checked where in corresponding pixel groups or image areas movements, in particular fast movements, with high density, ie movements of pixel groups with comparable movement increments, detected. From a detected pixel group, the selection and assignment of a representative pixel takes place on the basis of previously defined criteria for the determined distribution density and the associated movement increments. It For example, a minimum density of moving pixels can be specified, and it is possible to make a selection for the largest movement increment among the then preselected pixels which lie within the pixel groups with the minimum density. Alternatively, it is possible to preselect according to certain movement increments and, within a pixel group having this movement increment, a pixel which is excellent in terms of its position can be selected within this pixel group. In the selection or assignment of the pixel by evaluation of the determined distribution density, a prediction algorithm can simplify an assignment of a specific pixel. For this purpose, it is checked on the basis of, for example, three successive acquisition images, if the last captured acquisition image is a candidate pixel in an image area in which it can actually be expected according to its movement in the first two successive acquisition images. Only pixels in which a predicted image area is reached then correspond to the prediction and thus fulfill this selection criterion. As far as several pixels remain after passing through these different selection criteria, a simple geometric selection can be made. For example, it is possible to select and assign an uppermost pixel which is present in the detection area among the selection candidates. The image areas may be individual pixels or pixel groups.
Die Definition eines Tiefenbereiches nach Anspruch 2 kann mit Hilfe eines Tiefensensors erfolgen. Hierzu kann auch die Schärfentiefe einer Vorsatzoptik des Kamerasensors genutzt werden. Auch Autofokus-Techniken können hierfür genutzt werden, was insbesondere zur Kontrastverstärkung und damit zur Verbesserung des Ergebnisses eines Vergleichs der Erfassungsbilder genutzt werden kann. Sobald eine Tiefe eines Objektes, dessen Bewegungsbahn erkannt wurde, bekannt ist, lassen sich zur Objektbewegung auch die Objektgeschwindigkeit messen und angeben.The definition of a depth range according to
Die Korrespondenzverteilungsdichte kann entsprechend nicht nur von Objekten in der Entfernung des erwarteten Objektes ermittelt werden, sondern auch von weniger oder weiter von dem Sensor entfernten Objekten. Mit auch grob auflösenden Tiefensensoren, auf Basis von strukturiertem Licht, Time-of-Flight oder auch Stereoskopie können Bildteile identifiziert werden, die nicht im Entfernungsbereich liegen und deren Verteilungsdichten ignoriert werden. Ein Tiefensensor auf Basis von strukturiertem Licht (Structured Light) ist beispielsweise bekannt aus der
Gröbere Auflösungen bieten zum Beispiel Ultraschallsensoren. Durch eine Kombination von einigen Ultraschallsensoren können die Richtungen von Objekten, die in der erwarteten Entfernung liegen, ermittelt werden und andere Bildbereiche diskriminiert werden.Coarser resolutions offer, for example, ultrasonic sensors. Through a combination of some ultrasonic sensors, the directions of objects that are within the expected distance can be determined and other image areas can be discriminated.
Entfernungsinformationen geben auch sogenannte Lichtfeld-Sensoren.Distance information is also provided by so-called light field sensors.
Kann in bestimmten Bildbereichen keine Schärfe für die gewünschte Entfernung errechnet werden, werden auch diese diskriminiert.If no sharpness can be calculated for the desired distance in certain image areas, these too will be discriminated.
Eine Tiefenbereichs-Definition nach Anspruch 3 ist, das Vorhandensein einer entsprechend ansteuerbaren Lichtquelle vorausgesetzt, mit hoher Präzision möglich. Alternativ oder zusätzlich kann zur Definition des Tiefenbereichs auch eine zeitliche Variation eines Beleuchtungszeitraums zu einem Belichtungszeitpunkt bei der bildgebenden Erfassung erfolgen.A depth range definition according to
Neben den direkten Tiefensensoren können also auch weitere entfernungsabhängige Effekte genutzt werden. Wird ein IR-Filter vor die Kamera gesetzt und die Umgebung mit begrenzter IR-Lichtleistung bestrahlt, ist die Reichweite begrenzt und Korrespondenzen dahinterliegender Objekte werden nicht mehr erfasst. Sind Objekte sehr nah, werden sie von der IR-Strahlung so stark angestrahlt, dass auf ihnen keine Kontraste mehr erkennbar sind. Es entsteht somit ein Tiefenbereich für messbare Korrespondenzen. Werden in kurzer zeitlicher Abfolge die IR-Strahlungsleitung und die Belichtungszeit variiert, können messbare Tiefenbereiche so versetzt werden, dass nur Ketten von Bewegungsinkrementen von den Objekten plausibilisiert werden können, die durchgängig in den messbaren Bereichen geblieben sind.In addition to the direct depth sensors so also further distance-dependent effects can be used. If an IR filter is placed in front of the camera and the environment is irradiated with limited IR light output, the range is limited and correspondence of underlying objects is no longer detected. If objects are very close, they are so strongly illuminated by the IR radiation that no contrasts are recognizable on them. This creates a depth range for measurable correspondences. If the IR radiation line and the exposure time are varied in a short time sequence, measurable depth ranges can be offset in such a way that only chains of movement increments can be made plausible by the objects that have remained throughout the measurable areas.
Ein weiterer entfernungsabhängiger Effekt ist die Schärfentiefe. Für lichtstarke Objektive ist die Schärfentiefe geringer als bei lichtschwachen Objektiven. Nur in diesem Bereich können Korrespondenzen gemessen werden. Über in kurzer zeitlicher Abfolge variierte Brennweite kann der messbare Tiefenbereich so versetzt werden, dass auch hier nur Ketten von Bewegungsinkrementen von den Objekten plausibilisiert werden können, die durchgängig im messbaren Bereich geblieben sind.Another distance-dependent effect is the depth of field. For high-intensity lenses, the depth of field is less than with low-focussed lenses. Only in this area can correspondences be measured. By varying the focal length in a short time sequence, the measurable depth range can be shifted so that only chains of movement increments can be made plausible by the objects that have remained consistently within the measurable range.
Die Kombination der beiden entfernungsabhängigen Effekte auch zusammen mit ihrer zeitlichen Variation führt zu dem gewünschten Effekt der Einschränkung des messbaren Bereiches. Es können also auch Kombinationen aus Schärfentiefe und/oder Beleuchtungsstärke und/oder Beleuchtungsdauer zur Tiefenbereichs-Definition herangezogen werden.The combination of the two distance-dependent effects together with their temporal variation leads to the desired effect of limiting the measurable range. It is therefore also possible to use combinations of depth of field and / or illuminance and / or illumination duration for the definition of the depth range.
Die Vorteile eines Gestikerkennungsverfahrens nach Anspruch 4 entsprechen denen, die vorstehend unter Bezugnahme auf das Bewegungsbahn-Erkennungsverfahren bereits erläutert wurden. The advantages of a gesture recognition method according to
Gesten entstehen durch die Bewegung von Körperteilen. Die unmittelbare Messung der Bewegung benötigt keine Modellierung wie Abbildungen von Händen oder Gelenkmodellen. Wird die Bewegung von kompakten, zum Beispiel faustgroßen, Objekten unmittelbar gemessen, kann auf die Modellierung zum Beispiel einer Handpose oder auf Gelenkmodelle verzichtet werden. Bei einem monokularen Kamerasystem sollte das faustgroße Objekt tendenziell quer zur Blickrichtung des Sensors bewegt werden. Zusammen mit einem geeigneten Tiefensensor können auch unmittelbar Entfernungsgeschwindigkeiten zum Sensor gemessen werden. In beiden Fällen müssen aber weder Handposen trainiert oder Gelenkmodelle mit einer im Wesentlichen ungestörten Umgebung berücksichtigt werden. Außerdem wird das Verhältnis Objektgröße zu Erfassungsbereich wegen der geringeren Anforderungen an Texturinformationen an das Objekt deutlich kleiner, so dass viele unabhängige Objekte in einem großen Volumen vermessen werden können.Gestures are created by the movement of body parts. Immediate measurement of motion does not require modeling, such as images of hands or joint models. If the movement of compact, for example, fist-sized, objects measured directly, can be dispensed with the modeling, for example, a hand pose or joint models. In a monocular camera system, the fist-sized object should tend to be moved transversely to the viewing direction of the sensor. Together with a suitable depth sensor, it is also possible to directly measure removal speeds to the sensor. In both cases, however, neither hand poses have to be trained or joint models with an essentially undisturbed environment must be taken into account. In addition, the smaller the object-to-detection-area ratio, the smaller the demands on texture information to the object, so that many independent objects in a large volume can be measured.
Die abgeleiteten Gesten können über die Verwendung von bekannten Verfahren wie „Inverse Kinematics“ oder „Template Matching“ weiter plausibilisiert werden. Die Bewegung muss von einer bestimmten Objektähnlichen Grauwerte-Verteilung ausgelöst worden sein. Eine Hand, Finger wie auch künstliche Objekte (Handschuhe, Marker) können als Basis dienen. Mit „Inverse Kinematics“ können Bewegungsvorhersagen getroffen werden und damit die Korrespondenzdichteverteilung gezielter ausgewertet werden. Durch vereinfachte, zum Beispiel planare, Bewegungsmodelle wie das Modell konstanter Geschwindigkeit kann die Korrespondenzdichteverteilung ebenfalls besser ausgewertet werden.The derived gestures may be further plausibilized via the use of known methods such as "Inverse Kinematics" or "Template Matching". The movement must have been triggered by a certain object-like gray value distribution. A hand, fingers as well as artificial objects (gloves, markers) can serve as a basis. With "Inverse Kinematics" motion forecasts can be made and thus the correspondence density distribution can be evaluated more specifically. Simplified, for example, planar, motion models such as the constant velocity model can also better evaluate the correspondence density distribution.
Ein „Inverse Kinematics“-Verfahren ist bekannt aus der
Modell-Bildpunktbewegungen nach Anspruch 5 ergeben einen Gestensatz, der für vielfältige Steuerungsaufgaben genutzt werden kann.Model pixel movements according to
Die Vorgabe eines Eingabebereiches mit einer Bereichsvorgabe-Geste nach Anspruch 6 ermöglicht die Definition eines beispielsweise hochauflösend erfassbaren Unterbereiches innerhalb des Erfassungsbereiches, was zu detaillierten Eingabezwecken genutzt werden kann. Bei der Bereichsvorgabe-Geste kann es sich um eine Kreisform-Bewegung handeln. In dem definierten Eingabebereich können dann weitere Eingaben erfolgen.The specification of an input area with an area specification gesture according to
Durch eine Gesichtserkennung nach Anspruch 7 kann eine Freigabe der Gestikerkennung erfolgen. Eine Gesichtserkennung kann in der Umgebung der Bewegung eine Person identifizieren. Es kann dann sichergestellt werden, dass nur bestimmte Personen Zugriff haben.By a face recognition according to
Durch eine Auswahl bereitgestellter Modell-Bildpunktbewegungen nach Anspruch 8 ist die Vorgabe eines Nutzerprofils möglich.The selection of a user profile is possible by a selection of provided model pixel movements according to
Die Vorteile einer Vorrichtung nach Anspruch 9 entsprechen denen, die vorstehend im Zusammenhang mit dem Bewegungsbahn-Erkennungsverfahren und dem Gestikerkennungsverfahren bereits erläutert wurden.The advantages of a device according to
Zur Vorrichtung kann eine Lichtquelle gehören, die mit dem Kamerasensor und/oder dem Auswerterechner in Signalverbindung steht, sodass die Lichtquelle, beispielsweise eine Belichtungsstärke oder ein Belichtungszeitraum, vom Kamerasensor und/oder vom Auswerterechner durch entsprechende Ansteuerung vorgegeben werden kann.The device may include a light source which is in signal communication with the camera sensor and / or the evaluation computer so that the light source, for example an exposure intensity or an exposure period, can be preset by the camera sensor and / or the evaluation computer by appropriate control.
Mit Hilfe einer Projektoreinrichtung nach Anspruch 10 kann beispielsweise in einem vorgegebenen Eingabebereich ein Eingabefeld oder eine Mehrzahl von Eingabefeldern, beispielsweise in Form einer Tastatur, durch Projektion erzeugt werden. Durch Betätigung des mindestens einen, projizierten Eingabefeldes kann der Benutzer dann eine definierte Steuerungsaktion auslösen oder auch eine Eingabe, beispielsweise eine Ja/Nein-Auswahl oder eine Texteingabe vornehmen.By means of a projector device according to
Ein Ausführungsbeispiel der Erfindung wird nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen:An embodiment of the invention will be explained in more detail with reference to the drawing. In this show:
Die Vorrichtung
Über eine Signalleitung
Zum Erkennen der Bewegungsbahn
Der Verzögerungszeitraum, also ein zeitlicher Abstand zwischen den Erfassungszeitpunkten der Erfassungsbilder
In den
Die Erfassungsbilder
Beim Ermitteln der Verteilungsdichte durch Vergleich der Erfassungsbilder
Die
Dargestellt sind weiterhin nicht körperlich als Objekte wiedergegebene weitere erfasste Bildpunktgruppen in den Erfassungsbildern
Ergebnis des Auswertens ist ein Zuordnen einzelner Bildpunkte aus hinsichtlich ihrer Verteilungsdichte ausgewerteten Bildpunktgruppen mit zugehörigem Bewegungsinkrement zwischen den Erfassungsbildern
Die den zugeordneten Bildpunkten
Beim Ermitteln der Verteilungsdichte kann ein Erfassen ausgewählter Abschnitte der Erfassungsbilder
Die Bestimmung und Auswertung von Korrespondenzen kann natürlich anhand einer Abfolge von Einzelbildern größerer Anzahl, zum Beispiel anhand einer Abfolge von drei, vier, fünf, sechs, acht, zehn, fünfundzwanzig, fünfzig, hundert oder noch mehr Einzelbildern erfolgen.The determination and evaluation of correspondences can, of course, be carried out on the basis of a sequence of individual images of a larger number, for example using a sequence of three, four, five, six, eight, ten, twenty-five, fifty, one hundred or even more individual images.
Zum reinen Erkennen der Bewegungsbahn
Wie anhand des Beispiels „Regentropfen
Beim bildgebenden Erfassen des Erfassungsbereichs
Die Definition des Tiefenbereiches kann auch durch Einstellung einer Beleuchtungsstärke einer Beleuchtung des Erfassungsbereiches mittels einer Lichtquelle
Das vorstehend erläuterte Bewegungsbahn-Erkennungsverfahren kann innerhalb eines Verfahrens zur Gestikerkennung genutzt werden.The above-described trajectory recognition method can be used within a method of gesture recognition.
Hierbei werden mehrere Modell-Bildpunktbewegungen bzw. Modell-Objektbewegungen als Steuerungssymbole bereitgestellt und diese Modell-Bildpunktbewegungen werden mit den Bildpunktbewegungen verglichen, die mit dem Bewegungsbahn-Erkennungsverfahren ausgewertet wurden. Anschließend wird diejenige Modell-Bildpunktbewegung als ausgewähltes Steuerungssymbol identifiziert, welche die größte Übereinstimmung mit der ausgewerteten Bildpunktbewegung hat. Schließlich wird eine dem ausgewählten Steuerungssymbol zugeordnete Steuerungsaktion durchgeführt. Bei diesem Gestikerkennungsverfahren können Techniken zum Einsatz kommen, die im Stand der Technik als „Template Matching“ und „Inverse Kinematics“ bekannt sind.Here, a plurality of model pixel movements or model object movements are provided as control symbols, and these model pixel movements are compared with the pixel movements that have been evaluated by the movement path recognition method. Subsequently, the model pixel movement is identified as a selected control symbol, which has the greatest agreement with the evaluated pixel movement. Finally, a control action associated with the selected control icon is performed. In this gesture recognition technique, techniques known in the art as "template matching" and "inverse kinematics" may be used.
Die Modell-Bildpunktbewegungen können mindestens eines der folgenden Bewegungsmuster umfassen:
- – Bewegung über den Erfassungsbereich von links nach rechts;
- – Bewegung über den Erfassungsbereich von rechts nach links;
- – Bewegung über den Erfassungsbereich von oben nach unten;
- – Bewegung über den Erfassungsbereich von unten nach oben;
- – Bewegung über den Erfassungsbereich in Herzform;
- – Bewegung über den Erfassungsbereich in Z-Form;
- – Bewegung über den Erfassungsbereich in Kreisform;
- – Schließen einer offenen Hand zu einer Faust;
- – keine Bewegung.
- Movement across the detection area from left to right;
- Movement across the detection area from right to left;
- Movement over the detection area from top to bottom;
- Movement over the detection area from bottom to top;
- - movement over the detection area in heart shape;
- Movement over the detection area in Z-shape;
- - movement over the detection area in circular form;
- - closing an open hand into a fist;
- - no movement.
Die Steuerungsaktion kann die Vorgabe eines Eingabebereiches
Bei der Gestikerkennung kann vor dem Vergleichsschritt eine Gesichtserkennung erfolgen, die eine Voraussetzung für die Durchführung der weiteren Schritte der Gestikerkennung ist. Abhängig vom Ergebnis der Gesichtserkennung kann eine Auswahl der bereitgestellten Modell-Bildpunktbewegungen erfolgen. Hierdurch kann dem jeweils über die Gesichtserkennung erkannten Nutzer ein Profil an Modell-Bildpunktbewegungen zugeordnet werden. Es lassen sich also Nutzerprofile vorgeben.In the gesture recognition, facial recognition may be performed prior to the comparison step, which is a prerequisite for performing the further steps of gesture recognition. Depending on the result of the face recognition, a selection of the provided model pixel movements can be made. As a result, a profile of model pixel movements can be assigned to the user respectively recognized via the face recognition. So you can specify user profiles.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- WO 2012/095258 A1 [0002] WO 2012/095258 A1 [0002]
- WO 2013/020872 A1 [0002] WO 2013/020872 A1 [0002]
- US 4954962 [0014] US 4954962 [0014]
- EP 2378310 A1 [0014] EP 2378310 A1 [0014]
- CA 2211858 C [0025] CA 2211858 C [0025]
- EP 1203344 B1 [0025] EP 1203344 B1 [0025]
Claims (10)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014201313.5A DE102014201313A1 (en) | 2014-01-24 | 2014-01-24 | Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method |
PCT/EP2015/050585 WO2015110331A1 (en) | 2014-01-24 | 2015-01-14 | Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method |
EP15700309.6A EP3097511A1 (en) | 2014-01-24 | 2015-01-14 | Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014201313.5A DE102014201313A1 (en) | 2014-01-24 | 2014-01-24 | Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102014201313A1 true DE102014201313A1 (en) | 2015-07-30 |
Family
ID=52347334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014201313.5A Withdrawn DE102014201313A1 (en) | 2014-01-24 | 2014-01-24 | Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3097511A1 (en) |
DE (1) | DE102014201313A1 (en) |
WO (1) | WO2015110331A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016201704A1 (en) | 2016-02-04 | 2017-08-10 | Bayerische Motoren Werke Aktiengesellschaft | A gesture recognition apparatus and method for detecting a gesture of an occupant of a vehicle |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017216065A1 (en) | 2017-09-12 | 2019-03-14 | Robert Bosch Gmbh | Method and device for evaluating pictures, operational assistance method and operating device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4954962A (en) | 1988-09-06 | 1990-09-04 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
EP1203344B1 (en) | 1999-07-15 | 2005-11-09 | Precise Biometrics AB | Method and system for fingerprint template matching |
CA2211858C (en) | 1996-08-02 | 2007-06-26 | Microsoft Corporation | Control solutions for the resolution plane of inverse kinematics chains |
EP2378310A1 (en) | 2010-04-15 | 2011-10-19 | Cedes Safety & Automation AG | Time of flight camera unit and optical surveillance system |
WO2012095258A1 (en) | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
WO2013020872A1 (en) | 2011-08-09 | 2013-02-14 | 3Vi Gmbh | Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7120277B2 (en) * | 2001-05-17 | 2006-10-10 | Koninklijke Philips Electronics N.V. | Segmentation unit for and method of determining a second segment and image processing apparatus |
US9760214B2 (en) * | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
JP5374220B2 (en) * | 2009-04-23 | 2013-12-25 | キヤノン株式会社 | Motion vector detection device, control method therefor, and imaging device |
US20110299737A1 (en) * | 2010-06-04 | 2011-12-08 | Acer Incorporated | Vision-based hand movement recognition system and method thereof |
JP2012253482A (en) * | 2011-06-01 | 2012-12-20 | Sony Corp | Image processing device, image processing method, recording medium, and program |
US9625993B2 (en) * | 2012-01-11 | 2017-04-18 | Biosense Webster (Israel) Ltd. | Touch free operation of devices by use of depth sensors |
CN104145276B (en) * | 2012-01-17 | 2017-05-03 | 厉动公司 | Enhanced contrast for object detection and characterization by optical imaging |
-
2014
- 2014-01-24 DE DE102014201313.5A patent/DE102014201313A1/en not_active Withdrawn
-
2015
- 2015-01-14 WO PCT/EP2015/050585 patent/WO2015110331A1/en active Application Filing
- 2015-01-14 EP EP15700309.6A patent/EP3097511A1/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4954962A (en) | 1988-09-06 | 1990-09-04 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
CA2211858C (en) | 1996-08-02 | 2007-06-26 | Microsoft Corporation | Control solutions for the resolution plane of inverse kinematics chains |
EP1203344B1 (en) | 1999-07-15 | 2005-11-09 | Precise Biometrics AB | Method and system for fingerprint template matching |
EP2378310A1 (en) | 2010-04-15 | 2011-10-19 | Cedes Safety & Automation AG | Time of flight camera unit and optical surveillance system |
WO2012095258A1 (en) | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
WO2013020872A1 (en) | 2011-08-09 | 2013-02-14 | 3Vi Gmbh | Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another |
Non-Patent Citations (2)
Title |
---|
Black, Michael J., and Allan D. Jepson. "A probabilistic framework for matching temporal trajectories: Condensation-based recognition of gestures and expressions." Computer Vision-ECCV'98. Springer Berlin Heidelberg, 1998. 909-924 * |
Black, Michael J., and Allan D. Jepson. "A probabilistic framework for matching temporal trajectories: Condensation-based recognition of gestures and expressions." Computer Vision—ECCV'98. Springer Berlin Heidelberg, 1998. 909-924 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016201704A1 (en) | 2016-02-04 | 2017-08-10 | Bayerische Motoren Werke Aktiengesellschaft | A gesture recognition apparatus and method for detecting a gesture of an occupant of a vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2015110331A1 (en) | 2015-07-30 |
EP3097511A1 (en) | 2016-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3642696B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
DE102007056528B3 (en) | Method and device for finding and tracking pairs of eyes | |
EP3103059A1 (en) | 3-d image analyzer for determining viewing direction | |
DE102008016215A1 (en) | Information device operating unit | |
DE102013217354A1 (en) | EDGE VIDEO TOOL AND INTERFACE WITH AUTOMATIC PARAMETERS ALTERNATIVES | |
DE102016202928A1 (en) | Improved autofocus method for a coordinate measuring machine | |
EP1223538A2 (en) | Hand recognition with position detection | |
DE102014201313A1 (en) | Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method | |
DE102011002577A1 (en) | Remote control device for controlling a device based on a moving object and interface module for communication between modules of such a remote control device or between one of the modules and an external device | |
EP2887010A1 (en) | Method and device for three dimensional optical measurement of objects with a topometric measuring method and computer programme for same | |
EP3642697B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
EP3005565B1 (en) | Switch actuation system, mobile device and method for actuating a switch using a non-tactile push gesture | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
DE102012105401B3 (en) | Three-dimensional camera i.e. stereoscopic security camera, for monitoring e.g. press, has classification unit to form measuring curve of correlation quality based on depth maps produced at different exposure times | |
DE102013217347A1 (en) | USER INTERFACE FOR PARAMETER ADJUSTMENT FOR EDGE MEASUREMENT VIDEO TOOLS | |
DE102017129627B4 (en) | Distance determination based on different depth of field with different focus settings of a lens | |
DE102011000088A1 (en) | Method for determining structures and/or geometry of workpiece, involves defining path to be passed and/or sequence of executions for specified range and/or fixed amount of measuring points and/or measuring elements | |
AT521934A1 (en) | Procedure for capturing fingerprints | |
DE102015112411A1 (en) | System for the stereoscopic display of images of an endoscope | |
DE112019000857T5 (en) | Reference position setting method and apparatus for displaying a virtual image | |
DE102017221656A1 (en) | Motion detection of objects by means of motion detectors | |
DE102016013294A1 (en) | Adaptive exposure control by evaluating facial expressions and / or gestures | |
DE102012100848A1 (en) | System for stereoscopic display of images of endoscope using dimensional map, has analyzing unit to test whether detected overexposure is reflection of light by object in spatial area based on three-dimensional model of spatial area | |
DE102011075877A1 (en) | Evaluation method for a sequence of temporally successive depth images | |
DE102016202526A1 (en) | Method and device for detecting a control gesture of a user, in particular in a motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R120 | Application withdrawn or ip right abandoned |