DE102018121317A1 - Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface - Google Patents

Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface Download PDF

Info

Publication number
DE102018121317A1
DE102018121317A1 DE102018121317.4A DE102018121317A DE102018121317A1 DE 102018121317 A1 DE102018121317 A1 DE 102018121317A1 DE 102018121317 A DE102018121317 A DE 102018121317A DE 102018121317 A1 DE102018121317 A1 DE 102018121317A1
Authority
DE
Germany
Prior art keywords
data
point cloud
density
free space
represented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018121317.4A
Other languages
German (de)
Inventor
Niklas Hermes
Sascha Klement
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gestigon GmbH
Original Assignee
Gestigon GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gestigon GmbH filed Critical Gestigon GmbH
Priority to DE102018121317.4A priority Critical patent/DE102018121317A1/en
Priority to PCT/EP2019/071079 priority patent/WO2020043440A1/en
Publication of DE102018121317A1 publication Critical patent/DE102018121317A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Abstract

Die Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Computerprogramm, das zur Ausführung des Verfahrens konfiguriert ist. Das Verfahren weist auf: Empfangen von sensorisch erfassten Messdaten, die eine durch einen Benutzer bezüglich der Mensch-Maschine-Schnittstelle ausgeführte Freiraumgeste als räumlich mehrdimensionale inhomogene Punktwolke in einem entsprechend mehrdimensionalen Raum repräsentieren; Bestimmen, auf Basis der Messdaten, von Dichtedaten, die eine zu der Punktwolke korrespondierende Dichteverteilung repräsentieren, bei der den einzelnen Punkten der Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokale Punktdichte der Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet; Anwenden eines dimensionsreduzierenden Approximationsverfahrens auf die Dichtedaten zur Bestimmung von Schätzdaten, die eine Schätzung einer zumindest einen Richtungsaspekt der Dichteverteilung charakterisierende, eindimensionale Richtungskurve; repräsentieren; und Generieren und Bereitstellen von Richtungsdaten, welche eine Richtungsinformation repräsentieren, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist.The invention relates to a method and a device for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface, in particular a vehicle. Furthermore, the invention relates to a computer program that is configured to execute the method. The method comprises: receiving sensor-acquired measurement data which represent a free space gesture carried out by a user with respect to the human-machine interface as a spatially multidimensional inhomogeneous point cloud in a correspondingly multidimensional space; Determining, on the basis of the measurement data, density data which represent a density distribution corresponding to the point cloud, in which in each case density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point; Applying a dimension-reducing approximation method to the density data to determine estimated data that estimate an estimate of a one-dimensional direction curve that characterizes at least one direction aspect of the density distribution; represent; and generating and providing directional data which represent directional information which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space.

Description

Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Computerprogramm, das zur Ausführung des Verfahrens konfiguriert ist.The present invention relates to a method and a device for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface, in particular a vehicle. Furthermore, the invention relates to a computer program that is configured to execute the method.

Während klassische Mensch-Maschine-Schnittstellen (abgek. „MMS“ oder häufiger „MMI“) regelmäßig auf einer kontaktbasierten Interaktion eines Benutzers mit einem entsprechenden Bedienelement, beispielsweise einem physischen Schalter oder einer berührungsempfindlichen Oberfläche oder Anzeigevorrichtung usw. beruhen, sind inzwischen MMI bekannt, bei denen eine im freien Raum ohne physischen Kontakt mit einer MMI-Vorrichtung ausgeführte statische oder dynamische Geste eines menschlichen Benutzers sensorisch erfasst wird. Diese sensorische Erfassung solcher auch als „Freiraumgesten“ bezeichneten Gesten, kann beispielsweise mittels einer geeigneten Kamera erfolgen. Sodann werden mittels mathematischer Verfahren, insbesondere Bilderkennungsverfahren, aus den sensorisch erfassten Daten Rückschlüsse auf eine mittels der erfassten Geste intendierten Benutzereingabe gezogen.While classic human-machine interfaces (abbreviated “MMS” or more frequently “MMI”) are regularly based on a user's contact-based interaction with a corresponding control element, for example a physical switch or a touch-sensitive surface or display device, etc., MMI are now known, in which a static or dynamic gesture of a human user, performed in free space without physical contact with an MMI device, is sensed. This sensory detection of such gestures, also known as “free space gestures”, can be carried out, for example, using a suitable camera. Then, by means of mathematical methods, in particular image recognition methods, conclusions are drawn from the sensor-acquired data on a user input intended by means of the recorded gesture.

Insbesondere im Zusammenhang mit fahrzeugbezogenen Anwendungen können derartige zur Erkennung von Freiraumgesten fähige MII dazu eingesetzt werden, Eingaben zur Bedienung des Fahrzeugs oder eines Teilsystems davon vorzunehmen. Des Weiteren ist es auch möglich, dass sich die Freiraumgesten auf das Umfeld des Fahrzeugs beziehen, wie etwa ein Zeigen auf ein interessantes, vom Fahrzeug aus sichtbaren, fahrzeugexternes Objekt, und das Erkennen einer solchen Freiraumgeste dazu dient, eine Eingabe für ein System zu liefern, welches eine auf das Objekt bezogene Information liefern soll, oder das Fahrzeug veranlasst, darauf zu reagieren.In particular in connection with vehicle-related applications, such MII capable of recognizing free space gestures can be used to make inputs for operating the vehicle or a subsystem thereof. Furthermore, it is also possible for the free space gestures to relate to the surroundings of the vehicle, such as pointing to an interesting object that is visible from the vehicle and external to the vehicle, and the recognition of such a free space gesture serves to provide an input for a system which is intended to provide information relating to the object or causes the vehicle to react to it.

Zur Implementierung von solchen kontaktlosen MMI sind Gestenerkennungssysteme bekannt, bei denen kalibrierte 2D-Sensoren eingesetzt werden, um bestimmten Merkmalen zugeordnete Punkte entlang der Kontur einer Hand eines Benutzers zu detektieren und zu verfolgen, insbesondere von oben und der Seite aus. Auf Basis der detektierten Punkte kann sodann eine, mit der im dreidimensionalen Raum ausgeführten Geste verbundene Zeigerichtung geschätzt werden. Solche Systeme sind von der Erkennung gut unterscheidbarer Merkmale (Punkte) der menschlichen Hand abhängig und benötigen eine feststehende und kalibrierte Hardware mit zumindest zwei 2D-Sensoren.For the implementation of such contactless MMI, gesture recognition systems are known in which calibrated 2D sensors are used in order to detect and track points associated with certain features along the contour of a user's hand, in particular from above and from the side. On the basis of the detected points, a pointing direction associated with the gesture carried out in three-dimensional space can then be estimated. Such systems are dependent on the recognition of clearly distinguishable features (points) of the human hand and require fixed and calibrated hardware with at least two 2D sensors.

Darüber hinaus sind Verfahren bekannt, bei denen körperbezogene Informationen verwendet werden, um auf eine durch eine Geste ausgedrückte Zeigerichtung zu schließen. In den meisten Fällen werden dazu eine Kopfposition sowie eine Handposition detektiert und darauf beruhend eine Anzeigerichtung geschätzt. Ausrichtungen oder sogar Bewegungen der Finger der Hand werden dabei nicht detektiert oder berücksichtigt.In addition, methods are known in which body-related information is used to infer a pointing direction expressed by a gesture. In most cases, a head position and a hand position are detected and a display direction is estimated based on this. Alignments or even movements of the fingers of the hand are not detected or taken into account.

Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Erkennung von Freiraumgesten und insbesondere die Bestimmung einer dadurch vermittelnden Richtungsinformation weiter zu verbessern.The present invention is based on the object of further improving the recognition of free space gestures and in particular the determination of directional information conveying them.

Die Lösung dieser Aufgabe wird gemäß der Lehre der unabhängigen Ansprüche erreicht. Verschiedene Ausführungsformen und Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved in accordance with the teaching of the independent claims. Various embodiments and developments of the invention are the subject of the dependent claims.

Ein erster Aspekt der Erfindung betrifft ein, insbesondere computerimplementiertes, Verfahren zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs. Das Verfahren weist auf: (i) Empfangen von sensorisch erfassten Messdaten, die eine durch einen Benutzer bezüglich der Mensch-Maschine-Schnittstelle, insbesondere mittels Arm, Hand und/oder Finger, ausgeführte Freiraumgeste als räumlich mehrdimensionale, d.h. 2-dimensionale oder 3-dimensionale, inhomogene Punktwolke in einem entsprechend mehrdimensionalen Raum repräsentieren; (ii) Bestimmen, auf Basis der Messdaten, von Dichtedaten, die eine zu der Punktwolke korrespondierende Dichteverteilung repräsentieren, bei der den einzelnen Punkten der Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokale Punktdichte der Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet; (iii) Anwenden eines dimensionsreduzierenden Approximationsverfahrens auf die Dichtedaten zur Bestimmung von Schätzdaten, die eine Schätzung einer zumindest einen Richtungsaspekt der Dichteverteilung charakterisierende, eindimensionale Richtungskurve; repräsentieren; und (iv) Generieren und Bereitstellen von Richtungsdaten, welche eine Richtungsinformation repräsentieren, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist.A first aspect of the invention relates to a, in particular computer-implemented, method for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface, in particular a vehicle. The method comprises: (i) receiving sensor-acquired measurement data which a free space gesture carried out by a user with respect to the human-machine interface, in particular by means of arm, hand and / or finger, as spatially multidimensional, i.e. Represent 2-dimensional or 3-dimensional, inhomogeneous point cloud in a correspondingly multidimensional space; (ii) determining, on the basis of the measurement data, density data which represent a density distribution corresponding to the point cloud, in which in each case density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point; (iii) applying a dimension-reducing approximation method to the density data to determine estimated data which is an estimate of a one-dimensional direction curve characterizing at least one direction aspect of the density distribution; represent; and (iv) generation and provision of directional data which represent directional information which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space.

Unter einer „Richtungsinformation“ im Sinne der Erfindung ist insbesondere eine Information zu verstehen, die zumindest eine bestimmte, ausgewählte Richtung im Raum angibt. Sie kann optional insbesondere auch gegebenenfalls deren zeitliche Abhängigkeit angeben. “Direction information” in the sense of the invention is to be understood in particular to mean information that indicates at least one specific, selected direction in space. Optionally, it can optionally also specify its temporal dependency.

Unter einer „Punktwolke“ im Sinne der Erfindung ist insbesondere eine Menge von Punkten eines Vektorraums, insbesondere des dreidimensionalen Raums oder eines zweidimensionalen Unterraums davon, zu verstehen, die eine unorganisierte räumliche Struktur („Wolke“) aufweist. Eine Punktwolke ist durch die darin enthaltenen Punkte beschrieben, die jeweils insbesondere durch ihre Raumkoordinaten in einem dem Vektorraum zugeordneten Koordinatensystem erfasst werden können.A “point cloud” in the sense of the invention is to be understood in particular as a set of points of a vector space, in particular of the three-dimensional space or of a two-dimensional subspace thereof, which has an unorganized spatial structure (“cloud”). A point cloud is described by the points contained therein, each of which can be detected in particular by their spatial coordinates in a coordinate system assigned to the vector space.

Unter einer „Richtungskurve“ im Sinne der Erfindung ist insbesondere eine eindimensionale Kurve bzw. insbesondere eine eindimensionale Richtungskurve in einem höherdimensionalen Raum zu verstehen, die zumindest einen durch sie charakterisierten Richtungsaspekt aufweist. Die Richtungskurve kann insbesondere im einfachsten Fall als eindimensionale Richtungskurve eine Gerade darstellen, deren Richtung zugleich den Richtungsaspekt angibt. Sie kann jedoch im allgemeinen Fall auch eine beliebige Krümmung, auch mehrfache Krümmungen, aufweisen. Bevorzugt ist die Richtungskurve zumindest zum überwiegenden Teil, idealerweise überall, stetig und differenzierbar.A “direction curve” in the sense of the invention is to be understood in particular as a one-dimensional curve or in particular a one-dimensional direction curve in a higher-dimensional space, which has at least one directional aspect characterized by it. In the simplest case, the direction curve can represent a straight line as a one-dimensional direction curve, the direction of which at the same time indicates the direction aspect. In the general case, however, it can also have any curvature, including multiple curvatures. The directional curve is preferably at least for the most part, ideally everywhere, continuous and differentiable.

Bei der erfindungsgemäßen Lösung wird folglich die gewünschte Richtungsinformation nicht unmittelbar aus der Punkteverteilung der erfassten Punktwolke bestimmt, sondern stattdessen wird aus der Punkteverteilung zunächst eine eine Wahrscheinlichkeitsverteilung repräsentierende Dichteverteilung abgeleitet, auf deren Basis erst mittels des genannten dimensionsreduzierenden Approximationsverfahrens eine eindimensionale Richtungskurve bestimmt wird, welche die gewünschte Richtungsinformation charakterisiert. Auf diese Weise lässt sich die erreichbare Zuverlässigkeit und Genauigkeit bei der schätzungsbasierten Bestimmung von Richtungsinformationen aus Punktwolken steigern. Zudem benötigt das Verfahren nur relativ geringe Rechenressourcen, sodass es sich insbesondere für echtzeitfähige Anwendungen eignet. Außerdem ist das Verfahren unabhängig von einer bestimmten Orientierung des zur Erfassung der Messdaten verwendeten Sensors, beispielsweise einer Kamera, was es besonders gut zur Bestimmung von, insbesondere auch fingerbasierten, Zeigefreiraumgesten innerhalb eines Fahrzeugs geeignet macht, da gerade dort der Sensor in verschiedensten Positionen vorgesehen sein kann.In the solution according to the invention, the desired directional information is consequently not determined directly from the point distribution of the recorded point cloud, but instead a density distribution representing a probability distribution is first derived from the point distribution, on the basis of which a one-dimensional directional curve is determined only by means of the dimension-reducing approximation method mentioned, which determines the characterizes the desired directional information. In this way, the achievable reliability and accuracy in the estimation-based determination of directional information from point clouds can be increased. In addition, the method requires only relatively small computing resources, so that it is particularly suitable for real-time capable applications. In addition, the method is independent of a specific orientation of the sensor used to record the measurement data, for example a camera, which makes it particularly well suited for determining, in particular also finger-based, gestures of pointer clearance within a vehicle, since the sensor can be provided in very different positions there can.

Nachfolgend werden bevorzugte Ausführungsformen des Verfahrens beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird oder technisch unmöglich ist, beliebig miteinander sowie mit den weiteren beschriebenen anderen Aspekten der Erfindung kombiniert bzw. als entsprechende Ausführungsformen letzterer verwendet werden können.Preferred embodiments of the method are described below, each of which, as far as this is not expressly excluded or technically impossible, can be combined with one another as well as with the other described other aspects of the invention or used as corresponding embodiments of the latter.

Bei einigen Ausführungsformen erfolgt das sensorische mehrdimensionale Erfassen der durch einen Benutzer bezüglich der Mensch-Maschine-Schnittstelle ausgeführten Freiraumgeste mittels einem TOF-Kamerasystem. Unter einem „TOF-Kamerasystem“ im Sinne der Erfindung ist ein 3D-Kamerasystem zu verstehen, das auf Basis eines Laufzeitverfahren (englisch: time of flight, „TOF“) Distanzen misst. Das Messprinzip beruht darauf, dass die aufzunehmende Szene mittels eines Lichtpulses ausgeleuchtet wird, und die Kamera für jeden Bildpunkt die Zeit, die das Licht bis zum Objekt und wieder zurück braucht misst. Diese benötigte Zeit ist aufgrund der Konstanz der Lichtgeschwindigkeit direkt proportional zur Distanz. Die Kamera liefert somit für jeden Bildpunkt die Entfernung des darauf abgebildeten Objektes. Die Verwendung eines TOF-Kamerasystems stellt eine besonders effektive und hochauflösende Implementierungsmöglichkeit, für den zu sensorischen Erfassung der Freiraumgeste erforderlichen zumindest einen Sensor dar.In some embodiments, the sensory multidimensional detection of the free space gesture carried out by a user with respect to the human-machine interface takes place by means of a TOF camera system. A “TOF camera system” in the sense of the invention is to be understood as a 3D camera system that measures distances on the basis of a time of flight (“TOF”) method. The measuring principle is based on the fact that the scene to be recorded is illuminated by means of a light pulse, and the camera measures for each pixel the time it takes for the light to reach the object and back again. Due to the constant speed of light, this time is directly proportional to the distance. The camera thus supplies the distance of the object depicted on it for each pixel. The use of a TOF camera system represents a particularly effective and high-resolution implementation option for the at least one sensor required for sensory detection of the free space gesture.

Bei einigen Ausführungsformen ist der mehrdimensionale Raum dreidimensional und die Messdaten repräsentieren eine die erfasste Freiraumgeste räumlich dreidimensional, 3D, abbildende Punktwolke.In some embodiments, the multi-dimensional space is three-dimensional, and the measurement data represent a point cloud that depicts the detected free space gesture in three-dimensional, 3D.

Bei einer ersten Variante dazu wird unmittelbar für die 3D-Punktwolke eine dazu korrespondierende Dichteverteilung bestimmt, indem den einzelnen Punkten der 3D-Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokalen Dichte der 3D-Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet, wobei für die 3D-Punktwolken die resultierende 3D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden. Eine dimensionsreduzierende Abbildung der 3D-Punktwolke auf eine oder insbesondere mehrere Punktwolken niedrigerer Dimension ist bei dieser Variante nicht erforderlich, so dass entsprechende Verfahrensschritte eingespart werden können.In a first variant, a density distribution corresponding to this is determined directly for the 3D point cloud by assigning density information to the individual points of the 3D point cloud, which identifies a local density of the 3D point cloud in the vicinity of the respective point, whereby for the 3D point clouds representing the resulting 3D density distribution and associated density data are generated. A dimension-reducing image of the 3D point cloud on one or in particular several point clouds of a lower dimension is not necessary in this variant, so that corresponding method steps can be saved.

Bei einer zweiten, alternativen Variante dazu weist das Bestimmen der Dichtedaten auf: (i) Dimensionsreduzierendes Abbilden der 3D-Punktwolke auf eine Mehrzahl N, mit N >1, jeweils räumlich zweidimensionaler, 2D, Punktwolken, die jeweils in einem von N zugehörigen 2D-Unterräumen des mehrdimensionalen Raums definiert sind, von denen zumindest zwei in dem übergeordneten 3D-Raum nicht parallel zueinander liegen; und (ii) Bestimmen, für jede der N 2D-Punktwolken, einer dazu korrespondierenden Dichteverteilung, bei der den einzelnen Punkten der jeweiligen 2D-Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokalen Dichte der jeweiligen 2D-Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet, wobei für jede der 2D-Punktwolken die jeweilige resultierende 2D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden. Des Weiteren erfolgt das Anwenden des Approximationsverfahrens separat für jede der durch die jeweiligen Dichtedaten repräsentierten 2D-Dichteverteilungen zur Schätzung einer durch sie charakterisierten jeweiligen eindimensionalen, 1D, Richtungskurve, wobei für jede der 2D-Dichteverteilungen die jeweilige 1 D-Richtungskurve repräsentierende zugeordnete Schätzdaten erzeugt werden. Zudem erfolgt das Bestimmen der Richtungsinformation auf Basis einer, insbesondere gewichteten oder ungewichteten, Mittelung von zumindest zwei, bevorzugt sämtlicher, der durch die jeweiligen Schätzdaten repräsentierten einzelnen 1D-Richtungskurven im übergeordneten 3D-Raum, um eine auf den 3D-Raum bezogene Richtungsinformation zu erhalten.In a second, alternative variant, the determination of the density data comprises: (i) dimension-reducing mapping of the 3D point cloud onto a plurality N, with N> 1, each spatially two-dimensional, 2D, point clouds, each of which is defined in one of N associated 2D subspaces of the multidimensional space, at least two of which are not parallel to one another in the superordinate 3D space; and (ii) determining, for each of the N 2D point clouds, a density distribution corresponding thereto, in which the individual points of the respective 2D point cloud are each assigned density information which is a local density of the respective 2D point cloud in the vicinity of the respective point indicates, for each of the 2D point clouds the associated resulting 2D density distribution representing assigned density data are generated. Furthermore, the approximation method is used separately for each of the 2D density distributions represented by the respective density data for estimating a respective one-dimensional, 1D, direction curve characterized by them, whereby for each of the 2D density distributions the associated 1 D direction curve representing assigned estimation data is generated . In addition, the directional information is determined on the basis of a, in particular weighted or unweighted, averaging of at least two, preferably all, of the individual 1D directional curves represented by the respective estimation data in the superordinate 3D space in order to obtain directional information related to the 3D space .

Letzteres kann insbesondere mittels Gradientenbestimmung bezüglich einer aus der Mittelung resultierenden 1D-Richtungskurve erfolgen. Diese sowie jegliche darauf aufbauenden weiteren Ausführungsformen haben den Vorteil, dass die Komplexität der nachfolgenden Berechnungen aufgrund der vorgenommenen Dimensionsreduktion deutlich reduziert werden kann, da insgesamt weniger und nur auf zwei Dimensionen bezogene Daten verarbeitet werden müssen. Somit lässt sich insbesondere die Performanz steigern und somit auch die Echtzeitfähigkeit des Verfahrens erreichen bzw. verbessern.The latter can be done in particular by means of gradient determination with regard to a 1D direction curve resulting from the averaging. These, as well as any further embodiments based on them, have the advantage that the complexity of the subsequent calculations can be significantly reduced due to the dimensional reduction carried out, since overall less and only two-dimensional data have to be processed. In particular, the performance can thus be increased and thus the real-time capability of the method can be achieved or improved.

Bei einigen dieser Ausführungsformen gemäß der zweiten Variante weist das dimensionsreduzierende Abbilden eine Projektionsabbildung entlang einer der drei Dimensionen der durch die Messdaten repräsentierten 3D-Punktwolke auf eine korrespondierende 2D-Punktwolke in einem zugehörigen der N 2D-Unterräumen auf. Die Dimensionsreduzierung auf zwei Dimensionen erfolgt somit mittels Projektion. Beispielsweise kann bei Verwendung eines kartesischen Koordinatensystems die Projektion insbesondere entlang einer der Achsen dieses Koordinatensystems erfolgen, sodass beispielsweise alle Punkte der Punktwolke in dem durch die Koordinatenachsen X, Y und Z aufgespannten dreidimensionalen Raum entlang der Z-Achse auf die X/Y Ebene projiziert werden. Selbstverständlich ist dies nur ein Beispiel und nicht als Einschränkung zu verstehen. Insbesondere kann die Projektion entlang einer beliebigen Projektionsrichtung erfolgen und anstelle eines kartesischen Koordinatensystems kann auch ein anderes Koordinatensystem gleicher Dimension verwendet werden, um die Koordinaten der Punkte zu repräsentieren.In some of these embodiments according to the second variant, the dimension-reducing mapping has a projection mapping along one of the three dimensions of the 3D point cloud represented by the measurement data onto a corresponding 2D point cloud in a corresponding one of the N 2D subspaces. The dimension reduction to two dimensions is thus carried out by means of projection. For example, when using a Cartesian coordinate system, the projection can take place in particular along one of the axes of this coordinate system, so that, for example, all points of the point cloud in the through the coordinate axes X . Y and Z spanned three-dimensional space along the Z axis on the X / Y plane. Of course, this is only an example and should not be understood as a limitation. In particular, the projection can take place along any projection direction and instead of a Cartesian coordinate system, another coordinate system of the same dimension can also be used to represent the coordinates of the points.

Bei einigen Ausführungsformen weist das Bestimmen der Dichtedaten des Weiteren auf: (i) räumliches Quantisieren der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke
oder gegebenenfalls jeder der daraus mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, und (ii) Bestimmen der Dichtedaten auf Basis einer resultierenden Dichteverteilung der Punkte der entsprechenden quantisierten Punktwolke. Anstelle einer kontinuierlichen oder in Abhängigkeit von der diskreten Auflösung des entsprechenden die Messdaten erzeugten Sensorsystems festgelegten Abbildung, wird die Punktwolke nun auf ein vordefiniertes räumliches Gitter abgebildet und somit quantisiert. Die einzelnen Zellen des Gitters können insbesondere bei Anwendung eines rechtwinkligen oder sogar Würfelgitters im dreidimensionalen Fall als „Voxel“ und im zweidimensionalen Fall als „Pixel“ bezeichnet werden. Durch die Quantisierung wird wiederum die Komplexität der nachfolgenden Berechnungen vereinfacht, und insbesondere die Verwendung einer einfachen Indizierung für die Voxel bzw. die Pixel anstelle von Koordinatenangaben ermöglicht. Insbesondere kann die Komplexitätsreduktion einschließen, dass anstelle einer Fließkommaarithmetik nun die einfachere und weniger aufwendige Ganzzahlarithmetik verwendet werden kann. Dies vereinfacht und beschleunigt den Einsatz insbesondere in eingebetteten Systemen. Zusätzlich lässt sich durch die Art der Quantisierung die Genauigkeit des Systems anpassen, insbesondere sogar steigern, da die Art der Quantisierung einen einstellbaren Trade-off zwischen Genauigkeit und Geschwindigkeit ermöglicht (grobes Gitter = schnell aber ungenau, feines Gitter = langsamer aber genauer).
In some embodiments, determining the density data further comprises: (i) spatial quantizing the multidimensional point cloud represented by the measurement data
or, if applicable, each of the 2D point clouds obtained therefrom by means of a respective dimension-reducing image, and (ii) determining the density data on the basis of a resulting density distribution of the points of the corresponding quantized point cloud. Instead of a continuous or fixed image depending on the discrete resolution of the corresponding sensor system generated the measurement data, the point cloud is now mapped onto a predefined spatial grid and thus quantized. The individual cells of the grid can be referred to as a “voxel” in the three-dimensional case and as a “pixel” in the two-dimensional case, particularly when using a rectangular or even cube grid. The quantization in turn simplifies the complexity of the subsequent calculations and in particular enables simple indexing for the voxels or the pixels instead of coordinate information. In particular, the complexity reduction can include that instead of floating point arithmetic, the simpler and less complex integer arithmetic can now be used. This simplifies and speeds up use, particularly in embedded systems. In addition, the type of quantization allows the accuracy of the system to be adjusted, in particular even increased, since the type of quantization enables an adjustable trade-off between accuracy and speed (coarse grid = fast but inaccurate, fine grid = slower but more precise).

In einigen Weiterbildungen dieser Ausführungsformen kann sich die Quantisierung zusätzlich auf einen dem jeweiligen Voxel bzw. Pixel zugeordneten Wert beziehen, der auf Basis der darin vorhandenen Punkte der Punktwolke bestimmt wird. Die Quantisierung kann dabei insbesondere binär erfolgen, sodass im Rahmen der Quantisierung der Wert eines Voxels bzw. Pixels, wenn seine Punkteanzahl unterhalb einer vorbestimmten Schwelle liegt, auf einen ersten der beiden binären Werte, beispielsweise auf „0“, gesetzt wird, während bei Punkteanzahlen oberhalb der Schwelle dieser Wert auf den zweiten der beiden binären Werte, beispielsweise „1“, gesetzt wird. Bei einer Punkteanzahl, die gleich der Schwelle ist, kann der Wert so festgelegt werden, dass er auf vordefinierte Weise auf einen der binären Werte gesetzt wird. Auf diese Weise kann die Anzahl der weiterzuverarbeitenden Punkte mittels dieser noch weiter reduziert werden, indem nur diejenigen Voxel bzw. Pixel mit dem zweiten Wert im weitern Verfahren berücksichtigt werden, was die Performanz des Verfahrens weiter steigert.In some developments of these embodiments, the quantization can additionally relate to a value assigned to the respective voxel or pixel, which is determined on the basis of the points of the point cloud present therein. The quantization can in particular be carried out in binary form, so that in the course of quantization the value of a voxel or pixel, if its number of points lies below a predetermined threshold, is set to a first of the two binary values, for example to "0", while for points above the threshold this value is set to the second of the two binary values, for example "1". If the number of points is equal to the threshold, the value can be set so that it is set to one of the binary values in a predefined manner. This way the number of Points to be processed further can be reduced further by using only those voxels or pixels with the second value in the further process, which further increases the performance of the process.

Bei einigen dieser Ausführungsformen wird im Falle der räumlichen Quantisierung einer mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, die Dichteverteilung für jeden Punkt der resultierenden 2D-Punktwolke auf Basis der Anzahl derjenigen Punkte der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke bestimmt, welche gemäß der Projektionsabbildung auf denselben quantisierten Punkt der 2D-Punktwolke abgebildet werden. Werden also bei der dimensionsreduzierenden Abbildung mittels der Projektion viele Punkte auf dasselbe Pixel der resultierenden 2D-Punktwolke abgebildet, so erhält dieses Pixel einen hohen, der Anzahl dieser Punkte entsprechenden oder daraus abgeleiteten Wert, während im umgekehrten Fall, wenn nur wenige Punkte auf das Pixel abgebildet werden, dieser Wert entsprechend niedriger ausfällt. Auf diese Weise kann die ursprüngliche Punktwolke auf effektive und einfach auszuführende und somit hochperformante Weise in eine zweidimensionale Dichteverteilung umgewandelt werden, welche die resultierende jeweilige 2D-Punktwolke charakterisiert.In some of these embodiments, in the case of spatial quantization of a 2D point cloud obtained by means of a respective dimension-reducing image, the density distribution for each point of the resulting 2D point cloud is determined on the basis of the number of those points of the multidimensional point cloud represented by the measurement data, which are according to the projection image are mapped onto the same quantized point of the 2D point cloud. If, in the case of dimension-reducing imaging, many points are mapped onto the same pixel of the resulting 2D point cloud by means of the projection, this pixel receives a high value corresponding to the number of these points or derived therefrom, while in the opposite case if only a few points are on the pixel are shown, this value is correspondingly lower. In this way, the original point cloud can be converted into a two-dimensional density distribution, which characterizes the resulting respective 2D point cloud, in an effective and easy to carry out and thus high-performance manner.

Bei einigen Ausführungsformen weist das Bestimmen der Dichtedaten des Weiteren ein Filtern der jeweiligen Punktwolke auf, von der ausgehend die durch die jeweiligen Dichtedaten repräsentierte jeweilige Dichteverteilung mittels, bevorzugt mehrfacher, Faltung der Dichteverteilung mit einem jeweiligen Filterkern, der insbesondere eine Tiefpasseigenschaft aufweisen kann und insbesondere ein Glättungskern sein kann, bestimmt wird. In einer Variante kann der Filterkern insbesondere ein Gaußscher Filterkern sein. Mithilfe dieser Filterung wird erreicht, dass die ursprüngliche Dichteverteilung, wie sie sich insbesondere aus der Quantisierung ergibt, geglättet wird, was insbesondere die Anwendbarkeit der nachfolgenden Verfahrensschritte sowie die Qualität der daraus resultierenden Schätzergebnisse für die Richtungsinformationen verbessern kann. Ohne die Filterung würden die Informationen zwischen den Punkten nicht interpoliert, mit der Folge, dass für die nachfolgenden Verfahrensschritte, insbesondere für eine (nachfolgend beschriebene) PCA, deutlich weniger Informationen zur Verfügung stünden, was in einigen Fällen zu weniger zuverlässigen Resultaten führen könnte. Ein weiterer Vorteil der Filterung besteht darin, dass auch einzelne „falsche“ (z.B. durch Messrauschen oder Fehlmessungen erzeugte) Punkte geglättet werden und somit geringeren Einfluss auf den weiteren Verfahrensgang, insbesondere z.B. eine PCA, hat. Das insbesondere mit TOF-Sensoren üblicherweise einhergehende Rauschen wird somit mittels der Filterung unterdrückt und die Ergebnisqualität kann so erhöht werden.In some embodiments, the determination of the density data further comprises filtering the respective point cloud, on the basis of which the respective density distribution represented by the respective density data by means of, preferably multiple, folding of the density distribution with a respective filter core, which in particular can have a low-pass property and in particular Smoothing core can be determined. In one variant, the filter core can in particular be a Gaussian filter core. With the aid of this filtering, the original density distribution, as it results in particular from the quantization, is smoothed, which in particular can improve the applicability of the subsequent method steps and the quality of the resulting estimation results for the directional information. Without the filtering, the information between the points would not be interpolated, with the result that significantly less information would be available for the subsequent method steps, in particular for a PCA (described below), which in some cases could lead to less reliable results. Another advantage of filtering is that individual "wrong" points (e.g. caused by measurement noise or incorrect measurements) are smoothed and thus have less influence on the further process, especially e.g. has a PCA. The noise usually associated with TOF sensors in particular is thus suppressed by means of the filtering and the quality of the result can thus be increased.

Bei einigen Ausführungsformen kommt als dimensionsreduzierenden Approximationsverfahren zur Bestimmung der jeweiligen Schätzdaten eine Hauptkomponentenanalyse, PCA, oder ein Regressionsverfahren zum Einsatz.In some embodiments, a main component analysis, PCA, or a regression method is used as the dimension-reducing approximation method for determining the respective estimation data.

Die PCA stellt ein im Rahmen des erfindungsgemäßen Verfahrens besonders geeignetes und performantes Approximationsverfahren dar. Die PCA kann insbesondere gewichtet sein, so dass kleinere daraus resultierende Hauptkomponenten für die resultierende Bestimmung der Richtungsdaten vernachlässigt werden. Insbesondere kann die PCA im einfachsten Fall bereits unmittelbar nach Bestimmung der ersten Hauptkomponente abgebrochen werden, sodass eine Bestimmung der weiteren Hauptkomponenten nicht mehr erforderlich ist. Die durch die Richtungsdaten repräsentierte Richtungsinformation wird dann somit auf Basis nur der größten mittels der PCA ermittelten Hauptkomponente (d.h. derjenigen Komponenten mit dem größten im Rahmen der PCA ermittelten Eigenwert) bestimmt. Dies ermöglicht eine besonders performante und einfache Implementierung.The PCA is a particularly suitable and performant approximation method within the scope of the method according to the invention. The PCA can in particular be weighted so that smaller main components resulting therefrom are neglected for the resulting determination of the directional data. In particular, in the simplest case, the PCA can be terminated immediately after the determination of the first main component, so that a determination of the further main components is no longer necessary. The directional information represented by the directional data is then determined on the basis of only the largest main component ascertained by means of the PCA (i.e. those components with the greatest intrinsic value determined as part of the PCA). This enables a particularly performant and simple implementation.

Bei einigen Ausführungsformen, bei denen eine PCA bezüglich einer quantisierten und gefilterten, zweidimensionalen Dichteverteilung F(i,j) die Kovarianzmatrix, M, der PCA die folgenden Ausgangswerte erhält: M = [ σ c c σ c r σ r c σ r r ]

Figure DE102018121317A1_0001
mit σ c c = i j F ( i , j ) ( i μ c ) 2
Figure DE102018121317A1_0002
σ c r = σ r c = i j F ( i , j ) ( i μ c ) ( j μ r )
Figure DE102018121317A1_0003
σ r r = i j F ( i , j ) ( i μ r ) 2
Figure DE102018121317A1_0004
und μ c = 1 i j F ( i , j ) i j F ( i , j ) i
Figure DE102018121317A1_0005
μ r = 1 i j F ( i , j ) i j F ( i , j ) i
Figure DE102018121317A1_0006
wobei F ( i , j ) = n m P ( i + n , j + m ) K ( n , m ) ,
Figure DE102018121317A1_0007
und wobei (i,j) jeweils Indexpaare zur Indizierung der Zellen des quantisierten 2D-Unterraums bzw. ihrer zugeordneten ungefilterten Dichtwerte P(i,j) bzw. mittels Faltung mit dem Kern Kgefilterten Dichtwerte F(i,j) sind, und die Indizierung des Kerns K mit den Indexpaaren (n,m) erfolgt.In some embodiments, in which a PCA with respect to a quantized and filtered, two-dimensional density distribution F (i, j) the covariance matrix, M, the PCA receives the following initial values: M = [ σ c c σ c r σ r c σ r r ]
Figure DE102018121317A1_0001
With σ c c = i j F ( i . j ) ( i - μ c ) 2
Figure DE102018121317A1_0002
σ c r = σ r c = i j F ( i . j ) ( i - μ c ) ( j - μ r )
Figure DE102018121317A1_0003
σ r r = i j F ( i . j ) ( i - μ r ) 2
Figure DE102018121317A1_0004
and μ c = 1 i j F ( i . j ) i j F ( i . j ) i
Figure DE102018121317A1_0005
μ r = 1 i j F ( i . j ) i j F ( i . j ) i
Figure DE102018121317A1_0006
in which F ( i . j ) = n m P ( i + n . j + m ) K ( n . m ) .
Figure DE102018121317A1_0007
and where (i, j) are index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or density values filtered by means of convolution with the core K, and the indexing of the core K with the index pairs (n, m).

Bei einigen Ausführungsformen weist das Verfahren des Weiteren auf: (i) Segmentieren der zum Bestimmen der zugehörigen Dichtedaten daraus vorgesehenen jeweiligen Punktwolke in mehrere verschiedene Segmente auf Basis einer Erkennung verschiedener durch die Punktwolke abgebildeter Körperteile des Benutzers; (ii) Auswählen einer echten Untermenge der Segmente mittels eines Auswahlkriteriums, welches in Abhängigkeit von dem bzw. den zur Ausführung der Freiraumgeste bestimmten einem oder mehreren Körperteilen definiert ist; und (iii) Bestimmen der zugehörigen Dichtedaten nur auf Basis des durch die ausgewählte Untermenge der Segmente repräsentierten Teils der Punktwolke. Auf diese Weise ist es möglich, die Bestimmung der gewünschten Richtungsinformationen allein auf Basis eines Ausschnitts der sensorischer erfassten Punktwolke durchzuführen. Dies ist insbesondere dann vorteilhaft, wenn die Punktwolke jenseits eines für die Bestimmung der Richtungsinformationen relevanten Körperteils des Benutzers zusätzlich ein oder mehrere weitere Körperteile oder Abschnitte davon repräsentiert. Die Segmentierung erlaubt zudem zum einen, eine unnötige Verarbeitung der in diesem Sinne nicht relevanten Anteile der Punktwolke zu vermeiden, und andererseits die erforderliche Zuverlässigkeit und Genauigkeit der Ergebnisse zu steigern, da diese nicht durch irrelevante Anteile der Punktwolke verfälscht werden können.In some embodiments, the method further comprises: (i) segmenting the respective point cloud provided for determining the associated density data therefrom into a plurality of different segments on the basis of a recognition of different body parts of the user represented by the point cloud; (ii) selecting a real subset of the segments by means of a selection criterion which is defined as a function of the one or more body parts intended for the execution of the free space gesture; and (iii) determining the associated density data only based on the portion of the point cloud represented by the selected subset of the segments. In this way it is possible to determine the desired directional information solely on the basis of a section of the sensor-acquired point cloud. This is particularly advantageous if the point cloud also represents one or more other body parts or sections thereof beyond a body part of the user that is relevant for determining the directional information. The segmentation also allows, on the one hand, to avoid unnecessary processing of the portions of the point cloud that are not relevant in this sense, and on the other hand increases the required reliability and accuracy of the results, since these cannot be falsified by irrelevant portions of the point cloud.

So kann bei einigen Ausführungsformen die in den Messdaten repräsentierte Punktwolke insbesondere zu einer mit zumindest einem Teil der oberen Gliedmaßen eines Benutzers ausgeführten Freiraumgeste korrespondieren. Dabei enthält die Segmentierung zumindest ein Auswahlsegment, das nur zu einem oder mehreren Fingern des Benutzers korrespondiert, und das Auswahlkriterium ist so definiert, dass die dadurch bestimmte Untermenge der Segmente zumindest, bevorzugt ausschließlich, dieses Auswahlsegment enthält. So lässt sich trotz sensorischer Erfassung eines größeren Teils der oberen Gliedmaßen eine Fokussierung mittels der Segmentierung allein auf durch den einen bzw. mehrere Finger des Benutzers ausgeführte Aspekte der Freiraumgeste erreichen. Insbesondere lässt sich so eine mit dem bzw. den Fingern ausgedrückte Zeigerichtung zuverlässig, performant und/oder mit hoher Genauigkeit erkennen. Thus, in some embodiments, the point cloud represented in the measurement data can correspond in particular to a free space gesture carried out with at least part of the upper limbs of a user. The segmentation contains at least one selection segment that corresponds only to one or more fingers of the user, and the selection criterion is defined in such a way that the subset of the segments determined thereby contains at least, preferably exclusively, this selection segment. In spite of the sensory detection of a larger part of the upper limbs, the segmentation can be focused solely on aspects of the open space gesture carried out by one or more fingers of the user. In particular, a pointing direction expressed with the finger or fingers can be recognized reliably, with high performance and / or with high accuracy.

Bei einigen Ausführungsformen repräsentieren die Messdaten eine zeitliche Entwicklung der Freiraumgeste als räumlich mehrdimensionale und zugleich entsprechend zeitabhängige Punktwolke. Zudem erfolgt die verfahrensgemäße Bestimmung einer durch die Freiraumgeste vermittelten Richtungsinformation mehrfach, jeweils für einen anderen Zeitpunkt bezüglich der zeitabhängigen Punktwolke. Die Richtungsinformation wird dabei so generiert und bereitgestellt, dass sie die aus dieser mehrfachen Bestimmung resultierende zeitliche Entwicklung der Richtungsinformation repräsentiert. Auf diese Weise lässt sich auch eine zeitliche Entwicklung der erfassten Freiraumgeste verfolgen, beispielsweise eine zeitliche Änderung einer durch die Freiraumgeste ausgedrückten Richtungsinformation, wie etwa einer Zeigerichtung.In some embodiments, the measurement data represent a temporal development of the free space gesture as a spatially multidimensional and at the same time correspondingly time-dependent point cloud. In addition, the procedural determination of a directional information conveyed by the free space gesture is carried out several times, in each case for a different point in time with respect to the time-dependent point cloud. The directional information is generated and provided in such a way that it represents the temporal development of the directional information resulting from this multiple determination. In this way, a temporal development of the detected free space gesture can also be tracked, for example a temporal change in direction information, such as a pointing direction, expressed by the free space gesture.

Bei einigen Ausführungsformen (i) repräsentieren die Messdaten in M+1 Dimensionen eine zeitliche Entwicklung der Freiraumgeste als räumlich M-dimensionale und zugleich entsprechend zeitabhängige Punktwolke, mit M>1, (ii) geht dem Bestimmen der Dichtedaten ein dimensionsreduzierendes Abbilden der durch die Messdaten in M räumlichen und einer zusätzlichen zeitlichen Dimension repräsentierten Punktewolke unter Wegfall der zeitlichen Dimension auf einen zumindest zweidimensionalen Raum voraus, um eine Repräsentation eines zu der Freiraumgeste korrespondierenden, 2D- bzw. 3D-Raumbereichs zu erhalten; und (iii) werden die Richtungsdaten so generiert und bereitgestellt, dass die durch sie repräsentierte Richtungsinformation, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist, einen durch die Richtungskurve definierten und dabei durch sie zumindest teilweise eingeschlossenen 2D- bzw. 3D-Raumbereich kennzeichnet. Das dimensionsreduzierende Abbilden der durch die Messdaten in M räumlichen und einer zusätzlichen zeitlichen Dimension repräsentierten Punktewolke kann dabei insbesondere mittels Projektion entlang der zeitlichen Dimension und im Falle von M=3 optional zusätzlich entlang einer der räumlichen Dimensionen erfolgen. Auf diese Weise lässt sich das Verfahren so erweitern bzw. ausgestalten, dass es zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle verwendet werden kann, wobei die Richtungsinformation anstelle oder zusätzlich zu einer Zeigerichtung einen durch die Freiraumgeste festgelegten Raumbereich kennzeichnet, und somit insbesondere eine Region, d.h. einen 2D- bzw. 3D-Raumbereich beschreibt. In some embodiments (i), the measurement data in M + 1 dimensions represent a temporal development of the free space gesture as a spatially M-dimensional and at the same time correspondingly time-dependent point cloud, with M> 1, (ii) the determination of the density data is a dimension-reducing mapping of the data from the measurement data in M spatial and an additional temporal dimension represented point cloud in advance with elimination of the temporal dimension to an at least two-dimensional space in order to obtain a representation of a 2D or 3D space area corresponding to the free space gesture; and (iii) the directional data are generated and provided such that the directional information represented by them, which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space, is defined by the directional curve and at least partially included by it Indicates 2D or 3D space. The dimension-reducing mapping of the point cloud represented by the measurement data in M spatial and an additional temporal dimension can be carried out in particular by means of projection along the temporal dimension and, in the case of M = 3, optionally along one of the spatial dimensions. In this way, the method can be expanded or configured in such a way that it can be used to estimate direction information conveyed by a free space gesture for determining user input at a human-machine interface, the direction information being replaced by or in addition to a pointing direction Free space gesture identifies a defined spatial area, and thus in particular describes a region, ie a 2D or 3D spatial area.

Dies soll an einem kurzem Beispiel erläutert werden: Angenommen der Benutzer führt eine dreidimensionale Zeigegeste aus (M=3), bei der er die Hand oder den Arm in einer Kreisbewegung führt, sodass die Zeigerichtung einen zeitlichen Verlauf aufweist, bei dem sie einen Kegel beschreibt. Die Kegelspitze ist dabei (i) die Fingerwurzel (im Falle einer reinen Fingerbewegung) oder (ii) der Ellenbogen im Falle einer von ihm ausgehenden Unterarmbewegung) oder (iii) das Schultergelenk (im Falle einer von ihm ausgehenden Bewegung des gesamten Arms), und die vom Benutzer gewünschte Region befindet sich jeweils im Kegelinneren. Die Punktwolke kann dann zunächst in M + 1 = 4 Dimensionen mit drei Raum- und einer Zeitdimension beschrieben werden und daraus eine dimensionsreduzierende Projektion entlang der Zeitdimension und optional einer der Raumdimensionen auf einen drei- oder zweidimensionalen Raum erfolgen. Die resultierende Punktewolke in diesem reduzierten Raum könnte dann (z.B. für die obige Geste) eine Form bzw. ein Verhalten aufweisen, das eine Raumbereich zumindest teilweise einschließt, z.B. in dem sie eine zumindest weitgehend geschlossene Ringform aufweist. Davon ausgehend lassen sich dann verfahrensgemäß entsprechende Dichtedaten und daraus wiederum eine Richtungsinformation generieren, die die durch die Freiraumgeste umrissene Region beschreibt. Somit kann die Anwendbarkeit des Verfahrens auf die Schätzung von reinen Zeigegesten auf Schätzung von Raumgesten hin erweitert werden.This is to be explained using a short example: Suppose the user performs a three-dimensional pointing gesture (M = 3), in which he moves the hand or arm in a circular motion, so that the pointing direction has a time course in which it describes a cone . The cone tip is (i) the finger root (in the case of a pure finger movement) or (ii) the elbow in the case of a forearm movement emanating from it) or (iii) the shoulder joint (in the case of a movement of the entire arm emanating from it), and the region desired by the user is located inside the cone. The point cloud can then first be described in M + 1 = 4 dimensions with three space and one time dimension and a dimension-reducing projection along the time dimension and optionally one of the space dimensions onto a three- or two-dimensional space. The resulting point cloud in this reduced space could then (e.g. for the above gesture) have a shape or behavior that at least partially includes a spatial area, e.g. in which it has an at least largely closed ring shape. Proceeding from this, corresponding density data can then be generated in accordance with the method and, in turn, directional information can be generated from this, which describes the region outlined by the free space gesture. The applicability of the method to the estimation of pure pointing gestures to the estimation of spatial gestures can thus be expanded.

Bei einigen Ausführungsformen weist das Bestimmen einer durch die Freiraumgeste vermittelten Richtungsinformation auf Basis der Schätzdaten ein Bestimmen zumindest eines tangential zur durch die Schätzdaten repräsentierten Richtungskurve liegenden Richtungsvektors auf. Dies kann insbesondere mittels einer Ableitung im Sinne einer mathematischen Differenzierung bzw. Gradientenbildung bzgl. der Richtungskurve erfolgen. So lässt sich auf einfache Weise aus der Richtungskurve eine sie charakterisierende Richtungsinformation gewinnen, die zugleich einer Schätzung der durch die Freiraumgeste vermittelten Richtungsinformation entspricht.In some embodiments, determining a direction information conveyed by the free space gesture on the basis of the estimated data comprises determining at least one direction vector lying tangential to the direction curve represented by the estimated data. This can be done in particular by means of a derivation in the sense of a mathematical differentiation or gradient formation with respect to the direction curve. In this way, directional information characterizing it can be obtained in a simple manner from the directional curve, which at the same time corresponds to an estimate of the directional information conveyed by the free space gesture.

Ein zweiter Aspekt der Erfindung betrifft eine Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs, wobei die Vorrichtung eingerichtet ist, das Verfahren gemäß dem ersten Aspekt der Erfindung auszuführen. Die Vorrichtung kann insbesondere ein Steuergerät für ein Fahrzeug, insbesondere ein Kraftfahrzeug, sein, wobei das Steuergerät selbst die genannte Mensch-Maschine-Schnittstelle aufweist oder eingerichtet ist mit einer solchen zum Empfang der Messdaten von dieser signalverbunden zu werden.A second aspect of the invention relates to a device for estimating direction information conveyed by a free-space gesture for determining a user input at a human-machine interface, in particular a vehicle, the device being set up to carry out the method according to the first aspect of the invention. The device can be, in particular, a control device for a vehicle, in particular a motor vehicle, the control device itself having the man-machine interface mentioned or being set up to be signal-connected to it for receiving the measurement data.

Ein dritter Aspekt der Erfindung betrifft Computerprogramm, das konfiguriert ist, das Verfahren dem ersten Aspekt der Erfindung auszuführen. Das Computerprogramm kann insbesondere auf einem nichtflüchtigen Datenträger gespeichert sein. Bevorzugt ist dies ein Datenträger in Form eines optischen Datenträgers oder eines Flashspeichermoduls. Dies kann vorteilhaft sein, wenn das Computerprogramm als solches unabhängig von einer Prozessorplattform gehandelt werden soll, auf der das ein bzw. die mehreren Programme auszuführen sind. In einer anderen Implementierung kann das Computerprogramm als eine Datei auf einer Datenverarbeitungseinheit, insbesondere auf einem Server vorliegen, und über eine Datenverbindung, beispielsweise das Internet oder eine dedizierte Datenverbindung, wie etwa ein proprietäres oder lokales Netzwerk, herunterladbar sein. Zudem kann das Computerprogramm eine Mehrzahl von zusammenwirkenden einzelnen Programmodulen aufweisen.A third aspect of the invention relates to a computer program configured to carry out the method of the first aspect of the invention. The computer program can in particular be stored on a non-volatile data carrier. This is preferably a data carrier in the form of an optical data carrier or a flash memory module. This can be advantageous if the computer program as such is to be traded independently of a processor platform on which the one or more programs are to be executed. In another implementation, the computer program can be present as a file on a data processing unit, in particular on a server, and via a data connection, for example the Internet or a dedicated data connection, such as a proprietary or local network. be downloadable. In addition, the computer program can have a plurality of interacting individual program modules.

Die Vorrichtung gemäß dem zweiten Aspekt der Erfindung kann entsprechend einen Programmspeicher aufweisen, in dem das Computerprogramm abgelegt ist. Alternativ kann die Vorrichtung auch eingerichtet sein, über eine Kommunikationsverbindung auf ein extern, beispielsweise auf einem oder mehreren Servern oder anderen Datenverarbeitungseinheiten verfügbares Computerprogramm zuzugreifen, insbesondere um mit diesem Daten auszutauschen, die während des Ablaufs des Verfahrens bzw. Computerprogramms Verwendung finden oder Ausgaben des Computerprogramms darstellen.The device according to the second aspect of the invention can accordingly have a program memory in which the computer program is stored. Alternatively, the device can also be set up to access a computer program which is available externally, for example on one or more servers or other data processing units, in particular in order to exchange data with it, which are used during the course of the method or computer program or outputs of the computer program represent.

Die vorausgehend in Bezug auf den ersten Aspekt der Erfindung erläuterten Merkmale und Vorteile gelten entsprechend auch für die weiteren Aspekte der Erfindung.The features and advantages explained above in relation to the first aspect of the invention also apply accordingly to the further aspects of the invention.

Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung im Zusammenhang mit den Figuren.Further advantages, features and possible uses of the present invention result from the following detailed description in connection with the figures.

Dabei zeigt

  • 1 schematisch ein System zur Schätzung einer Richtungsinformation einschließlich einer Schätzvorrichtung, gemäß verschiedener Ausführungsformen der Erfindung;
  • 2 ein Flussdiagramm zur Veranschaulichung einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens;
  • 3 zum Zwecke der Illustration des Segmentierungsprozesses S1 aus 2 eine zweidimensionale Darstellung einer durch entsprechende, durch Aufnahme eines menschlichen Arms gewonnene Messdaten repräsentierten beispielhaften Punktwolke, wobei ein zu den Fingern des Arms korrespondierendes Segment gekennzeichnet ist;
  • 4 graphische Darstellungen zur Veranschaulichung von während des Verfahrens nach 2 auftretenden und aus den Messdaten abgeleiteten Daten; und
  • 5 eine beispielhafte Illustration einer Interpretation einer erfassten Freiraumgeste als Raumgeste zur Schätzung von Richtungsinformation, die einen durch die Freiraumgeste ausgewählten 2D-Flächenbereich definiert, gemäß Ausführungsformen der Erfindung.
It shows
  • 1 schematically shows a system for estimating a direction information including an estimation device, according to various embodiments of the invention;
  • 2 a flowchart to illustrate a preferred embodiment of the method according to the invention;
  • 3 for the purpose of illustrating the segmentation process S1 out 2 a two-dimensional representation of an exemplary point cloud represented by corresponding measurement data obtained by recording a human arm, wherein a segment corresponding to the fingers of the arm is identified;
  • 4 graphic representations to illustrate during the process 2 occurring data and derived from the measurement data; and
  • 5 an exemplary illustration of an interpretation of a detected free space gesture as a spatial gesture for estimating directional information, which defines a 2D surface area selected by the free space gesture, according to embodiments of the invention.

In den Figuren werden durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechenden Elemente der Erfindung verwendet.The same reference numbers are used throughout the figures for the same or corresponding elements of the invention.

1 zeigt schematisch ein System 1 zur Schätzung einer Richtungsinformation gemäß verschiedener Ausführungsformen der Erfindung. Das System 1 weist eine Schätzvorrichtung 2 sowie einen Sensor 3 zur dreidimensionalen Erfassung einer durch einen Benutzer des Systems ausgeführten Freiraumgeste auf. Die Schätzvorrichtung 2 kann insbesondere einen Computer sein, der insbesondere mit einer Prozessorplattform 2a und einem Programm- und Datenspeicher 2b sowie einem Datenausgang 2c zur Ausgabe von durch den Computer bestimmten Ausgangsdaten, insbesondere in Form von Richtungsinformationen, ausgestattet sein kann. der Sensor 3 kann insbesondere ein TOF-(time of flight)-Kamerasystem aufweisen. Auch andere Sensorarten, insbesondere auf Ultraschall- oder Radarmessung beruhende Sensoren, können stattdessen oder in Kombination damit verwendet werden. In dem Programmspeicher 2b kann ein Computerprogramm abgelegt sein, welches aus einem oder mehreren Programmodul besteht kann und das konfiguriert ist, bei seinem Ablauf auf der Prozessorplattform 2a die Schätzvorrichtung 2 zu veranlassen, das erfindungsgemäße Verfahren, beispielsweise wie nachfolgend anhand der 2 bis 5 beschrieben, auszuführen. 1 schematically shows a system 1 for estimating direction information according to various embodiments of the invention. The system 1 has an estimation device 2 as well as a sensor 3 for three-dimensional detection of a free space gesture carried out by a user of the system. The estimator 2 can in particular be a computer, in particular with a processor platform 2a and a program and data memory 2 B and a data output 2c for outputting output data determined by the computer, in particular in the form of directional information. the sensor 3 can in particular have a TOF (time of flight) camera system. Other types of sensors, in particular sensors based on ultrasound or radar measurement, can also be used instead or in combination therewith. In the program memory 2 B a computer program can be stored, which can consist of one or more program modules and which is configured when it runs on the processor platform 2a the estimator 2 to cause the inventive method, for example as follows based on the 2 to 5 described to perform.

Das in 2 dargestellte Flussdiagramm dient der Veranschaulichung einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, die insbesondere dem System 1 entsprechen oder ein solches aufweisen kann. Dem eigentlichen Schätzverfahren, welches hier beispielhaft die Prozesse S1 bis S8 umfasst, geht ein Messprozess S0 voraus, bei dem sensorisch, insbesondere mit einem Messsensor 3 gemäß 1, Messdaten MD erzeugt werden, welche eine räumlich dreidimensionale Punktwolke repräsentieren, die wiederum eine bei der Messung erfasste, von einem Benutzer ausgeführte Freiraumgeste repräsentiert. 3 zeigt eine zweidimensionale Darstellung einer beispielhaften auf diese Weise gewonnenen 3D-Punktwolke, die Teile des Oberarms, den Unterarm sowie die Hand eines Arms eines die Freiraumgeste ausführenden Benutzers repräsentiert.This in 2 The flowchart shown serves to illustrate a preferred embodiment of the method according to the invention for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface, which in particular the system 1 correspond or can have one. The actual estimation process, which exemplifies the processes here S1 to S8 involves a measuring process S0 ahead, with the sensor, especially with a measuring sensor 3 according to 1 , Measurement data MD are generated, which represent a spatially three-dimensional point cloud, which in turn represents a free space gesture recorded by the user and carried out during the measurement. 3 shows a two-dimensional representation of an exemplary 3D point cloud obtained in this way, which represents parts of the upper arm, the forearm and the hand of an arm of a user performing the free space gesture.

Bei der hier beschriebenen Ausführungsform des Schätzverfahrens wird die durch die Messdaten MD repräsentierte dreidimensionale Punktwolke im Rahmen einer Vorverarbeitung zunächst im Rahmen eines Segmentierungsprozesses S1 mittels eines oder mehrerer bekannter Verfahren, beispielsweise mittels eines „Random Forest“- Klassifikationsverfahrens, segmentiert, um Segmentdaten SD zu erhalten, die dem für den weiteren Verfahrensablauf relevanten Ausschnitt aus den Messdaten MD entsprechen. In 3 ist ein solcher Ausschnitt, der zu den Fingern der Hand korrespondiert, mittels eines schwarzen Kastens markiert. In the embodiment of the estimation method described here, the measurement data MD represented three-dimensional point cloud as part of preprocessing, initially as part of a segmentation process S1 segmented to segment data using one or more known methods, for example using a “random forest” classification method SD to obtain the section of the measurement data relevant to the further course of the process MD correspond. In 3 is such a cutout, which corresponds to the fingers of the hand, marked with a black box.

Sodann wird die durch die Segmentdaten SD repräsentierte Punktwolke in einem Projektionsprozess S2 in N=2 jeweils zweidimensionale Punktwolken abgebildet. Dies geschieht vorteilhaft mittels Projektion entlang jeweils einer der drei Raumdimensionen, hier beispielhaft - ohne dass dies jedoch als Einschränkung zu verstehen wäre - bei Verwendung eines kartesischen Koordinatensystems, einerseits entlang der Z-Richtung, sodass sich eine zweidimensionale Projektion der Punktwolke auf die X-Y-Ebene ergibt, sowie andererseits entlang der Y-Richtung, sodass sich entsprechend eine zweite Projektion auf die X-Z-Ebene gibt. Die 4(a) bzw. 4(e) zeigen grafisch diese zweidimensionalen, aus den Segmentdaten SD hervorgegangenen Projektionen, welche jeweils durch entsprechende Projektionsdaten BDxy bzw. BDxz repräsentiert werden.Then the segment data SD represented point cloud in a projection process S2 in N = 2 two-dimensional point clouds are shown. This is advantageously done by means of projection along one of the three spatial dimensions, here by way of example - without this being understood as a restriction - when using a Cartesian coordinate system, on the one hand along the Z direction, so that a two-dimensional projection of the point cloud onto the XY plane results, and on the other hand along the Y direction, so that there is accordingly a second projection on the XZ plane. The 4 (a) respectively. 4 (e) graphically show these two-dimensional, from the segment data SD resulting projections, which are each represented by corresponding projection data BD xy or BD xz .

Es folgt ein Quantisierungsprozess S3, in dem jede der durch die Projektionsdaten BDxy bzw. BDxz repräsentierten 2D-Punktwolken gemäß einem vordefinierten räumlichen Gitter quantisiert wird, sodass nun nur noch vordefinierte Raumpositionen für die Punkte (Pixel) definiert sind. Die beiden quantisierten 2D-Punktwolken, welche beispielhaft in den 4(b) bzw. 4(f) grafisch dargestellt sind, werden durch entsprechende Bilddaten IDxy bzw. IDxz repräsentiert. Die Bilddaten können somit wie folgt durch entsprechende Datenfelder dargestellt werden: I x , y ( i , j )   u n d   I x 2 ( i , j )   m i t   d e r   2 D P i x e l i n d i z i e r u n g   i = 1, , k   u n d   j = 1, , l

Figure DE102018121317A1_0008
A quantization process follows S3 , in which each of the 2D point clouds represented by the projection data BD xy or BD xz is quantized according to a predefined spatial grid, so that now only predefined spatial positions are defined for the points (pixels). The two quantized 2D point clouds, which are exemplary in the 4 (b) respectively. 4 (f) are represented graphically, are represented by corresponding image data ID xy or ID xz . The image data can thus be represented by corresponding data fields as follows: I x . y ( i . j ) u n d I x 2 ( i . j ) m i t d e r 2 D - P i x e l i n d i e.g. i e r u n G i = 1, ... . k u n d j = 1, ... . l
Figure DE102018121317A1_0008

Der Quantisierungsprozess S3 schließt einen Vorverarbeitungsabschnitt des Verfahrens ab, welche der eigentlichen Schätzung der Richtungsinformationen vorausgeht.The quantization process S3 concludes a preprocessing section of the method that precedes the actual estimation of the direction information.

Diese Schätzung erfolgt in einem Schätzabschnitt des Verfahrens, bei dem zunächst aus den quantisierten Bilddaten IDxy bzw. IDxz in einem Wahrscheinlichkeitsschätzprozess S4 korrespondierende Dichtedaten PDxy bzw. PDxz gewonnen werden. Dazu wird jedem Pixel der beiden quantisierten 2D-Punktwolken ein Dichtewert zugeordnet, der gleich der Anzahl der Punkte ist, die gemäß den Bilddaten mittels der vorausgehenden Prozesse S2 und S3 auf das entsprechende Pixel abgebildet wurden. Die Dichtedaten können somit wie folgt durch entsprechende Datenfelder dargestellt werden: P x , y ( i , j )   u n d   P x z ( i , j )   m i t   i = 1, , k   u n d   j = 1, , l

Figure DE102018121317A1_0009
This estimation is carried out in an estimation section of the method, in which, first of all, ID xy or ID xz from the quantized image data in a probability estimation process S4 Corresponding density data PD xy or PD xz can be obtained. For this purpose, a density value is assigned to each pixel of the two quantized 2D point clouds, which is equal to the number of points, which according to the image data by means of the preceding processes S2 and S3 were mapped onto the corresponding pixel. The density data can thus be represented as follows by corresponding data fields: P x . y ( i . j ) u n d P x e.g. ( i . j ) m i t i = 1, ... . k u n d j = 1, ... . l
Figure DE102018121317A1_0009

Die 4(c) bzw. 4(g) stellen beispielhaft solche quantisierten 2D-Datenfelder grafisch dar, bei denen der Wert eines Pixels zum Zwecke der Illustration durch einen entsprechende Grauwert repräsentiert ist, wobei eine dunklere Färbung zu einer höheren Wahrscheinlichkeit korrespondiert. Es ist auch denkbar, anstelle der Anzahl der Punkte einen davon abhängigen bzw. abgeleiteten anderen Wert zu wählen, der geeignet ist, diese Anzahl der Punkte zumindest indirekt zu charakterisieren.The 4 (c) respectively. 4 (g) represent graphically such quantized 2D data fields in which the value of a pixel is represented by a corresponding gray value for the purpose of illustration, a darker color corresponding to a higher probability. Instead of the number of points, it is also conceivable to choose a dependent or derived other value which is suitable for at least indirectly characterizing this number of points.

Nun folgt ein Filterprozess S5, bei dem die Dichtedaten PDxy bzw. PDxz mittels Faltung anhand eines Kerns K, der insbesondere ein gaußscher 2D-Kern, z.B. der Form: K ( n , m , σ ) = a e n 2 + m 2 2 σ Z

Figure DE102018121317A1_0010
sein kann, wie folgt gefiltert werden: F ( i , j ) = n m P ( i + n , j ,   j + m ) K ( n , m ) .
Figure DE102018121317A1_0011
A filter process now follows S5 , in which the density data PD xy or PD xz is folded by means of a core K, which is in particular a Gaussian 2D core, for example of the form: K ( n . m . σ ) = a e n 2 + m 2 2 σ Z
Figure DE102018121317A1_0010
can be filtered as follows: F ( i . j ) = n m P ( i + n . j . j + m ) K ( n . m ) ,
Figure DE102018121317A1_0011

Dabei erfolgt die Indizierung des Kerns K mit den Indexpaaren (n,m). Der Kern K hat die als Parameter wählbare Varianz σ sowie einen Normierungsfaktor a, der so gewählt ist, dass er die Summe aller Kernelemente auf 1 normiert. Aus der Filterung, die bevorzugt insbesondere eine Glättung darstellt, resultieren entsprechende Filterdaten FDxy bzw. FDxz die beispielhaft in den 4(d) bzw. 4(h) als entsprechende gefilterte Pixelwolken Fxy(i,j) bzw. Fxz(i,j) grafisch dargestellt sind.The core is indexed K with the index pairs (n, m). The core K has the variance σ that can be selected as a parameter and a scaling factor a, which is selected such that it normalizes the sum of all core elements to 1. The filtering, which in particular preferably represents smoothing, results corresponding filter data FD xy or FD xz, for example in the 4 (d) respectively. 4 (h) are represented graphically as corresponding filtered pixel clouds F xy (i, j) or F xz (i, j).

In einem nachfolgenden Approximationsprozess S6, der mithilfe eines dimensionsreduzierenden Approximationsverfahrens durchgeführt wird, welches im vorliegenden Beispiel als Hauptkomponentenanalyse (PCA) gewählt ist, werden sodann aus den Filterdaten entsprechende Schätzdaten ED gewonnen, die jeweils eine Richtungskurve repräsentieren, die in den 4(d) bzw. 4(h) als entsprechender weißer Pfeil dargestellt ist. Im einfachsten Fall wird dabei jeweils nur die größte mittels der PCA bestimmte Hauptkomponente berücksichtigt, die hier jeweils die Richtung und Lage des entsprechenden weißen Pfeils definiert.In a subsequent approximation process S6 , which is carried out with the aid of a dimension-reducing approximation method, which in the present example is chosen as the main component analysis (PCA), then corresponding filter data are obtained from the filter data ED won, each representing a direction curve, which in the 4 (d) respectively. 4 (h) is shown as a corresponding white arrow. In the simplest case, only the largest main component determined by means of the PCA is taken into account, which defines the direction and position of the corresponding white arrow.

Im Falle des Einsatzes einer PCA bezüglich der quantisierten und gefilterten, zweidimensionalen Dichteverteilung F(i,j) kann die Kovarianzmatrix, M, der PCA insbesondere die folgenden Ausgangswerte erhalten: M = [ σ c c σ c r σ r c σ r r ]

Figure DE102018121317A1_0012
mit σ c c = i j F ( i , j ) ( i μ c ) 2
Figure DE102018121317A1_0013
σ c r = σ r c = i j F ( i , j ) ( i μ c ) ( j μ r )
Figure DE102018121317A1_0014
σ r r = i j F ( i , j ) ( i μ r ) 2
Figure DE102018121317A1_0015
und μ c = 1 i j F ( i , j ) i j F ( i , j ) i
Figure DE102018121317A1_0016
μ r = 1 i j F ( i , j ) i j F ( i , j ) i
Figure DE102018121317A1_0017
wobei F ( i , j ) = n m P ( i + n , j + m ) K ( n , m ) ,
Figure DE102018121317A1_0018
und wobei (i,j) jeweils Indexpaare zur Indizierung der Zellen des quantisierten 2D-Unterraums bzw. ihrer zugeordneten ungefilterten Dichtwerte P(i,j) bzw. mittels Faltung mit dem Kern K gefilterten Dichtwerte F(i,j) sind, und die Indizierung des Kerns K mit den Indexpaaren (n,m) erfolgt.If a PCA is used with regard to the quantized and filtered, two-dimensional density distribution F (i, j), the covariance matrix, M , the PCA in particular received the following initial values: M = [ σ c c σ c r σ r c σ r r ]
Figure DE102018121317A1_0012
With σ c c = i j F ( i . j ) ( i - μ c ) 2
Figure DE102018121317A1_0013
σ c r = σ r c = i j F ( i . j ) ( i - μ c ) ( j - μ r )
Figure DE102018121317A1_0014
σ r r = i j F ( i . j ) ( i - μ r ) 2
Figure DE102018121317A1_0015
and μ c = 1 i j F ( i . j ) i j F ( i . j ) i
Figure DE102018121317A1_0016
μ r = 1 i j F ( i . j ) i j F ( i . j ) i
Figure DE102018121317A1_0017
in which F ( i . j ) = n m P ( i + n . j + m ) K ( n . m ) .
Figure DE102018121317A1_0018
and where (i, j) each index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or by means of folding with the core K filtered density values F (i, j), and the indexing of the core K with the index pairs (n, m) takes place.

Aus den Schätzdaten ED kann schließlich in einem Richtungsbestimmungsprozess S8 die gewünschte Richtungsinformation abgeleitet werden und mittels entsprechender Richtungsdaten RD repräsentiert werden. Dies kann insbesondere so erfolgen, dass die durch die Schätzdaten ED repräsentierten eindimensionalen Richtungskurven (weiße Pfeile), welche in dem jeweiligen 2D-Raum definiert sind, in einen gemeinsamen dreidimensionalen Raum überführt werden, indem die beiden 2D-Räume jeweils um die fehlende dritte Dimension erweitert werden, und die Schätzdaten ED sodann in dem gemeinsamen 3D-Raum gemittelt werden (dies entspricht einer Mitteilung der beiden weißen Pfeile), um eine resultierende Richtungskurve zu erhalten. Im allgemeineren Fall repräsentieren die Schätzdaten ED jeweils eine gekrümmte Richtungskurve, sodass nach Mittelung der beiden Richtungskurven eine in der Regel ebenfalls gekrümmte resultierende Richtungskurve im 3D-Raum entsteht, aus der sich eine gewünschte Richtungsinformationen beispielsweise mittels Gradientenbildung an einem gewünschten Punkt der resultierenden Richtungskurve oder durch lineare Regression ermitteln lässt.From the estimated data ED can eventually be in a directional process S8 the desired direction information is derived and by means of corresponding direction data RD be represented. In particular, this can be done in such a way that the estimated data ED represented one-dimensional direction curves (white arrows), which are defined in the respective 2D space, are transferred to a common three-dimensional space by expanding the two 2D spaces by the missing third dimension, and the estimated data ED then averaged in the common 3D space (this corresponds to a message from the two white arrows) in order to obtain a resulting direction curve. In the more general case, the estimated data represent ED In each case a curved direction curve, so that after averaging the two direction curves, a generally likewise resulting curve is created in 3D space, from which the desired direction information can be obtained, for example Gradient formation can be determined at a desired point in the resulting direction curve or by linear regression.

Das vorausgehend unter Bezugnahme auf die 2 bis 4 beispielhaft beschriebene Verfahren kann insbesondere auch für verschiedene Zeitpunkte der Freiraumgestenausführung durchgeführt werden, sodass sich eine zeitabhängige Richtungsinformation ergibt, und somit auch die zeitliche Dynamik einer Freiraumgeste erfasst werden kann.The above with reference to the 2 to 4 The method described by way of example can, in particular, also be carried out for different points in time of the execution of the free space gesture, so that time-dependent directional information is obtained and the time dynamics of a free space gesture can also be recorded.

5 zeigt schließlich eine beispielhafte Illustration einer Interpretation einer erfassten Freiraumgeste als Raumgeste zur Schätzung von Richtungsinformation, die einen durch die Freiraumgeste ausgewählten 2D-Flächenbereich definiert, gemäß Ausführungsformen der Erfindung. 5 finally shows an exemplary illustration of an interpretation of a detected free space gesture as a spatial gesture for estimating directional information, which defines a 2D surface area selected by the free space gesture, according to embodiments of the invention.

Angenommen der Benutzer führt eine dreidimensionale Zeigegeste aus (M=3), bei der er die Hand oder den Arm in einer Kreisbewegung führt, sodass die Zeigerichtung einen zeitlichen Verlauf (hier durch die fünf Zeitpunkte t0 bis t4 gekennzeichnet) aufweist, bei dem sie einen Kegel C beschreibt. Die Kegelspitze T ist dabei (i) die Fingerwurzel (im Falle einer reinen Fingerbewegung) oder (ii) der Ellenbogen im Falle einer von ihm ausgehenden Unterarmbewegung) oder (iii) das Schultergelenk (im Falle einer von ihm ausgehenden Bewegung des gesamten Arms), und die vom Benutzer gewünschte Region befindet sich jeweils im Kegelinneren, optional zusätzlich auch in dessen Projektion entlang der Kegelachse hin zu noch größeren Entfernungen von T. Die Punktwolke kann dann zunächst in M + 1 = 4 Dimensionen mit drei Raum- und einer Zeitdimension beschrieben werden und daraus eine dimensionsreduzierende Projektion entlang der Zeitdimension und optional einer der Raumdimensionen auf einen drei- oder zweidimensionalen Raum erfolgen. Die resultierende Punktewolke in diesem reduzierten Raum könnte dann (z.B. für die obige Geste) eine Form bzw. ein Verhalten aufweisen, das eine Raumbereich, z.B. die schraffiert dargestellte zweidimensionale Fläche bzw. Region A, zumindest teilweise einschließt, z.B. in dem sie, wie in 5 dargestellt eine zumindest weitgehend geschlossene Ringform aufweist. Davon ausgehend lassen sich dann verfahrensgemäß entsprechende Dichtedaten FD und daraus wiederum eine Richtungsinformation bzw. entsprechende Richtungsdaten RD generieren, die die durch die Freiraumgeste umrissene Region A beschreibt bzw. repräsentieren. Insbesondere kann dies auch genutzt werden, um ein Objekt X, das sich in der Region A befindet, mittels der Freiraumgeste auszuwählen. Das Objekt kann insbesondere einem Bedienelement einer Mensch-Maschine-Schnittstelle oder einem anderen Element einer Fahrzeugausstattung entsprechen. Auch Objekte außerhalb des Fahrzeugs sind denkbar. Somit kann die Anwendbarkeit des Verfahrens auf die Schätzung von reinen Zeigegesten auf Schätzung von Raumgesten hin erweitert werden.Suppose the user executes a three-dimensional pointing gesture (M = 3), in which he moves the hand or arm in a circular motion, so that the pointing direction has a temporal course (here marked by the five times t 0 to t 4 ), in which she a cone C describes. The cone tip T is (i) the finger root (in the case of a pure finger movement) or (ii) the elbow in the case of a forearm movement emanating from it) or (iii) the shoulder joint (in the case of a movement of the entire arm emanating from it), and that of the The desired region is located inside the cone, optionally also in its projection along the cone axis towards even greater distances from T , The point cloud can then first be described in M + 1 = 4 dimensions with three space and one time dimension and a dimension-reducing projection along the time dimension and optionally one of the space dimensions onto a three- or two-dimensional space. The resulting point cloud in this reduced space could then (for example for the above gesture) have a shape or a behavior that has a spatial area, for example the two-dimensional area or region shown with hatching A , at least partially includes, for example, in which, as in 5 shown has an at least largely closed ring shape. Proceeding from this, corresponding density data can then be obtained according to the method FD and from this in turn a direction information or corresponding direction data RD generate the region outlined by the open space gesture A describes or represent. In particular, this can also be used to create an object X that is in the region A is to be selected using the free space gesture. The object can correspond in particular to an operating element of a human-machine interface or another element of vehicle equipment. Objects outside the vehicle are also conceivable. The applicability of the method to the estimation of pure pointing gestures to the estimation of spatial gestures can thus be expanded.

Während vorausgehend wenigstens eine beispielhafte Ausführungsform beschrieben wurde, ist zu bemerken, dass eine große Anzahl von Variationen dazu existiert. Es ist dabei auch zu beachten, dass die beschriebenen beispielhaften Ausführungsformen nur nichtlimitierende Beispiele darstellen, und es nicht beabsichtigt ist, dadurch den Umfang, die Anwendbarkeit oder die Konfiguration der hier beschriebenen Vorrichtungen und Verfahren zu beschränken. Vielmehr wird die vorausgehende Beschreibung dem Fachmann eine Anleitung zur Implementierung mindestens einer beispielhaften Ausführungsform liefern, wobei sich versteht, dass verschiedene Änderungen in der Funktionsweise und der Anordnung der in einer beispielhaften Ausführungsform beschriebenen Elemente vorgenommen werden können, ohne dass dabei von dem in den angehängten Ansprüchen jeweils festgelegten Gegenstand sowie seinen rechtlichen Äquivalenten abgewichen wird.While at least one exemplary embodiment has been described above, it should be noted that a large number of variations exist. It should also be noted that the exemplary embodiments described are only non-limiting examples and are not intended to limit the scope, applicability, or configuration of the devices and methods described herein. Rather, the foregoing description will provide those skilled in the art with a guide to implementing at least one example embodiment, it being understood that various changes in the operation and arrangement of the elements described in an example embodiment may be made without departing from the scope of the appended claims deviated subject and its legal equivalents.

BezugszeichenlisteReference list

11
System zur Schätzung einer RichtungsinformationSystem for estimating directional information
22
SchätzvorrichtungEstimator
2a2a
ProzessorplattformProcessor platform
2b2 B
Programm- und DatenspeicherProgram and data storage
2c2c
DatenausgangData output
33
TOF-Kamerasystem TOF camera system
MDMD
MessdatenMeasurement data
SDSD
Segment bzw. dieses darstellende SegmentdatenSegment or segment data representing this
BDBD
ProjektionsdatenProjection data
IDID
BilddatenImage data
PDPD
DichtedatenDensity data
FDFD
FilterdatenFilter data
EDED
SchätzdatenEstimated data
RDRD
Richtungsdaten Directional data
AA
per Freiraumgeste ausgewählte 2D-Fläche2D area selected using free space gesture
CC
Kegelcone
TT
KegelspitzeCone tip
XX
von der ausgewählten 2D-Fläche umschlossenes Objektobject enclosed by the selected 2D surface
t0-t4 t 0 -t 4
Abfolge verschiedener, zur Durchführung der Freiraumgeste korrespondierender ZeitpunkteSequence of different times corresponding to the execution of the free space gesture

Claims (17)

Verfahren zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle (1), insbesondere eines Fahrzeugs, wobei das Verfahren aufweist: Empfangen von sensorisch erfassten Messdaten (MD), die eine durch einen Benutzer bezüglich der Mensch-Maschine-Schnittstelle ausgeführte Freiraumgeste als räumlich mehrdimensionale inhomogene Punktwolke in einem entsprechend mehrdimensionalen Raum repräsentieren; Bestimmen, auf Basis der Messdaten, von Dichtedaten (PD), die eine zu der Punktwolke korrespondierende Dichteverteilung repräsentieren, bei der den einzelnen Punkten der Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokale Punktdichte der Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet; Anwenden eines dimensionsreduzierenden Approximationsverfahrens auf die Dichtedaten zur Bestimmung von Schätzdaten (ED), die eine Schätzung einer zumindest einen Richtungsaspekt der Dichteverteilung charakterisierende, eindimensionale Richtungskurve; repräsentieren; und Generieren und Bereitstellen von Richtungsdaten (RD), welche eine Richtungsinformation repräsentieren, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist.Method for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface (1), in particular a vehicle, the method comprising: Receiving sensor-acquired measurement data (MD) which represent a free space gesture carried out by a user with respect to the human-machine interface as a spatially multidimensional inhomogeneous point cloud in a correspondingly multidimensional space; Determining, on the basis of the measurement data, density data (PD) which represent a density distribution corresponding to the point cloud, in which in each case density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point; Applying a dimension-reducing approximation method to the density data to determine estimated data (ED), which estimate an estimate of a one-dimensional direction curve characterizing at least one direction aspect of the density distribution; represent; and Generation and provision of directional data (RD) which represent directional information which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space. Verfahren nach Anspruch 1, wobei: der mehrdimensionale Raum dreidimensional ist, und die Messdaten eine die erfasste Freiraumgeste räumlich dreidimensional, 3D, abbildende Punktwolke, repräsentieren; das Bestimmen der Dichtedaten aufweist: - Dimensionsreduzierendes Abbilden der 3D-Punktwolke auf eine Mehrzahl N, mit N >1, jeweils räumlich zweidimensionaler, 2D, Punktwolken (BD), die jeweils in einem von N zugehörigen 2D-Unterräumen des mehrdimensionalen Raums definiert sind, von denen zumindest zwei in dem übergeordneten 3D-Raum nicht parallel zueinander liegen; und - Bestimmen für jede der N 2D-Punktwolken einer dazu korrespondierenden Dichteverteilung (PD), bei der den einzelnen Punkten der jeweiligen 2D-Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokalen Dichte der jeweiligen 2D-Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet, wobei für jede der 2D-Punktwolken die jeweilige resultierende 2D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden; das Anwenden des Approximationsverfahrens separat für jede der durch die jeweiligen Dichtedaten repräsentierten 2D-Dichteverteilungen zur Schätzung einer durch sie charakterisierten jeweiligen eindimensionalen, 1D, Richtungskurve erfolgt, wobei für jede der 2D-Dichteverteilungen die jeweilige 1D-Richtungskurve repräsentierende zugeordnete Schätzdaten erzeugt werden; und das Bestimmen der Richtungsinformation (RD) auf Basis einer Mittelung von zumindest zwei der durch die jeweiligen Schätzdaten (ED) repräsentierten einzelnen 1D-Richtungskurven im übergeordneten 3D-Raum erfolgt, um eine auf den 3D-Raum bezogene Richtungsinformation zu erhalten.Procedure according to Claim 1 , wherein: the multidimensional space is three-dimensional, and the measurement data represent a spatially three-dimensional, 3D, point cloud representing the detected free space gesture; determining the density data comprises: - dimension-reducing mapping of the 3D point cloud to a plurality N, with N> 1, each spatially two-dimensional, 2D, point clouds (BD), each of which is defined in one of N associated 2D subspaces of the multidimensional space, at least two of which are not parallel to one another in the superordinate 3D space; and determining for each of the N 2D point clouds a density distribution (PD) corresponding thereto, in which the individual points of the respective 2D point cloud are each assigned density information which characterizes a local density of the respective 2D point cloud in the vicinity of the respective point , wherein for each of the 2D point clouds the respective resulting 2D density distribution representing assigned density data are generated; the approximation method is used separately for each of the 2D density distributions represented by the respective density data to estimate a respective one-dimensional, 1D, directional curve characterized by them, wherein for each of the 2D density distributions the associated estimated data representing the respective 1D directional curve are generated; and the determination of the direction information (RD) is carried out on the basis of averaging at least two of the individual 1D direction curves represented by the respective estimation data (ED) in the superordinate 3D space in order to obtain direction information related to the 3D space. Verfahren nach Anspruch 2, wobei das dimensionsreduzierende Abbilden eine Projektionsabbildung entlang einer der drei Dimensionen der durch die Messdaten repräsentierten 3D-Punktwolke auf eine korrespondierende 2D-Punktwolke (BD) in einem zugehörigen der N 2D-Unterräume aufweist.Procedure according to Claim 2 , wherein the dimension-reducing mapping has a projection mapping along one of the three dimensions of the 3D point cloud represented by the measurement data onto a corresponding 2D point cloud (BD) in an associated one of the N 2D subspaces. Verfahren nach einem der vorausgehenden Ansprüche, wobei das Bestimmen der Dichtedaten des Weiteren aufweist: Räumliches Quantisieren der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke oder gegebenenfalls jeder der daraus mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, und Bestimmen der Dichtedaten (PD) auf Basis einer resultierenden Dichteverteilung der Punkte der entsprechenden quantisierten Punktwolke (ID).Method according to one of the preceding claims, wherein the determination of the density data further comprises: Spatial quantization of the multidimensional point cloud represented by the measurement data or, if applicable, each of the 2D point clouds obtained therefrom by means of a respective dimension-reducing image, and determination of the density data (PD) on the basis of a resulting density distribution of the points of the corresponding quantized point cloud (ID). Verfahren nach Anspruch 4, wobei im Falle der räumlichen Quantisierung einer mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, die Dichteverteilung für jeden Punkt der resultierenden 2D-Punktwolke auf Basis der Anzahl derjenigen Punkte der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke bestimmt wird, welche gemäß der Projektionsabbildung auf denselben quantisierten Punkt der 2D-Punktwolke abgebildet werden.Procedure according to Claim 4 , wherein in the case of the spatial quantization of a 2D point cloud obtained by means of a respective dimension-reducing image, the density distribution for each point of the resulting 2D point cloud is determined on the basis of the number of those points of the multidimensional point cloud represented by the measurement data, which according to the projection image on the same quantized point of the 2D point cloud. Verfahren nach einem der vorausgehenden Ansprüche, wobei das Bestimmen der Dichtedaten (PD) des Weiteren aufweist: Filtern der jeweiligen Punktwolke, von der ausgehend die durch die jeweiligen Dichtedaten repräsentierte jeweilige Dichteverteilung bestimmt wird, mittels Faltung der Dichteverteilung mit einem jeweiligen, eine Tiefpasseigenschaft aufweisenden Filterkern.Method according to one of the preceding claims, wherein the determination of the density data (PD) further comprises: Filtering the respective point cloud, from which the respective density distribution represented by the respective density data is determined, by folding the density distribution with a respective filter core that has a low-pass property. Verfahren nach 6, wobei der Filterkern ein Gaußscher Filterkern ist.The method of 6, wherein the filter core is a Gaussian filter core. Verfahren nach einem der vorausgehenden Ansprüche, wobei als dimensionsreduzierenden Approximationsverfahren zur Bestimmung der jeweiligen Schätzdaten eine Hauptkomponentenanalyse, PCA, oder ein Regressionsverfahren zum Einsatz kommt.Method according to one of the preceding claims, wherein a main component analysis, PCA, or a regression method is used as the dimension-reducing approximation method for determining the respective estimation data. Verfahren nach Anspruch 8, wobei im Falle des Einsatzes einer PCA, die durch die Richtungsdaten (RD) repräsentierte Richtungsinformation auf Basis nur der größten mittels der PCA ermittelten Hauptkomponente bestimmt wird.Procedure according to Claim 8 , wherein if a PCA is used, the direction information represented by the direction data (RD) is determined on the basis of only the largest main component determined by means of the PCA. Verfahren nach Anspruch 8 oder 9, wobei im Falle des Einsatzes einer PCA bezüglich einer quantisierten und gefilterten, zweidimensionalen Dichteverteilung F(i,j) die Kovarianzmatrix, M, der PCA die folgenden Ausgangswerte erhält: M = [ σ c c σ c r σ r c σ r r ]
Figure DE102018121317A1_0019
mit σ c c = i j F ( i , j ) ( i μ c ) 2
Figure DE102018121317A1_0020
σ c r = σ r c = i j F ( i , j ) ( i μ c ) ( j μ r )
Figure DE102018121317A1_0021
σ r r = i j F ( i , j ) ( i μ r ) 2
Figure DE102018121317A1_0022
und μ c = 1 i j F ( i , j ) i j F ( i , j ) i
Figure DE102018121317A1_0023
μ r = 1 i j F ( i , j ) i j F ( i , j ) i
Figure DE102018121317A1_0024
wobei F ( i , j ) = n m P ( i + n , j + m ) K ( n , m ) ,
Figure DE102018121317A1_0025
und wobei (i,j) jeweils Indexpaare zur Indizierung der Zellen des quantisierten 2D-Unterraums bzw. ihrer zugeordneten ungefilterten Dichtwerte P(i,j) bzw. mittels Faltung mit dem Kern K gefilterten Dichtwerte F(i,j) sind, und die Indizierung des Kerns K mit den Indexpaaren (n,m) erfolgt.
Procedure according to Claim 8 or 9 , where a PCA is used with respect to a quantized and filtered, two-dimensional density distribution F (i, j) the covariance matrix, M, the PCA receives the following initial values: M = [ σ c c σ c r σ r c σ r r ]
Figure DE102018121317A1_0019
With σ c c = i j F ( i . j ) ( i - μ c ) 2
Figure DE102018121317A1_0020
σ c r = σ r c = i j F ( i . j ) ( i - μ c ) ( j - μ r )
Figure DE102018121317A1_0021
σ r r = i j F ( i . j ) ( i - μ r ) 2
Figure DE102018121317A1_0022
and μ c = 1 i j F ( i . j ) i j F ( i . j ) i
Figure DE102018121317A1_0023
μ r = 1 i j F ( i . j ) i j F ( i . j ) i
Figure DE102018121317A1_0024
in which F ( i . j ) = n m P ( i + n . j + m ) K ( n . m ) .
Figure DE102018121317A1_0025
and where (i, j) are index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or density values filtered by means of convolution with the core K, and the The core K is indexed with the index pairs (n, m).
Verfahren nach einem der vorausgehenden Ansprüche, des Weiteren aufweisend: Segmentieren der zum Bestimmen der zugehörigen Dichtedaten daraus vorgesehenen jeweiligen Punktwolke in mehrere verschiedene Segmente auf Basis einer Erkennung verschiedener durch die Punktwolke abgebildeter Körperteile des Benutzers; Auswählen einer echten Untermenge der Segmente mittels eines Auswahlkriteriums, welches in Abhängigkeit von dem bzw. den zur Ausführung der Freiraumgeste bestimmten einem oder mehreren Körperteilen definiert ist; und Bestimmen der zugehörigen Dichtedaten nur auf Basis des durch die ausgewählte Untermenge der Segmente repräsentierten Teils (SD)der Punktwolke.Method according to one of the preceding claims, further comprising: Segmenting the respective point cloud provided for determining the associated density data therefrom into several different segments on the basis of a recognition of different body parts of the user depicted by the point cloud; Selecting a real subset of the segments by means of a selection criterion which is defined as a function of the one or more body parts which are intended for carrying out the free space gesture; and Determination of the associated density data only on the basis of the part (SD) of the point cloud represented by the selected subset of the segments. Verfahren nach Anspruch 11, wobei die in den Messdaten (MD) repräsentierte Punktwolke zu einer mit zumindest einem Teil der oberen Gliedmaßen eines Benutzers ausgeführten Freiraumgeste korrespondiert; die Segmentierung zumindest ein Auswahlsegment (SD) enthält, das nur zu einem oder mehreren Fingern des Benutzers korrespondiert, und das Auswahlkriterium so definiert ist, dass die dadurch bestimmte Untermenge der Segmente zumindest dieses Auswahlsegment enthält.Procedure according to Claim 11 , wherein the point cloud represented in the measurement data (MD) corresponds to a free space gesture carried out with at least part of the upper limbs of a user; the segmentation contains at least one selection segment (SD) that only corresponds to one or more fingers of the user, and the selection criterion is defined in such a way that the subset of the segments determined thereby contains at least this selection segment. Verfahren nach einem der vorausgehenden Ansprüche, wobei die Messdaten eine zeitliche Entwicklung der Freiraumgeste als räumlich mehrdimensionale und zugleich entsprechend zeitabhängige Punktwolke repräsentieren; und die verfahrensgemäße Bestimmung einer durch die Freiraumgeste vermittelten Richtungsinformation mehrfach, jeweils für einen anderen Zeitpunkt bezüglich der zeitabhängigen Punktwolke erfolgt; und die Richtungsdaten (RD) so generiert und bereitgestellt werden, dass sie die aus dieser mehrfachen Bestimmung resultierende zeitliche Entwicklung der Richtungsinformation repräsentieren.Method according to one of the preceding claims, wherein the measurement data represent a temporal development of the free space gesture as a spatially multidimensional and at the same time time-dependent point cloud; and the procedural determination of a directional information conveyed by the free space gesture takes place several times, in each case for a different point in time with respect to the time-dependent point cloud; and the direction data (RD) are generated and provided in such a way that they represent the temporal development of the direction information resulting from this multiple determination. Verfahren nach einem der vorausgehenden Ansprüche, wobei: die Messdaten in M+1 Dimensionen eine zeitliche Entwicklung (t0-t4)der Freiraumgeste als räumlich M-dimensionale und zugleich entsprechend zeitabhängige Punktwolke, mit M>1, repräsentieren; dem Bestimmen der Dichtedaten ein dimensionsreduzierendes Abbilden der durch die Messdaten in M räumlichen und einer zusätzlichen zeitlichen Dimension repräsentierten Punktewolke unter Wegfall der zeitlichen Dimension auf einen zumindest zweidimensionalen Raum vorausgeht, um eine Repräsentation eines zu der Freiraumgeste korrespondierenden, 2D- bzw. 3D-Raumbereichs (A) zu erhalten; und die Richtungsdaten (RD) so generiert und bereitgestellt werden, dass die durch sie repräsentierte Richtungsinformation, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist, einen durch die Richtungskurve definierten und dabei durch sie zumindest teilweise eingeschlossenen Raumbereich kennzeichnet.Method according to one of the preceding claims, wherein: the measurement data in M + 1 dimensions represent a temporal development (t 0 -t 4 ) of the free space gesture as a spatially M-dimensional and at the same time time-dependent point cloud with M>1; The determination of the density data is preceded by a dimension-reducing mapping of the point cloud represented by the measurement data in M spatial and an additional temporal dimension and the elimination of the temporal dimension to an at least two-dimensional space in order to represent a 2D or 3D space area corresponding to the free space gesture ( A) get; and the directional data (RD) are generated and provided such that the directional information represented by them, which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space, is defined by the directional curve and at least partially included by it Characterizes the area. Verfahren nach einem der vorausgehenden Ansprüche, wobei das Bestimmen einer durch die Freiraumgeste vermittelten Richtungsinformation auf Basis der Schätzdaten ein Bestimmen zumindest eines tangential zur durch die Schätzdaten repräsentierten Richtungskurve liegenden Richtungsvektors aufweist.Method according to one of the preceding claims, wherein determining a direction information conveyed by the free space gesture on the basis of the estimated data comprises determining at least one direction vector lying tangentially to the direction curve represented by the estimated data. Vorrichtung (1) zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs, wobei die Vorrichtung eingerichtet ist, das Verfahren gemäß einem der vorausgehenden Ansprüche auszuführen.Device (1) for estimating a directional information conveyed by a free space gesture for determining a user input at a human-machine interface, in particular a vehicle, the device being set up to carry out the method according to one of the preceding claims. Computerprogramm, das konfiguriert ist, das Verfahren nach einem der Ansprüche 1 bis 15 auszuführen.Computer program that is configured, the method according to one of the Claims 1 to 15 to execute.
DE102018121317.4A 2018-08-31 2018-08-31 Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface Pending DE102018121317A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018121317.4A DE102018121317A1 (en) 2018-08-31 2018-08-31 Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface
PCT/EP2019/071079 WO2020043440A1 (en) 2018-08-31 2019-08-06 Directional estimation of an open space gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018121317.4A DE102018121317A1 (en) 2018-08-31 2018-08-31 Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface

Publications (1)

Publication Number Publication Date
DE102018121317A1 true DE102018121317A1 (en) 2020-03-05

Family

ID=67620421

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018121317.4A Pending DE102018121317A1 (en) 2018-08-31 2018-08-31 Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface

Country Status (2)

Country Link
DE (1) DE102018121317A1 (en)
WO (1) WO2020043440A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4083757A1 (en) * 2020-10-19 2022-11-02 ameria AG Touchless input interface for an electronic display using multiple sensors

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7831087B2 (en) * 2003-10-31 2010-11-09 Hewlett-Packard Development Company, L.P. Method for visual-based recognition of an object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4083757A1 (en) * 2020-10-19 2022-11-02 ameria AG Touchless input interface for an electronic display using multiple sensors

Also Published As

Publication number Publication date
WO2020043440A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
DE112014003563B4 (en) Device and method for gesture determination, gesture control device, program and recording medium
EP3642696B1 (en) Method and device for detecting a user input on the basis of a gesture
DE102017220307B4 (en) Device and method for recognizing traffic signs
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
DE102014210820A1 (en) Method for detecting large and passenger vehicles from fixed cameras
DE102015207676A1 (en) Method and device for obstacle detection based on a monocular camera
WO2020049154A1 (en) Method and device for classifying objects
DE102005051638A1 (en) Object recognition by means of cross-section analysis
DE102021106518A1 (en) Electronic device for fused camera and radar sensor-based three-dimensional object recognition and operating procedures for it
WO2014118178A1 (en) Creation of an environment model for a vehicle
DE102014221510A1 (en) System and method for recognizing a user gesture for performing the operation of a vehicle
DE112019002848T5 (en) SYSTEM AND METHOD FOR FINDING AND CLASSIFYING PATTERNS IN AN IMAGE WITH AN IMAGE PROCESSING SYSTEM
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
EP3245943A1 (en) Method for the contactless determination and processing of sleep movement data
DE102004032118A1 (en) Object recognition method for vehicles
DE102018132805A1 (en) Procedure for improved object detection
DE102021201777A1 (en) Behavioral recognition method, behavioral recognition device and computer-readable recording medium
EP1205765A2 (en) Method of recognising conducting cables for low flying aircraft
DE102013210771A1 (en) DETECTION OF A COMPLEX OBJECT USING A CASCADE OF CLASSIFICATION EQUIPMENT
DE102018121317A1 (en) Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface
DE102005049017A1 (en) Method for segmentation in an n-dimensional feature space and method for classification based on geometric properties of segmented objects in an n-dimensional data space
EP3642697B1 (en) Method and device for detecting a user input on the basis of a gesture
DE102013206920A1 (en) Detecting a complex object using a cascade of classifiers
EP1756748B1 (en) Method for the classification of an object by means of a stereo camera
DE102020208080A1 (en) Detection of objects in images under equivariance or invariance with respect to the object size

Legal Events

Date Code Title Description
R012 Request for examination validly filed