WO2020043440A1 - Directional estimation of an open space gesture - Google Patents

Directional estimation of an open space gesture Download PDF

Info

Publication number
WO2020043440A1
WO2020043440A1 PCT/EP2019/071079 EP2019071079W WO2020043440A1 WO 2020043440 A1 WO2020043440 A1 WO 2020043440A1 EP 2019071079 W EP2019071079 W EP 2019071079W WO 2020043440 A1 WO2020043440 A1 WO 2020043440A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
point cloud
density
point
represented
Prior art date
Application number
PCT/EP2019/071079
Other languages
German (de)
French (fr)
Inventor
Niklas HERMES
Sascha KLEMENT
Original Assignee
Gestigon Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gestigon Gmbh filed Critical Gestigon Gmbh
Publication of WO2020043440A1 publication Critical patent/WO2020043440A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Definitions

  • the present invention relates to a method and a device for estimating a directional information conveyed by a free space gesture for determining a user input on a human-machine interface, in particular a vehicle. Furthermore, the invention relates to a computer program that is configured to execute the method.
  • MMI human-machine interfaces
  • a corresponding control element for example a physical switch or a touch-sensitive surface or display device, etc.
  • MMI are now known , in which a static or dynamic gesture of a human user, performed in free space without physical contact with an MMI device, is sensed.
  • This sensory detection of such gestures also known as “free space gestures”
  • mathematical methods in particular image recognition methods, conclusions are drawn from the sensor-acquired data on a user input intended by means of the recorded gesture.
  • such mils capable of recognizing free-space gestures can be used to make inputs for operating the vehicle or a subsystem thereof.
  • the free space gestures can relate to the surroundings of the vehicle, such as pointing to an interesting object that is visible from the vehicle and external to the vehicle, and the recognition of such a free space gesture serves to provide an input for a system , which is to provide information relating to the object or causes the vehicle to react to it.
  • gesture recognition systems are known in which calibrated 2D sensors are used in order to detect and track points associated with certain features along the contour of a user's hand, in particular from above and from the side. On the basis of the detected points, a pointing direction associated with the gesture carried out in three-dimensional space can then be estimated. the.
  • Such systems are dependent on the recognition of clearly distinguishable features (points) of the human hand and require fixed and calibrated hardware with at least two 2D sensors.
  • body-related information is used to infer a pointing direction expressed by a gesture.
  • a head position and a hand position are detected and a display direction is estimated based on this. Alignments or even movements of the fingers of the hand are not detected or taken into account.
  • the present invention has for its object to further improve the detection of free space gestures and in particular the determination of a mediating directional information.
  • a first aspect of the invention relates to a, in particular computer-implemented, method for estimating direction information conveyed by a free space gesture for determining a user input on a human-machine interface, in particular a vehicle.
  • the method comprises: (i) receiving sensor-acquired measurement data, which a free space gesture carried out by a user with respect to the human-machine cut parts, in particular by means of arm, hand and / or fingers, as spatially multidimensional, ie 2-dimensional or 3-dimensional represent dimensional, inhomogeneous point cloud in a correspondingly multidimensional space; (ii) determining, on the basis of the measurement data, density data which represent a density distribution corresponding to the point cloud, in which case density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point; (iii) applying a dimension-reducing approximation method to the density data to determine estimated data which is an estimate of a one-dimensional direction curve characterizing at
  • a “point cloud” in the sense of the invention is to be understood in particular as a set of points of a vector space, in particular of the three-dimensional space or of a two-dimensional subspace thereof, which has an unorganized spatial structure (“cloud”).
  • a point cloud is described by the points contained therein, each of which can be detected in particular by their spatial coordinates in a coordinate system assigned to the vector space.
  • a “direction curve” in the sense of the invention is to be understood in particular as a one-dimensional curve or in particular a one-dimensional direction curve in a higher-dimensional space, which has at least one directional aspect characterized by it.
  • the direction curve can represent a straight line as a one-dimensional direction curve, the direction of which at the same time indicates the direction aspect. In the general case, however, it can also have any curvature, including multiple curvatures.
  • the directional curve is preferably at least for the most part, ideally everywhere, continuous and differentiable.
  • the desired directional information is consequently not determined directly from the point distribution of the recorded point cloud, but instead a density distribution representing a probability distribution is first derived from the point distribution, on the basis of which a one-dimensional directional curve is determined only by means of the dimension-reducing approximation method mentioned, which characterizes the desired direction information.
  • a density distribution representing a probability distribution is first derived from the point distribution, on the basis of which a one-dimensional directional curve is determined only by means of the dimension-reducing approximation method mentioned, which characterizes the desired direction information.
  • the achievable reliability and accuracy in the estimation-based determination of directional information from point clouds can be increased.
  • the method requires only relatively low computing resources, so that it is particularly suitable for real-time capable applications.
  • the method is independent of a specific orientation of the sensor used to record the measurement data, for example a camera, which makes it particularly suitable for determining, in particular also finger-based, gestures of free space within a vehicle, since the sensor is provided in a wide variety of positions there can be.
  • Preferred embodiments of the method are described below, each of which, unless expressly excluded or technically impossible, can be combined with one another as well as with the other described other aspects of the invention or used as corresponding embodiments of the latter.
  • the sensory multidimensional detection of the free space gesture carried out by a user with respect to the human-machine cut parts is carried out using a TOF camera system.
  • a “TOF camera system” in the sense of the invention is to be understood as a 3D camera system that measures distances on the basis of a time of flight (“TOF”) method. The measuring principle is based on the fact that the scene to be recorded is illuminated by means of a light pulse, and the camera measures for each pixel the time it takes for the light to reach the object and back again. Due to the constant speed of light, this time is directly proportional to the distance. The camera thus supplies the distance of the object depicted on it for each pixel.
  • the use of a TOF camera system represents a particularly effective and high-resolution implementation possibility for the at least one sensor required for sensory detection of the free space gesture.
  • the multi-dimensional space is three-dimensional
  • the measurement data represent a point cloud that depicts the detected free space gesture in three-dimensional, 3D.
  • a density distribution corresponding to this is determined directly for the 3D point cloud by assigning density information to the individual points of the 3D point cloud, which identifies a local density of the 3D point cloud in the area surrounding the respective point, wherein associated density data representing the resulting 3D density distribution are generated for the 3D point clouds.
  • a dimension-reducing image of the 3D point cloud on one or in particular several point clouds of lower dimensions is not necessary in this variant, so that corresponding procedural steps can be saved.
  • the determination of the density data comprises: (i) dimension-reducing mapping of the 3D point cloud onto a plurality N, with N> 1, each spatially two-dimensional, 2D, point clouds, each in a 2D belonging to N - Subspaces of the multidimensional space are defined, at least two of which are not parallel to one another in the superordinate 3D space; and (ii) determining, for each of the N 2D point clouds, a density distribution corresponding thereto, in which the individual points of the respective 2D point cloud are each assigned density information which is a local density of the respective 2D point cloud in the vicinity of the respective one Dotts characterizes, whereby for each of the 2D point clouds the associated resulting 2D density distribution representing assigned density data are generated.
  • the approximation method is used separately for each of the 2D density distributions represented by the respective density data to estimate a respective one-dimensional, 1 D, direction curve characterized by them, whereby for each of the 2D density distributions the assigned 1 D direction curve is assigned Estimated data are generated.
  • the directional information is determined on the basis of a, in particular weighted or unweighted, averaging of at least two, preferably all, of the individual 1-D directional curves represented by the respective estimation data in the superordinate 3D space, by way of directional information related to the 3D space to obtain.
  • the latter can be done in particular by means of gradient determination with respect to a 1-D direction curve resulting from the averaging.
  • These, as well as any further embodiments based on them, have the advantage that the complexity of the subsequent calculations can be significantly reduced due to the dimensional reduction that has been carried out, since overall less and only two-dimensional data have to be processed. In particular, the performance can be increased and thus the real-time capability of the method can be achieved or improved.
  • the dimension-reducing imaging has a projection image along one of the three dimensions of the 3D point cloud represented by the measurement data onto a corresponding 2D point cloud in a corresponding one of the N 2D subspaces.
  • the dimension reduction to two dimensions is thus carried out by means of projection.
  • the projection can take place in particular along one of the axes of this coordinate system, so that, for example, all points of the point cloud in the three-dimensional space spanned by the coordinate axes X, Y and Z along the Z axis onto the X / Y Plane are projected.
  • the projection can take place along any projection direction and, instead of a Cartesian coordinate system, another coordinate system of the same dimension can be used to represent the coordinates of the points.
  • determining the density data further comprises: (i) spatial quantizing the multidimensional point cloud represented by the measurement data
  • each of the 2D point clouds obtained therefrom by means of a respective dimension-reducing image and (ii) determining the density data on the basis of a resultant density distribution of the points of the corresponding quantized point cloud.
  • the point cloud is now mapped onto a predefined spatial grid and thus quantized.
  • the individual cells of the grid can be referred to in particular when using a rectangular or even cube grid in the three-dimensional case as "voxel" and in the two-dimensional case as "pixel".
  • the quantization in turn simplifies the complexity of the subsequent calculations and in particular enables simple indexing for the voxels or the pixels instead of coordinate information.
  • the complexity reduction can include that instead of floating point arithmetic, the simpler and less complex integer arithmetic can now be used. This simplifies and speeds up use, particularly in embedded systems.
  • the quantization can additionally relate to a value assigned to the respective voxel or pixel, which is determined on the basis of the points of the point cloud present therein.
  • the quantization can in particular be carried out in a binary manner, so that the value of a voxel or pixel, if its number of points lies below a predetermined threshold, is set to a first of the two binary values, for example to “0”, during the quantization, while at Number of points above the threshold this value is set to the second of the two binary values, for example "1". If the number of points is equal to the threshold, the value can be set so that it is set to one of the binary values in a predefined manner. In this way, the number of points to be processed can be reduced even further by means of these are taken into account by only considering those voxels or pixels with the second value in the further process, which further increases the performance of the process.
  • the density distribution for each point of the resulting 2D point cloud is determined on the basis of the number of those points of the multidimensional point cloud represented by the measurement data, which according to the Projection mapping can be mapped onto the same quantized point of the 2D point cloud. If, in the case of dimension-reducing imaging, many points are mapped onto the same pixel of the resulting 2D point cloud, this pixel receives a high value corresponding to the number of these points or derived therefrom, whereas in the opposite case if only a few points are on the Pixels are mapped, this value is correspondingly lower. In this way, the original point cloud can be converted into a two-dimensional density distribution, which characterizes the resulting respective 2D point cloud, in an effective and easy-to-execute and thus high-performance manner.
  • the determination of the density data further comprises filtering the respective point cloud, on the basis of which the respective density distribution represented by the respective density data, by means of, preferably multiple, folding of the density distribution with a respective filter core, which in particular can have a low-pass property and in particular can be a smoothing kernel is determined.
  • the filter core can in particular be a Gaussian filter core.
  • filtering Without the filtering, the information between the points would not be interpolated, with the result that significantly less information would be available for the subsequent method steps, in particular for a PCA (described below), which in some cases could lead to less reliable results.
  • Another advantage of filtering is that individual "wrong" points (eg those generated by measurement noise or incorrect measurements) are smoothed and thus have less influence on the further process, in particular, for example, a PCA. The noise usually associated with TOF sensors is thus suppressed by means of the filtering and the quality of the result can be increased in this way.
  • a main component analysis, PCA, or a regression method is used as the dimension-reducing approximation method for determining the respective estimation data.
  • the PCA is a particularly suitable and performant approximation method within the scope of the method according to the invention.
  • the PCA can in particular be weighted so that smaller main components resulting therefrom are neglected for the resulting determination of the directional data.
  • the PCA can be terminated immediately after the determination of the first main component, so that a determination of the further main components is no longer necessary.
  • the directional information represented by the directional data is then determined on the basis of only the largest main component ascertained by means of the PCA (i.e. those components with the greatest intrinsic value determined as part of the PCA). This enables a particularly performant and simple implementation.
  • the PCA receives the following initial values:
  • index pairs are index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or density values F (i, j) filtered by means of convolution with the core K, and the kernel is indexed with the index pairs (n, m).
  • the method further comprises: (i) segmenting the respective point cloud provided for determining the associated density data therefrom into a plurality of different segments on the basis of a recognition of different body parts of the user represented by the point cloud; (ii) selection of a real subset of the segments by means of a selection criterion which is defined as a function of the one or more body parts intended for performing the free space gesture; and (iii) determining the associated density data only based on the portion of the point cloud represented by the selected subset of the segments. In this way it is possible to determine the desired directional information solely on the basis of a section of the sensory point cloud.
  • the point cloud additionally presents one or more other body parts or sections thereof beyond a body part of the user that is relevant for determining the directional information.
  • the segmentation also allows, on the one hand, to avoid unnecessary processing of the portions of the point cloud that are not relevant in this sense, and on the other hand increases the required reliability and accuracy of the results, since these cannot be falsified by irrelevant portions of the point cloud.
  • the point cloud represented in the measurement data can correspond in particular to a free space gesture performed with at least part of the upper limbs of a user.
  • the segmentation contains at least one selection segment that only corresponds to one or more fingers of the user, and the selection criterion is defined in such a way that the subset of the segments determined thereby contains at least, preferably exclusively, this selection segment.
  • focusing can be achieved by means of the segmentation solely on aspects of the open space gesture carried out by one or more fingers of the user.
  • a pointing direction expressed with the finger or fingers can be recognized reliably, with high performance and / or with high accuracy.
  • the measurement data represent a temporal development of the free space gesture as a spatially multidimensional and at the same time correspondingly time-dependent point cloud.
  • the procedural determination of a directional information provided by the free space gestures is carried out several times, in each case for a different point in time with respect to the time-dependent point cloud.
  • the directional information is generated and made available in such a way that it represents the temporal development of the directional information resulting from this multiple determination.
  • a temporal development of the detected free space gesture can also be tracked, for example a temporal change in direction information, such as a pointing direction, expressed by the free space gesture.
  • the measurement data in M + 1 dimensions represent a temporal development of the free space gesture as a spatially M-dimensional and at the same time correspondingly time-dependent point cloud, with M> 1,
  • the determination of the density data is a dimension-reducing mapping of the the measurement data in M spatial and an additional temporal dimension represented point cloud with the temporal dimension omitting an at least two-dimensional space in order to obtain a representation of a 2D or 3D space area corresponding to the free space; and
  • the directional data are generated and provided in such a way that the directional information represented by them, which is determined by the spatial profile of the directional curve represented by the estimated data in the superordinate multidimensional space, is defined by the directional curve and thereby by it characterizes at least partially enclosed 2D or 3D spatial areas.
  • the method can be expanded or configured in such a way that it can be used to estimate a directional information conveyed by a free space gesture for determining a user input on a human-machine interface, the directional information being replaced by or in addition to a pointing direction Free space gesture defines the defined area, and thus in particular a region, ie describes a 2D or 3D spatial area.
  • the tip of the cone is (i) the finger root (in the case of a pure finger movement) or (ii) the elbow in the case of a forearm movement emanating from it) or (iii) the shoulder joint (in the case of a movement of the entire arm emanating from it), and the region desired by the user is located inside the cone.
  • the resulting point cloud in this reduced space could then (for example for the above gesture) have a shape or behavior that at least partially encloses a spatial area, for example in which it has an at least largely closed ring shape. Proceeding from this, corresponding density data can then be generated in accordance with the method and, in turn, directional information can be generated from this, which describes the region outlined by the free space gesture.
  • the applicability of the method to the estimation of pure pointing gestures to the estimation of spatial gestures can thus be expanded.
  • determining a direction information conveyed by the free space gesture on the basis of the estimated data comprises determining at least one direction vector lying tangential to the direction curve represented by the estimated data. This can be done in particular by means of a derivation in the sense of a mathematical differentiation or gradient formation with respect to the direction curve. In this way, directional information characterizing it can be obtained in a simple manner from the directional curve, which corresponds to an estimate of the directional information conveyed by the free space gesture.
  • a second aspect of the invention relates to a device for estimating a direction information conveyed by a free space gesture for determining a user input on a human-machine interface, in particular a vehicle, the device being set up to carry out the method according to the first aspect of the invention.
  • the device can be, in particular, a control device for a vehicle, in particular a motor vehicle, where the control device itself has or is set up to have the above-mentioned man-machine interface parts, with which it is connected to receive the measurement data.
  • a third aspect of the invention relates to a computer program configured to carry out the method of the first aspect of the invention.
  • the computer program can in particular be stored on a non-volatile data carrier.
  • This is preferably a data carrier in the form of an optical data carrier or a flash memory module.
  • the computer program can be present as a file on a data processing unit, in particular on a server, and can be downloadable via a data connection, for example the Internet or a dedicated data connection, such as a proprietary or local network.
  • the computer program can have a plurality of interacting individual program modules.
  • the device can accordingly have a program memory in which the computer program is stored.
  • the device can also be set up to access a computer program which is available externally, for example on one or more servers or other data processing units, in particular in order to exchange data with it, which are used during the course of the method or computer program or Represent editions of the computer program.
  • FIG. 1 schematically shows a system for estimating direction information, including an estimation device, according to various embodiments of the invention
  • FIG. 2 shows a flow diagram to illustrate a preferred embodiment of the method according to the invention
  • FIG. 3 for the purpose of illustrating the segmentation process S1 from FIG. 2, a two-dimensional representation of an exemplary point cloud represented by corresponding measurement data obtained by recording a human arm, wherein a segment corresponding to the fingers of the arm is identified;
  • FIG. 4 shows graphical representations to illustrate data occurring during the method according to FIG. 2 and derived from the measurement data
  • FIG. 5 shows an exemplary illustration of an interpretation of a detected free space gesture as a spatial gesture for estimating directional information, which defines a 2D area region selected by the free space gesture, according to embodiments of the invention.
  • Fig. 1 shows schematically a system 1 for estimating direction information according to various embodiments of the invention.
  • the system 1 has an estimation device 2 and a sensor 3 for three-dimensional detection of a free space gesture carried out by a user of the system.
  • the estimation device 2 can in particular be a computer, which can be equipped with a processor platform 2a and a program and data memory 2b and a data output 2c for outputting output data determined by the computer, in particular in the form of directional information, the sensor 3 in particular have a TOF (f / me of /// g / 7f) camera system.
  • TOF f / me of /// g / 7f
  • Other types of sensors in particular sensors based on ultrasound or radar measurement, can also be used instead or in combination therewith.
  • a computer program can be stored in the program memory 2b, which can consist of one or more program modules and which is configured to cause the estimating device 2 when it runs on the processor platform 2a to perform the method according to the invention, for example as follows based on FIGS. 2 to 5 described.
  • FIG. 2 serves to illustrate a preferred embodiment of the method according to the invention for estimating direction information conveyed by a free space gesture for determining a user input on a human-machine interface, which in particular corresponds to system 1 or can have one .
  • the actual estimation process which processes S1 to S8 1 is preceded by a measurement process SO, in which measurement data MD are generated by sensors, in particular with a measurement sensor 3 according to FIG. 1, which represent a spatially three-dimensional point cloud, which in turn represents a free space gesture detected by the user during the measurement.
  • FIG. 3 shows a two-dimensional representation of an exemplary 3D point cloud obtained in this way, which represents parts of the upper arm, the lower arm and the hand of an arm of a user performing the free space gesture.
  • the three-dimensional point cloud represented by the measurement data MD is first segmented as part of a preprocessing as part of a segmentation process S1 using one or more known methods, for example using a "random forest" classification method, to generate segment data SD to be obtained which correspond to the section of the measurement data MD relevant for the further course of the process.
  • segmentation process S1 using one or more known methods, for example using a "random forest" classification method, to generate segment data SD to be obtained which correspond to the section of the measurement data MD relevant for the further course of the process.
  • Fig. 3 such a section, which corresponds to the fin like the hand, is marked by a black box.
  • This is advantageously done by means of projection along one of the three spatial dimensions, here by way of example - without this being understood as a restriction - when using a Cartesian coordinate system, on the one hand along the Z direction, so that a two-dimensional projection of the point cloud onto the XY plane results, and on the other hand along the Y direction, so that there is accordingly a second projection on the XZ plane.
  • FIGS. 4 (a) and 4 (e) graphically show these two-dimensional projections resulting from the segment data SD, which are each represented by corresponding projection data BD xy or BD XZ .
  • a quantization process S3 follows, in which each of the 2D point clouds represented by the projection data BD xy or BD XZ is quantized according to a predefined spatial grid, so that now only predefined spatial positions are defined for the points (pixels).
  • the two quantized 2D point clouds which are shown graphically by way of example in FIGS. 4 (b) and 4 (f), are represented by corresponding image data ID xy and ID XZ .
  • the image data can thus be represented by corresponding data fields as follows:
  • This estimation takes place in an estimation section of the method in which corresponding density data PD xy or PD XZ are first obtained from the quantized image data ID xy or ID XZ in a probability estimation process S4.
  • a density value is assigned to each pixel of the two quantized 2D point clouds, which is equal to the number of points that were mapped onto the corresponding pixel according to the image data using the preceding processes S2 and S3.
  • the density data can thus be represented as follows by corresponding data fields:
  • FIGS. 4 (c) and 4 (g) graphically depict such quantized 2D data fields in which the value of a pixel is represented by a corresponding gray value for the purpose of illustration, a darker color corresponding to a higher probability.
  • a dependent or derived other value that is suitable for at least indirectly characterizing this number of points.
  • a filter process S5 now follows, in which the density data PD xy or PD XZ is folded by means of a core K ; which in particular is a Gaussian 2D core, for example of the form: can be filtered as follows:
  • the core K is indexed with the index pairs (n, m).
  • the kernel K has the variance s which can be selected as a parameter and a normalization factor a which is selected such that it normalizes the sum of all core elements to 1.
  • Corresponding filter data FD xy and FD XZ result from the filtering, which in particular preferably represents smoothing
  • Figures 4 (d) and 4 (h) are graphically represented as corresponding filtered pixel clouds F xy (i, j) and F xz (i, j).
  • a subsequent approximation process S6 which is carried out with the aid of a dimensionally reducing approximation method, which in the present example is chosen as the main component analysis (PCA)
  • corresponding estimation data ED are then obtained from the filter data, each representing a directional curve which is shown in FIGS. d) or 4 (h) is shown as a corresponding white arrow.
  • PCA main component analysis
  • the covariance matrix, M, of the PCA can in particular receive the following initial values:
  • each index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or by means of folding with the core K ge filtered density values F (i, j), and the indexing of the kernel with the index pairs (n, m) follows.
  • the desired direction information can be derived from the estimated data ED in a direction determination process S8 and represented by means of corresponding direction data RD.
  • This can be done in particular in such a way that the one-dimensional directional curves (white arrows) represented by the estimation data ED, which are defined in the respective 2D space, are transferred to a common three-dimensional space in which the two 2D spaces are each missing the third Dimension are expanded, and the estimated data ED are then averaged in the common 3D space (this corresponds to a message of the two white arrows) in order to obtain a resulting direction curve.
  • the estimation data ED each represent a curved directional curve, so that after averaging the two directional curves, a generally likewise curved resulting directional curve is created in 3D space, from which a desired directional information is obtained, for example by means of gradient formation at a desired point of the result directional curve or linear regression.
  • the method previously described by way of example with reference to FIGS. 2 to 4 can in particular also be carried out for different points in time of the execution of the free space gesture, so that time-dependent directional information is obtained and the time dynamics of a free space gesture can thus also be recorded.
  • FIG. 5 finally shows an exemplary illustration of an interpretation of a detected free space gesture as a spatial gesture for estimating directional information, which defines a 2D surface area selected by the free space gesture, according to embodiments of the invention.
  • the cone tip T is (i) the finger root (in the case of a pure finger movement) or (ii) the elbow in the case of a forearm movement emanating from it) or (iii) the shoulder joint (in the case of a movement of the entire arm emanating from it) , and the region desired by the user is located inside the cone, optionally also in its projection along the cone axis towards even greater distances.
  • the resulting point cloud in this reduced space could then (for example for the above gesture) have a shape or behavior that at least partially encloses a spatial area, for example the hatched two-dimensional surface or region A, for example in which it, like 5 has an at least largely closed ring shape.
  • method-specific density data FD and, in turn, directional information or corresponding directional data RD can be generated which describe or represent the region A outlined by the free space gesture.
  • this can also be used to select an object X, which is located in region A, using the free space gesture.
  • the object can in particular correspond to an operating element of a human-machine interface or another element of vehicle equipment. Objects outside the vehicle are also conceivable.
  • the applicability of the method can be extended to the estimation of pure pointing gestures to the estimation of spatial gestures.

Abstract

The invention relates to a method, an apparatus and a computer program for estimating a direction of an open space gesture at a man-machine interface. The method comprises: receiving (SO) measurement data that have been sensed by sensors and that represent the open space gesture as a point cloud in a multidimensional space; determining (S4) density data that represent a density distribution corresponding to the point cloud, for which density distribution each individual point in the point cloud is assigned information relating to density which characterises a local point density of the point cloud in the environment of each point; applying (S6) a dimension-reducing approximation method to the density data in order to determine estimation data that represent a one-dimensional direction curve which characterises a directional aspect of the density distribution; and generating (S8) and preparing directional data representing directional information that is determined by the spatial plot of the direction curve represented by the estimation data, in the superordinate multidimensional space.

Description

RICHTUNGSSCHÄTZUNG EINER FREIRAUMGESTE  DIRECTIONAL ESTIMATION OF A CLEAR SPACE GESTURE
Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzer eingabe an einer Mensch-Maschine-Schnittsteile, insbesondere eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Computerprogramm, das zur Ausführung des Verfahrens konfiguriert ist. The present invention relates to a method and a device for estimating a directional information conveyed by a free space gesture for determining a user input on a human-machine interface, in particular a vehicle. Furthermore, the invention relates to a computer program that is configured to execute the method.
Während klassische Mensch-Maschine-Schnittsteilen (abgek. "MMS" oder häufiger "MMI") re gelmäßig auf einer kontaktbasierten Interaktion eines Benutzers mit einem entsprechenden Bedienelement, beispielsweise einem physischen Schalter oder einer berührungsempfindlichen Oberfläche oder Anzeigevorrichtung usw. beruhen, sind inzwischen MMI bekannt, bei denen eine im freien Raum ohne physischen Kontakt mit einer MMI-Vorrichtung ausgeführte statische oder dynamische Geste eines menschlichen Benutzers sensorisch erfasst wird. Diese sensori sche Erfassung solcher auch als„Freiraumgesten“ bezeichneten Gesten, kann beispielsweise mittels einer geeigneten Kamera erfolgen. Sodann werden mittels mathematischer Verfahren, insbesondere Bilderkennungsverfahren, aus den sensorisch erfassten Daten Rückschlüsse auf eine mittels der erfassten Geste intendierten Benutzereingabe gezogen. While classic human-machine interfaces (abbreviated "MMS" or more frequently "MMI") are regularly based on a user's contact-based interaction with a corresponding control element, for example a physical switch or a touch-sensitive surface or display device, etc., MMI are now known , in which a static or dynamic gesture of a human user, performed in free space without physical contact with an MMI device, is sensed. This sensory detection of such gestures, also known as “free space gestures”, can be carried out, for example, using a suitable camera. Then, by means of mathematical methods, in particular image recognition methods, conclusions are drawn from the sensor-acquired data on a user input intended by means of the recorded gesture.
Insbesondere im Zusammenhang mit fahrzeugbezogenen Anwendungen können derartige zur Erkennung von Freiraumgesten fähige Mil dazu eingesetzt werden, Eingaben zur Bedienung des Fahrzeugs oder eines Teilsystems davon vorzunehmen. Des Weiteren ist es auch möglich, dass sich die Freiraumgesten auf das Umfeld des Fahrzeugs beziehen, wie etwa ein Zeigen auf ein interessantes, vom Fahrzeug aus sichtbaren, fahrzeugexternes Objekt, und das Erkennen einer solchen Freiraumgeste dazu dient, eine Eingabe für ein System zu liefern, welches eine auf das Objekt bezogene Information liefern soll, oder das Fahrzeug veranlasst, darauf zu rea gieren. In particular in connection with vehicle-related applications, such mils capable of recognizing free-space gestures can be used to make inputs for operating the vehicle or a subsystem thereof. Furthermore, it is also possible for the free space gestures to relate to the surroundings of the vehicle, such as pointing to an interesting object that is visible from the vehicle and external to the vehicle, and the recognition of such a free space gesture serves to provide an input for a system , which is to provide information relating to the object or causes the vehicle to react to it.
Zur Implementierung von solchen kontaktlosen MMI sind Gestenerkennungssysteme bekannt, bei denen kalibrierte 2D-Sensoren eingesetzt werden, um bestimmten Merkmalen zugeordnete Punkte entlang der Kontur einer Hand eines Benutzers zu detektieren und zu verfolgen, insbe sondere von oben und der Seite aus. Auf Basis der detektierten Punkte kann sodann eine, mit der im dreidimensionalen Raum ausgeführten Geste verbundene Zeigerichtung geschätzt wer- den. Solche Systeme sind von der Erkennung gut unterscheidbarer Merkmale (Punkte) der menschlichen Hand abhängig und benötigen eine feststehende und kalibrierte Hardware mit zumindest zwei 2D-Sensoren. For the implementation of such contactless MMI, gesture recognition systems are known in which calibrated 2D sensors are used in order to detect and track points associated with certain features along the contour of a user's hand, in particular from above and from the side. On the basis of the detected points, a pointing direction associated with the gesture carried out in three-dimensional space can then be estimated. the. Such systems are dependent on the recognition of clearly distinguishable features (points) of the human hand and require fixed and calibrated hardware with at least two 2D sensors.
Darüber hinaus sind Verfahren bekannt, bei denen körperbezogene Informationen verwendet werden, um auf eine durch eine Geste ausgedrückte Zeigerichtung zu schließen. In den meis ten Fällen werden dazu eine Kopfposition sowie eine Handposition detektiert und darauf beru hend eine Anzeigerichtung geschätzt. Ausrichtungen oder sogar Bewegungen der Finger der Hand werden dabei nicht detektiert oder berücksichtigt. In addition, methods are known in which body-related information is used to infer a pointing direction expressed by a gesture. In most cases, a head position and a hand position are detected and a display direction is estimated based on this. Alignments or even movements of the fingers of the hand are not detected or taken into account.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Erkennung von Freiraumgesten und insbesondere die Bestimmung einer dadurch vermittelnden Richtungsinformation weiter zu ver bessern. The present invention has for its object to further improve the detection of free space gestures and in particular the determination of a mediating directional information.
Die Lösung dieser Aufgabe wird gemäß der Lehre der unabhängigen Ansprüche erreicht. Ver schiedene Ausführungsformen und Weiterbildungen der Erfindung sind Gegenstand der Unter- ansprüche. This object is achieved in accordance with the teaching of the independent claims. Various embodiments and developments of the invention are the subject of the subclaims.
Ein erster Aspekt der Erfindung betrifft ein, insbesondere computerimplementiertes, Verfahren zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestim mung einer Benutzereingabe an einer Mensch-Maschine-Schnittsteile, insbesondere eines Fahrzeugs. Das Verfahren weist auf: (i) Empfangen von sensorisch erfassten Messdaten, die eine durch einen Benutzer bezüglich der Mensch-Maschine-Schnittsteile, insbesondere mittels Arm, Hand und/oder Finger, ausgeführte Freiraumgeste als räumlich mehrdimensionale, d.h. 2- dimensionale oder 3-dimensionale, inhomogene Punktwolke in einem entsprechend mehrdi mensionalen Raum repräsentieren; (ii) Bestimmen, auf Basis der Messdaten, von Dichtedaten, die eine zu der Punktwolke korrespondierende Dichteverteilung repräsentieren, bei der den ein zelnen Punkten der Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokale Punktdichte der Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet; (iii) Anwenden eines dimensionsreduzierenden Approximationsverfahrens auf die Dichtedaten zur Bestimmung von Schätzdaten, die eine Schätzung einer zumindest einen Richtungsaspekt der Dichteverteilung charakterisierende, eindimensionale Richtungskurve; repräsentieren; und (iv) Generieren und Bereitstellen von Richtungsdaten, welche eine Richtungsinformation repräsen tieren, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungs kurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist. Unter einer„Richtungsinformation“ im Sinne der Erfindung ist insbesondere eine Information zu verstehen, die zumindest eine bestimmte, ausgewählte Richtung im Raum angibt. Sie kann op tional insbesondere auch gegebenenfalls deren zeitliche Abhängigkeit angeben. A first aspect of the invention relates to a, in particular computer-implemented, method for estimating direction information conveyed by a free space gesture for determining a user input on a human-machine interface, in particular a vehicle. The method comprises: (i) receiving sensor-acquired measurement data, which a free space gesture carried out by a user with respect to the human-machine cut parts, in particular by means of arm, hand and / or fingers, as spatially multidimensional, ie 2-dimensional or 3-dimensional represent dimensional, inhomogeneous point cloud in a correspondingly multidimensional space; (ii) determining, on the basis of the measurement data, density data which represent a density distribution corresponding to the point cloud, in which case density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point; (iii) applying a dimension-reducing approximation method to the density data to determine estimated data which is an estimate of a one-dimensional direction curve characterizing at least one direction aspect of the density distribution; represent; and (iv) generation and provision of directional data which represent directional information which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space. “Direction information” in the sense of the invention is to be understood in particular to mean information that indicates at least one specific, selected direction in space. Optionally, it can also specify its temporal dependence, if necessary.
Unter einer "Punktwolke" im Sinne der Erfindung ist insbesondere eine Menge von Punkten eines Vektorraums, insbesondere des dreidimensionalen Raums oder eines zweidimensionalen Unterraums davon, zu verstehen, die eine unorganisierte räumliche Struktur („Wolke“) aufweist. Eine Punktwolke ist durch die darin enthaltenen Punkte beschrieben, die jeweils insbesondere durch ihre Raumkoordinaten in einem dem Vektorraum zugeordneten Koordinatensystem er fasst werden können. A “point cloud” in the sense of the invention is to be understood in particular as a set of points of a vector space, in particular of the three-dimensional space or of a two-dimensional subspace thereof, which has an unorganized spatial structure (“cloud”). A point cloud is described by the points contained therein, each of which can be detected in particular by their spatial coordinates in a coordinate system assigned to the vector space.
Unter einer "Richtungskurve" im Sinne der Erfindung ist insbesondere eine eindimensionale Kurve bzw. insbesondere eine eindimensionale Richtungskurve in einem höherdimensionalen Raum zu verstehen, die zumindest einen durch sie charakterisierten Richtungsaspekt aufweist. Die Richtungskurve kann insbesondere im einfachsten Fall als eindimensionale Richtungskurve eine Gerade darstellen, deren Richtung zugleich den Richtungsaspekt angibt. Sie kann jedoch im allgemeinen Fall auch eine beliebige Krümmung, auch mehrfache Krümmungen, aufweisen. Bevorzugt ist die Richtungskurve zumindest zum überwiegenden Teil, idealerweise überall, ste tig und differenzierbar. A “direction curve” in the sense of the invention is to be understood in particular as a one-dimensional curve or in particular a one-dimensional direction curve in a higher-dimensional space, which has at least one directional aspect characterized by it. In the simplest case, the direction curve can represent a straight line as a one-dimensional direction curve, the direction of which at the same time indicates the direction aspect. In the general case, however, it can also have any curvature, including multiple curvatures. The directional curve is preferably at least for the most part, ideally everywhere, continuous and differentiable.
Bei der erfindungsgemäßen Lösung wird folglich die gewünschte Richtungsinformation nicht unmittelbar aus der Punkteverteilung der erfassten Punktwolke bestimmt, sondern stattdessen wird aus der Punkteverteilung zunächst eine eine Wahrscheinlichkeitsverteilung repräsentie rende Dichteverteilung abgeleitet, auf deren Basis erst mittels des genannten dimensionsredu zierenden Approximationsverfahrens eine eindimensionale Richtungskurve bestimmt wird, wel che die gewünschte Richtungsinformation charakterisiert. Auf diese Weise lässt sich die er reichbare Zuverlässigkeit und Genauigkeit bei der schätzungsbasierten Bestimmung von Rich tungsinformationen aus Punktwolken steigern. Zudem benötigt das Verfahren nur relativ gerin ge Rechenressourcen, sodass es sich insbesondere für echtzeitfähige Anwendungen eignet. Außerdem ist das Verfahren unabhängig von einer bestimmten Orientierung des zur Erfassung der Messdaten verwendeten Sensors, beispielsweise einer Kamera, was es besonders gut zur Bestimmung von, insbesondere auch fingerbasierten, Zeigefreiraumgesten innerhalb eines Fahrzeugs geeignet macht, da gerade dort der Sensor in verschiedensten Positionen vorgese hen sein kann. Nachfolgend werden bevorzugte Ausführungsformen des Verfahrens beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird oder technisch unmöglich ist, beliebig mit einander sowie mit den weiteren beschriebenen anderen Aspekten der Erfindung kombiniert bzw. als entsprechende Ausführungsformen letzterer verwendet werden können. In the solution according to the invention, the desired directional information is consequently not determined directly from the point distribution of the recorded point cloud, but instead a density distribution representing a probability distribution is first derived from the point distribution, on the basis of which a one-dimensional directional curve is determined only by means of the dimension-reducing approximation method mentioned, which characterizes the desired direction information. In this way, the achievable reliability and accuracy in the estimation-based determination of directional information from point clouds can be increased. In addition, the method requires only relatively low computing resources, so that it is particularly suitable for real-time capable applications. In addition, the method is independent of a specific orientation of the sensor used to record the measurement data, for example a camera, which makes it particularly suitable for determining, in particular also finger-based, gestures of free space within a vehicle, since the sensor is provided in a wide variety of positions there can be. Preferred embodiments of the method are described below, each of which, unless expressly excluded or technically impossible, can be combined with one another as well as with the other described other aspects of the invention or used as corresponding embodiments of the latter.
Bei einigen Ausführungsformen erfolgt das sensorische mehrdimensionale Erfassen der durch einen Benutzer bezüglich der Mensch-Maschine-Schnittsteile ausgeführten Freiraumgeste mit tels einem TOF-Kamerasystem. Unter einem "TOF-Kamerasystem" im Sinne der Erfindung ist ein 3D-Kamerasystem zu verstehen, das auf Basis eines Laufzeitverfahren (englisch: time of flight, "TOF") Distanzen misst. Das Messprinzip beruht darauf, dass die aufzunehmende Szene mittels eines Lichtpulses ausgeleuchtet wird, und die Kamera für jeden Bildpunkt die Zeit, die das Licht bis zum Objekt und wieder zurück braucht misst. Diese benötigte Zeit ist aufgrund der Konstanz der Lichtgeschwindigkeit direkt proportional zur Distanz. Die Kamera liefert somit für jeden Bildpunkt die Entfernung des darauf abgebildeten Objektes. Die Verwendung eines TOF- Kamerasystems stellt eine besonders effektive und hochauflösende Implementierungsmöglich keit, für den zu sensorischen Erfassung der Freiraumgeste erforderlichen zumindest einen Sen sor dar. In some embodiments, the sensory multidimensional detection of the free space gesture carried out by a user with respect to the human-machine cut parts is carried out using a TOF camera system. A “TOF camera system” in the sense of the invention is to be understood as a 3D camera system that measures distances on the basis of a time of flight (“TOF”) method. The measuring principle is based on the fact that the scene to be recorded is illuminated by means of a light pulse, and the camera measures for each pixel the time it takes for the light to reach the object and back again. Due to the constant speed of light, this time is directly proportional to the distance. The camera thus supplies the distance of the object depicted on it for each pixel. The use of a TOF camera system represents a particularly effective and high-resolution implementation possibility for the at least one sensor required for sensory detection of the free space gesture.
Bei einigen Ausführungsformen ist der mehrdimensionale Raum dreidimensional und die Mess daten repräsentieren eine die erfasste Freiraumgeste räumlich dreidimensional, 3D, abbildende Punktwolke. In some embodiments, the multi-dimensional space is three-dimensional, and the measurement data represent a point cloud that depicts the detected free space gesture in three-dimensional, 3D.
Bei einer ersten Variante dazu wird unmittelbar für die 3D-Punktwolke eine dazu korrespondie rende Dichteverteilung bestimmt, indem den einzelnen Punkten der 3D-Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokalen Dichte der 3D-Punktwolke in der Um gebung des jeweiligen Punkts kennzeichnet, wobei für die 3D-Punktwolken die resultierende 3D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden. Eine dimensi onsreduzierende Abbildung der 3D-Punktwolke auf eine oder insbesondere mehrere Punktwol ken niedrigerer Dimension ist bei dieser Variante nicht erforderlich, so dass entsprechende Ver fahrensschritte eingespart werden können. In a first variant, a density distribution corresponding to this is determined directly for the 3D point cloud by assigning density information to the individual points of the 3D point cloud, which identifies a local density of the 3D point cloud in the area surrounding the respective point, wherein associated density data representing the resulting 3D density distribution are generated for the 3D point clouds. A dimension-reducing image of the 3D point cloud on one or in particular several point clouds of lower dimensions is not necessary in this variant, so that corresponding procedural steps can be saved.
Bei einer zweiten, alternativen Variante dazu weist das Bestimmen der Dichtedaten auf: (i) Di mensionsreduzierendes Abbilden der 3D-Punktwolke auf eine Mehrzahl N, mit N >1 , jeweils räumlich zweidimensionaler, 2D, Punktwolken, die jeweils in einem von N zugehörigen 2D- Unterräumen des mehrdimensionalen Raums definiert sind, von denen zumindest zwei in dem übergeordneten 3D-Raum nicht parallel zueinander liegen; und (ii) Bestimmen, für jede der N 2D-Punktwolken, einer dazu korrespondierenden Dichteverteilung, bei der den einzelnen Punk ten der jeweiligen 2D-Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokalen Dichte der jeweiligen 2D-Punktwolke in der Umgebung des jeweiligen Punkts kenn zeichnet, wobei für jede der 2D-Punktwolken die jeweilige resultierende 2D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden. Des Weiteren erfolgt das Anwen den des Approximationsverfahrens separat für jede der durch die jeweiligen Dichtedaten reprä sentierten 2D-Dichteverteilungen zur Schätzung einer durch sie charakterisierten jeweiligen eindimensionalen, 1 D, Richtungskurve, wobei für jede der 2D-Dichteverteilungen die jeweilige 1 D-Richtungskurve repräsentierende zugeordnete Schätzdaten erzeugt werden. Zudem erfolgt das Bestimmen der Richtungsinformation auf Basis einer, insbesondere gewichteten oder un gewichteten, Mittelung von zumindest zwei, bevorzugt sämtlicher, der durch die jeweiligen Schätzdaten repräsentierten einzelnen 1 D-Richtungskurven im übergeordneten 3D-Raum, um eine auf den 3D-Raum bezogene Richtungsinformation zu erhalten. In a second, alternative variant, the determination of the density data comprises: (i) dimension-reducing mapping of the 3D point cloud onto a plurality N, with N> 1, each spatially two-dimensional, 2D, point clouds, each in a 2D belonging to N - Subspaces of the multidimensional space are defined, at least two of which are not parallel to one another in the superordinate 3D space; and (ii) determining, for each of the N 2D point clouds, a density distribution corresponding thereto, in which the individual points of the respective 2D point cloud are each assigned density information which is a local density of the respective 2D point cloud in the vicinity of the respective one Dotts characterizes, whereby for each of the 2D point clouds the associated resulting 2D density distribution representing assigned density data are generated. Furthermore, the approximation method is used separately for each of the 2D density distributions represented by the respective density data to estimate a respective one-dimensional, 1 D, direction curve characterized by them, whereby for each of the 2D density distributions the assigned 1 D direction curve is assigned Estimated data are generated. In addition, the directional information is determined on the basis of a, in particular weighted or unweighted, averaging of at least two, preferably all, of the individual 1-D directional curves represented by the respective estimation data in the superordinate 3D space, by way of directional information related to the 3D space to obtain.
Letzteres kann insbesondere mittels Gradientenbestimmung bezüglich einer aus der Mittelung resultierenden 1 D-Richtungskurve erfolgen. Diese sowie jegliche darauf aufbauenden weiteren Ausführungsformen haben den Vorteil, dass die Komplexität der nachfolgenden Berechnungen aufgrund der vorgenommenen Dimensionsreduktion deutlich reduziert werden kann, da insge samt weniger und nur auf zwei Dimensionen bezogene Daten verarbeitet werden müssen. So mit lässt sich insbesondere die Performanz steigern und somit auch die Echtzeitfähigkeit des Verfahrens erreichen bzw. verbessern. The latter can be done in particular by means of gradient determination with respect to a 1-D direction curve resulting from the averaging. These, as well as any further embodiments based on them, have the advantage that the complexity of the subsequent calculations can be significantly reduced due to the dimensional reduction that has been carried out, since overall less and only two-dimensional data have to be processed. In particular, the performance can be increased and thus the real-time capability of the method can be achieved or improved.
Bei einigen dieser Ausführungsformen gemäß der zweiten Variante weist das dimensionsredu zierende Abbilden eine Projektionsabbildung entlang einer der drei Dimensionen der durch die Messdaten repräsentierten 3D-Punktwolke auf eine korrespondierende 2D-Punktwolke in einem zugehörigen der N 2D-Unterräumen auf. Die Dimensionsreduzierung auf zwei Dimensionen erfolgt somit mittels Projektion. Beispielsweise kann bei Verwendung eines kartesischen Koor dinatensystems die Projektion insbesondere entlang einer der Achsen dieses Koordinatensys tems erfolgen, sodass beispielsweise alle Punkte der Punktwolke in dem durch die Koordina tenachsen X, Y und Z aufgespannten dreidimensionalen Raum entlang der Z-Achse auf die X/Y Ebene projiziert werden. Selbstverständlich ist dies nur ein Beispiel und nicht als Einschränkung zu verstehen. Insbesondere kann die Projektion entlang einer beliebigen Projektionsrichtung erfolgen und anstelle eines kartesischen Koordinatensystems kann auch ein anderes Koordina- tensystem gleicher Dimension verwendet werden, um die Koordinaten der Punkte zu repräsen tieren. In some of these embodiments according to the second variant, the dimension-reducing imaging has a projection image along one of the three dimensions of the 3D point cloud represented by the measurement data onto a corresponding 2D point cloud in a corresponding one of the N 2D subspaces. The dimension reduction to two dimensions is thus carried out by means of projection. For example, when using a Cartesian coordinate system, the projection can take place in particular along one of the axes of this coordinate system, so that, for example, all points of the point cloud in the three-dimensional space spanned by the coordinate axes X, Y and Z along the Z axis onto the X / Y Plane are projected. Of course, this is only an example and should not be understood as a limitation. In particular, the projection can take place along any projection direction and, instead of a Cartesian coordinate system, another coordinate system of the same dimension can be used to represent the coordinates of the points.
Bei einigen Ausführungsformen weist das Bestimmen der Dichtedaten des Weiteren auf: (i) räumliches Quantisieren der durch die Messdaten repräsentierten mehrdimensionalen Punkt wolke In some embodiments, determining the density data further comprises: (i) spatial quantizing the multidimensional point cloud represented by the measurement data
oder gegebenenfalls jeder der daraus mittels einer jeweiligen dimensionsreduzierenden Abbil dung gewonnenen 2D-Punktwolke, und (ii) Bestimmen der Dichtedaten auf Basis einer resultie renden Dichteverteilung der Punkte der entsprechenden quantisierten Punktwolke. Anstelle einer kontinuierlichen oder in Abhängigkeit von der diskreten Auflösung des entsprechenden die Messdaten erzeugten Sensorsystems festgelegten Abbildung, wird die Punktwolke nun auf ein vordefiniertes räumliches Gitter abgebildet und somit quantisiert. Die einzelnen Zellen des Git ters können insbesondere bei Anwendung eines rechtwinkligen oder sogar Würfelgitters im dreidimensionalen Fall als "Voxel" und im zweidimensionalen Fall als "Pixel" bezeichnet wer den. Durch die Quantisierung wird wiederum die Komplexität der nachfolgenden Berechnungen vereinfacht, und insbesondere die Verwendung einer einfachen Indizierung für die Voxel bzw. die Pixel anstelle von Koordinatenangaben ermöglicht. Insbesondere kann die Komplexitätsre duktion einschließen, dass anstelle einer Fließkommaarithmetik nun die einfachere und weniger aufwendige Ganzzahlarithmetik verwendet werden kann. Dies vereinfacht und beschleunigt den Einsatz insbesondere in eingebetteten Systemen. Zusätzlich lässt sich durch die Art der Quan tisierung die Genauigkeit des Systems anpassen, insbesondere sogar steigern, da die Art der Quantisierung einen einstellbaren Trade-off zwischen Genauigkeit und Geschwindigkeit ermög licht (grobes Gitter = schnell aber ungenau, feines Gitter = langsamer aber genauer). or optionally each of the 2D point clouds obtained therefrom by means of a respective dimension-reducing image, and (ii) determining the density data on the basis of a resultant density distribution of the points of the corresponding quantized point cloud. Instead of a continuous or fixed image depending on the discrete resolution of the corresponding sensor system generated the measurement data, the point cloud is now mapped onto a predefined spatial grid and thus quantized. The individual cells of the grid can be referred to in particular when using a rectangular or even cube grid in the three-dimensional case as "voxel" and in the two-dimensional case as "pixel". The quantization in turn simplifies the complexity of the subsequent calculations and in particular enables simple indexing for the voxels or the pixels instead of coordinate information. In particular, the complexity reduction can include that instead of floating point arithmetic, the simpler and less complex integer arithmetic can now be used. This simplifies and speeds up use, particularly in embedded systems. In addition, the type of quantization allows the accuracy of the system to be adjusted, in particular even increased, since the type of quantization enables an adjustable trade-off between accuracy and speed (coarse grid = fast but inaccurate, fine grid = slower but more precise) .
In einigen Weiterbildungen dieser Ausführungsformen kann sich die Quantisierung zusätzlich auf einen dem jeweiligen Voxel bzw. Pixel zugeordneten Wert beziehen, der auf Basis der darin vorhandenen Punkte der Punktwolke bestimmt wird. Die Quantisierung kann dabei insbesonde re binär erfolgen, sodass im Rahmen der Quantisierung der Wert eines Voxels bzw. Pixels, wenn seine Punkteanzahl unterhalb einer vorbestimmten Schwelle liegt, auf einen ersten der beiden binären Werte, beispielsweise auf „0“, gesetzt wird, während bei Punkteanzahlen ober halb der Schwelle dieser Wert auf den zweiten der beiden binären Werte, beispielsweise„1“, gesetzt wird. Bei einer Punkteanzahl, die gleich der Schwelle ist, kann der Wert so festgelegt werden, dass er auf vordefinierte Weise auf einen der binären Werte gesetzt wird. Auf diese Weise kann die Anzahl der weiterzuverarbeitenden Punkte mittels dieser noch weiter reduziert werden, indem nur diejenigen Voxel bzw. Pixel mit dem zweiten Wert im weitern Verfahren be rücksichtigt werden, was die Performanz des Verfahrens weiter steigert. In some developments of these embodiments, the quantization can additionally relate to a value assigned to the respective voxel or pixel, which is determined on the basis of the points of the point cloud present therein. The quantization can in particular be carried out in a binary manner, so that the value of a voxel or pixel, if its number of points lies below a predetermined threshold, is set to a first of the two binary values, for example to “0”, during the quantization, while at Number of points above the threshold this value is set to the second of the two binary values, for example "1". If the number of points is equal to the threshold, the value can be set so that it is set to one of the binary values in a predefined manner. In this way, the number of points to be processed can be reduced even further by means of these are taken into account by only considering those voxels or pixels with the second value in the further process, which further increases the performance of the process.
Bei einigen dieser Ausführungsformen wird im Falle der räumlichen Quantisierung einer mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, die Dichte verteilung für jeden Punkt der resultierenden 2D-Punktwolke auf Basis der Anzahl derjenigen Punkte der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke bestimmt, welche gemäß der Projektionsabbildung auf denselben quantisierten Punkt der 2D-Punktwolke abgebildet werden. Werden also bei der dimensionsreduzierenden Abbildung mittels der Projek tion viele Punkte auf dasselbe Pixel der resultierenden 2D-Punktwolke abgebildet, so erhält dieses Pixel einen hohen, der Anzahl dieser Punkte entsprechenden oder daraus abgeleiteten Wert, während im umgekehrten Fall, wenn nur wenige Punkte auf das Pixel abgebildet werden, dieser Wert entsprechend niedriger ausfällt. Auf diese Weise kann die ursprüngliche Punktwol ke auf effektive und einfach auszuführende und somit hochperformante Weise in eine zweidi mensionale Dichteverteilung umgewandelt werden, welche die resultierende jeweilige 2D- Punktwolke charakterisiert. In some of these embodiments, in the case of spatial quantization of a 2D point cloud obtained by means of a respective dimension-reducing image, the density distribution for each point of the resulting 2D point cloud is determined on the basis of the number of those points of the multidimensional point cloud represented by the measurement data, which according to the Projection mapping can be mapped onto the same quantized point of the 2D point cloud. If, in the case of dimension-reducing imaging, many points are mapped onto the same pixel of the resulting 2D point cloud, this pixel receives a high value corresponding to the number of these points or derived therefrom, whereas in the opposite case if only a few points are on the Pixels are mapped, this value is correspondingly lower. In this way, the original point cloud can be converted into a two-dimensional density distribution, which characterizes the resulting respective 2D point cloud, in an effective and easy-to-execute and thus high-performance manner.
Bei einigen Ausführungsformen weist das Bestimmen der Dichtedaten des Weiteren ein Filtern der jeweiligen Punktwolke auf, von der ausgehend die durch die jeweiligen Dichtedaten reprä sentierte jeweilige Dichteverteilung mittels, bevorzugt mehrfacher, Faltung der Dichteverteilung mit einem jeweiligen Filterkern, der insbesondere eine Tiefpasseigenschaft aufweisen kann und insbesondere ein Glättungskern sein kann, bestimmt wird. In einer Variante kann der Filterkern insbesondere ein Gaußscher Filterkern sein. Mithilfe dieser Filterung wird erreicht, dass die ur sprüngliche Dichteverteilung, wie sie sich insbesondere aus der Quantisierung ergibt, geglättet wird, was insbesondere die Anwendbarkeit der nachfolgenden Verfahrensschritte sowie die Qualität der daraus resultierenden Schätzergebnisse für die Richtungsinformationen verbessern kann. Ohne die Filterung würden die Informationen zwischen den Punkten nicht interpoliert, mit der Folge, dass für die nachfolgenden Verfahrensschritte, insbesondere für eine (nachfolgend beschriebene) PCA, deutlich weniger Informationen zur Verfügung stünden, was in einigen Fäl len zu weniger zuverlässigen Resultaten führen könnte. Ein weiterer Vorteil der Filterung be steht darin, dass auch einzelne„falsche“ (z.B. durch Messrauschen oder Fehlmessungen er zeugte) Punkte geglättet werden und somit geringeren Einfluss auf den weiteren Verfahrens gang, insbesondere z.B. eine PCA, hat. Das insbesondere mit TOF-Sensoren üblicherweise einhergehende Rauschen wird somit mittels der Filterung unterdrückt und die Ergebnisqualität kann so erhöht werden. Bei einigen Ausführungsformen kommt als dimensionsreduzierenden Approximationsverfahren zur Bestimmung der jeweiligen Schätzdaten eine Hauptkomponentenanalyse, PCA, oder ein Regressionsverfahren zum Einsatz. In some embodiments, the determination of the density data further comprises filtering the respective point cloud, on the basis of which the respective density distribution represented by the respective density data, by means of, preferably multiple, folding of the density distribution with a respective filter core, which in particular can have a low-pass property and in particular can be a smoothing kernel is determined. In one variant, the filter core can in particular be a Gaussian filter core. With the aid of this filtering, the original density distribution, as it results in particular from the quantization, is smoothed, which in particular can improve the applicability of the subsequent method steps and the quality of the resulting estimation results for the directional information. Without the filtering, the information between the points would not be interpolated, with the result that significantly less information would be available for the subsequent method steps, in particular for a PCA (described below), which in some cases could lead to less reliable results. Another advantage of filtering is that individual "wrong" points (eg those generated by measurement noise or incorrect measurements) are smoothed and thus have less influence on the further process, in particular, for example, a PCA. The noise usually associated with TOF sensors is thus suppressed by means of the filtering and the quality of the result can be increased in this way. In some embodiments, a main component analysis, PCA, or a regression method is used as the dimension-reducing approximation method for determining the respective estimation data.
Die PCA stellt ein im Rahmen des erfindungsgemäßen Verfahrens besonders geeignetes und performantes Approximationsverfahren dar. Die PCA kann insbesondere gewichtet sein, so dass kleinere daraus resultierende Hauptkomponenten für die resultierende Bestimmung der Richtungsdaten vernachlässigt werden. Insbesondere kann die PCA im einfachsten Fall bereits unmittelbar nach Bestimmung der ersten Hauptkomponente abgebrochen werden, sodass eine Bestimmung der weiteren Hauptkomponenten nicht mehr erforderlich ist. Die durch die Rich tungsdaten repräsentierte Richtungsinformation wird dann somit auf Basis nur der größten mit tels der PCA ermittelten Hauptkomponente (d.h. derjenigen Komponenten mit dem größten im Rahmen der PCA ermittelten Eigenwert) bestimmt. Dies ermöglicht eine besonders performan- te und einfache Implementierung. The PCA is a particularly suitable and performant approximation method within the scope of the method according to the invention. The PCA can in particular be weighted so that smaller main components resulting therefrom are neglected for the resulting determination of the directional data. In particular, in the simplest case, the PCA can be terminated immediately after the determination of the first main component, so that a determination of the further main components is no longer necessary. The directional information represented by the directional data is then determined on the basis of only the largest main component ascertained by means of the PCA (i.e. those components with the greatest intrinsic value determined as part of the PCA). This enables a particularly performant and simple implementation.
Bei einigen Ausführungsformen, bei denen eine PCA bezüglich einer quantisierten und gefilter ten, zweidimensionalen Dichteverteilung F(i,j) die Kovarianzmatrix, M, der PCA die folgenden Ausgangswerte erhält:
Figure imgf000010_0001
In some embodiments in which a PCA with respect to a quantized and filtered two-dimensional density distribution F (i, j) the covariance matrix, M, the PCA receives the following initial values:
Figure imgf000010_0001
mit With
Figure imgf000010_0002
und
Figure imgf000010_0002
and
Figure imgf000010_0003
Figure imgf000010_0003
wobei
Figure imgf000011_0001
und wobei (i,j) jeweils Indexpaare zur Indizierung der Zellen des quantisierten 2D-Unterraums bzw. ihrer zugeordneten ungefilterten Dichtwerte P(i,j) bzw. mittels Faltung mit dem Kern K ge filterten Dichtwerte F(i,j) sind, und die Indizierung des Kerns K mit den Indexpaaren (n,m) er folgt.
in which
Figure imgf000011_0001
and where (i, j) are index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or density values F (i, j) filtered by means of convolution with the core K, and the kernel is indexed with the index pairs (n, m).
Bei einigen Ausführungsformen weist das Verfahren des Weiteren auf: (i) Segmentieren der zum Bestimmen der zugehörigen Dichtedaten daraus vorgesehenen jeweiligen Punktwolke in mehrere verschiedene Segmente auf Basis einer Erkennung verschiedener durch die Punkt wolke abgebildeter Körperteile des Benutzers; (ii) Auswahlen einer echten Untermenge der Segmente mittels eines Auswahlkriteriums, welches in Abhängigkeit von dem bzw. den zur Aus führung der Freiraumgeste bestimmten einem oder mehreren Körperteilen definiert ist; und (iii) Bestimmen der zugehörigen Dichtedaten nur auf Basis des durch die ausgewählte Untermenge der Segmente repräsentierten Teils der Punktwolke. Auf diese Weise ist es möglich, die Be stimmung der gewünschten Richtungsinformationen allein auf Basis eines Ausschnitts der sen sorischer erfassten Punktwolke durchzuführen. Dies ist insbesondere dann vorteilhaft, wenn die Punktwolke jenseits eines für die Bestimmung der Richtungsinformationen relevanten Körper teils des Benutzers zusätzlich ein oder mehrere weitere Körperteile oder Abschnitte davon re präsentiert. Die Segmentierung erlaubt zudem zum einen, eine unnötige Verarbeitung der in diesem Sinne nicht relevanten Anteile der Punktwolke zu vermeiden, und andererseits die er forderliche Zuverlässigkeit und Genauigkeit der Ergebnisse zu steigern, da diese nicht durch irrelevante Anteile der Punktwolke verfälscht werden können. In some embodiments, the method further comprises: (i) segmenting the respective point cloud provided for determining the associated density data therefrom into a plurality of different segments on the basis of a recognition of different body parts of the user represented by the point cloud; (ii) selection of a real subset of the segments by means of a selection criterion which is defined as a function of the one or more body parts intended for performing the free space gesture; and (iii) determining the associated density data only based on the portion of the point cloud represented by the selected subset of the segments. In this way it is possible to determine the desired directional information solely on the basis of a section of the sensory point cloud. This is particularly advantageous if the point cloud additionally presents one or more other body parts or sections thereof beyond a body part of the user that is relevant for determining the directional information. The segmentation also allows, on the one hand, to avoid unnecessary processing of the portions of the point cloud that are not relevant in this sense, and on the other hand increases the required reliability and accuracy of the results, since these cannot be falsified by irrelevant portions of the point cloud.
So kann bei einigen Ausführungsformen die in den Messdaten repräsentierte Punktwolke ins besondere zu einer mit zumindest einem Teil der oberen Gliedmaßen eines Benutzers ausge führten Freiraumgeste korrespondieren. Dabei enthält die Segmentierung zumindest ein Aus wahlsegment, das nur zu einem oder mehreren Fingern des Benutzers korrespondiert, und das Auswahlkriterium ist so definiert, dass die dadurch bestimmte Untermenge der Segmente zu mindest, bevorzugt ausschließlich, dieses Auswahlsegment enthält. So lässt sich trotz sensori scher Erfassung eines größeren Teils der oberen Gliedmaßen eine Fokussierung mittels der Segmentierung allein auf durch den einen bzw. mehrere Finger des Benutzers ausgeführte As pekte der Freiraumgeste erreichen. Insbesondere lässt sich so eine mit dem bzw. den Fingern ausgedrückte Zeigerichtung zuverlässig, performant und/oder mit hoher Genauigkeit erkennen. Bei einigen Ausführungsformen repräsentieren die Messdaten eine zeitliche Entwicklung der Freiraumgeste als räumlich mehrdimensionale und zugleich entsprechend zeitabhängige Punktwolke. Zudem erfolgt die verfahrensgemäße Bestimmung einer durch die Freiraumges te vermittelten Richtungsinformation mehrfach, jeweils für einen anderen Zeitpunkt bezüglich der zeitabhängigen Punktwolke. Die Richtungsinformation wird dabei so generiert und bereitge stellt, dass sie die aus dieser mehrfachen Bestimmung resultierende zeitliche Entwicklung der Richtungsinformation repräsentiert. Auf diese Weise lässt sich auch eine zeitliche Entwicklung der erfassten Freiraumgeste verfolgen, beispielsweise eine zeitliche Änderung einer durch die Freiraumgeste ausgedrückten Richtungsinformation, wie etwa einer Zeigerichtung. In some embodiments, the point cloud represented in the measurement data can correspond in particular to a free space gesture performed with at least part of the upper limbs of a user. The segmentation contains at least one selection segment that only corresponds to one or more fingers of the user, and the selection criterion is defined in such a way that the subset of the segments determined thereby contains at least, preferably exclusively, this selection segment. In spite of sensory detection of a larger part of the upper limbs, focusing can be achieved by means of the segmentation solely on aspects of the open space gesture carried out by one or more fingers of the user. In particular, a pointing direction expressed with the finger or fingers can be recognized reliably, with high performance and / or with high accuracy. In some embodiments, the measurement data represent a temporal development of the free space gesture as a spatially multidimensional and at the same time correspondingly time-dependent point cloud. In addition, the procedural determination of a directional information provided by the free space gestures is carried out several times, in each case for a different point in time with respect to the time-dependent point cloud. The directional information is generated and made available in such a way that it represents the temporal development of the directional information resulting from this multiple determination. In this way, a temporal development of the detected free space gesture can also be tracked, for example a temporal change in direction information, such as a pointing direction, expressed by the free space gesture.
Bei einigen Ausführungsformen (i) repräsentieren die Messdaten in M+1 Dimensionen eine zeit liche Entwicklung der Freiraumgeste als räumlich M-dimensionale und zugleich entsprechend zeitabhängige Punktwolke, mit M>1 , (ii) geht dem Bestimmen der Dichtedaten ein dimensions reduzierendes Abbilden der durch die Messdaten in M räumlichen und einer zusätzlichen zeitli chen Dimension repräsentierten Punktewolke unter Wegfall der zeitlichen Dimension auf einen zumindest zweidimensionalen Raum voraus, um eine Repräsentation eines zu der Freiraumge ste korrespondierenden, 2D- bzw. 3D-Raumbereichs zu erhalten; und (iii) werden die Rich tungsdaten so generiert und bereitgestellt, dass die durch sie repräsentierte Richtungsinforma tion, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskur ve in dem übergeordneten mehrdimensionalen Raum bestimmt ist, einen durch die Richtungs kurve definierten und dabei durch sie zumindest teilweise eingeschlossenen 2D- bzw. 3D- Raumbereich kennzeichnet. Das dimensionsreduzierende Abbilden der durch die Messdaten in M räumlichen und einer zusätzlichen zeitlichen Dimension repräsentierten Punktewolke kann dabei insbesondere mittels Projektion entlang der zeitlichen Dimension und im Falle von M=3 optional zusätzlich entlang einer der räumlichen Dimensionen erfolgen. Auf diese Weise lässt sich das Verfahren so erweitern bzw. ausgestalten, dass es zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittsteile verwendet werden kann, wobei die Richtungsinformation anstelle oder zusätzlich zu einer Zeigerichtung einen durch die Freiraumgeste festgelegten Raumbereich kennzeichnet, und somit insbesondere eine Region, d.h. einen 2D- bzw. 3D- Raumbereich beschreibt. In some embodiments (i), the measurement data in M + 1 dimensions represent a temporal development of the free space gesture as a spatially M-dimensional and at the same time correspondingly time-dependent point cloud, with M> 1, (ii) the determination of the density data is a dimension-reducing mapping of the the measurement data in M spatial and an additional temporal dimension represented point cloud with the temporal dimension omitting an at least two-dimensional space in order to obtain a representation of a 2D or 3D space area corresponding to the free space; and (iii) the directional data are generated and provided in such a way that the directional information represented by them, which is determined by the spatial profile of the directional curve represented by the estimated data in the superordinate multidimensional space, is defined by the directional curve and thereby by it characterizes at least partially enclosed 2D or 3D spatial areas. The dimension-reducing mapping of the point cloud represented by the measurement data in M spatial and an additional temporal dimension can be carried out in particular by means of projection along the temporal dimension and, in the case of M = 3, optionally along one of the spatial dimensions. In this way, the method can be expanded or configured in such a way that it can be used to estimate a directional information conveyed by a free space gesture for determining a user input on a human-machine interface, the directional information being replaced by or in addition to a pointing direction Free space gesture defines the defined area, and thus in particular a region, ie describes a 2D or 3D spatial area.
Dies soll an einem kurzem Beispiel erläutert werden: Angenommen der Benutzer führt eine dreidimensionale Zeigegeste aus (M=3), bei der er die Hand oder den Arm in einer Kreisbewe- gung führt, sodass die Zeigerichtung einen zeitlichen Verlauf aufweist, bei dem sie einen Kegel beschreibt. Die Kegelspitze ist dabei (i) die Fingerwurzel (im Falle einer reinen Fingerbewe gung) oder (ii) der Ellenbogen im Falle einer von ihm ausgehenden Unterarmbewegung) oder (iii) das Schultergelenk (im Falle einer von ihm ausgehenden Bewegung des gesamten Arms), und die vom Benutzer gewünschte Region befindet sich jeweils im Kegelinneren. Die Punktwol ke kann dann zunächst in M + 1 = 4 Dimensionen mit drei Raum- und einer Zeitdimension be schrieben werden und daraus eine dimensionsreduzierende Projektion entlang der Zeitdimensi on und optional einer der Raumdimensionen auf einen drei- oder zweidimensionalen Raum er folgen. Die resultierende Punktewolke in diesem reduzierten Raum könnte dann (z.B. für die obige Geste) eine Form bzw. ein Verhalten aufweisen, das eine Raumbereich zumindest teil weise einschließt, z.B. in dem sie eine zumindest weitgehend geschlossene Ringform aufweist. Davon ausgehend lassen sich dann verfahrensgemäß entsprechende Dichtedaten und daraus wiederum eine Richtungsinformation generieren, die die durch die Freiraumgeste umrissene Region beschreibt. Somit kann die Anwendbarkeit des Verfahrens auf die Schätzung von reinen Zeigegesten auf Schätzung von Raumgesten hin erweitert werden. This should be explained using a short example: Suppose the user executes a three-dimensional pointing gesture (M = 3), in which he moves the hand or arm in a circular motion. leads so that the pointing direction has a time course in which it describes a cone. The tip of the cone is (i) the finger root (in the case of a pure finger movement) or (ii) the elbow in the case of a forearm movement emanating from it) or (iii) the shoulder joint (in the case of a movement of the entire arm emanating from it), and the region desired by the user is located inside the cone. The point cloud can then first be described in M + 1 = 4 dimensions with three space and one time dimension and from this a dimension-reducing projection along the time dimension and optionally one of the space dimensions onto a three- or two-dimensional space can follow. The resulting point cloud in this reduced space could then (for example for the above gesture) have a shape or behavior that at least partially encloses a spatial area, for example in which it has an at least largely closed ring shape. Proceeding from this, corresponding density data can then be generated in accordance with the method and, in turn, directional information can be generated from this, which describes the region outlined by the free space gesture. The applicability of the method to the estimation of pure pointing gestures to the estimation of spatial gestures can thus be expanded.
Bei einigen Ausführungsformen weist das Bestimmen einer durch die Freiraumgeste vermittel ten Richtungsinformation auf Basis der Schätzdaten ein Bestimmen zumindest eines tangential zur durch die Schätzdaten repräsentierten Richtungskurve liegenden Richtungsvektors auf. Dies kann insbesondere mittels einer Ableitung im Sinne einer mathematischen Differenzierung bzw. Gradientenbildung bzgl. der Richtungskurve erfolgen. So lässt sich auf einfache Weise aus der Richtungskurve eine sie charakterisierende Richtungsinformation gewinnen, die zu gleich einer Schätzung der durch die Freiraumgeste vermittelten Richtungsinformation ent spricht. In some embodiments, determining a direction information conveyed by the free space gesture on the basis of the estimated data comprises determining at least one direction vector lying tangential to the direction curve represented by the estimated data. This can be done in particular by means of a derivation in the sense of a mathematical differentiation or gradient formation with respect to the direction curve. In this way, directional information characterizing it can be obtained in a simple manner from the directional curve, which corresponds to an estimate of the directional information conveyed by the free space gesture.
Ein zweiter Aspekt der Erfindung betrifft eine Vorrichtung zur Schätzung einer durch eine Frei raumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittsteile, insbesondere eines Fahrzeugs, wobei die Vorrichtung einge richtet ist, das Verfahren gemäß dem ersten Aspekt der Erfindung auszuführen. Die Vorrichtung kann insbesondere ein Steuergerät für ein Fahrzeug, insbesondere ein Kraftfahrzeug, sein, wo bei das Steuergerät selbst die genannte Mensch-Maschine-Schnittsteile aufweist oder einge richtet ist mit einer solchen zum Empfang der Messdaten von dieser signalverbunden zu wer den. Ein dritter Aspekt der Erfindung betrifft Computerprogramm, das konfiguriert ist, das Verfahren dem ersten Aspekt der Erfindung auszuführen. Das Computerprogramm kann insbesondere auf einem nichtflüchtigen Datenträger gespeichert sein. Bevorzugt ist dies ein Datenträger in Form eines optischen Datenträgers oder eines Flashspeichermoduls. Dies kann vorteilhaft sein, wenn das Computerprogramm als solches unabhängig von einer Prozessorplattform gehandelt wer den soll, auf der das ein bzw. die mehreren Programme auszuführen sind. In einer anderen Implementierung kann das Computerprogramm als eine Datei auf einer Datenverarbeitungsein heit, insbesondere auf einem Server vorliegen, und über eine Datenverbindung, beispielsweise das Internet oder eine dedizierte Datenverbindung, wie etwa ein proprietäres oder lokales Netzwerk, herunterladbar sein. Zudem kann das Computerprogramm eine Mehrzahl von zu sammenwirkenden einzelnen Programmodulen aufweisen. A second aspect of the invention relates to a device for estimating a direction information conveyed by a free space gesture for determining a user input on a human-machine interface, in particular a vehicle, the device being set up to carry out the method according to the first aspect of the invention. The device can be, in particular, a control device for a vehicle, in particular a motor vehicle, where the control device itself has or is set up to have the above-mentioned man-machine interface parts, with which it is connected to receive the measurement data. A third aspect of the invention relates to a computer program configured to carry out the method of the first aspect of the invention. The computer program can in particular be stored on a non-volatile data carrier. This is preferably a data carrier in the form of an optical data carrier or a flash memory module. This can be advantageous if the computer program as such is to be traded independently of a processor platform on which the one or more programs are to be executed. In another implementation, the computer program can be present as a file on a data processing unit, in particular on a server, and can be downloadable via a data connection, for example the Internet or a dedicated data connection, such as a proprietary or local network. In addition, the computer program can have a plurality of interacting individual program modules.
Die Vorrichtung gemäß dem zweiten Aspekt der Erfindung kann entsprechend einen Pro grammspeicher aufweisen, in dem das Computerprogramm abgelegt ist. Alternativ kann die Vorrichtung auch eingerichtet sein, über eine Kommunikationsverbindung auf ein extern, beispielsweise auf einem oder mehreren Servern oder anderen Datenverarbeitungseinhei ten verfügbares Computerprogramm zuzugreifen, insbesondere um mit diesem Daten aus zutauschen, die während des Ablaufs des Verfahrens bzw. Computerprogramms Verwen dung finden oder Ausgaben des Computerprogramms darstellen. The device according to the second aspect of the invention can accordingly have a program memory in which the computer program is stored. Alternatively, the device can also be set up to access a computer program which is available externally, for example on one or more servers or other data processing units, in particular in order to exchange data with it, which are used during the course of the method or computer program or Represent editions of the computer program.
Die vorausgehend in Bezug auf den ersten Aspekt der Erfindung erläuterten Merkmale und Vor teile gelten entsprechend auch für die weiteren Aspekte der Erfindung. The features and advantages explained above in relation to the first aspect of the invention also apply accordingly to the other aspects of the invention.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung im Zusammenhang mit den Figuren. Further advantages, features and possible uses of the present invention result from the following detailed description in connection with the figures.
Dabei zeigt It shows
Fig. 1 schematisch ein System zur Schätzung einer Richtungsinformation einschließlich einer Schätzvorrichtung, gemäß verschiedener Ausführungsformen der Erfindung; 1 schematically shows a system for estimating direction information, including an estimation device, according to various embodiments of the invention;
Fig. 2 ein Flussdiagramm zur Veranschaulichung einer bevorzugten Ausführungsform des er findungsgemäßen Verfahrens; Fig. 3 zum Zwecke der Illustration des Segmentierungsprozesses S1 aus Fig. 2 eine zweidi mensionale Darstellung einer durch entsprechende, durch Aufnahme eines menschlichen Arms gewonnene Messdaten repräsentierten beispielhaften Punktwolke, wobei ein zu den Fingern des Arms korrespondierendes Segment gekennzeichnet ist; FIG. 2 shows a flow diagram to illustrate a preferred embodiment of the method according to the invention; FIG. 3 for the purpose of illustrating the segmentation process S1 from FIG. 2, a two-dimensional representation of an exemplary point cloud represented by corresponding measurement data obtained by recording a human arm, wherein a segment corresponding to the fingers of the arm is identified;
Fig. 4 graphische Darstellungen zur Veranschaulichung von während des Verfahrens nach Fig. 2 auftretenden und aus den Messdaten abgeleiteten Daten; und FIG. 4 shows graphical representations to illustrate data occurring during the method according to FIG. 2 and derived from the measurement data; FIG. and
Fig. 5 eine beispielhafte Illustration einer Interpretation einer erfassten Freiraumgeste als Raumgeste zur Schätzung von Richtungsinformation, die einen durch die Freiraumgeste aus gewählten 2D-Flächenbereich definiert, gemäß Ausführungsformen der Erfindung. 5 shows an exemplary illustration of an interpretation of a detected free space gesture as a spatial gesture for estimating directional information, which defines a 2D area region selected by the free space gesture, according to embodiments of the invention.
In den Figuren werden durchgängig dieselben Bezugszeichen für dieselben oder einander ent sprechenden Elemente der Erfindung verwendet. Throughout the figures, the same reference numerals are used for the same or mutually corresponding elements of the invention.
Fig. 1 zeigt schematisch ein System 1 zur Schätzung einer Richtungsinformation gemäß ver schiedener Ausführungsformen der Erfindung. Das System 1 weist eine Schätzvorrichtung 2 sowie einen Sensor 3 zur dreidimensionalen Erfassung einer durch einen Benutzer des Sys tems ausgeführten Freiraumgeste auf. Die Schätzvorrichtung 2 kann insbesondere einen Com puter sein, der insbesondere mit einer Prozessorplattform 2a und einem Programm- und Daten speicher 2b sowie einem Datenausgang 2c zur Ausgabe von durch den Computer bestimmten Ausgangsdaten, insbesondere in Form von Richtungsinformationen, ausgestattet sein kann der Sensor 3 kann insbesondere ein TOF-(f/me of ///g/7f)-Kamerasystem aufweisen. Auch andere Sensorarten, insbesondere auf Ultraschall- oder Radarmessung beruhende Sensoren, können stattdessen oder in Kombination damit verwendet werden. In dem Programmspeicher 2b kann ein Computerprogramm abgelegt sein, welches aus einem oder mehreren Programmodul be steht kann und das konfiguriert ist, bei seinem Ablauf auf der Prozessorplattform 2a die Schätz vorrichtung 2 zu veranlassen, das erfindungsgemäße Verfahren, beispielsweise wie nachfol gend anhand der Figuren 2 bis 5 beschrieben, auszuführen. Fig. 1 shows schematically a system 1 for estimating direction information according to various embodiments of the invention. The system 1 has an estimation device 2 and a sensor 3 for three-dimensional detection of a free space gesture carried out by a user of the system. The estimation device 2 can in particular be a computer, which can be equipped with a processor platform 2a and a program and data memory 2b and a data output 2c for outputting output data determined by the computer, in particular in the form of directional information, the sensor 3 in particular have a TOF (f / me of /// g / 7f) camera system. Other types of sensors, in particular sensors based on ultrasound or radar measurement, can also be used instead or in combination therewith. A computer program can be stored in the program memory 2b, which can consist of one or more program modules and which is configured to cause the estimating device 2 when it runs on the processor platform 2a to perform the method according to the invention, for example as follows based on FIGS. 2 to 5 described.
Das in Fig. 2 dargestellte Flussdiagramm dient der Veranschaulichung einer bevorzugten Aus führungsform des erfindungsgemäßen Verfahrens zur Schätzung einer durch eine Freiraumges te vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch- Maschine-Schnittsteile, die insbesondere dem System 1 entsprechen oder ein solches aufwei sen kann. Dem eigentlichen Schätzverfahren, welches hier beispielhaft die Prozesse S1 bis S8 umfasst, geht ein Messprozess SO voraus, bei dem sensorisch, insbesondere mit einem Mess sensor 3 gemäß Fig. 1 , Messdaten MD erzeugt werden, welche eine räumlich dreidimensionale Punktwolke repräsentieren, die wiederum eine bei der Messung erfasste, von einem Benutzer ausgeführte Freiraumgeste repräsentiert. Fig. 3 zeigt eine zweidimensionale Darstellung einer beispielhaften auf diese Weise gewonnenen 3D-Punktwolke, die Teile des Oberarms, den Un terarm sowie die Hand eines Arms eines die Freiraumgeste ausführenden Benutzers repräsen tiert. The flowchart shown in FIG. 2 serves to illustrate a preferred embodiment of the method according to the invention for estimating direction information conveyed by a free space gesture for determining a user input on a human-machine interface, which in particular corresponds to system 1 or can have one . The actual estimation process, which processes S1 to S8 1 is preceded by a measurement process SO, in which measurement data MD are generated by sensors, in particular with a measurement sensor 3 according to FIG. 1, which represent a spatially three-dimensional point cloud, which in turn represents a free space gesture detected by the user during the measurement. FIG. 3 shows a two-dimensional representation of an exemplary 3D point cloud obtained in this way, which represents parts of the upper arm, the lower arm and the hand of an arm of a user performing the free space gesture.
Bei der hier beschriebenen Ausführungsform des Schätzverfahrens wird die durch die Messda ten MD repräsentierte dreidimensionale Punktwolke im Rahmen einer Vorverarbeitung zunächst im Rahmen eines Segmentierungsprozesses S1 mittels eines oder mehrerer bekannter Verfah ren, beispielsweise mittels eines "Random Forest"- Klassifikationsverfahrens, segmentiert, um Segmentdaten SD zu erhalten, die dem für den weiteren Verfahrensablauf relevanten Aus schnitt aus den Messdaten MD entsprechen. In Fig. 3 ist ein solcher Ausschnitt, der zu den Fin gern der Hand korrespondiert, mittels eines schwarzen Kastens markiert. In the embodiment of the estimation method described here, the three-dimensional point cloud represented by the measurement data MD is first segmented as part of a preprocessing as part of a segmentation process S1 using one or more known methods, for example using a "random forest" classification method, to generate segment data SD to be obtained which correspond to the section of the measurement data MD relevant for the further course of the process. In Fig. 3, such a section, which corresponds to the fin like the hand, is marked by a black box.
Sodann wird die durch die Segmentdaten SD repräsentierte Punktwolke in einem Projektions prozess S2 in N=2 jeweils zweidimensionale Punktwolken abgebildet. Dies geschieht vorteilhaft mittels Projektion entlang jeweils einer der drei Raumdimensionen, hier beispielhaft - ohne dass dies jedoch als Einschränkung zu verstehen wäre - bei Verwendung eines kartesischen Koordinatensystems, einerseits entlang der Z-Richtung, sodass sich eine zweidimensionale Projektion der Punktwolke auf die X-Y-Ebene ergibt, sowie andererseits entlang der Y-Richtung, sodass sich entsprechend eine zweite Projektion auf die X-Z-Ebene gibt. Die Figuren 4(a) bzw. 4(e) zeigen grafisch diese zweidimensionalen, aus den Segmentdaten SD hervorgegangenen Projektionen, welche jeweils durch entsprechende Projektionsdaten BDxy bzw. BDXZ repräsen tiert werden. The point cloud represented by the segment data SD is then imaged in a projection process S2 in N = 2 two-dimensional point clouds. This is advantageously done by means of projection along one of the three spatial dimensions, here by way of example - without this being understood as a restriction - when using a Cartesian coordinate system, on the one hand along the Z direction, so that a two-dimensional projection of the point cloud onto the XY plane results, and on the other hand along the Y direction, so that there is accordingly a second projection on the XZ plane. FIGS. 4 (a) and 4 (e) graphically show these two-dimensional projections resulting from the segment data SD, which are each represented by corresponding projection data BD xy or BD XZ .
Es folgt ein Quantisierungsprozess S3, in dem jede der durch die Projektionsdaten BDxy bzw. BDXZ repräsentierten 2D-Punktwolken gemäß einem vordefinierten räumlichen Gitter quantisiert wird, sodass nun nur noch vordefinierte Raumpositionen für die Punkte (Pixel) definiert sind. Die beiden quantisierten 2D-Punktwolken, welche beispielhaft in den Figuren 4(b) bzw. 4(f) grafisch dargestellt sind, werden durch entsprechende Bilddaten IDxy bzw. IDXZ repräsentiert. Die Bilddaten können somit wie folgt durch entsprechende Datenfelder dargestellt werden: A quantization process S3 follows, in which each of the 2D point clouds represented by the projection data BD xy or BD XZ is quantized according to a predefined spatial grid, so that now only predefined spatial positions are defined for the points (pixels). The two quantized 2D point clouds, which are shown graphically by way of example in FIGS. 4 (b) and 4 (f), are represented by corresponding image data ID xy and ID XZ . The image data can thus be represented by corresponding data fields as follows:
Ixy (i,j) und Ixz(i,j ) mit der 2 D— Pixelindizierung i = 1, ... , k und j = l, ... , l Der Quantisierungsprozess S3 schließt einen Vorverarbeitungsabschnitt des Verfahrens ab, welche der eigentlichen Schätzung der Richtungsinformationen vorausgeht. I xy (i, j) and I xz (i, j) with the 2 D pixel indexing i = 1, ..., k and j = l, ..., l The quantization process S3 concludes a preprocessing section of the method which precedes the actual estimation of the direction information.
Diese Schätzung erfolgt in einem Schätzabschnitt des Verfahrens, bei dem zunächst aus den quantisierten Bilddaten IDxy bzw. IDXZ in einem Wahrscheinlichkeitsschätzprozess S4 korres pondierende Dichtedaten PDxy bzw. PDXZ gewonnen werden. Dazu wird jedem Pixel der beiden quantisierten 2D-Punktwolken ein Dichtewert zugeordnet, der gleich der Anzahl der Punkte ist, die gemäß den Bilddaten mittels der vorausgehenden Prozesse S2 und S3 auf das entspre chende Pixel abgebildet wurden. Die Dichtedaten können somit wie folgt durch entsprechende Datenfelder dargestellt werden: This estimation takes place in an estimation section of the method in which corresponding density data PD xy or PD XZ are first obtained from the quantized image data ID xy or ID XZ in a probability estimation process S4. For this purpose, a density value is assigned to each pixel of the two quantized 2D point clouds, which is equal to the number of points that were mapped onto the corresponding pixel according to the image data using the preceding processes S2 and S3. The density data can thus be represented as follows by corresponding data fields:
Pxy (i,j) und Pxz(i,j ) mit i = l, k und j = 1, ... , I P xy (i, j) and P xz (i, j) with i = l, k and j = 1, ..., I
Die Figuren 4(c) bzw. 4(g) stellen beispielhaft solche quantisierten 2D-Datenfelder grafisch dar, bei denen der Wert eines Pixels zum Zwecke der Illustration durch einen entsprechende Grauwert repräsentiert ist, wobei eine dunklere Färbung zu einer höheren Wahrscheinlichkeit korrespondiert. Es ist auch denkbar, anstelle der Anzahl der Punkte einen davon abhängigen bzw. abgeleiteten anderen Wert zu wählen, der geeignet ist, diese Anzahl der Punkte zumin dest indirekt zu charakterisieren. FIGS. 4 (c) and 4 (g) graphically depict such quantized 2D data fields in which the value of a pixel is represented by a corresponding gray value for the purpose of illustration, a darker color corresponding to a higher probability. Instead of the number of points, it is also conceivable to choose a dependent or derived other value that is suitable for at least indirectly characterizing this number of points.
Nun folgt ein Filterprozess S5, bei dem die Dichtedaten PDxy bzw. PDXZ mittels Faltung anhand eines Kerns K; der insbesondere ein gaußscher 2D-Kern, z.B. der Form:
Figure imgf000017_0001
sein kann, wie folgt gefiltert werden:
Figure imgf000017_0002
A filter process S5 now follows, in which the density data PD xy or PD XZ is folded by means of a core K ; which in particular is a Gaussian 2D core, for example of the form:
Figure imgf000017_0001
can be filtered as follows:
Figure imgf000017_0002
Dabei erfolgt die Indizierung des Kerns K mit den Indexpaaren (n,m). Der Kern K hat die als Parameter wählbare Varianz s sowie einen Normierungsfaktor a, der so gewählt ist, dass er die Summe aller Kernelemente auf 1 normiert. Aus der Filterung, die bevorzugt insbesondere eine Glättung darstellt, resultieren entsprechende Filterdaten FDxy bzw. FDXZ die beispielhaft in den Figuren 4(d) bzw. 4(h) als entsprechende gefilterte Pixelwolken Fxy(i,j ) bzw. Fxz(i,j ) grafisch dargestellt sind. The core K is indexed with the index pairs (n, m). The kernel K has the variance s which can be selected as a parameter and a normalization factor a which is selected such that it normalizes the sum of all core elements to 1. Corresponding filter data FD xy and FD XZ, for example, result from the filtering, which in particular preferably represents smoothing Figures 4 (d) and 4 (h) are graphically represented as corresponding filtered pixel clouds F xy (i, j) and F xz (i, j).
In einem nachfolgenden Approximationsprozess S6, der mithilfe eines dimensionsreduzieren den Approximationsverfahrens durchgeführt wird, welches im vorliegenden Beispiel als Haupt komponentenanalyse (PCA) gewählt ist, werden sodann aus den Filterdaten entsprechende Schätzdaten ED gewonnen, die jeweils eine Richtungskurve repräsentieren, die in den Figuren 4(d) bzw. 4(h) als entsprechender weißer Pfeil dargestellt ist. Im einfachsten Fall wird dabei jeweils nur die größte mittels der PCA bestimmte Hauptkomponente berücksichtigt, die hier je weils die Richtung und Lage des entsprechenden weißen Pfeils definiert. In a subsequent approximation process S6, which is carried out with the aid of a dimensionally reducing approximation method, which in the present example is chosen as the main component analysis (PCA), corresponding estimation data ED are then obtained from the filter data, each representing a directional curve which is shown in FIGS. d) or 4 (h) is shown as a corresponding white arrow. In the simplest case, only the largest main component determined by means of the PCA is taken into account, which here in each case defines the direction and position of the corresponding white arrow.
Im Falle des Einsatzes einer PCA bezüglich der quantisierten und gefilterten, zweidimensiona len Dichteverteilung F(i,j) kann die Kovarianzmatrix, M, der PCA insbesondere die folgenden Ausgangswerte erhalten:
Figure imgf000018_0001
If a PCA is used with regard to the quantized and filtered, two-dimensional density distribution F (i, j), the covariance matrix, M, of the PCA can in particular receive the following initial values:
Figure imgf000018_0001
rn it  rn it
Figure imgf000018_0002
und
Figure imgf000018_0002
and
Figure imgf000018_0003
Figure imgf000018_0003
wobei
Figure imgf000018_0004
und wobei (i,j) jeweils Indexpaare zur Indizierung der Zellen des quantisierten 2D-Unterraums bzw. ihrer zugeordneten ungefilterten Dichtwerte P(i,j) bzw. mittels Faltung mit dem Kern K ge filterten Dichtwerte F(i,j) sind, und die Indizierung des Kerns K mit den Indexpaaren (n,m) er folgt.
in which
Figure imgf000018_0004
and where (i, j) each index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or by means of folding with the core K ge filtered density values F (i, j), and the indexing of the kernel with the index pairs (n, m) follows.
Aus den Schätzdaten ED kann schließlich in einem Richtungsbestimmungsprozess S8 die ge wünschte Richtungsinformation abgeleitet werden und mittels entsprechender Richtungsdaten RD repräsentiert werden. Dies kann insbesondere so erfolgen, dass die durch die Schätzdaten ED repräsentierten eindimensionalen Richtungskurven (weiße Pfeile), welche in dem jeweiligen 2D-Raum definiert sind, in einen gemeinsamen dreidimensionalen Raum überführt werden, in dem die beiden 2D-Räume jeweils um die fehlende dritte Dimension erweitert werden, und die Schätzdaten ED sodann in dem gemeinsamen 3D-Raum gemittelt werden (dies entspricht einer Mitteilung der beiden weißen Pfeile), um eine resultierende Richtungskurve zu erhalten. Im all gemeineren Fall repräsentieren die Schätzdaten ED jeweils eine gekrümmte Richtungskurve, sodass nach Mittelung der beiden Richtungskurven eine in der Regel ebenfalls gekrümmte re sultierende Richtungskurve im 3D-Raum entsteht, aus der sich eine gewünschte Richtungsin formationen beispielsweise mittels Gradientenbildung an einem gewünschten Punkt der resul tierenden Richtungskurve oder durch lineare Regression ermitteln lässt. Finally, the desired direction information can be derived from the estimated data ED in a direction determination process S8 and represented by means of corresponding direction data RD. This can be done in particular in such a way that the one-dimensional directional curves (white arrows) represented by the estimation data ED, which are defined in the respective 2D space, are transferred to a common three-dimensional space in which the two 2D spaces are each missing the third Dimension are expanded, and the estimated data ED are then averaged in the common 3D space (this corresponds to a message of the two white arrows) in order to obtain a resulting direction curve. In the more general case, the estimation data ED each represent a curved directional curve, so that after averaging the two directional curves, a generally likewise curved resulting directional curve is created in 3D space, from which a desired directional information is obtained, for example by means of gradient formation at a desired point of the result directional curve or linear regression.
Das vorausgehend unter Bezugnahme auf die Figuren 2 bis 4 beispielhaft beschriebene Verfah ren kann insbesondere auch für verschiedene Zeitpunkte der Freiraumgestenausführung durchgeführt werden, sodass sich eine zeitabhängige Richtungsinformation ergibt, und somit auch die zeitliche Dynamik einer Freiraumgeste erfasst werden kann. The method previously described by way of example with reference to FIGS. 2 to 4 can in particular also be carried out for different points in time of the execution of the free space gesture, so that time-dependent directional information is obtained and the time dynamics of a free space gesture can thus also be recorded.
Fig. 5 zeigt schließlich eine beispielhafte Illustration einer Interpretation einer erfassten Frei raumgeste als Raumgeste zur Schätzung von Richtungsinformation, die einen durch die Frei raumgeste ausgewählten 2D-Flächenbereich definiert, gemäß Ausführungsformen der Erfin dung. 5 finally shows an exemplary illustration of an interpretation of a detected free space gesture as a spatial gesture for estimating directional information, which defines a 2D surface area selected by the free space gesture, according to embodiments of the invention.
Angenommen der Benutzer führt eine dreidimensionale Zeigegeste aus (M=3), bei der er die Hand oder den Arm in einer Kreisbewegung führt, sodass die Zeigerichtung einen zeitlichen Verlauf (hier durch die fünf Zeitpunkte to bis t4 gekennzeichnet) aufweist, bei dem sie einen Ke gel C beschreibt. Die Kegelspitze T ist dabei (i) die Fingerwurzel (im Falle einer reinen Finger bewegung) oder (ii) der Ellenbogen im Falle einer von ihm ausgehenden Unterarmbewegung) oder (iii) das Schultergelenk (im Falle einer von ihm ausgehenden Bewegung des gesamten Arms), und die vom Benutzer gewünschte Region befindet sich jeweils im Kegelinneren, optio nal zusätzlich auch in dessen Projektion entlang der Kegelachse hin zu noch größeren Entfer- nungen von T. Die Punktwolke kann dann zunächst in M + 1 = 4 Dimensionen mit drei Raum und einer Zeitdimension beschrieben werden und daraus eine dimensionsreduzierende Projek tion entlang der Zeitdimension und optional einer der Raumdimensionen auf einen drei- oder zweidimensionalen Raum erfolgen. Die resultierende Punktewolke in diesem reduzierten Raum könnte dann (z.B. für die obige Geste) eine Form bzw. ein Verhalten aufweisen, das eine Raumbereich, z.B. die schraffiert dargestellte zweidimensionale Fläche bzw. Region A, zumin dest teilweise einschließt, z.B. in dem sie, wie in Fig. 5 dargestellt eine zumindest weitgehend geschlossene Ringform aufweist. Davon ausgehend lassen sich dann verfahrensgemäß ent sprechende Dichtedaten FD und daraus wiederum eine Richtungsinformation bzw. entspre chende Richtungsdaten RD generieren, die die durch die Freiraumgeste umrissene Region A beschreibt bzw. repräsentieren. Insbesondere kann dies auch genutzt werden, um ein Objekt X, das sich in der Region A befindet, mittels der Freiraumgeste auszuwählen. Das Objekt kann insbesondere einem Bedienelement einer Mensch-Maschine-Schnittsteile oder einem anderen Element einer Fahrzeugausstattung entsprechen. Auch Objekte außerhalb des Fahrzeugs sind denkbar. Somit kann die Anwendbarkeit des Verfahrens auf die Schätzung von reinen Zeigege sten auf Schätzung von Raumgesten hin erweitert werden. Suppose the user carries out a three-dimensional pointing gesture (M = 3), in which he moves the hand or arm in a circular motion, so that the pointing direction has a temporal course (here marked by the five times to to t 4 ) in which it describes a cone C. The cone tip T is (i) the finger root (in the case of a pure finger movement) or (ii) the elbow in the case of a forearm movement emanating from it) or (iii) the shoulder joint (in the case of a movement of the entire arm emanating from it) , and the region desired by the user is located inside the cone, optionally also in its projection along the cone axis towards even greater distances. The point cloud can then first be described in M + 1 = 4 dimensions with three space and a time dimension and from this a dimension-reducing projection along the time dimension and optionally one of the space dimensions into a three- or two-dimensional space. The resulting point cloud in this reduced space could then (for example for the above gesture) have a shape or behavior that at least partially encloses a spatial area, for example the hatched two-dimensional surface or region A, for example in which it, like 5 has an at least largely closed ring shape. Proceeding from this, method-specific density data FD and, in turn, directional information or corresponding directional data RD can be generated which describe or represent the region A outlined by the free space gesture. In particular, this can also be used to select an object X, which is located in region A, using the free space gesture. The object can in particular correspond to an operating element of a human-machine interface or another element of vehicle equipment. Objects outside the vehicle are also conceivable. Thus, the applicability of the method can be extended to the estimation of pure pointing gestures to the estimation of spatial gestures.
Während vorausgehend wenigstens eine beispielhafte Ausführungsform beschrieben wurde, ist zu bemerken, dass eine große Anzahl von Variationen dazu existiert. Es ist dabei auch zu be achten, dass die beschriebenen beispielhaften Ausführungsformen nur nichtlimitierende Bei spiele darstellen, und es nicht beabsichtigt ist, dadurch den Umfang, die Anwendbarkeit oder die Konfiguration der hier beschriebenen Vorrichtungen und Verfahren zu beschränken. Viel mehr wird die vorausgehende Beschreibung dem Fachmann eine Anleitung zur Implementie rung mindestens einer beispielhaften Ausführungsform liefern, wobei sich versteht, dass ver schiedene Änderungen in der Funktionsweise und der Anordnung der in einer beispielhaften Ausführungsform beschriebenen Elemente vorgenommen werden können, ohne dass dabei von dem in den angehängten Ansprüchen jeweils festgelegten Gegenstand sowie seinen recht lichen Äquivalenten abgewichen wird. Bezuqszeichenliste While at least one exemplary embodiment has been described above, it should be noted that a large number of variations exist. It should also be noted that the exemplary embodiments described are only non-limiting examples, and it is not intended to thereby limit the scope, applicability, or configuration of the devices and methods described here. Rather, the foregoing description will provide those skilled in the art with a guide to implementing at least one example embodiment, it being understood that various changes in the operation and arrangement of the elements described in an example embodiment may be made without departing from the attached subject matter as well as its legal equivalents are deviated from. Reference list
1 System zur Schätzung einer Richtungsinformation 1 system for estimating directional information
2 Schätzvorrichtung  2 estimation device
2a Prozessorplattform 2a processor platform
2b Programm- und Datenspeicher  2b program and data memory
2c Datenausgang 2c data output
3 TOF-Kamerasystem  3 TOF camera system
MD Messdaten MD measurement data
SD Segment bzw. dieses darstellende Segmentdaten  SD segment or segment data representing it
BD Projektionsdaten  BD projection data
ID Bilddaten  ID image data
PD Dichtedaten  PD density data
FD Filterdaten  FD filter data
ED Schätzdaten  ED estimation data
RD Richtungsdaten  RD directional data
A per Freiraumgeste ausgewählte 2D-Fläche A 2D area selected using free space gesture
C Kegel C cone
T Kegelspitze T cone tip
X von der ausgewählten 2D-Fläche umschlossenes Objekt  X object enclosed by the selected 2D surface
to-t4 Abfolge verschiedener, zur Durchführung der Freiraumgeste korrespondierender Zeitpunkte to-t 4 sequence of different times corresponding to the execution of the free space gesture

Claims

Ansprüche Expectations
1. Verfahren zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinforma tion zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittsteile (1 ), insbesondere eines Fahrzeugs, wobei das Verfahren aufweist: 1. A method for estimating a directional information conveyed by a free space gesture for determining a user input on a human-machine interface (1), in particular a vehicle, the method comprising:
Empfangen von sensorisch erfassten Messdaten (MD), die eine durch einen Benutzer bezüglich der Mensch-Maschine-Schnittsteile ausgeführte Freiraumgeste als räumlich mehrdimensionale inhomogene Punktwolke in einem entsprechend mehrdimensionalen Raum repräsentieren;  Receiving sensor-acquired measurement data (MD), which represent a free space gesture carried out by a user with regard to the human-machine cut parts as a spatially multidimensional inhomogeneous point cloud in a correspondingly multidimensional space;
Bestimmen, auf Basis der Messdaten, von Dichtedaten (PD), die eine zu der Punktwolke korrespondierende Dichteverteilung repräsentieren, bei der den einzelnen Punkten der Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokale Punkt dichte der Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet;  Determining, on the basis of the measurement data, density data (PD), which represent a density distribution corresponding to the point cloud, in which density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point;
Anwenden eines dimensionsreduzierenden Approximationsverfahrens auf die Dichteda ten zur Bestimmung von Schätzdaten (ED), die eine Schätzung einer zumindest einen Richtungsaspekt der Dichteverteilung charakterisierende, eindimensionale Richtungs kurve; repräsentieren; und  Applying a dimension-reducing approximation method to the density data to determine estimated data (ED), which estimate an estimate of a one-dimensional direction curve that characterizes at least one direction aspect of the density distribution; represent; and
Generieren und Bereitstellen von Richtungsdaten (RD), welche eine Richtungsinformati on repräsentieren, die durch den räumlichen Verlauf der durch die Schätzdaten reprä sentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist.  Generation and provision of directional data (RD), which represent a directional information that is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space.
2. Verfahren nach Anspruch 1 , wobei: 2. The method of claim 1, wherein:
der mehrdimensionale Raum dreidimensional ist, und die Messdaten eine die erfasste Freiraumgeste räumlich dreidimensional, 3D, abbildende Punktwolke, repräsentieren; das Bestimmen der Dichtedaten aufweist:  the multidimensional space is three-dimensional, and the measurement data represent a spatially three-dimensional, 3D, point cloud representing the detected free space gesture; determining the density data comprises:
- Dimensionsreduzierendes Abbilden der 3D-Punktwolke auf eine Mehrzahl N, mit N >1 , jeweils räumlich zweidimensionaler, 2D, Punktwolken (BD), die jeweils in einem von N zugehörigen 2D-Unterräumen des mehrdimensionalen Raums definiert sind, von denen zumindest zwei in dem übergeordneten 3D-Raum nicht parallel zueinan der liegen; und  - Dimension-reducing mapping of the 3D point cloud to a plurality N, with N> 1, each spatially two-dimensional, 2D, point clouds (BD), each of which is defined in one of N associated 2D subspaces of the multidimensional space, at least two of which are in the superordinate 3D space not parallel to each other; and
- Bestimmen für jede der N 2D-Punktwolken einer dazu korrespondierenden Dichtever teilung (PD), bei der den einzelnen Punkten der jeweiligen 2D-Punktwolke jeweils ei ne Dichteinformation zugeordnet wird, welche eine lokalen Dichte der jeweiligen 2D- Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet, wobei für jede der 2D-Punktwolken die jeweilige resultierende 2D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden; - Determine for each of the N 2D point clouds a corresponding density distribution (PD), in which the individual points of the respective 2D point cloud are each assigned ne density information, which is a local density of the respective 2D point cloud in the vicinity of the respective point indicates, for each of the 2D point clouds representing the respective resulting 2D density distribution and associated density data are generated;
das Anwenden des Approximationsverfahrens separat für jede der durch die jeweiligen Dichtedaten repräsentierten 2D-Dichteverteilungen zur Schätzung einer durch sie cha rakterisierten jeweiligen eindimensionalen, 1 D, Richtungskurve erfolgt, wobei für jede der 2D-Dichteverteilungen die jeweilige 1 D-Richtungskurve repräsentierende zugeord nete Schätzdaten erzeugt werden; und  the approximation method is used separately for each of the 2D density distributions represented by the respective density data to estimate a respective one-dimensional, 1 D, direction curve which is characterized by them, whereby for each of the 2D density distributions the associated 1 D direction curve representing associated estimated data is generated become; and
das Bestimmen der Richtungsinformation (RD) auf Basis einer Mittelung von zumindest zwei der durch die jeweiligen Schätzdaten (ED) repräsentierten einzelnen 1 D- Richtungskurven im übergeordneten 3D-Raum erfolgt, um eine auf den 3D-Raum bezo gene Richtungsinformation zu erhalten.  the direction information (RD) is determined on the basis of averaging at least two of the individual 1-D direction curves represented by the respective estimation data (ED) in the superordinate 3D space in order to obtain direction information relating to the 3D space.
3. Verfahren nach Anspruch 2, wobei das dimensionsreduzierende Abbilden eine Projekti onsabbildung entlang einer der drei Dimensionen der durch die Messdaten repräsentier ten 3D-Punktwolke auf eine korrespondierende 2D-Punktwolke (BD) in einem zugehöri gen der N 2D-Unterräume aufweist. 3. The method according to claim 2, wherein the dimension-reducing mapping comprises a projection mapping along one of the three dimensions of the 3D point cloud represented by the measurement data onto a corresponding 2D point cloud (BD) in a corresponding one of the N 2D subspaces.
4. Verfahren nach einem der vorausgehenden Ansprüche, wobei das Bestimmen der Dich tedaten des Weiteren aufweist: 4. The method according to any one of the preceding claims, wherein the determination of the density data further comprises:
Räumliches Quantisieren der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke oder gegebenenfalls jeder der daraus mittels einer jeweiligen dimensionsre duzierenden Abbildung gewonnenen 2D-Punktwolke, und Bestimmen der Dichtedaten (PD) auf Basis einer resultierenden Dichteverteilung der Punkte der entsprechenden quantisierten Punktwolke (ID).  Spatial quantization of the multidimensional point cloud represented by the measurement data or, if applicable, each of the 2D point clouds obtained therefrom by means of a respective dimension-reducing image, and determination of the density data (PD) on the basis of a resulting density distribution of the points of the corresponding quantized point cloud (ID).
5. Verfahren nach Anspruch 4, wobei im Falle der räumlichen Quantisierung einer mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, die Dichteverteilung für jeden Punkt der resultierenden 2D-Punktwolke auf Basis der Anzahl derjenigen Punkte der durch die Messdaten repräsentierten mehrdimensionalen Punkt wolke bestimmt wird, welche gemäß der Projektionsabbildung auf denselben quantisier ten Punkt der 2D-Punktwolke abgebildet werden. 5. The method according to claim 4, wherein in the case of spatial quantization of a 2D point cloud obtained by means of a respective dimension-reducing image, the density distribution for each point of the resulting 2D point cloud is determined on the basis of the number of those points of the multidimensional point cloud represented by the measurement data , which are mapped to the same quantized point of the 2D point cloud according to the projection image.
6. Verfahren nach einem der vorausgehenden Ansprüche, wobei das Bestimmen der Dich tedaten (PD) des Weiteren aufweist: Filtern der jeweiligen Punktwolke, von der ausgehend die durch die jeweiligen Dichteda ten repräsentierte jeweilige Dichteverteilung bestimmt wird, mittels Faltung der Dichte verteilung mit einem jeweiligen, eine Tiefpasseigenschaft aufweisenden Filterkern. 6. The method according to any one of the preceding claims, wherein the determination of the density data (PD) further comprises: Filtering the respective point cloud, from which the respective density distribution represented by the respective density data is determined, by folding the density distribution with a respective filter core that has a low-pass property.
7. Verfahren nach 6, wobei der Filterkern ein Gaußscher Filterkern ist. 7. The method according to 6, wherein the filter core is a Gaussian filter core.
8. Verfahren nach einem der vorausgehenden Ansprüche, wobei als dimensionsreduzie renden Approximationsverfahren zur Bestimmung der jeweiligen Schätzdaten eine Hauptkomponentenanalyse, PCA, oder ein Regressionsverfahren zum Einsatz kommt. 8. The method according to any one of the preceding claims, wherein a main component analysis, PCA, or a regression method is used as the dimension-reducing approximation method for determining the respective estimation data.
9. Verfahren nach Anspruch 8, wobei im Falle des Einsatzes einer PCA, die durch die Richtungsdaten (RD) repräsentierte Richtungsinformation auf Basis nur der größten mit tels der PCA ermittelten Hauptkomponente bestimmt wird. 9. The method according to claim 8, wherein in the case of using a PCA, the direction information represented by the direction data (RD) is determined on the basis of only the largest main component determined by means of the PCA.
10. Verfahren nach Anspruch 8 oder 9, wobei im Falle des Einsatzes einer PCA bezüglich einer quantisierten und gefilterten, zweidimensionalen Dichteverteilung F(i,j) die Kovari anzmatrix, M, der PCA die folgenden Ausgangswerte erhält:
Figure imgf000024_0001
10. The method according to claim 8 or 9, wherein if a PCA is used with respect to a quantized and filtered, two-dimensional density distribution F (i, j), the covariance matrix, M, the PCA receives the following initial values:
Figure imgf000024_0001
mit  With
Figure imgf000024_0002
und
Figure imgf000024_0002
and
Figure imgf000024_0003
Figure imgf000024_0003
wobei
Figure imgf000024_0004
und wobei (i,j) jeweils Indexpaare zur Indizierung der Zellen des quantisierten 2D- Unterraums bzw. ihrer zugeordneten ungefilterten Dichtwerte P(i,j) bzw. mittels Faltung mit dem Kern gefilterten Dichtwerte F(i,j) sind, und die Indizierung des Kerns K mit den Indexpaaren (n,m) erfolgt.
in which
Figure imgf000024_0004
and where (i, j) are index pairs for indexing the cells of the quantized 2D subspace or their associated unfiltered density values P (i, j) or density values filtered by convolution with the core F (i, j), and the indexing of the core K with the index pairs (n, m).
1 1. Verfahren nach einem der vorausgehenden Ansprüche, des Weiteren aufweisend: 1 1. The method according to any one of the preceding claims, further comprising:
Segmentieren der zum Bestimmen der zugehörigen Dichtedaten daraus vorgesehenen jeweiligen Punktwolke in mehrere verschiedene Segmente auf Basis einer Erkennung verschiedener durch die Punktwolke abgebildeter Körperteile des Benutzers;  Segmenting the respective point cloud provided for determining the associated density data therefrom into several different segments on the basis of a recognition of different body parts of the user depicted by the point cloud;
Auswahlen einer echten Untermenge der Segmente mittels eines Auswahlkriteriums, welches in Abhängigkeit von dem bzw. den zur Ausführung der Freiraumgeste bestimm ten einem oder mehreren Körperteilen definiert ist; und  Selection of a real subset of the segments by means of a selection criterion which is defined as a function of the one or more body parts intended for the execution of the free space gestures; and
Bestimmen der zugehörigen Dichtedaten nur auf Basis des durch die ausgewählte Un termenge der Segmente repräsentierten Teils (SD)der Punktwolke.  Determine the associated density data only on the basis of the part (SD) of the point cloud represented by the selected subset of the segments.
12. Verfahren nach Anspruch 1 1 , wobei die in den Messdaten (MD) repräsentierte Punkt wolke zu einer mit zumindest einem Teil der oberen Gliedmaßen eines Benutzers aus geführten Freiraumgeste korrespondiert; die Segmentierung zumindest ein Auswahl segment (SD) enthält, das nur zu einem oder mehreren Fingern des Benutzers korres pondiert, und das Auswahlkriterium so definiert ist, dass die dadurch bestimmte Unter menge der Segmente zumindest dieses Auswahlsegment enthält. 12. The method according to claim 1 1, wherein the point cloud represented in the measurement data (MD) corresponds to a free space gesture performed with at least part of the upper limbs of a user; the segmentation contains at least one selection segment (SD), which only corresponds to one or more fingers of the user, and the selection criterion is defined in such a way that the subset of the segments determined thereby contains at least this selection segment.
13. Verfahren nach einem der vorausgehenden Ansprüche, wobei die Messdaten eine zeitli che Entwicklung der Freiraumgeste als räumlich mehrdimensionale und zugleich ent sprechend zeitabhängige Punktwolke repräsentieren; und 13. The method according to any one of the preceding claims, wherein the measurement data represent a temporal development of the free space gesture as a spatially multidimensional and at the same time time-dependent point cloud; and
die verfahrensgemäße Bestimmung einer durch die Freiraumgeste vermittelten Rich tungsinformation mehrfach, jeweils für einen anderen Zeitpunkt bezüglich der zeitab hängigen Punktwolke erfolgt; und  the procedural determination of a directional information conveyed by the free space gesture takes place several times, in each case for a different point in time with respect to the time-dependent point cloud; and
die Richtungsdaten (RD) so generiert und bereitgestellt werden, dass sie die aus dieser mehrfachen Bestimmung resultierende zeitliche Entwicklung der Richtungsinformation repräsentieren. the direction data (RD) are generated and provided in such a way that they represent the temporal development of the direction information resulting from this multiple determination.
14. Verfahren nach einem der vorausgehenden Ansprüche, wobei: 14. The method according to any one of the preceding claims, wherein:
die Messdaten in M+1 Dimensionen eine zeitliche Entwicklung (to-t4)der Freiraumgeste als räumlich M-dimensionale und zugleich entsprechend zeitabhängige Punktwolke, mit M>1 , repräsentieren; the measurement data in M + 1 dimensions represent a temporal development (to-t 4 ) of the free space gesture as spatially M-dimensional and at the same time correspondingly time-dependent point cloud, with M>1;
dem Bestimmen der Dichtedaten ein dimensionsreduzierendes Abbilden der durch die Messdaten in M räumlichen und einer zusätzlichen zeitlichen Dimension repräsentierten Punktewolke unter Wegfall der zeitlichen Dimension auf einen zumindest zweidimensio nalen Raum vorausgeht, um eine Repräsentation eines zu der Freiraumgeste korres pondierenden, 2D- bzw. 3D-Raumbereichs (A) zu erhalten; und  The determination of the density data is preceded by a dimension-reducing mapping of the point cloud represented by the measurement data in M spatial and an additional temporal dimension while the temporal dimension is omitted to an at least two-dimensional space in order to represent a 2D, 3D or 3D To obtain space area (A); and
die Richtungsdaten (RD) so generiert und bereitgestellt werden, dass die durch sie re präsentierte Richtungsinformation, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensiona len Raum bestimmt ist, einen durch die Richtungskurve definierten und dabei durch sie zumindest teilweise eingeschlossenen Raumbereich kennzeichnet.  the directional data (RD) are generated and provided in such a way that the directional information they represent, which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space, is defined by the directional curve and at least partially by it includes enclosed space.
15. Verfahren nach einem der vorausgehenden Ansprüche, wobei das Bestimmen einer durch die Freiraumgeste vermittelten Richtungsinformation auf Basis der Schätzdaten ein Bestimmen zumindest eines tangential zur durch die Schätzdaten repräsentierten Richtungskurve liegenden Richtungsvektors aufweist. 15. The method as claimed in one of the preceding claims, wherein determining a direction information conveyed by the free space gesture on the basis of the estimated data comprises determining at least one direction vector lying tangentially to the direction curve represented by the estimated data.
16. Vorrichtung (1 ) zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsin formation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine- Schnittsteile, insbesondere eines Fahrzeugs, wobei die Vorrichtung eingerichtet ist, das Verfahren gemäß einem der vorausgehenden Ansprüche auszuführen. 16. The device (1) for estimating a directional information conveyed by a free space gesture for determining a user input on a man-machine interface, in particular a vehicle, the device being set up to carry out the method according to one of the preceding claims.
17. Computerprogramm, das konfiguriert ist, das Verfahren nach einem der Ansprüche 1 bis 15 auszuführen. 17. A computer program configured to carry out the method according to one of claims 1 to 15.
PCT/EP2019/071079 2018-08-31 2019-08-06 Directional estimation of an open space gesture WO2020043440A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018121317.4A DE102018121317A1 (en) 2018-08-31 2018-08-31 Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface
DE102018121317.4 2018-08-31

Publications (1)

Publication Number Publication Date
WO2020043440A1 true WO2020043440A1 (en) 2020-03-05

Family

ID=67620421

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/071079 WO2020043440A1 (en) 2018-08-31 2019-08-06 Directional estimation of an open space gesture

Country Status (2)

Country Link
DE (1) DE102018121317A1 (en)
WO (1) WO2020043440A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3985484A1 (en) * 2020-10-19 2022-04-20 ameria AG Calibration method, calibration device and control method for touchless gesture control

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050094879A1 (en) * 2003-10-31 2005-05-05 Michael Harville Method for visual-based recognition of an object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050094879A1 (en) * 2003-10-31 2005-05-05 Michael Harville Method for visual-based recognition of an object

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DIOPULD ET AL: "Kurve (Mathematik)", WIKIPEDIA, 24 December 2017 (2017-12-24), pages 1 - 6, XP055633455, Retrieved from the Internet <URL:https://de.wikipedia.org/w/index.php?title=Kurve_(Mathematik)&oldid=172256159> [retrieved on 20191017] *
DOMINIO FABIO ET AL: "Combining multiple depth-based descriptors for hand gesture recognition", PATTERN RECOGNITION LETTERS, ELSEVIER, AMSTERDAM, NL, vol. 50, 9 November 2013 (2013-11-09), pages 101 - 111, XP029075216, ISSN: 0167-8655, DOI: 10.1016/J.PATREC.2013.10.010 *
GE LIUHAO ET AL: "Robust 3D Hand Pose Estimation in Single Depth Images: From Single-View CNN to Multi-View CNNs", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), IEEE, 27 June 2016 (2016-06-27), pages 3593 - 3601, XP033021543, DOI: 10.1109/CVPR.2016.391 *
POONAM SURYANARAYAN ET AL: "Dynamic Hand Pose Recognition Using Depth Data", 2010 20TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR 2010) : ISTANBUL, TURKEY, 23 - 26 AUGUST 2010, IEEE, PISCATAWAY, NJ, USA, 23 August 2010 (2010-08-23), pages 3105 - 3108, XP031772196, ISBN: 978-1-4244-7542-1 *

Also Published As

Publication number Publication date
DE102018121317A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
EP3642696B1 (en) Method and device for detecting a user input on the basis of a gesture
DE102017116952A1 (en) SYSTEM AND METHOD FOR IMPROVED SCORING OF 3D LAYERS AND REMOVAL OF DISTURBANCES IN 3D IMAGE DATA
WO2015117907A2 (en) Selectively-adaptive data processor
DE102016120775A1 (en) System and method for detecting lines in an image with a vision system
DE102004032118B4 (en) Object recognition method for vehicles
WO2014118178A1 (en) Creation of an environment model for a vehicle
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE112019002848T5 (en) SYSTEM AND METHOD FOR FINDING AND CLASSIFYING PATTERNS IN AN IMAGE WITH AN IMAGE PROCESSING SYSTEM
DE102012209316A1 (en) Method and device for processing sensor data of a stereo sensor system
DE102018132805A1 (en) Procedure for improved object detection
DE102013112040A1 (en) System and method for finding saddle-point like structures in an image and determining information therefrom
EP3931798B1 (en) Estimating the movement of an image position
DE102005049017B4 (en) Method for segmentation in an n-dimensional feature space and method for classification based on geometric properties of segmented objects in an n-dimensional data space
DE112021002781T5 (en) Methods and apparatus for generating point cloud histograms
WO2020043440A1 (en) Directional estimation of an open space gesture
EP2524592A2 (en) Method for analysing the behaviour of a rodent in an area and method for depicting the rodent
DE112019006107T5 (en) Authoring device, authoring process and authoring program
WO2018234251A1 (en) Method and device for detecting a user input on the basis of a gesture
EP3582140B1 (en) System for the automatic recognition of laboratory work objects and method for operating a system for automatic recognition of laboratory work objects
WO2020160861A1 (en) Calibration of a sensor for a vehicle on the basis of object-side and image-side identification indices of a reference object
DE102019102423A1 (en) Method for live annotation of sensor data
DE102018208604A1 (en) Determining a recording behavior of a recording unit
EP4278329A1 (en) Method and system for recognizing objects, which are represented in an image by means of a point cloud
DE102021117877A1 (en) Generating a filtered point cloud and at least partially automatically driving a vehicle
DE102011075877A1 (en) Evaluation method for a sequence of temporally successive depth images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19753003

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19753003

Country of ref document: EP

Kind code of ref document: A1