DE102013000072A1 - Operator interface for a handwritten character input into a device - Google Patents
Operator interface for a handwritten character input into a device Download PDFInfo
- Publication number
- DE102013000072A1 DE102013000072A1 DE102013000072.6A DE102013000072A DE102013000072A1 DE 102013000072 A1 DE102013000072 A1 DE 102013000072A1 DE 102013000072 A DE102013000072 A DE 102013000072A DE 102013000072 A1 DE102013000072 A1 DE 102013000072A1
- Authority
- DE
- Germany
- Prior art keywords
- character
- input
- motor vehicle
- motion trajectory
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben einer Bedienschnittstelle für eine berührungslose Zeicheneingabe in ein Gerät (12), wobei durch eine Sensoreinrichtung (10) eine 2D-Zeichenspur (48) ermittelt wird, welche zumindest ein von einem Benutzer mit einem Eingabeelement (24) handschriftlich gezeichnetes Zeichen (50) darstellt, und durch eine Zeichenerkennungseinrichtung (16) in Abhängigkeit von der 2D-Zeichenspur (48) zumindest ein erkanntes Zeichen (50) als die Zeicheneingabe erzeugt und dem Gerät (12) bereitgestellt wird. Der Erfindung liegt die Aufgabe zugrunde, eine Bedienschnittstelle für ein Gerät bereitzustellen, mittels welcher Zeichen in das Gerät auf engem Raum eingegeben werden können. Durch die Sensoreinrichtung (10) wird hierzu mittels einer TOF-Kamera (26) eine 3D-Bewegungstrajektorie (44) des Eingabeelements (24) in einem vorbestimmten Raumbereich (38) erfasst und die erfasste 3D-Bewegungstrajektorie (48) auf eine zweidimensionale Projektionsebene (46) projiziert. Die Projektion der 3D-Bewegungstrajektorie (44) wird dann als die 2D-Zeichenspur (48) an die Zeichenerkennungseinrichtung (16) übertragen. Die Bilderfassung kann so auch von oben erfolgen.The invention relates to a method for operating a user interface for contactless input of characters into a device (12), a 2D character track (48) being determined by a sensor device (10), which is at least one handwritten by a user with an input element (24) represents drawn character (50), and by a character recognition device (16) depending on the 2D character track (48) at least one recognized character (50) is generated as the character input and provided to the device (12). The invention is based on the object of providing an operating interface for a device by means of which characters can be entered into the device in a confined space. For this purpose, the sensor device (10) uses a TOF camera (26) to record a 3D movement trajectory (44) of the input element (24) in a predetermined spatial area (38) and to transfer the recorded 3D movement trajectory (48) to a two-dimensional projection plane ( 46) projected. The projection of the 3D movement trajectory (44) is then transmitted as the 2D character track (48) to the character recognition device (16). The image can also be captured from above.
Description
Die Erfindung betrifft ein Verfahren zum Betreiben einer Bedienschnittstelle eines Geräts, welche eine Handschrifterkennung für eine berührungslose Eingabe von handschriftlich gezeichneten Zeichen aufweist. Zu der Erfindung gehören auch ein Kraftfahrzeug mit einer solchen Bedienschnittstelle, ein Computerprogrammprodukt zum Bereitstellen einer solchen Bedienschnittstelle in einem mobilen Endgerät, insbesondere einem Smartphone oder einem Tablet-PC, sowie ein solches mobiles Endgerät.The invention relates to a method for operating a user interface of a device, which has a handwriting recognition for a contactless input of handwritten characters. The invention also includes a motor vehicle with such an operator interface, a computer program product for providing such an operator interface in a mobile terminal, in particular a smartphone or a tablet PC, as well as such a mobile terminal.
In einem Kraftfahrzeug ist in der Regel vorgesehen, einzelne Funktionen des Kraftfahrzeugs, wie beispielsweise das Eingeben des Navigationsziels in ein Navigationsgerät, durch Betätigung dafür vorgesehener, definierter Funktionstasten aufzurufen. Um solche Tastenbetätigungen zu sensieren, ist heute je Taste ein elektrischer oder kapazitiver Schalter notwendig. Die Tasten sind örtlich begrenzt und fix positioniert. Das Suchen der Tasten bzw. auch das Suchen von Bedienfeldern auf einem berührungsempfindlichen Bedienfeld, beispielsweise einem sogenannten Touchpad oder Touchscreen, kann den Fahrer während einer Fahrt in unerwünschter Weise vom Verkehrsgeschehen ablenken. Zudem benötigt jede Taste eine verhältnismäßig teure Auswertungseinheit. Je unterschiedlicher Ausstattungsvarianten eines Kraftfahrzeugs sein müssen, desto mehr unterschiedliche Taster müssen entsprechend verbaut und angeschlossen sein. Dies macht Variantenvielfalt kostspielig.In a motor vehicle is usually provided to call individual functions of the motor vehicle, such as entering the navigation destination in a navigation device, by pressing it provided, defined function keys. To sense such key presses, today each key an electrical or capacitive switch is necessary. The keys are localized and fixed. Searching the buttons or even searching for control panels on a touch-sensitive control panel, for example a so-called touchpad or touch screen, can distract the driver during a journey in an undesirable manner from the traffic situation. In addition, each key requires a relatively expensive evaluation unit. The more different equipment variants of a motor vehicle must be, the more different buttons must be installed and connected accordingly. This makes variant diversity costly.
Um eine Eingabe von Text beispielsweise für das Festlegen eines Navigationsziels in einem Navigationsgerät zu vereinfachen, kann anstelle von Hardwaretasten oder emulierten Tasten auf einem Touchscreen auch eine Zeichenerkennung bereitgestellt sein. Ein Benutzer kann hierbei einzelne Zeichen, also Buchstaben, Zahlen oder auch Sonderzeichen, hintereinander auf ein und demselben berührungsempfindlichen Bedienfeld mit einem Finger oder auch mit einem Stift zeichnen. Eine automatische Handschrifterkennung, auch als Texterkennung oder optische Zeichenerkennung bezeichnet, kann dann beispielsweise auf Grundlage einer Mustererkennung aus der jeweils gezeichneten Zeichenspur den gezeichneten Buchstaben erkennen und eine entsprechende digitale Information an das Navigationsgerät weitergeben. Eine automatische Handschrifterkennung ermöglicht das Erkennen einzelner Zeichen oder auch mehrerer nacheinander mit einer einzelnen Zeichenspur oder auch mit Unterbrechungen gezeichneten Zeichen.In order to simplify an input of text, for example for setting a navigation destination in a navigation device, character recognition may be provided instead of hardware buttons or emulated buttons on a touchscreen. In this case, a user can draw individual characters, that is to say letters, numbers or even special characters, in succession on one and the same touch-sensitive control panel with a finger or also with a pen. An automatic handwriting recognition, also referred to as text recognition or optical character recognition, can then recognize, for example on the basis of pattern recognition from the respectively drawn character trace the drawn letters and pass on a corresponding digital information to the navigation device. Automatic handwriting recognition allows the recognition of single characters or even several characters drawn one after the other with a single character track or intermittently.
Mittels einer automatischen Handschrifterkennung ist es möglich, für die Eingabe von Texten auf einzelne Tasten für die Eingabe der Buchstaben zu verzichten und stattdessen eine einzige berührungsempfindliche Fläche bereitzustellen, auf welcher der Benutzer unterschiedliche Zeichen eingeben kann.By means of an automatic handwriting recognition, it is possible to omit the input of letters for the input of texts on individual keys and instead to provide a single touch-sensitive surface on which the user can input different characters.
Im Zusammenhang mit einer handschriftlichen Texteingabe an einem Arbeitsplatzcomputer ist aus der
Der Erfindung liegt die Aufgabe zugrunde, eine Bedienschnittstelle für ein Gerät bereitzustellen, mittels welcher Zeichen in das Gerät auf engem Raum eingegeben werden können.The invention has for its object to provide a user interface for a device by means of which characters can be entered into the device in a small space.
Die Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1, ein Kraftfahrzeug gemäß Patentanspruch 6, ein Computerprogrammprodukt gemäß Patentanspruch 9 und ein mobiles Endgerät gemäß Patentanspruch 10 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Unteransprüche gegeben.The object is achieved by a method according to claim 1, a motor vehicle according to claim 6, a computer program product according to claim 9 and a mobile terminal according to
Auch bei dem erfindungsgemäßen Verfahren wird in an sich bekannter Weise eine automatische Handschrifterkennung zum Erkennen eines Zeichens genutzt, welches von einem Benutzer mit einem Eingabeelement, also beispielsweise seinem Finger oder auch einem Zeicheninstrument, handschriftlich gezeichnet wurde. Die Zeichenspur stellt dabei in der gewohnten Weise eines oder mehrere Zeichen als zweidimensionales, also flaches Abbild dar, wie es der Benutzer gezeichnet hat. Durch eine Zeichenerkennungseinrichtung wird dann in bekannter Weise in Abhängigkeit von der 2D-Zeichenspur zumindest ein erkanntes Zeichen erzeugt, d. h. also z. B. an einem Ausgang ausgegeben, und die erkannten Zeichen als Zeicheneingabe dem zu bedienenden Gerät bereitgestellt. Die Texteingabe ist per Geste ohne Berührung eines Eingabeelements möglich. Hierzu wird gemäß dem Verfahren durch eine Sensoreinrichtung eine 3D-Bewegungstrajektorie (Bewegungsbahn) des Eingabeelements in einem vorbestimmten Raumbereich erfasst. Bei der 3D-Bewegungstrajektorie können sich die Koordinaten der Punkte, aus denen sich die Bewegungstrajektorie zusammensetzt, in alle drei Raumrichtungen unterscheiden. Es handelt sich also um ein dreidimensionales Gebilde. Durch die Sensoreinrichtung wird die erfasste 3D-Bewegungstrajektorie dann auf eine zweidimensionale Projektionsebene projiziert und die Projektion der 3D-Bewegungstrajektorie als die 2D-Zeichenspur an die Zeichenerkennungseinrichtung übertragen.Also in the method according to the invention an automatic handwriting recognition is used for recognizing a character in a conventional manner, which was handwritten by a user with an input element, so for example his finger or a drawing instrument. The character track represents one or more characters in the usual way as a two-dimensional, ie flat image as the user has drawn. By a character recognition device is then generated in a known manner depending on the 2D character track at least one recognized character, ie, for. B. output at an output, and the recognized characters as character input provided to the device to be operated. The text input is possible by a gesture without touching an input element. For this purpose, according to the method by a sensor device, a 3D movement trajectory (trajectory) of the Input element detected in a predetermined space area. In the 3D motion trajectory, the coordinates of the points that make up the motion trajectory may differ in all three spatial directions. It is therefore a three-dimensional structure. The detected 3D movement trajectory is then projected onto a two-dimensional projection plane by the sensor device and the projection of the 3D motion trajectory is transmitted as the 2D character trace to the character recognition device.
Bei dem erfindungsgemäßen Verfahren wird die 3D-Bewegungstrajektorie nun mit einer TOF-Kamera (TOF – Time of Flight) und aus einer Blickrichtung erfasst, deren Richtungsvektor in der Projektionsebene liegt oder parallel zu ihr oder in einem spitzen Winkel kleiner als 45° zur Projektionsebene, bevorzugt kleiner als 30°, angeordnet ist. Mit anderen Worten beobachtet die TOF-Kamera also beispielsweise den zeichnenden Finger des Benutzers z. B. von oben oder unten, während der Benutzer die Zeichen aufrecht im Raum zeichnet. Bei dieser Anordnung ergibt sich der Vorteil, dass die TOF-Kamera sehr unauffällig in einer Umgebung der Bedienperson angeordnet sein kann. Sie muss sich nicht vor dem Benutzer befinden. Insbesondere in einem Kraftfahrzeug hat es sich als günstig erwiesen, die 3D-Kamera beispielsweise im Dachhimmel des Kraftfahrzeugs anzuordnen und den Fahrer von oben herab mittels der 3D-Kamera abzubilden. Indem die so gezeichnete 3D-Bewegungstrajektorie durch eine TOF-Kamera erfasst wird, muss die Person nicht darauf achten, in welchem Winkel zu der 3D-Kamera sie die Bewegung ausführt. Wie versuche zeigen, erfolgt das Erfassen der 3D-Bewegungstrajektorie mittels der TOF-Kamera in alle drei Raumrichtungen mit ausreichender Zuverlässigkeit.In the method according to the invention, the 3D motion trajectory is now detected with a TOF camera (TOF) and from a viewing direction whose direction vector lies in the projection plane or parallel to it or at an acute angle smaller than 45 ° to the projection plane, preferably less than 30 °, is arranged. In other words, the TOF camera thus observes, for example, the drawing finger of the user z. From the top or bottom while the user draws the characters upright in space. In this arrangement, there is the advantage that the TOF camera can be arranged very inconspicuously in an environment of the operator. It does not have to be in front of the user. In particular, in a motor vehicle, it has proven to be favorable to arrange the 3D camera, for example, in the headliner of the motor vehicle and to image the driver from above by means of the 3D camera. By capturing the 3D motion trajectory so drawn by a TOF camera, the person does not have to pay attention to the angle to which the 3D camera is making the motion. As experiments show, the detection of the 3D motion trajectory by means of the TOF camera in all three spatial directions takes place with sufficient reliability.
Es kann bei der Erfindung auch vorgesehen sein, dass eine TOF-Kamera Bestandteil einer Stereo-Kameraanordnung ist. Hierdurch wird in vorteilhafter Weise der für TOF-Kameras bekannte Abschattungseffekt vermieden, der sich ergibt, wenn die TOF-Kamera ein frei im Raum befindliches Objekt nur von einer Seite erfasst und hierdurch die Tiefenabmessungen des Objekts entlang der optischen Achse der TOF-Kamera nicht erfasst werden können. Eine andere Möglichkeit zur Kompensation einer Abschattung ist durch ein Handmodell gegeben, wie es z. B. von dem Produkt „Kinect”® des Unternehmens Microsoft® bekannt ist.It can also be provided in the invention that a TOF camera is part of a stereo camera arrangement. This advantageously avoids the shading effect known for TOF cameras, which results when the TOF camera detects an object located freely in space only from one side and thus does not detect the depth dimensions of the object along the optical axis of the TOF camera can be. Another way to compensate for shading is given by a hand model, as z. B. from the product "Kinect" ® the company Microsoft ® is known.
Ein weiterer Vorteil ergibt sich, wenn eine Neigung der Projektionsebene im Raum an die jeweils erfasste 3D-Bewegungstrajektorie angepasst wird. Hierzu wird dann eine Hülle der 3D-Bewegungstrajektorie ermittelt. Beispielsweise können hierzu Abmessungen der Kanten eines virtuellen Quaders ermittelt werden, welcher die 3D-Bewegungstrajektorie vollständig umfasst (einhüllt) und aus welchem bei Verringerung der Abmessung einer der Kanten die 3D-Bewegungstrajektorie aus dem Quader aber herausstehen würde. Es wird dann diejenige Ausdehnungsrichtung ermittelt, entlang welcher die Hülle eine geringste Ausdehnung aufweist und die Projektionsebene senkrecht zu dieser Ausdehnungsrichtung angeordnet. Die Ausdehnungsrichtung kann auch beispielsweise mittels einer Hauptkomponentenanalyse (PCA – Principle Component Analysis) der Koordinaten der die 3D-Bewegungstrajektorie beschreibenden Punkte ermittelt werden. Durch Ausrichten der Projektionsebene ergibt sich der Vorteil, dass die Zeichenerkennungseinrichtung besonders zuverlässig eine 2D-Zeichenspur erkennen kann.Another advantage arises when an inclination of the projection plane in space is adapted to the respectively detected 3D motion trajectory. For this purpose, an envelope of the 3D motion trajectory is determined. For example, dimensions of the edges of a virtual cuboid can be determined for this purpose, which completely encompasses (envelopes) the 3D motion trajectory and from which, when the dimension of one of the edges is reduced, the 3D motion trajectory would stand out of the cuboid. The expansion direction along which the shell has a smallest extension and the projection plane perpendicular to this expansion direction is then determined. The direction of expansion can also be determined, for example, by means of a principal component analysis (PCA) of the coordinates of the points describing the 3D movement trajectory. By aligning the projection plane, there is the advantage that the character recognition device can detect a 2D character trace with particular reliability.
Ein weiterer Vorteil ergibt sich, wenn für jeweils einen Erkennungsvorgang die Erfassung der 3D-Bewegungstrajektorie begonnen wird, falls durch die Sensoreinrichtung erkannt wird, dass das Eingabeelement in den genannten Raumbereich eindringt, und die Erfassung wieder beendet wird, falls durch die Sensoreinrichtung erkannt wird, dass das Eingabeelement den Raumbereich wieder verlässt. Hierzu kann beispielsweise der Raumbereich als ein quaderförmiges Volumen im Raum definiert sein. Anhand der Koordinaten des Eingabeelements, also beispielsweise einer Fingerspitze, kann dann überprüft werden, ob sich die Fingerspitze innerhalb dieses Quaders befindet oder nicht. Der Benutzer kann dann durch Eintauchen seiner Fingerspitze in das Volumen die Erkennung einer 3D-Bewegungstrajektorie starten und durch Zurückziehen seiner Hand aus dem Volumen dann den Erkennungsvorgang beenden.A further advantage results if the detection of the 3D movement trajectory is started for each detection operation, if it is detected by the sensor device that the input element penetrates into said spatial area, and the detection is terminated again, if it is detected by the sensor device, that the input element leaves the room area again. For this purpose, for example, the space area may be defined as a cuboid volume in space. Based on the coordinates of the input element, so for example a fingertip, it can then be checked whether the fingertip is inside this cuboid or not. The user can then start detecting a 3D motion trajectory by dipping his fingertip into the volume and then, by pulling his hand out of the volume, stop the recognition process.
Eine andere Möglichkeit, um zuverlässig zwischen einerseits einem Eingabevorgang und andererseits einer Handbewegung, die keine Eingabe bewirken soll, unterscheiden zu können, wird gemäß einer Ausführungsform des Verfahrens erreicht, indem die 3D-Bewegungstrajektorie in dem Raumbereich nur erfasst wird, falls durch die Sensoreinrichtung erkannt wird, dass sich eine Hand des Benutzers zumindest teilweise in dem Raumbereich befindet und zumindest ein Finger der Hand eine jeweils vorbestimmte Fingerstellung aufweist. Mit anderen Worten wird die Erfassung der 3D-Bewegungstrajektorie nur ausgelöst, wenn der Benutzer beim Zeichnen mit der Hand eine bestimmte Fingergeste ausführt.Another possibility, in order to be able to reliably differentiate between an input procedure on the one hand and a hand movement which should not cause an input, is achieved according to an embodiment of the method by detecting the 3D motion trajectory in the spatial area only if detected by the sensor device is that a hand of the user is at least partially in the space area and at least one finger of the hand has a respective predetermined finger position. In other words, the detection of the 3D motion trajectory is only triggered when the user performs a specific finger gesture when drawing by hand.
Wie bereits ausgeführt, gehört zu der Erfindung auch ein Kraftfahrzeug. Das erfindungsgemäße Kraftfahrzeug weist eine Bedienschnittstelle mit einer Zeichenerkennungseinrichtung, also einer automatischen Handschrifterkennung, für eine handschriftliche Zeicheneingabe in eine Komponente des Kraftfahrzeugs auf. Bei der Komponente kann es sich beispielsweise um ein Navigationsgerät oder ein Infotainmentsystem handeln. Bei der Zeichenerkennungseinrichtung kann es sich um eine an sich bekannte Ausführungsform für eine 2D-Zeichenspurerkennung handeln. Das erfindungsgemäße Kraftfahrzeug zeichnet sich dadurch aus, dass bei der Bedienschnittstelle eine TOF-Kamera für die handschriftliche Zeicheneingabe bereitgestellt ist und die Bedienschnittstelle dazu ausgelegt ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.As already stated, the invention also includes a motor vehicle. The motor vehicle according to the invention has an operator interface with a character recognition device, that is to say an automatic handwriting recognition, for handwritten character input into a component of the motor vehicle. The component may be, for example, a navigation device or an infotainment system. The character recognition device may be a per se known embodiment for a 2D character trace detection act. The motor vehicle according to the invention is characterized in that a TOF camera for handwritten character input is provided at the operator interface and the operator interface is designed to carry out an embodiment of the method according to the invention.
Die Kamera ist bevorzugt in einem Dachhimmel des Kraftfahrzeugs angeordnet. Wie bereits beschrieben, ergeben sich hierdurch keine Nachteile bei der Erfassung einer 2D-Zeichenspur für die Zeichenerkennungseinrichtung, wenn das erfindungsgemäße Verfahren genutzt wird. Zudem ergeben sich Vorteile durch die uneingeschränkt freie Sichtbarkeit der Hand, da sich über der Hand in der Regel keine Objekte befinden können.The camera is preferably arranged in a headliner of the motor vehicle. As already described, this results in no disadvantages in the detection of a 2D character trace for the character recognition device when the inventive method is used. In addition, there are advantages due to the unrestricted visibility of the hand, as there are usually no objects above the hand.
Die berührungslose Texteingabe kann auf der Grundlage der Erfindung aber nicht nur in einem Kraftfahrzeug, sondern auch in einem mobilen Endgerät bereitgestellt werden, also etwa in einem Smartphone oder einem Tablet-PC. Um ein herkömmliches mobiles Endgerät nachrüsten zu können, damit es das erfindungsgemäß Verfahren durchführen kann, ist Bestandteil der Erfindung auch ein Computerprogrammprodukt mit einem auf zumindest einem Speichermedium gespeicherten Programm, welches dazu ausgelegt ist, beim Ausführen des Programms durch eine Prozessoreinrichtung des mobilen Endgeräts auf der Grundlage von Kameradaten einer Kamera des mobilen Endgeräts eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.The non-contact text input can be provided on the basis of the invention, but not only in a motor vehicle, but also in a mobile device, so for example in a smartphone or a tablet PC. In order to be able to retrofit a conventional mobile terminal so that it can carry out the method according to the invention, a computer program product with a program stored on at least one storage medium, which is designed to execute the program by a processor device of the mobile terminal on the Based on camera data of a camera of the mobile terminal to perform an embodiment of the method according to the invention.
Zu der Erfindung gehört schließlich auch ein mobiles Endgerät, welches eine Ausführungsform des erfindungsgemäßen Computerprogrammprodukts aufweist. Mit anderen Worten lässt sich das mobile Endgerät in der Weise betreiben, dass berührungslos eine handschriftliche Zeicheneingabe ermöglicht ist.Finally, the invention also includes a mobile terminal which has an embodiment of the computer program product according to the invention. In other words, the mobile terminal can be operated in such a way that hands-free character input is possible without contact.
Im Folgenden ist die Erfindung noch einmal anhand eines konkreten Ausführungsbeispiels erläutert. Hierzu zeigt:In the following, the invention is explained once again with reference to a concrete embodiment. This shows:
Die gezeigten Beispiele stellen bevorzugte Ausführungsformen der Erfindung dar.The examples shown represent preferred embodiments of the invention.
In
Der optische Sensor
Bei der Berechnungseinheit
Durch die 3D-Bilddaten des Sensorarrays
In
Die berührungslose automatische Zeichenerkennung wird mittels der optischen Sensoreinrichtung
Der optische Sensor
Die 3D-Bewegungstrajektorie
Die Projektion der 3D-Bewegungstrajektorie
Durch das Beispiel ist gezeigt, wie durch die physikalisch einwandfreie Ortbarkeit des Insassen durch eine TOF-Kamera bzw. von Körperteilen des Insassen bestimmte Merkmale verfolgt (getrackt) werden können und die hierdurch erhaltene Trajektorie ausgewertet werden kann. Um Texte in ein System des Kraftfahrzeugs eingeben zu können, kann beispielsweise die Spitze des ausgestreckten Fingers verfolgt werden. Die y-z-Ebene der Trajektorie spiegelt dann den gemalten Buchstaben wider.The example shows how certain characteristics can be traced (tracked) by the TOF camera or body parts of the occupant by means of the physically perfect locability of the occupant and the trajectory obtained thereby can be evaluated. In order to enter texts in a system of the motor vehicle, for example, the tip of the outstretched finger can be followed. The y-z plane of the trajectory then reflects the painted letter.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2011/0254765 A1 [0005] US 2011/0254765 A1 [0005]
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013000072.6A DE102013000072A1 (en) | 2013-01-08 | 2013-01-08 | Operator interface for a handwritten character input into a device |
PCT/EP2013/003528 WO2014108150A2 (en) | 2013-01-08 | 2013-11-22 | User interface for handwritten character input in a device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013000072.6A DE102013000072A1 (en) | 2013-01-08 | 2013-01-08 | Operator interface for a handwritten character input into a device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013000072A1 true DE102013000072A1 (en) | 2014-07-10 |
Family
ID=49680973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013000072.6A Ceased DE102013000072A1 (en) | 2013-01-08 | 2013-01-08 | Operator interface for a handwritten character input into a device |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102013000072A1 (en) |
WO (1) | WO2014108150A2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014224618A1 (en) * | 2014-12-02 | 2016-06-02 | Robert Bosch Gmbh | Method and device for operating an input device |
CN105872729A (en) * | 2015-04-21 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | Method and device for identification of operation event |
DE102015010421A1 (en) | 2015-08-11 | 2017-02-16 | Daimler Ag | Three-dimensional detection of the vehicle interior |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036315A (en) * | 2020-08-31 | 2020-12-04 | 北京百度网讯科技有限公司 | Character recognition method, character recognition device, electronic equipment and storage medium |
CN112540683B (en) * | 2020-12-08 | 2022-09-02 | 维沃移动通信有限公司 | Intelligent ring, handwritten character recognition method and electronic equipment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110254765A1 (en) | 2010-04-18 | 2011-10-20 | Primesense Ltd. | Remote text input using handwriting |
US20120105613A1 (en) * | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
CN1512298A (en) * | 2002-12-26 | 2004-07-14 | �ʼҷ����ֵ��ӹɷ�����˾ | Method for three dimension hand writing identification and its system |
US8396252B2 (en) * | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
DE102011089195A1 (en) * | 2011-06-30 | 2013-01-03 | Johnson Controls Gmbh | Apparatus and method for the contactless detection of objects and / or persons and of gestures and / or operating processes carried out by them |
-
2013
- 2013-01-08 DE DE102013000072.6A patent/DE102013000072A1/en not_active Ceased
- 2013-11-22 WO PCT/EP2013/003528 patent/WO2014108150A2/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110254765A1 (en) | 2010-04-18 | 2011-10-20 | Primesense Ltd. | Remote text input using handwriting |
US20120105613A1 (en) * | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014224618A1 (en) * | 2014-12-02 | 2016-06-02 | Robert Bosch Gmbh | Method and device for operating an input device |
CN105872729A (en) * | 2015-04-21 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | Method and device for identification of operation event |
EP3086205A1 (en) * | 2015-04-21 | 2016-10-26 | Le Shi Zhi Xin Electronic Technology (Tianjin) Limited | Method and apparatus for identifying operation event |
DE102015010421A1 (en) | 2015-08-11 | 2017-02-16 | Daimler Ag | Three-dimensional detection of the vehicle interior |
Also Published As
Publication number | Publication date |
---|---|
WO2014108150A2 (en) | 2014-07-17 |
WO2014108150A3 (en) | 2014-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1998996B1 (en) | Interactive operating device and method for operating the interactive operating device | |
DE102013220203A1 (en) | System and method for manipulating a user interface in the vehicle using "finger valleys" | |
DE102014204320A1 (en) | Information query by pointing | |
DE102014221510A1 (en) | System and method for recognizing a user gesture for performing the operation of a vehicle | |
DE102013000072A1 (en) | Operator interface for a handwritten character input into a device | |
DE102012020607B4 (en) | A motor vehicle with a gesture control device and method for controlling a selection element | |
DE102015115526A1 (en) | Method for target detection of target objects, in particular for the target detection of operating elements in a vehicle | |
DE102016216577A1 (en) | A method of interacting with image content displayed on a display device in a vehicle | |
DE112017007471T5 (en) | Message control device and message control method | |
DE102017201799A1 (en) | User interface, means of transport and method of user discrimination | |
WO2014108147A1 (en) | Zooming and shifting of image content of a display device | |
DE102013000069B4 (en) | Motor vehicle user interface with a control element for detecting a control action | |
DE102013000071A1 (en) | Method for synchronizing data between devices integrated in motor car and mobile terminal, involves transmitting synchronization data for detecting predetermined gesture command comprised in free space by running movement of operator hand | |
EP3234736B1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102014226553A1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102018220693B4 (en) | Control system and method for controlling a function of a vehicle, and vehicle with such | |
DE102013000081B4 (en) | Operator interface for contactless selection of a device function | |
DE102019200632A1 (en) | Operating system with portable interface unit and motor vehicle with the operating system | |
DE102016204274A1 (en) | System and method for detecting a user input gesture | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
DE102018100335B4 (en) | Method and device for 3D gesture recognition | |
DE102013211046A1 (en) | Method and device for obtaining a control signal from an operating gesture | |
WO2015010829A1 (en) | Method for operating an input device, and input device | |
DE102020122969B4 (en) | Method for detecting a movement of an input object in relation to a display device via optical features, recording device with computing unit, display device and motor vehicle | |
DE102019208605B4 (en) | Method for detecting an operating action, operating device and motor vehicle with an operating device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final | ||
R003 | Refusal decision now final |
Effective date: 20150217 |