DE102013013697A1 - Apparatus and method for entering characters in free space - Google Patents

Apparatus and method for entering characters in free space Download PDF

Info

Publication number
DE102013013697A1
DE102013013697A1 DE102013013697.0A DE102013013697A DE102013013697A1 DE 102013013697 A1 DE102013013697 A1 DE 102013013697A1 DE 102013013697 A DE102013013697 A DE 102013013697A DE 102013013697 A1 DE102013013697 A1 DE 102013013697A1
Authority
DE
Germany
Prior art keywords
writing
virtual
plane
track
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102013013697.0A
Other languages
German (de)
Other versions
DE102013013697B4 (en
Inventor
Manuel Kühner
Johann Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102013013697.0A priority Critical patent/DE102013013697B4/en
Publication of DE102013013697A1 publication Critical patent/DE102013013697A1/en
Application granted granted Critical
Publication of DE102013013697B4 publication Critical patent/DE102013013697B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3611Destination input or retrieval using character input or menus, e.g. menus of POIs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird eine Vorrichtung (10) und ein Verfahren zum berührungslosen Eingeben von Schriftzeichen (11, 12, 13) vorgeschlagen. Hierbei weist die Vorrichtung eine Erkennungseinheit (15) zum Erkennen einer Schriftspur und eine virtuelle adaptive Schreibebene (20) auf, wobei durch die Lage der Schriftspur im Raum die virtuelle Schreibebene (20) festlegt wird. Ferner ist mit der Erkennungseinheit (15) die Schriftspur in der virtuellen Schreibebene (20) erkennbar. Auch ist mit der Erkennungseinheit (15) bei Verlassen der Schriftspur aus der virtuellen Schreibebene (20) heraus ein Eingeben der Schriftspur als beendet erkennbar. Ferner ist mit der Erkennungseinheit (15) die Schriftspur als Schriftzeichen (11, 12, 13) erkennbar.A device (10) and a method for non-contact inputting of characters (11, 12, 13) are proposed. In this case, the device has a recognition unit (15) for recognizing a writing track and a virtual adaptive writing plane (20), wherein the virtual writing plane (20) is determined by the position of the writing track in space. Furthermore, the writing track in the virtual writing plane (20) can be recognized by the recognition unit (15). Also, with the detection unit (15) when leaving the writing track from the virtual writing plane (20) out entering the writing track can be seen as finished. Furthermore, with the recognition unit (15) the writing track as a character (11, 12, 13) recognizable.

Description

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum Eingeben von Schriftzeichen. Ferner betrifft die Erfindung ein Fahrzeug, in dem die erfindungsgemäße Vorrichtung installiert ist.The invention relates to an apparatus and a method for inputting characters. Furthermore, the invention relates to a vehicle in which the device according to the invention is installed.

Ein Eingeben von Schriftzeichen, insbesondere von Buchstaben, Zahlen oder Wörtern, wird bei vielen Anwendungen in der Automobiltechnik benötigt. Beispielsweise werden bei Navigationsgeräten Schrifteingaben von einem Nutzer durchgeführt, um einen Ort auszuwählen. Als Eingabegeräte kommen beispielsweise Monitore mit Touch-sensitiver Oberfläche oder Touchscreens, Touchpads oder konventionelle Bedienelemente, wie Dreh-Drück-Steller zur Anwendung. Hierbei erfolgt bisher eine Schrifteingabe durch Berühren einer physisch vorhandenen Oberfläche. Die Oberfläche besteht typischerweise aus Kunststoff oder Glas. Hierbei werden beispielsweise Buchstaben auf einem Display vorgegeben, die durch Berühren des Displays ausgewählt werden können, um ein Wort, wie einen Straßennamen, zu schreiben.Entering characters, especially letters, numbers or words, is needed in many automotive applications. For example, in navigation devices, font inputs are made by a user to select a location. As input devices, for example, monitors with touch-sensitive surface or touch screens, touchpads or conventional operating elements, such as rotary-push-dial are used. In this case, until now, a text input is made by touching a physically existing surface. The surface is typically made of plastic or glass. Here, for example, letters are given on a display, which can be selected by touching the display to write a word, such as a street name.

Neuere Entwicklungen sehen eine berührungslose Bedienung solcher Geräte vor, indem beispielsweise Gesten erkannt werden und daraufhin eine Aktion eingeleitet wird. DE 100 2011 089 195 A1 beschreibt eine Vorrichtung zur berührungslosen Erfassung von Gegenständen und Gesten zur Bedienung einer Anzeigeeinheit in einem Fahrzeuginnenraum. Eine Gestenbedienung hat den Nachteil, dass die Gesten in vielen Fällen zuvor von dem Nutzer, beispielsweise dem Fahrer des Fahrzeugs oder dem Beifahrer, erlernt werden müssen, um eine Reaktion des bedienten Systems zu bewirken.Recent developments provide a non-contact operation of such devices by, for example, gestures are recognized and then an action is initiated. DE 100 2011 089 195 A1 describes a device for non-contact detection of objects and gestures for operating a display unit in a vehicle interior. A gesture operation has the disadvantage that in many cases the gestures have to be learned beforehand by the user, for example the driver of the vehicle or the front passenger, in order to effect a reaction of the operated system.

Ferner sind Vorrichtungen bekannt, bei denen Schrifteingaben virtuell vorgenommen werden und nicht mehr über eine Tastatur oder durch Berühren eines Displays eingegeben werden. US 2012/0105613 A1 beschreibt eine solche Möglichkeit für eine Schrifteingabe für eine Automobilanwendung, die durch Fingerbewegung bewirkt wird. Man geht demnach bei verschiedenen Anwendungen zu einer Bedienung über, die eine Schrifteingabe im Raum vorsieht. Hierbei werden definierte Eingabebereiche vorsehen, um die Schrifteingabe durchzuführen. Dies hat den Nachteil, dass sie für die Anwendung in einem Fahrzeug eher unbrauchbar sind, da oft der Fahrer eine Schrifteingabe machen möchte, während er sich hinter dem Lenkrad befindet. Oft wird die Schrifteingabe nicht erkannt, weil der Fahrer im falschen Winkel in Bezug auf den Eingabebereich sitzt.Furthermore, devices are known in which font inputs are made virtually and are no longer entered via a keyboard or by touching a display. US 2012/0105613 A1 describes such a possibility for a font input for an automotive application caused by finger movement. It is therefore in various applications to an operation over which provides a font input in the room. Here, defined input areas will be provided to perform the font input. This has the disadvantage that they are rather useless for use in a vehicle, since often the driver wants to make a text input while he is behind the wheel. Often, the font input is not recognized because the driver is sitting at the wrong angle with respect to the input area.

Der Erfindung liegt die Aufgabe zugrunde eine Vorrichtung und ein Verfahren für eine berührungslose Schrifteingabe vorzuschlagen, das eine verbesserte Eingabemöglichkeit von Schriftzeichen in einem Fahrzeug bereitstellt.The invention has for its object to propose an apparatus and a method for a contactless font input, which provides an improved input possibility of characters in a vehicle.

Diese Aufgabe wird mit einer Vorrichtung zum berührungslosen Eingeben von Schriftzeichen gelöst. Hierbei weist die Vorrichtung eine Erkennungseinheit zum Erkennen einer Schriftspur und eine virtuelle Schreibebene auf, wobei durch die Lage der Schriftspur im Raum die virtuelle Schreibebene festlegt wird. Die Schreibebene kann hierbei gekrümmt sein. Ferner kann es sich um eine adaptive Schreibebene handeln. Ferner ist vorgesehen, dass mit der Erkennungseinheit die Schriftspur in der virtuellen Schreibebene erkennbar ist, wobei ebenfalls mit der Erkennungseinheit bei Verlassen der Schriftspur aus der virtuellen Schreibebene heraus ein Eingeben der Schriftspur als beendet erkennbar ist. Auch ist mit der Erkennungseinheit die Schriftspur als Schriftzeichen erkennbar.This object is achieved with a device for non-contact inputting characters. In this case, the device has a recognition unit for recognizing a writing track and a virtual writing plane, wherein the virtual writing plane is determined by the position of the writing track in the space. The writing level can be curved here. It can also be an adaptive write layer. It is further provided that with the recognition unit, the writing track in the virtual writing plane is recognizable, wherein also with the recognition unit when leaving the writing track from the virtual writing plane entering the writing track is recognized as finished. Also, the recognition track recognizes the writing track as a character.

Ferner wird die Aufgabe der Erfindung mit einem Verfahren zum berührungslosen Eingeben von Schriftzeichen gelöst. Hierbei ist ein Erkennen einer Schriftspur und ein Festlegen einer virtuellen Schreibebene, die durch die Lage der Schriftspur vorgegeben wird vorgesehen. Ferner ist ein Erkennen einer Beendigung eines Eingebens der Schriftspur bei einem Verlassen der Schriftspur aus der virtuellen Schreibebene heraus und ein Erkennen der Schriftspur als Schriftzeichen vorgesehen.Furthermore, the object of the invention is achieved with a method for contactless inputting characters. Here, a recognition of a writing trace and a setting of a virtual writing plane, which is determined by the position of the writing track is provided. Furthermore, a recognition of a termination of inputting the writing track when leaving the writing track out of the virtual writing plane and recognizing the writing track as a character is provided.

Der Grundgedanke der Erfindung geht somit davon aus, dass die Schrifteingabe im freien Raum ermöglicht wird, ohne dass ein Display berührt wird. Es handelt sich somit um eine berührungslose Schrifteingabe.The basic idea of the invention thus assumes that the writing input is made possible in free space without a display being touched. It is thus a non-contact type input.

Hierbei können ein oder mehrere Schriftzeichen innerhalb einer Eingabe erfolgen und von der Erkennungseinheit erkannt werden, wie beispielsweise Teile von Telefonnummern oder Wortbestandteile. Es kann ferner vorgesehen werden, dass die Erkennungseinheit anhand der erkannten Folge von Schriftzeichen einen hinterlegten Eintrag vorschlägt. Zur Eingabe können Schriftzeichen in Großbuchstaben, Kleinbuchstaben oder eine Kombination hieraus verwendet werden. Ferner kann die erfindungsgemäße Vorrichtung Einzelbuchstaben oder zusammenhängende Buchstaben, beispielsweise bei Verwendung einer Schreibschrift erkennen.Here, one or more characters within an input can be made and recognized by the recognition unit, such as parts of telephone numbers or word components. It may further be provided that the recognition unit proposes a stored entry on the basis of the recognized sequence of characters. You can use uppercase, lowercase, or a combination of these for typing. Furthermore, the device according to the invention can recognize single letters or coherent letters, for example when using a handwriting.

Die Schrifteingabe erfordert nicht, dass zuvor. eine Ebene zur Schrifteingabe festgelegt worden ist. Vielmehr legt eine Schriftspur eine virtuelle Schreibebene fest. Man schreibt somit „in der Luft”. Es wird eine Schrifteingabe im Raum mit einer virtuellen Schreibebene ermöglicht, ohne dass der Nutzer frontal vor der Vorrichtung eine Eingabe durchführen muss. Vielmehr kann er bequem von seiner Position im Fahrzeug die Eingabe von Schriftzeichen durchführen, da die Vorrichtung die virtuelle Schreibebene aufgrund der Vorgabe einer Schriftspur im Raum durch den Nutzer erkennt und festlegt. So kann der Fahrer wie auch der Beifahrer die Vorrichtung bedienen, ohne dass von der bisherigen Sitzposition des Nutzers abgewichen werden muss.The font input does not require that before. a level has been specified for writing input. Rather, a writing track defines a virtual writing level. One writes thus "in the air". It is possible to enter a text in the room with a virtual writing level without the user having to make an input in front of the device. Rather, he can conveniently enter characters from his position in the vehicle because the device recognizes and sets the virtual writing plane based on the specification of a writing trace in the space by the user. Thus, the driver as well as the passenger can operate the device without having to deviate from the previous sitting position of the user.

Von Vorteil ist, dass Schriftzeichen anhand einer Schriftspur erkannt werden. Schriftzeichen werden im allgemeinen erlernt, um eine Sprache, wie Deutsch oder Chinesisch zu verstehen, wobei das Erlernen unabhängig von einer Bedienung der Vorrichtung erfolgt. Im Gegensatz hierzu muss eine Geste, die die Vorrichtung versteht, erst von dem Nutzer erlernt oder antrainiert werden. Somit ist die Bedienung durch Schriftzeichen eine einfachere Bedienungsweise ohne, dass man vorher die Eigenschaften der Vorrichtung und deren Bedienung erlernt haben muss. Die Schriftspur wird nach einem Verlassen der virtuellen Schreibebene als Schriftzeichen erkannt. Hierbei kann ein Schriftzeichen ein einzelner Buchstabe oder eine Zahl sein, die in einer Sprache verwendet werden. Ferner kann das Schriftzeichen auch ein komplexes Zeichen sein, beispielsweise mit Symbolcharakter, wie dies in asiatischen Sprachen vorkommt.The advantage is that characters are recognized by a font trace. Characters are generally learned to understand a language such as German or Chinese, learning being independent of operation of the device. In contrast, a gesture that understands the device must first be learned or trained by the user. Thus, the operation by characters is a simpler way of operating without that one must have previously learned the characteristics of the device and its operation. The writing track is recognized as a character after leaving the virtual writing level. Here, a character can be a single letter or a number used in a language. Furthermore, the character can also be a complex character, for example, with symbol character, as occurs in Asian languages.

Mit der Erkennungseinheit wird bei Verlassen der Schriftspur aus der virtuellen Ebene heraus ein Eingeben der Schriftspur als beendet erkannt. Das Verlassen kann hierbei in beide Richtungen der virtuellen Ebene erfolgen, d. h. zum Nutzer hin oder zum Nutzer weg gerichtet. Hierbei kann die Erkennungseinheit eine Normal-Bewegung, d. h. eine Bewegung senkrecht zur virtuellen Ebene erkennen und deutet dies als Verlassen der virtuellen Ebene. Als Erkennungseinheit eignet sich jede technische Vorrichtung, die im dreidimensionalen Raum eine Schriftspur erkennen kann. Dies kann beispielsweise mit einem Sensorsystem erfolgen. Hierbei kann ein Sensor des Sensorsystems Infrarotstrahlung aussenden und einen reflektierten Strahl verwenden, um eine Laufzeit direkt oder indirekt festzustellen. Eine indirekte Laufzeitmessung kann beispielsweise über eine Phasenverschiebung bestimmt werden. Auch sind weitere Technologien denkbar, die beispielsweise auf Ultraschall oder Lasertechnik basieren. Ferner können visuelle Bilderfassungssysteme verwendet werden, beispielsweise ein Einpixel-Sensor, ein Infrarot-Sensor oder eine Kamera. Ferner können auch Technologien als Erkennungseinheit eingesetzt werden, die auf Ultraschall basieren. Die Erkennungseinheit kann auch eine Berechnungseinheit aufweisen, die Berechnungsverfahren zur Schriftzeichenerkennung bereitstellt. Hierbei können einzelne Buchstaben und/oder Wortbestandteile und/oder vollständige Wörter erkannt und vorgeschlagen werden.With the detection unit, entering the writing track is detected as finished when leaving the writing track from the virtual level out. Leaving can be done in both directions of the virtual plane, d. H. directed towards the user or the user away. In this case, the recognition unit can perform a normal movement, ie. H. recognize a motion perpendicular to the virtual plane and interpret this as leaving the virtual plane. As a detection unit, any technical device that can recognize a writing trace in three-dimensional space is suitable. This can be done for example with a sensor system. In this case, a sensor of the sensor system can emit infrared radiation and use a reflected beam to detect a transit time directly or indirectly. An indirect transit time measurement can be determined for example via a phase shift. Also, other technologies are conceivable, for example, based on ultrasound or laser technology. Further, visual image capture systems may be used, such as a one-pixel sensor, an infrared sensor, or a camera. Furthermore, it is also possible to use technologies that are based on ultrasound as recognition unit. The recognition unit may also include a calculation unit that provides calculation methods for character recognition. In this case, individual letters and / or word components and / or complete words can be recognized and suggested.

Zum Erzeugen der Schriftspur eignet sich jeder Gegenstand, der in der Luft bewegt werden kann und mit dem eine Schriftspur in dem Raum vorgegeben werden kann. Zur Eingeben der Schriftspur kann beispielsweise ein Finger des Nutzers verwendet werden. Auch kann beispielsweise ein Stift oder ein Gegenstand ähnlicher Geometrie verwendet werden, um eine Schriftspur in der Luft zu schreiben.For generating the writing track is any object that can be moved in the air and with which a writing trace can be specified in the room. For example, a finger of the user can be used to enter the writing track. Also, for example, a stylus or similar geometry object can be used to write a writing trace in the air.

In einem bevorzugten Ausführungsbeispiel kann vorgesehen werden, dass die virtuelle Schreibebene gekrümmt ist. Die virtuelle Schreibebene ist eine fiktiver Bereich im Raum, der somit mathematisch gesehen keine Ebene sondern eine drei-dimensionale Raumfläche sein kann. Eine gekrümmte virtuelle Schreibebene hat den Vorteil, dass das Schreiben der Schriftspur auf einer virtuellen Ebene erfolgt, die in einer ergonomisch bequem erreichbaren Position für den Nutzer liegt. Die virtuelle Schreibebene kann beispielsweise aus dem Ellenbogen oder Handgelenk des Nutzers heraus beschrieben werden kann. Eine Blickabwendung durch den Fahrer als Nutzer der erfindungsgemäßen Vorrichtung während der Fahrt kann durch die ergonomische Position minimiert werden.In a preferred embodiment, it can be provided that the virtual writing plane is curved. The virtual writing plane is a fictitious area in space, which, mathematically speaking, can not be a plane but a three-dimensional space surface. A curved virtual writing plane has the advantage of writing the writing track on a virtual level which is in an ergonomically comfortable position for the user. The virtual writing plane can be described, for example, from the user's elbow or wrist. A look-away by the driver as a user of the device according to the invention while driving can be minimized by the ergonomic position.

Mit Vorteil kann vorgesehen werden, dass die virtuelle Schreibebene für jedes Schriftzeichen erneut festgelegt wird. Dies bedeutet, dass die virtuelle Schreibebene einen adaptiven Charakter aufweist, so dass auch bei einer Bewegung des Nutzers während der Eingabe von Schriftzeichen keinen negativen Einfluss auf die Erkennung des Schriftzeichens hat. Eine solche adaptive Schreibebene kann frei im Raum liegen und gekrümmt sein.Advantageously, it can be provided that the virtual writing level is set again for each character. This means that the virtual writing level has an adaptive character, so that even with a movement of the user during the input of characters has no negative impact on the recognition of the character. Such an adaptive writing plane can be free in space and curved.

Hierbei ist ferner von Vorteil, dass jedes Schriftzeichen einzeln erkannt wird. Dies erleichtert eine Eingabe durch den Nutzer, der zwischen den einzelnen Schriftzeichen eine Pause machen kann, weil beispielsweise die Verkehrssituation es gerade nicht erlaubt, ein weiteres Schriftzeichen einzugeben.It is also advantageous that each character is recognized individually. This facilitates an input by the user who can pause between the individual characters because, for example, the traffic situation just does not allow another character to be entered.

In einem weiteren erfindungsgemäßen Ausführungsbeispiel kann vorgesehen sein, dass die erfindungsgemäße Vorrichtung ein Display aufweist, wobei die virtuelle Schreibebene beabstandet vor dem Display angeordnet ist und auf dem Display die eingegebene Schriftspur anzeigbar ist. Dies hat den Vorteil, dass die Eingabe der Schriftspur auf dem Display vom Nutzer mitverfolgt werden kann. Ferner kann auf dem Display auch durch eine Wortvervollständigungs-Funktion der Erkennungseinheit ein oder mehrere Wörter vorgeschlagen werden, so dass der Nutzer seine geplante Eingabe schneller vervollständigen kann. Der Nutzer kann eine Eingabe direkt vor dem Bildschirm durchführen. Auch ist es möglich, dass der Nutzer eine Eingabe in einen Bereich fernab von dem Bildschirm durchführt. Auch in diesem Fall können die entsprechenden Eingaben auf dem Display angezeigt werden.In a further embodiment of the invention can be provided that the device according to the invention comprises a display, wherein the virtual writing plane is arranged spaced in front of the display and on the display, the typed trace is displayed. This has the advantage that the input of the writing track on the display can be tracked by the user. Furthermore, one or more words can also be proposed on the display by a word completion function of the recognition unit, so that the user can complete his planned entry more quickly. The user can make an entry directly in front of the screen. Also, it is possible for the user to input to an area far from the screen. In this case too, the corresponding inputs can be shown on the display.

Gemäß einem erfindungsgemäßen Ausführungsbeispiel weist die virtuelle Schreibebene ein Toleranzband auf, wobei außerhalb des Toleranzbandes die virtuelle Schreibebene endet und an einer Seite des Toleranzbandes eine virtuelle Menüebene angeordnet ist. Dies bedeutete, dass innerhalb des Toleranzbandes eine Schriftspur erkannt wird und mit der Erkennungseinheit bei Verlassen der Schriftspur aus der virtuellen Schreibebene heraus einschließlich des Toleranzbandes ein Eingeben der Schriftspur als beendet erkennbar ist. Unter der virtuellen Schreibebene kann auch eine virtuelle Blattebene verstanden werden, auf der der Nutzer schreibt. Es kann vorgesehen werden, dass zusätzlich zu der schriftlichen Eingabe auch ein Menü in der Menüebene bedient werden kann. Die Menüebene ist ebenfalls eine virtuelle Ebene im Raum, die als zweidimensionaler oder dreidimensionaler Bereich ausgebildet ist, der in ummittelbarer Nähe zum Toleranzband angeordnet ist. Somit ist die Menüebene eine virtuelle Menüebene. In dieser Menüebene kann beispielsweise ein virtueller Knopf der Vorrichtung bedient werden, beispielsweise ein Bestätigungsknopf. Der virtuelle Knopf kommt besonders in Erscheinung, wenn die Vorrichtung ein dreidimensionales Display (3D-Display) aufweist, so dass der virtuelle Knopf aus dem Display oder Bildschirm der Vorrichtung virtuell heraustritt. Das 3D-Display kann beispielsweise ein 3D-Touch-Displaysein. According to an exemplary embodiment of the invention, the virtual writing plane has a tolerance band, wherein outside the tolerance band the virtual writing plane ends and a virtual menu level is arranged on one side of the tolerance band. This meant that within the tolerance band a writing track is recognized and with the recognition unit when leaving the writing track out of the virtual writing plane, including the tolerance band, an inputting of the writing track can be recognized as finished. The virtual writing level can also be understood as a virtual sheet level on which the user writes. It can be provided that in addition to the written input, a menu in the menu level can be operated. The menu level is also a virtual plane in space, which is formed as a two-dimensional or three-dimensional area, which is arranged in the immediate vicinity of the tolerance band. Thus, the menu level is a virtual menu level. In this menu level, for example, a virtual button of the device can be operated, for example a confirmation button. The virtual button is particularly evident when the device has a three-dimensional display (3D display), so that the virtual button virtually emerges from the display or screen of the device. The 3D display can be, for example, a 3D touch display.

Es kann ferner vorgesehen werden, dass die Vorrichtung Teil eines Navigationsgerätes ist. Hierbei kann das Navigationsgerät aus der Ferne bedient werden, ohne dass eine Berührung des Navigationsgerätes notwendig ist. Ferner kann die erfindungsgemäße Vorrichtung zur Bedienung eines elektronischen Gerätes zum Suchen von beliebigen Einträgen verwendet werden. Beispielsweise kann die erfindungsgemäße Vorrichtung zur Bedienung eines Telefonbuchs verwendet werden, um einen Telefonbucheintrag, beispielsweise. eine Kontaktperson oder eine Telefonnummer auszuwählen. Auch kann die erfindungsgemäße Vorrichtung zur Bedienung eines elektronischen Gerätes mit einer Musiksammlung verwendet werden, um beispielsweise einen Musiktitel auszuwählen.It may further be provided that the device is part of a navigation device. In this case, the navigation device can be operated remotely, without a touch of the navigation device is necessary. Furthermore, the device according to the invention can be used to operate an electronic device for searching any entries. For example, the device according to the invention can be used to operate a telephone book to a directory entry, for example. to select a contact person or a telephone number. Also, the inventive device for operating an electronic device with a music collection can be used, for example, to select a song.

Auch wird die Aufgabe der Erfindung mit einem Fahrzeug gelöst, in dem die erfindungsgemäße Vorrichtung installiert ist. Das Fahrzeug kann beispielsweise ein Kraftfahrzeug oder ein Nutzfahrzeug sein. Die Vorrichtung wird bevorzugterweise im Innenraum des Fahrzeugs installiert und kann beispielsweise an der Mittelkonsole angeordnet sein. Auf diese Weise kann die erfindungsgemäße Vorrichtung sowohl vom Fahrer als auch vom Beifahrer bedienbar sein.Also, the object of the invention is achieved with a vehicle in which the device according to the invention is installed. The vehicle may be, for example, a motor vehicle or a commercial vehicle. The device is preferably installed in the interior of the vehicle and can be arranged, for example, on the center console. In this way, the device according to the invention can be operated by both the driver and the passenger.

Bei dem erfindungsgemäßen Verfahren wird eine Unterscheidbarkeit der einzelnen Eingaben gewährleistet. Hierbei kann vorgesehen werden, dass ein erster Buchstabe „in die Luft” geschrieben wird. Durch eine erkannte Fingerspur wird eine gemittelte Ebene im Raum bestimmt, die sogenannte virtuelle Schreibebene. Die Ebene kann auch gewölbt ausgeführt werden, um beispielsweise der Bewegungsmöglichkeiten des jeweiligen Gelenks, z. B. Hand-, Ellbogen oder Schultergelenk Rechnung zu tragen. Ferner kann die virtuelle Schreibebene bei jedem neuen Buchstaben bzw. Eingabe adaptiv erneut festgelegt werden.In the method according to the invention a distinctness of the individual inputs is ensured. It can be provided that a first letter is written "in the air". A detected finger track determines an averaged level in the room, the so-called virtual writing level. The plane can also be performed arched, for example, the possibilities of movement of the respective joint, for. B. hand, elbow or shoulder joint account. Furthermore, the virtual writing level can be adaptively set again for each new letter or input.

Desweiteren kann das erfindungsgemäße Verfahren ein Erkennen einer Initialisierungsgeste vorsehen, die ein Beginn eines berührungslosen Eingebens einer Schriftspur signalisiert. Die Aktivierung der Schrifteingabe kann somit durch eine Aktivierungs- bzw. Initialisierungs-Geste erfolgen. Hierbei kann die Initialisierungsgeste eine Wischgeste oder ein akustisches Signal sein. Bevorzugt ist beispielsweise eine Wischgeste angelehnt an das Wischen einer Schultafel, die eine nahezu horizontale Bewegung links-rechts-links oder rechts-links-rechts aufweist. Dies kann als ein eindeutiges Startsignal zum Erkennen von Schriftzeichen verwendet werden, ohne dass die Initialisierungs-Geste selbst mit einer Schriftspur verwechselt werden kann. Die Eingabe kann alternativ auch ohne eine Initialisierungsgeste eingeleitet werden. Dies kann beispielsweise erfolgen, wenn die Menüführung eine Schrifteingabe erwartet und hierzu eine Bereitschaft anzeigt.Furthermore, the method according to the invention can provide recognition of an initialization gesture which signals the beginning of a contactless inputting of a writing track. The activation of the text input can thus be effected by an activation or initialization gesture. In this case, the initialization gesture may be a swipe gesture or an acoustic signal. For example, a swipe gesture is preferably based on the wiping of a school blackboard, which has a nearly horizontal movement left-right-left or right-left-right. This can be used as a unique character recognition start signal, without the initialization gesture itself being confused with a script trace. The input can alternatively be initiated without an initialization gesture. This can be done, for example, if the menu guidance expects a text input and indicates readiness.

Im folgenden werden weitere Ausführungsbeispiele der Erfindung anhand von Merkmalen in Bezug auf die erfindungsgemäße Vorrichtung näher beschrieben. Es versteht sich, dass diese Merkmale auch das erfindungsgemäße Verfahren betreffen. Die folgenden Figuren sind schematisch, wobei gleiche oder ähnliche Elemente mit gleichen Bezugszeichen versehen sind.In the following, further embodiments of the invention will be described in more detail with reference to features in relation to the device according to the invention. It is understood that these features also relate to the method according to the invention. The following figures are schematic, wherein the same or similar elements are provided with the same reference numerals.

1 zeigt eine Vorrichtung zum berührungslosen Eingeben von Schriftzeichen in einer Draufsicht; und 1 shows a device for non-contact inputting characters in a plan view; and

2 zeigt die Vorrichtung der 1 in einer Seitenansicht. 2 shows the device of 1 in a side view.

1 zeigt eine Vorrichtung 10 zum berührungslosen Eingeben von Schriftzeichen 11, 12, 13, wobei die Vorrichtung 10 in diesem Ausführungsbeispiel Teil eines Navigationsgerätes ist. Ferner sind weitere elektronische Geräte mit einer virtuellen Eingabe denkbar, die zur Anwendung kommen können, wie Geräte mit Musiksammlungen oder Geräte mit Telefonbucheinträgen. Die Vorrichtung 10 weist einen Bildschirm 14, auch Display 14 genannt, und eine Erkennungseinheit 15 auf. Die Erkennungseinheit 15 weist hierbei zwei Sensor-Systeme 16, 17 auf, die in einem Randbereich des Displays 14 angeordnet sind. Das Display 14 ist zusätzlich zu einer Draufsicht von oben in Frontalansicht im oberen Bereich der 1 dargestellt und zeigt drei Schriftzeichen 11, 12, 13, die bereits von der Erkennungseinheit 15 erkannt wurden. 1 shows a device 10 for contactless input of characters 11 . 12 . 13 , wherein the device 10 in this embodiment is part of a navigation device. Furthermore, other electronic devices with a virtual input are conceivable that can be used, such as devices with music collections or devices with phonebook entries. The device 10 has a screen 14 , also display 14 called, and a recognition unit 15 on. The recognition unit 15 has two sensor systems 16 . 17 on that in a peripheral area of the display 14 disposed are. the display 14 is in addition to a top view from the top in frontal view at the top of the 1 shown and shows three characters 11 . 12 . 13 that already comes from the detection unit 15 were detected.

In einem Abstand 18 zum Display 14 in 1 möchte ein Nutzer durch eine Fingerbewegung 19, angedeutet durch Pfeile, ein weiteres Schriftzeichen eingeben. Vor Beginn der Eingabe der bisherigen Schriftzeichen 11, 12, 13 hat der Nutzer eine Initialisierungsbewegung in Form einer Wischbewegung als Geste ausgeführt. Diese wurde von der Erkennungseinheit 15 erkannt, so dass die Erkennungseinheit 15 für eine Schriftzeicheneingabe aktiviert wurde. Zur Fortsetzung der Eingabe bewegt der Nutzer nun seinen Finger, hier der Zeigefinger, im freien Raum vor dem Display 14, so dass er das gewünschte weitere Schriftzeichen in die Luft schreibt. Hierbei erkennt die Erkennungseinheit 15 die Lage einer Schriftspur im Raum und legt eine adaptive virtuelle Schreibebene 20 fest. In dieser virtuellen adaptiven Schreibebene 20 verfolgt die Erkennungseinheit 15 die Schriftspur und legt auch einen Toleranzbereich 21 oder ein Toleranzband 21 fest, innerhalb dessen die Schriftspur als solche erkannt wird. Die Schriftspur ist demnach ein Schriftzeichen, das noch nicht vollendet ist und sich noch in einem Eingabevorgang befindet, bei dem die Erkennungseinheit 15 die Schriftspur erkennt und analysiert und schließlich als Schriftzeichen erkennt. Die Erkennungseinheit 15 erkennt die vier eingegebenen Schriftzeichen, hier vier Buchstaben, und schlägt beispielsweise zur Vervollständigung des erkannten Wortbestandteils mit den vier Buchstaben ein Wort vor, das mit den erkannten vier Buchstaben beginnt. Der Nutzer kann die Eingabe beenden, indem er das vorgeschlagene Wort auswählt, indem er beispielsweise ein virtuelles Bedienelement der erfindungsgemäßen Vorrichtung 10 betätigt. Sofern der Nutzer eine Schriftzeichenfolge eingeben möchte, die nicht dem Vorschlag der Erkennungseinheit entspricht, kann der Nutzer die Eingabe durch ein weiteres Schriftzeichen fortsetzen. Dies bedeutet, dass der Nutzer nicht nur ein Schriftzeichen während einer Eingabe eingeben kann, sondern ”auf einmal” mehrere Schriftzeichen eingeben kann, die von der Erkennungseinheit als Wortbestandteil erkannt werden.At a distance 18 to the display 14 in 1 a user wants by a finger gesture 19 , indicated by arrows, enter another character. Before entering the previous characters 11 . 12 . 13 the user has performed an initialization movement in the form of a swipe gesture. This was from the detection unit 15 detected, so the detection unit 15 was activated for a character input. To continue the input, the user now moves his finger, here the index finger, in free space in front of the display 14 so that he writes the desired further character in the air. The recognition unit recognizes this 15 the location of a writing trace in space and defines an adaptive virtual writing plane 20 firmly. In this virtual adaptive writing level 20 keeps track of the detection unit 15 the writing track and also sets a tolerance range 21 or a tolerance band 21 within which the written trace is recognized as such. The writing track is therefore a character that is not yet completed and is still in an input process in which the recognition unit 15 recognizes and analyzes the writing track and finally recognizes it as a character. The recognition unit 15 recognizes the four typed characters, here four letters, and proposes, for example, to complete the recognized word constituent with the four letters, a word beginning with the recognized four letters. The user can terminate the input by selecting the suggested word, for example by using a virtual control element of the device according to the invention 10 actuated. If the user wants to enter a character string that does not correspond to the suggestion of the recognition unit, the user can continue typing with another character. This means that the user can not only enter a character during an input, but can enter several characters "at once", which are recognized by the recognition unit as a word component.

In 1 hat der Toleranzbereich 21 der virtuellen Schreibebene 20 im vorliegenden Fall eine Ausdehnung in vertikaler Richtung bezogen auf die Displayoberfläche von etwa 6 cm. Hierbei ist die virtuelle Schreibebene 20 mittig innerhalb des Toleranzbereiches 21 angeordnet, so dass etwa 3 cm vor der virtuellen Schreibebene 20 und 3 cm hinter der virtuellen Schreibebene 20 vom Nutzer aus betrachtet vorhanden sind. Die Angaben der Abstände können je nach Ausführung der Vorrichtung 10 einen anderen Wert annehmen, daher sind die hier aufgeführten Angaben exemplarische Beispiele für eine mögliche Ausführungsform.In 1 has the tolerance range 21 the virtual writing plane 20 in the present case, an extension in the vertical direction based on the display surface of about 6 cm. Here is the virtual writing layer 20 centered within the tolerance range 21 arranged, leaving about 3 inches in front of the virtual writing plane 20 and 3 cm behind the virtual writing plane 20 are considered by the user. The details of the distances may vary depending on the design of the device 10 assume a different value, therefore, the information given here are exemplary examples of a possible embodiment.

Der Nutzer schreibt nun eine Schriftspur in den Raum, d. h. ”in die Luft” vor dem Display 14 und kann gleichzeitig auf dem Display 14 seine Eingabe verfolgen. In dem vorliegenden Ausführungsbeispiel möchte der Nutzer in dem Navigationsgerät einen Zielort auswählen und gibt daher ein Schriftzeichen in Form eines Buchstabens ein. Die Erkennungseinheit 15 mit den beiden Sensorsystemen 16, 17 erkennt die Schriftspur anhand der Fingerbewegung des Nutzers, indem es eine Bewegung der Fingerspitze im dreidimensionalen Raum aufnimmt. Dies geschieht beispielsweise durch kontinuierliches Messen von mindestens drei Winkeln im Raum, wobei zwei Winkel 22, 23 in 1 dargestellt sind, die durch reflektierte Infrarotstrahlen 24, 25 in Bezug auf das Display 14 gebildet werden, wobei die Infrarotstrahlen 24, 25 von der Erkennungseinheit 15 zunächst ausgestrahlt werden, von der Fingerspitze reflektiert werden und die reflektierten Infrarotstrahlen schließlich von der Erkennungseinheit 15 empfangen und ausgewertet werden. Hierbei misst jeweils ein Sensorsystem 16, 17 zwei Winkel, die insgesamt in 1 und 2 dargestellt sind. In 1 ist dies der Winkel 22 für das erste Sensorsystem 16 und der Winkel 23 für das zweite Sensorsystem 17. Ferner ist in 2 ein Winkel 28 dargestellt, der sowohl von dem ersten Sensorsystem 16 wie auch von dem zweiten Sensorsystem 17 gemessen werden kann.The user now writes a writing track in the room, ie "in the air" in front of the display 14 and can simultaneously on the display 14 track his input. In the present embodiment, the user wants to select a destination in the navigation device and therefore enters a character in the form of a letter. The recognition unit 15 with the two sensor systems 16 . 17 Recognizes the trace of writing with the user's finger movement by recording a movement of the fingertip in three-dimensional space. This is done, for example, by continuously measuring at least three angles in space, with two angles 22 . 23 in 1 represented by reflected infrared rays 24 . 25 in terms of the display 14 be formed, the infrared rays 24 . 25 from the detection unit 15 are first emitted, reflected by the fingertip, and the reflected infrared rays are finally reflected by the detection unit 15 be received and evaluated. In each case, a sensor system measures 16 . 17 two angles, the total in 1 and 2 are shown. In 1 this is the angle 22 for the first sensor system 16 and the angle 23 for the second sensor system 17 , Furthermore, in 2 an angle 28 shown by both the first sensor system 16 as well as the second sensor system 17 can be measured.

Solange sich die Fingerspitze hinter der virtuellen Schreibebene 20 innerhalb des Toleranzbereiches 21 befindet, wird davon ausgegangen, dass sich ein virtueller Stift, der beispielsweise durch einen Finger des Nutzers repräsentiert wird, auf der virtuellen Schreibebene 20 befindet, wobei der Zustand auch als Pen-down-Zustand verstanden werden kann. Bei einem Pen-down-Zustand beschreibt ein virtueller Stift, beispielsweise ein Finger des Nutzers, ein virtuelles Papier, hier die virtuelle Schreibebene. Sobald der Nutzer einen Buchstaben geschrieben hat und somit die Schriftspur beendet werden soll, verlässt er deutlich den Toleranzbereich 20 der virtuellen Schreibebene 20.As long as the fingertip behind the virtual writing plane 20 within the tolerance range 21 is located, it is assumed that a virtual pen, which is represented for example by a finger of the user, at the virtual writing level 20 The state can also be understood as a pen-down state. In a pen-down state, a virtual pen, such as a user's finger, describes a virtual paper, here the virtual writing plane. As soon as the user has written a letter and thus the writing trace is to be finished, he clearly leaves the tolerance range 20 the virtual writing plane 20 ,

Hierbei gibt es zwei Möglichkeiten, wie der Nutzer das Toleranzband 21 verlassen kann. Zum einen kann er eine erste Bewegung 26 der Fingers ausführen, die zu dem Nutzer hingerichtet ist. Zum anderen kann der Nutzer eine zweite Bewegung 27 des Fingers ausführen, die von dem Nutzer weggerichtet ist. Diese beiden Bewegungsrichtungen 26, 27 definieren das Ende der Eingabe eines Schriftzeichens bzw. eines Schriftzuges.There are two possibilities, like the user the tolerance band 21 can leave. For one thing, he can make a first move 26 run the finger that is executed to the user. On the other hand, the user can make a second move 27 of the finger directed away from the user. These two directions of movement 26 . 27 define the end of entering a character or a lettering.

Zum einen wird das Ende einer Eingabe durch Verlassen des Toleranzbandes der virtuellen Schreibebene 20 durch eine Bewegung der Fingerspitze signalisiert, die in Richtung 26 zum Nutzer gerichtet ist. Die Erkennungseinheit 15 erkennt beim Verlassen der zum Nutzer hin orientierten Toleranzbandgrenze 21 eine Pen-up-Bewegung, d. h. eine Bewegung von der virtuellen Schreibebene 20 weg in Richtung 26 des Nutzers. Zum anderen wird das Ende einer Eingabe durch Verlassen des Toleranzbandes der virtuellen Schreibebene 20 durch eine Bewegung der Fingerspitze signalisiert, die in Richtung 27 weg vom Nutzer gerichtet ist. Die Erkennungseinheit 15 erkennt diese Bewegung als ein ”Durchstechen” der Begrenzung des virtuellen Toleranzbandes 21 in Richtung Display 14. Diese Bewegung kann als Ende einer Eingabe erkannt werden. Das Durchstechen der virtuellen Schreibebene 20 in Richtung 27 beendet die Eingabe und kann ferner genutzt werden, um ein Bedienelement zu betätigen. Hierbei kann vorgesehen werden, ein virtuelles 3D-Bedienelement zu betätigen. Dies ist besonders vorteilhaft, wenn der Nutzer direkt vor einem Bildschirm oder Display 14 schreibt. Im allgemeinen kann die virtuelle adaptive Schreibebene 20 unabhängig von der Position des Nutzers zum Display 14 eingesetzt werden. Es ist daher möglich, dass der Nutzer direkt vor dem Bildschirm in den Raum schreibt oder dass das Display 14 an einer anderen Position in Bezug auf den Nutzer angeordnet ist.First, the end of an input is by leaving the tolerance band of the virtual writing level 20 through a movement of Fingertip signals that in the direction 26 directed to the user. The recognition unit 15 recognizes when leaving the user-oriented tolerance band limit 21 a pen-up movement, ie a movement from the virtual writing plane 20 away in the direction 26 of the user. On the other hand, the end of an input by leaving the tolerance band of the virtual writing level 20 signaled by a movement of the fingertip in the direction 27 directed away from the user. The recognition unit 15 recognizes this movement as a "puncture" of the boundary of the virtual tolerance band 21 towards the display 14 , This movement can be recognized as the end of an input. The piercing of the virtual writing plane 20 in the direction 27 stops the input and can also be used to operate a control. It can be provided here to actuate a virtual 3D control element. This is especially beneficial if the user is right in front of a screen or display 14 writes. In general, the virtual adaptive write level 20 regardless of the position of the user to the display 14 be used. It is therefore possible that the user writes directly in front of the screen in the room or that the display 14 is arranged at a different position with respect to the user.

Das Ende einer Eingabe eines Zeichens bzw. eines Schriftzuges erfolgt durch Verlassen der virtuellen Ebene in beide Richtungen, d. h. durch Bewegung eines Eingabegerätes oder eines Fingers zur Normalen der virtuellen Ebene. Das Durchstechen des Toleranzbandes 21 in Richtung 27 auf das Display hin wie auch das Verlassen des Toleranzbandes in Richtung 26 zum Nutzer hin definiert jeweils sozusagen eine Trennung eines ersten Schriftzeichens 11 von einem zweiten Schriftzeichen 12. Auf diese Weise wird der Erkennungseinheit 15 das Erkennen eines einzelnen Schriftzeichens 11, 12 erleichtert, indem ein definiertes Ende eines Schriftzeichens durch den Nutzer signalisiert wird. Das Verlassen der virtuellen Schreibebene 20 kann beispielsweise durch eine statistische Betrachtung erfolgen, indem die Erkennungseinheit 15 die Lage der Fingerspitze innerhalb des Toleranzbandes 21 erkennt und lediglich ein Verlassen des Toleranzbandes 21 registriert, ohne dass bekannt sein muss, an welchem Ort das Toleranzband 21 verlassen wurde.The end of an input of a character or a lettering is done by leaving the virtual plane in both directions, ie by moving an input device or a finger to the normal of the virtual plane. The piercing of the tolerance band 21 in the direction 27 towards the display, as well as leaving the tolerance band in the direction 26 towards the user, in each case defines, so to speak, a separation of a first character 11 from a second character 12 , In this way, the recognition unit 15 the recognition of a single character 11 . 12 facilitated by a defined end of a character is signaled by the user. Leaving the virtual writing plane 20 can be done for example by a statistical analysis by the recognition unit 15 the position of the fingertip within the tolerance band 21 recognizes and only leaving the tolerance band 21 registered, without it being necessary to know at which location the tolerance band 21 was left.

2 zeigt die Vorrichtung der 1 in einer Seitenansicht, bei der die Fingerspitze des Nutzers in dem Winkel 28 zum Display 14 positioniert ist. 2 zeigt eine Situation, bei der ein ”Durchstechen” der virtuellen Schreibebene 20 und ein Verlassen des Toleranzbandes 21 in der von dem Nutzer abgewandte Richtung 27 erfolgt. Die virtuelle Schreibebene 20 kann auch als virtuelle Blattebene 20 aufgefasst werden, da auf ihr geschrieben wird. Die Bewegung 27 des Nutzers ist, wie auch in 1, mit einem Pfeil angedeutet. Auch diese Bewegung des Nutzers kann als ein Ende der Eingabe einer Schriftspur verstanden werden. Im Anschluss an eine beendete Eingabe einer Schriftspur kann zusätzlich in dieser Richtung 27 eine Bedienung in einer virtuellen Menüebene 29 erfolgen, die sich geometrisch an den Bereich des Toleranzbandes 21 in Richtung Display 14 anschießt. Somit kann das Ende der Eingabe durch ein deutliches Verlassen der Ebene in die vom Nutzer abgewandten Richtung 27 erfolgen, wobei die Ebene wie zuvor beschrieben auch gekrümmt im Raum sein kann. Das Verlassen der Ebene kann z. B. als Auswahl bzw. Eingabe interpretiert werden. 2 shows the device of 1 in a side view, where the user's fingertip in the angle 28 to the display 14 is positioned. 2 shows a situation where a "piercing" the virtual writing plane 20 and leaving the tolerance band 21 in the direction away from the user 27 he follows. The virtual writing level 20 can also be used as a virtual sheet 20 be understood as written on it. The movement 27 the user is, as well as in 1 , indicated by an arrow. Also, this movement of the user can be understood as an end of the input of a writing track. Following a completed input of a written trace may additionally in that direction 27 an operation in a virtual menu level 29 take place, which is geometrically at the range of the tolerance band 21 towards the display 14 anschießt. Thus, the end of the input by a clear leaving the plane in the direction away from the user 27 take place, wherein the level as described above can also be curved in space. Leaving the plane can z. B. be interpreted as a selection or input.

Möglich ist beispielsweise, dass die einzelnen erkannten Buchstaben bereits ein Anfang eines bekannten Wortes der Erkennungseinheit 15 sind, beispielsweise ein Beginn eines Ländernamens, eines Ortsnamens oder eines Straßennamens. Die Eingabe kann für eine Interaktion mit einem auf dem Display 14 angezeigten Menü genutzt werden. Dies ermöglicht, dass der Nutzer eine von der Erfassungseinheit 15 vorgeschlagenen Auswahl übernimmt, die sich auch auf einzelne Buchstaben beziehen kann, beispielsweise B oder β. Ferner kann auch ein oder mehrere visuelle Knöpfe 30, 31 bedient werden, der in einer virtuellen Menüebene 29 erscheinen und die bei Erreichen der Fingerspitze oder eines anderen Bedienelementes auf einer virtuelle Display-Blattebene 32 bedient werden kann. Die virtuelle Menüebene 29 und die virtuelle Blattebene 32 können einige Zentimeter voneinander entfernt liegen, beispielsweise 1 cm bis 5 cm, so dass nicht durch eine ungewollte Bewegung, beispielsweise verursacht während der Fahrt des Fahrzeugs, eine Bedienung eines virtuellen Knopfes 30, 31 erfolgt. Die virtuelle Display-Blattebene 32 ist die Ebene, in der der virtuelle Knopf 30, 31 bedient werden kann. Sie ergibt sich durch die Charakteristiken eines dreidimensionalen Displays 14, wie es in 1 und 2 ausgeführt sein kann. So erscheinen Bedienelemente 30, 31 virtuell innerhalb der Display-Menüebene 29 und werden in der Display-Blattebene 32 bedient, z. B. durch Durchstechen der Display-Blattebene 32 gedrückt. Bei einem ”Durchstechen” der Display-Blattebene 32 kann ein solches Bedienelement 30, 31 beispielsweise ein Auswahlknopf für einen Länder-, Orts-, oder Straßennamen gedrückt werden, so dass ein oder mehrere aufgrund der bereits eingegebenen Schriftzeichen erkannte Name von der Erkennungseinheit 15 vorgeschlagen wird und vom Nutzer ausgewählt wird.For example, it is possible that the individual recognized letters are already a beginning of a known word of the recognition unit 15 are, for example, a beginning of a country name, a place name or a street name. The input may interact with one on the display 14 displayed menu. This allows the user to get one from the capture unit 15 proposed selection, which may also refer to individual letters, for example B or β. Furthermore, one or more visual buttons may also be used 30 . 31 be operated in a virtual menu level 29 appear when you reach your fingertip or other control on a virtual display sheet 32 can be served. The virtual menu level 29 and the virtual sheet level 32 can be a few centimeters apart, for example 1 cm to 5 cm, so that not by an unwanted movement, for example, caused while driving the vehicle, an operation of a virtual button 30 . 31 he follows. The virtual display sheet level 32 is the level in which the virtual button 30 . 31 can be served. It results from the characteristics of a three-dimensional display 14 as it is in 1 and 2 can be executed. This is how controls appear 30 . 31 virtually within the display menu level 29 and are in the display sheet level 32 operated, z. B. by piercing the display sheet level 32 pressed. When "piercing" the display sheet level 32 can such a control 30 . 31 For example, a radio button for a country, local, or street name are pressed so that one or more recognized due to the already entered characters name of the recognition unit 15 is proposed and selected by the user.

Auch diese Auswahl erfolgt berührungslos, da sie in der Display-Blattebene 32 von der Erkennungseinheit 15 erkannt wird, ohne das der Nutzer bis zum eigentlichen Display 14 gelangen muss. Die Display-Blattebene 32 liegt beispielsweise 2 cm vor der physikalischen Display-Oberfläche. Auch die Display-Blattebene 32 kann frei im Raum liegen und gekrümmt sein. Sie kann ebenso wie die virtuelle Blattebene 20 adaptiv für jeden Bedienvorgang erneut festgelegt werden, beispielsweise in Abhängigkeit der Lage der virtuellen Blattebene 20, in der zuvor eine Eingabe stattgefunden hat.Again, this selection is done contactless, as they are in the display sheet level 32 from the detection unit 15 is detected, without the user to the actual display 14 must arrive. The display sheet level 32 For example, it is 2 cm in front of the physical display surface. Also the display sheet level 32 can be free in the room and be curved. It can be just like the virtual leaf layer 20 be set adaptively for each operation again, for example, depending on the position of the virtual sheet level 20 in which an input has previously taken place.

In 2 wird zur Verdeutlichung der von der Erkennungseinheit 15 erkannten virtuellen Blattebene 20 eine Pen-up-Bewegung 33 und eine Pen-down-Bewegung 34 dargestellt. Insgesamt ergibt sich durch die berührungslose Bedienung des Displays 14 der 1 und 2 der Vorteil, dass ein Nutzer während der Bedienung eine für ihn am besten geeignete Schreibposition und Bedienposition einnehmen, da die virtuelle Blattebene 20 und die virtuelle Display-Blattebene 32 adaptiv im Raum bei jeder Bedienung neu definiert wird. Durch eine geeignete Positionserkennung einer Fingerspitzen oder eines anderen Bedienelements im Raum können durch geeignete Schrifterkennungsverfahren der Erkennungseinheit 15 einzelne Buchstaben erkannt werden. Des weiteren ist es auch möglich Wortbestandteile zu erkennen. Dies erleichtert insgesamt die Bedienung eines Displays und das berührungslose Eingeben von Schriftzeichen im freien und zuvor nicht festgelegten Raum.In 2 will be clarified by the recognition unit 15 detected virtual sheet level 20 a pen-up move 33 and a pen-down movement 34 shown. Overall results from the non-contact operation of the display 14 of the 1 and 2 the advantage that a user during operation occupy a most suitable for him writing position and operating position, as the virtual sheet level 20 and the virtual display sheet level 32 adaptive in space with each operation redefined. By means of a suitable position recognition of a fingertip or another operating element in the room, the recognition unit can be identified by suitable text recognition methods 15 individual letters are recognized. Furthermore, it is also possible to recognize word components. Overall, this facilitates the operation of a display and the non-contact input of characters in the free and previously not fixed space.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 1002011089195 A1 [0003] DE 1002011089195 A1 [0003]
  • US 2012/0105613 A1 [0004] US 2012/0105613 A1 [0004]

Claims (10)

Vorrichtung (10) zum berührungslosen Eingeben von Schriftzeichen (11, 12, 13), aufweisend eine Erkennungseinheit (15) zum Erkennen einer Schriftspur und eine virtuelle Schreibebene (20), wobei durch die Lage der Schriftspur im Raum die virtuelle Schreibebene (20) festlegt wird, wobei mit der Erkennungseinheit (15) die Schriftspur in der virtuellen Schreibebene (20) erkennbar ist, wobei mit der Erkennungseinheit (15) bei Verlassen der Schriftspur aus der virtuellen Schreibebene (20) heraus ein Eingeben der Schriftspur als beendet erkennbar ist und mit der Erkennungseinheit (15) die Schriftspur als Schriftzeichen (11, 12, 13) erkennbar ist.Contraption ( 10 ) for non-contact input of characters ( 11 . 12 . 13 ), comprising a recognition unit ( 15 ) for recognizing a writing trace and a virtual writing plane ( 20 ), whereby due to the position of the writing trace in space, the virtual writing plane ( 20 ), whereby with the recognition unit ( 15 ) the writing track in the virtual writing plane ( 20 ) is recognizable, with the recognition unit ( 15 ) when leaving the writing trace from the virtual writing plane ( 20 ) typing out the writing trace is terminated as can be seen and with the recognition unit ( 15 ) the writing track as a character ( 11 . 12 . 13 ) is recognizable. Vorrichtung nach Anspruch 1, wobei die virtuelle Schreibebene (20) gekrümmt ist.Device according to claim 1, wherein the virtual writing plane ( 20 ) is curved. Vorrichtung nach Anspruch 1 oder Anspruch 2, wobei die virtuelle Schreibebene (20) für jedes Schriftzeichen (11, 12, 13) erneut festgelegt wird.Apparatus according to claim 1 or claim 2, wherein the virtual writing plane ( 20 ) for each character ( 11 . 12 . 13 ) is determined again. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei jedes Schriftzeichen (11, 12, 13) einzeln erkannt wird.Device according to one of the preceding claims, wherein each character ( 11 . 12 . 13 ) is detected individually. Vorrichtung nach einem der vorhergehenden Ansprüche, ferner aufweisend ein Display (14), wobei die virtuelle Schreibebene (20) beabstandet vor dem Display (14) angeordnet ist und auf dem Display (14) die eingegebene Schriftspur anzeigbar ist.Device according to one of the preceding claims, further comprising a display ( 14 ), where the virtual writing level ( 20 ) spaced in front of the display ( 14 ) and on the display ( 14 ) the entered character track can be displayed. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die virtuelle Schreibebene (20) ein Toleranzband (21) aufweist, wobei außerhalb des Toleranzbandes (21) die virtuelle Schreibebene (20) endet und an einer Seite des Toleranzbandes (21) eine virtuelle Menüebene (29) angeordnet ist.Device according to one of the preceding claims, wherein the virtual writing plane ( 20 ) a tolerance band ( 21 ), outside of the tolerance band ( 21 ) the virtual writing level ( 20 ) ends and on one side of the tolerance band ( 21 ) a virtual menu level ( 29 ) is arranged. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung Teil eines Navigationsgerätes ist.Device according to one of the preceding claims, wherein the device is part of a navigation device. Verfahren zum berührungslosen Eingeben von Schriftzeichen, aufweisend Erkennen einer Schriftspur, Festlegen einer virtuellen Schreibebene (20), die durch die Lage der Schriftspur vorgegeben wird, Erkennen der Schriftspur in der virtuellen Schreibebene (20), Erkennen einer Beendigung eines Eingeben der Schriftspur bei einem Verlassen der Schriftspur aus der virtuellen Schreibebene (20) heraus, und Erkennen der Schriftspur als Schriftzeichen (11, 12, 13).Method for the non-contact inputting of characters, comprising recognition of a writing trace, definition of a virtual writing plane ( 20 ), which is determined by the position of the writing track, recognition of the writing track in the virtual writing plane ( 20 ), Detecting a termination of inputting the writing trace when leaving the writing trace from the virtual writing plane ( 20 ), and recognizing the writing trace as a character ( 11 . 12 . 13 ). Verfahren nach Anspruch 8 ferner aufweisend Erkennen einer Initialisierungsgeste, die ein Beginn eines berührungslosen Eingebens einer Schriftspur signalisiert.The method of claim 8, further comprising detecting an initialization gesture signaling a beginning of a non-contact inputting of a scribe track. Fahrzeug, in dem eine Vorrichtung (10) nach einem der Ansprüche 1 bis 7 installiert ist.Vehicle in which a device ( 10 ) is installed according to one of claims 1 to 7.
DE102013013697.0A 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space Active DE102013013697B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013013697.0A DE102013013697B4 (en) 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013013697.0A DE102013013697B4 (en) 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space

Publications (2)

Publication Number Publication Date
DE102013013697A1 true DE102013013697A1 (en) 2015-02-19
DE102013013697B4 DE102013013697B4 (en) 2021-01-28

Family

ID=52430045

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013013697.0A Active DE102013013697B4 (en) 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space

Country Status (1)

Country Link
DE (1) DE102013013697B4 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120105613A1 (en) 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
DE102011089195A1 (en) 2011-06-30 2013-01-03 Johnson Controls Gmbh Apparatus and method for the contactless detection of objects and / or persons and of gestures and / or operating processes carried out by them
DE102011121585A1 (en) * 2011-12-16 2013-06-20 Audi Ag Motor car has control unit that is connected with data memory and display device so as to display detected characters into display device during search mode according to data stored in data memory

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007039669A1 (en) * 2007-08-22 2009-02-26 Navigon Ag Display device with image surface
DE102007045967A1 (en) * 2007-09-25 2009-04-02 Continental Automotive Gmbh Method and device for contactless input of characters
KR101092722B1 (en) * 2009-12-02 2011-12-09 현대자동차주식회사 User interface device for controlling multimedia system of vehicle
US20110254765A1 (en) * 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120105613A1 (en) 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
DE102011089195A1 (en) 2011-06-30 2013-01-03 Johnson Controls Gmbh Apparatus and method for the contactless detection of objects and / or persons and of gestures and / or operating processes carried out by them
DE102011121585A1 (en) * 2011-12-16 2013-06-20 Audi Ag Motor car has control unit that is connected with data memory and display device so as to display detected characters into display device during search mode according to data stored in data memory

Also Published As

Publication number Publication date
DE102013013697B4 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
EP2909584B1 (en) Motor vehicle having an input device for handwriting recognition
DE102012020607B4 (en) A motor vehicle with a gesture control device and method for controlling a selection element
DE102014019005A1 (en) Method for operating an operating device of a motor vehicle in different operating modes and operating device and motor vehicle
WO2016120251A1 (en) Method for operating an input device, input device
WO2014108150A2 (en) User interface for handwritten character input in a device
DE102013009906B4 (en) Method for handwriting recognition by means of a touch-sensitive motor vehicle operating system and touch-sensitive motor vehicle operating system
DE102012219814A1 (en) Providing an operator input using a head-mounted display
DE102013013697B4 (en) Apparatus and method for entering characters in free space
EP3347804B1 (en) Operating device with character input and delete function
DE102013019570A1 (en) Operating device with non-contact font input function for a motor vehicle, motor vehicle and method for operating an operating device
EP3025214B1 (en) Method for operating an input device, and input device
DE102013016490A1 (en) Motor vehicle with contactless activatable handwriting connoisseur
EP3274789B1 (en) Motor vehicle simulation system for simulating a virtual environment with a virtual motor vehicle and method for simulating a virtual environment
EP3426516B1 (en) Operating device and method for detecting a user selection of at least one operating function of the operating device
DE102020106380A1 (en) Method for operating a driver assistance system of a vehicle by adapting displayed objects, driver assistance system and vehicle
WO2015121173A1 (en) User interface and method for switching from a first operating mode of a user interface to a 3d gesture mode
DE102011121585B4 (en) motor vehicle
DE102014001183B4 (en) Method and system for triggering at least one function of a motor vehicle
DE102012009384B4 (en) Input device of a motor vehicle for entering a string and associated method for operating the input device
EP3404525A1 (en) Method and device for operating an infotainment systems, motor vehicle and computer program
DE102014018407B4 (en) Control device for controlling a device of a motor vehicle and motor vehicle and method
DE102014014340B4 (en) Operating device, motor vehicle and method for operating an operating device for a motor vehicle
DE102013004251B4 (en) Method for operating an operating system and motor vehicle with such an operating system
DE102012021252A1 (en) Operating device for actuating e.g. DVD player mounted in motor car, has sensors that detect coordinates of operating unit in spatial directions, and evaluation device that determines position of operating unit based on coordinates
DE102014111749A1 (en) Method and device for controlling a technical device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R019 Grant decision by federal patent court
R020 Patent grant now final