DE10313019B4 - One-hand operation of terminals using gesture recognition - Google Patents

One-hand operation of terminals using gesture recognition Download PDF

Info

Publication number
DE10313019B4
DE10313019B4 DE10313019A DE10313019A DE10313019B4 DE 10313019 B4 DE10313019 B4 DE 10313019B4 DE 10313019 A DE10313019 A DE 10313019A DE 10313019 A DE10313019 A DE 10313019A DE 10313019 B4 DE10313019 B4 DE 10313019B4
Authority
DE
Germany
Prior art keywords
user
image
mobile terminal
segments
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10313019A
Other languages
German (de)
Other versions
DE10313019A1 (en
Inventor
Jesus Fernando Guitarte Perez
Klaus Lukas
Hans RÖTTGER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10313019A priority Critical patent/DE10313019B4/en
Publication of DE10313019A1 publication Critical patent/DE10313019A1/en
Application granted granted Critical
Publication of DE10313019B4 publication Critical patent/DE10313019B4/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Mobiles Endgerät mit
– einer Benutzerschnittstelle (4) mit einem auf der Benutzerschnittstelle positionierbaren Selektionsmittel (5),
– Mitteln zum Messen einer Position eines Benutzers (3) relativ zu dem mobilen Endgerät (1),
– Mitteln zur Ableitung einer Relativbewegung des mobilen Endgerätes (1) gegenüber dem Benutzer (3) aus der Position des Benutzers (3),
– Mitteln zum Positionieren des Selektionsmittels (5) auf der Benutzerschnittstelle (4) in Abhängigkeit der Relativbewegung.
Mobile terminal with
A user interface (4) with a selection means (5) which can be positioned on the user interface,
Means for measuring a position of a user (3) relative to the mobile terminal (1),
Means for deriving a relative movement of the mobile terminal (1) relative to the user (3) from the position of the user (3),
- Means for positioning the selection means (5) on the user interface (4) in dependence of the relative movement.

Figure 00000001
Figure 00000001

Description

Mit der Miniaturisierung von mobilen Kommunikationsendgeräten werden Tastaturen und andere haptische Eingabemöglichkeiten zugunsten der Gerätegröße auf ein Minimum reduziert. In zukünftigen Endgeräten wird sogar auf Keypads oder Eingabetastaturen ganz verzichtet werden. Um dennoch eine praktikable und komfortable Interaktionsmöglichkeit zu gewährleisten, werden neue Bedienkonzepte notwendig. Einschränkendes Limit aufgrund der Kosten ist jedoch meist die vorhandene Hardwareausstattung, die hierzu intelligent genutzt werden muss.With the miniaturization of mobile communication terminals Keyboards and other haptic input options in favor of device size on a Minimum reduced. In future terminals will even be dispensed with keypads or keypads. Nevertheless, a practicable and comfortable interaction possibility to ensure, new operating concepts become necessary. Restrictive limit due to Cost, however, is usually the existing hardware equipment, the this must be used intelligently.

Geräte ohne Keypad oder mit virtuellen Keypads wurden bislang entweder durch Spracherkennung oder durch Stifteingabe bedient, wie sie zum Beispiel bei PDAs üblich ist. Die Spracheingabe allein ist speziell in stark geräuschbehafteten Umgebungen schwierig. Auf der anderen Seite erlaubt die Stifteingabe keine Einhandbedienung, die für mobile Endgeräte oftmals gewünscht wird.Devices without Keypad or with virtual keypads have been either through Speech recognition or by pen input, as for example usual for PDAs is. The speech input alone is especially in heavily noisy Environments difficult. On the other hand, the pen input allows no one - handed operation for mobile devices often desired becomes.

Seit einiger Zeit sind mobile Endgeräte verfügbar, in die eine Kamera integriert ist.since some time are mobile devices available, in which a camera is integrated.

Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, eine Eingabemöglichkeit für mobile Endgeräte zu schaffen, die eine einhändige Bedienung erlaubt und keine Tastatur benötigt.From that Based on the object of the invention, an input option for mobile terminals to create a one-handed Operation allowed and no keyboard needed.

Diese Aufgabe wird durch die in den unabhängigen Ansprüchen angegebenen Erfindungen gelöst. Vorteilhafte Ausgestaltungen ergeben sich aus den abhängigen Ansprüchen.These The object is achieved by those specified in the independent claims Inventions solved. Advantageous embodiments emerge from the dependent claims.

Dementsprechend weist ein mobiles Endgerät eine beispielsweise auf einer Anzeige darstellbare, insbesondere optische und weiter bevorzugt grafische Benutzerschnittstelle auf. Die Benutzerschnittstelle lässt sich etwa in Form einer beispielsweise auf einer Anzeige, insbesondere einer LCD- oder LED-Anzeige, dargestellten Benutzeroberfläche oder Bedienoberfläche realisieren oder aber auch als ganz einfache optische Anzeige mit z.B. unterschiedlich beleuchteten Ziffern, bei der nicht selektierte Ziffern. grün leuchten und selektierte rot. Auf der grafische Benutzerschnittstelle ist ein virtuelles und/oder reales Selektionsmittel zum Selektieren von einzelnen Funktionsbereichen der Benutzerschnittstelle, denen jeweils Funktionalitäten zugeordnet sind, insbesondere durch Verschieben positionierbar. Weiterhin verfügt das mobile Endgerät über Mittel zum Messen einer Relativbewegung des mobilen Endgeräts gegenüber einem Benutzer des mobilen Endgeräts. Darüber hinaus weist das mobile Endgerät auch noch Mittel zum Positionieren des Selektionsmittels auf der Benutzerschnittstelle in Abhängigkeit der gemessenen Relativbewegung auf.Accordingly has a mobile terminal a displayable on a display, in particular optical and further preferably graphical user interface. The user interface let yourself in the form of, for example, a display, in particular an LCD or LED display, illustrated user interface or user interface realize or as a very simple visual display with e.g. different illuminated digits, in the non-selected Digits. green shine and selected red. On the graphical user interface is a virtual and / or real selection means for selecting of individual functional areas of the user interface, which each functionalities are assigned, in particular positionable by moving. Further features the mobile terminal via means for measuring a relative movement of the mobile terminal relative to a User of the mobile terminal. Furthermore has the mobile device also means for positioning the selection agent on the User interface in dependence the measured relative movement.

So kann der Benutzer das mobile Endgerät beispielsweise einfach in seiner Hand halten und sich selbst gegenüber bewegen, um das Selektionsmittel auf einen gewünschten Bereich der Benutzerschnittstelle zu bewegen. Ist das Selektionsmittel auf diese Weise beispielsweise auf einen gewünschten (virtuellen) Betätigungsknopf (Button) der Benutzerschnittstelle bewegt worden, so kann der Benutzer durch Sprechen eines Kommandos oder durch Drücken eines Eingabeknopfes am mobilen Endgerät die mit dem virtuellen Betätigungsknopf verbundene Aktion des mobilen Endgerätes auslösen.So For example, the user can simply put the mobile terminal in hold his hand and move towards the selection agent a desired one Area of the user interface to move. Is the selection agent in this way, for example, to a desired (virtual) operation button (Button) of the user interface has been moved, so the user can by speaking a command or by pressing an input button on the mobile terminal the one with the virtual operation button trigger connected action of the mobile terminal.

Die Mittel zum Messen der Relativbewegung weisen vorzugsweise Mittel zum Erkennen der Position der Lippen, eines Auges und/oder des Gesichts des Benutzers auf. Dann braucht der Benutzer das mobile Endgerät nämlich nur auf sein Gesicht auszurichten und zu bewegen und kann dabei die Bewegung der Selektionsmarke auf der Benutzerschnittstelle verfolgen.The Means for measuring the relative movement preferably have means for detecting the position of the lips, an eye and / or the face of the person User on. In that case, the user only needs the mobile terminal to align and move on his face while doing the Trace the selection mark movement on the user interface.

Am einfachsten lässt sich das Messen der Relativbewegung realisieren, wenn das mobile Endgerät dazu einen optischen Sensor, insbesondere eine Kamera, zur Aufnahme eines jeweiligen Bildes des Benutzers aufweist. Aus der aufgenommenen Folge von Bildern lässt sich dann die Relativbewegung bestimmen.At the easiest Realize the measurement of relative motion when the mobile terminal to an optical sensor, in particular a camera, for recording a respective image of the user. From the recorded episode of pictures then determine the relative movement.

Auf der grafischen Benutzerschnittstelle kann zur Kontrolle der Relativbewegung als Feedback jeweils das aktuell aufgenommene Bild des Benutzers ausgegeben werden, aus dem der Benutzer dann auf seine aktuelle Position gegenüber dem Endgerät schließen kann.On The graphical user interface can be used to control the relative movement as feedback, the currently recorded image of the user from which the user then clicks on his current Position opposite the terminal shut down can.

Für eine Benutzung bei Dunkelheit kann das mobile Endgerät Beleuchtungsmittel aufweisen, um den Benutzer zu beleuchten und auch hier einen Einsatz des optischen Sensors zu ermöglichen.For a use in the dark, the mobile terminal may have lighting means, to illuminate the user and also here use the optical To enable sensors.

Vorzugsweise weist das mobile Endgerät eine Auswerteeinrichtung auf, durch die das Bild des Benutzers analysierbar ist, indem Segmente im erfassten Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und ein Vorhandensein eines Gesichtes im Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.Preferably the mobile terminal has one Evaluation device, through which the image of the user can be analyzed is by setting segments in the captured image that are brightness-specific Have characteristics, a positional relationship of the specified Segments to each other is checked and a presence of a face is derived in the image, if a selection of fixed segments a particular positional relationship having.

Das Selektionsmittel kann als Zeigemittel auf der grafischen Benutzerschnittstelle dargestellt werden. Es ist aber auch möglich, dem Benutzer die Position des Selektionsmittels zu signalisieren, indem nicht das Selektionsmittel selbst angezeigt wird, sondern lediglich jeweils das auf der Benutzerschnittstelle gerade selektierte Element als selektiert dargestellt wird.The selection means can be displayed as a display means on the graphical user interface the. But it is also possible to signal the user the position of the selection means by not the selection means itself is displayed, but only each of the currently selected on the user interface element is displayed as selected.

Um eine fließende Bewegung des Selektionsmittels zu gewährleisten, weist das mobile Endgerät vorteilhaft Stabilisierungsmittel für die Bewegung des Selektionsmittels auf.Around a flowing one To ensure movement of the selection agent, the mobile exhibits terminal advantageous stabilizing agent for the movement of the selection agent on.

In einem Verfahren zum Betreiben eines mobilen Endgerätes wird eine Relativbewegung des mobilen Endgerätes gegenüber einem Benutzer gemessen und ein Selektionsmittel auf einer Benutzerschnittstelle des mobilen Endgeräts in Abhängigkeit der gemessenen Relativbewegung positioniert. Vorteilhafte Ausgestaltungen des Verfahrens ergeben sich analog zu den vorteilhaften Ausgestaltungen des mobilen Endgerätes und umgekehrt.In a method of operating a mobile terminal measured a relative movement of the mobile terminal towards a user and a selection agent on a mobile user interface terminal in dependency of positioned measured relative movement. Advantageous embodiments of the method are analogous to the advantageous embodiments of mobile terminal and vice versa.

So wird beispielsweise vorzugsweise zum Messen der Relativbewegung vom mobilen Endgerät mit einer Kamera ein Bild des Benutzers aufgenommen. Das Bild des Benutzers kann dann analysiert werden, indem Segmente im Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und das Vorhandensein des Benutzers, insbesondere eines Gesichts des Benutzers, im erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.So For example, it is preferably used to measure the relative movement from the mobile device a picture of the user taken by a camera. The picture of the user can then be parsed by setting segments in the image that have brightness-specific features, a positional relationship the defined segments to each other is checked and the presence of the user, in particular a face of the user, in the detected Image is derived when a selection of fixed segments one certain positional relationship having.

Das Verfahren zum Analysieren des Bildes des Benutzers umfasst insbesondere ein Festlegen von Segmenten in dem erfassten Bild, die helligkeitsspezifische Merkmale aufweisen. Wie es unten näher erläutert werden wird, können die helligkeitsspezifischen Merkmale beispielsweise Hell-Dunkel-Übergänge und/oder Dunkel-Hell-Übergänge umfassen. Anschließend wird eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft, wobei ein Vorhandensein eines Benutzers, insbesondere eines (menschlichen) Gesichts, in dem erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist. Das bedeutet, durch das gerade beschriebene Verfahren kann nur durch Analyse bestimmter Bereiche des erfassten Bildes, nämlich der Segmente mit helligkeitsspezifischen Merkmalen, genauer gesagt durch Überprüfen der positionsmäßigen Beziehung der festgelegten Segmente auf das Vorhandensein des Benutzers, insbesondere seines Gesichts, und dessen Position gegenüber dem mobilen Endgerät geschlossen werden. Somit wird zur Durchführung des Verfahrens nur eine geringe Rechenleistung benötigt, wodurch eine Ressourcenverringerung bzw. Ressourcenoptimierung einer Datenverarbeitungsanlage zum Durchführen des Verfahrens ermöglicht wird.The A method for analyzing the image of the user comprises in particular setting segments in the captured image that are brightness-specific Have features. As will be explained in more detail below, the brightness-specific features such as light-dark transitions and / or Include dark-light transitions. Subsequently, will a positional relationship of fixed segments checked each other, with a presence a user, in particular a (human) face, in derived from the captured image when a selection of specified Segments has a particular positional relationship. The means by the process just described can only by Analysis of certain areas of the captured image, namely the Segments with brightness-specific features, more precisely by checking the positional relationship the specified segments on the presence of the user, in particular his Face, and its position closed to the mobile terminal become. Thus, to carry out the method requires only a small amount of computing power, thereby a resource reduction or resource optimization of a data processing system to perform of the method allows becomes.

Gemäß einer vorteilhaften Ausgestaltung handelt es sich bei dem erfassten Bild um ein von einer elektronischen Kamera erfassten Bild, das elektronisch verarbeitbar ist. Insbesondere ist das erfasste Bild aus einzelnen Bildpunkten zusammengesetzt, welchen jeweilige Graustufenwerte zugeordnet sind.According to one advantageous embodiment, it is in the captured image an image captured by an electronic camera that is electronic is processable. In particular, the captured image is single Assembled pixels associated with each gray level values are.

Gemäß einer weiteren vorteilhaften Ausgestaltung werden Segmente in dem erfassten Bild festgelegt, bei denen die helligkeitsspezifischen Merkmale scharfe bzw. abrupte Helligkeitsübergänge, beispielsweise von Dunkel nach Hell oder von Hell nach Dunkel aufweisen. Derartige (scharfe) Helligkeitsübergänge finden sich beispielsweise in einem Gesicht eines Menschen, insbesondere beim Übergang von der Stirn zu den Augenbrauen oder (bei Menschen mit heller Haarfarbe) beim Übergang von der Stirn in den Schatten der Augenhöhlen. Derartige (scharfe) Helligkeitsübergänge finden sich jedoch auch beim Übergang von dem Oberlippenbereich bzw. Lippenbereich zur Mundöffnung oder von der Mundöffnung zum Lippenbereich der Unterlippe bzw. zum Unterlippenbereich. Ein weiterer Helligkeitsübergang stellt sich zwischen der Unterlippe und dem Kinnbereich, genauer gesagt als Schattenbereich (je nach Lichtverhältnis bzw. Lichteinfall) basierend auf einer leichten Vorwölbung der Unterlippe, ein. Wie es unten ausführlicher erläutert werden wird, ist es möglich, anhand dieser Helligkeitsübergänge bzw. anhand der positionsmäßigen Beziehung einer Auswahl der Helligkeitsübergänge auf das Vorhandensein eines menschlichen Gesichts bzw. insbesondere auf die Position einer Mundpartie zu schließen.According to one Another advantageous embodiment, segments are detected in the Image set in which the brightness-specific features sharp or abrupt brightness transitions, for example from dark to bright or from light to dark. such find (sharp) brightness transitions for example, in a human's face, in particular at the transition from the forehead to the eyebrows or (in people with light hair color) at the transition from the forehead in the shadow of the eye sockets. Find such (sharp) brightness transitions but also during the transition from the upper lip area or lip area to the mouth opening or from the mouth opening to the lip area of the lower lip or to the lower lip area. One further brightness transition stands between the lower lip and the chin area, more precisely said as a shadow area (depending on the light ratio or incidence of light) based on a slight protrusion the lower lip, a. As explained in more detail below it will be possible based on these brightness transitions or based on the positional relationship a selection of the brightness transitions the presence of a human face or in particular to close the position of an oral area.

Gemäß einer vorteilhaften Ausgestaltung umfasst der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Bearbeitung des Bilds mittels eines Gradientenfilters, insbesondere eines horizontalen Gradientenfilters, um insbesondere horizontale (scharfe) Helligkeitsübergänge, wie die an den Augenbrauen, an den Augen, oder an dem Mund sichtbar zu machen. Durch die Bearbeitung mittels des Gradientenfilters wird ein erstes bearbeitetes Bild erzeugt, bei dem am Ort eines Helligkeitsübergangs im erfassten Bild entsprechende Bildpunkte im ersten bearbeiteten Bild mit einem Graustufenwert vorgesehen werden, die von der Schärfe des Helligkeitsübergangs im erfassten Bild abhängen. Das bedeutet, bei einem Helligkeitsübergang innerhalb weniger Bildpunkte von einem niedrigen Helligkeitswert (niedriger Graustufenwert) zu einem hohen Helligkeitswert (hoher Graustufenwert) wird in dem ersten bearbeiteten Bild eine entsprechende Information eingetragen. Wird davon ausgegangen, dass das erste bearbeitete Bild in Form eines Graustufenbildes dargestellt wird, so können beispielsweise bei Verwendung eines positiven horizontalen Gradientenfilters, der von oben nach unten auf das erfasste Bild angewendet wird, Bereiche des Bilds, in denen keine Helligkeitsübergänge vorhanden sind, in mittleren Graustufenwerten dargestellt werden, während Hell-Dunkel-Übergänge (von oben nach unten) je nach Schärfe der Übergänge einen dementsprechend höheren Grauwert als den mittleren Grauwert erhalten und Dunkel-Hell-Übergänge (von oben nach unten) einen entsprechend niedrigeren Grauwert in Abhängigkeit der Schärfe des jeweiligen Übergangs erhalten.According to an advantageous embodiment, the step of defining segments in the acquired image comprises processing the image by means of a gradient filter, in particular a horizontal gradient filter, in particular horizontal (sharp) brightness transitions, such as those on the eyebrows, on the eyes, or on the mouth to make visible. The processing by means of the gradient filter produces a first processed image in which corresponding pixels in the first processed image with a grayscale value are provided at the location of a brightness transition in the acquired image, which depend on the sharpness of the brightness transition in the acquired image. This means that in the case of a brightness transition within a few pixels from a low brightness value (low gray scale value) to a high brightness value (high gray scale value), corresponding information is entered in the first processed image. It is assumed that the first edited image is displayed in the form of a grayscale image For example, when using a positive horizontal gradient filter applied from top to bottom to the captured image, areas of the image in which no brightness transitions are present can be represented in medium gray level values, while light to dark transitions (from above depending on the sharpness of the transitions, a correspondingly higher gray value than the average gray value is obtained, and dark-light transitions (from top to bottom) receive a correspondingly lower gray value as a function of the sharpness of the respective transition.

Gemäß einer weiteren vorteilhaften Ausgestaltung kann der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Binärisierungsbearbeitung des ersten bearbeiteten Bildes umfassen. Hierbei kann ein zweites bearbeitetes Bild erzeugt werden, bei den entsprechenden Bildpunkten, deren Graustufenwert einen ersten vorbestimmten Schwellenwert (welcher in Abhängigkeit der Helligkeit des erfassten Bildes gewählt wird) übersteigt, ein binärer "1"-Wert zugeordnet wird, während den übrigen Bildpunkten ein binärer "0"-Wert zugeordnet wird. Anders ausgedrückt, kann den Bildpunkten, deren Graustufenwert den vorbestimmten ersten Schwellenwert übersteigt, der Wert "weiß" zugeordnet werden, während den übrigen Bildpunkten der Wert "schwarz" zugeordnet wird. Somit sind in dem zweiten bearbeiteten Bild nur noch Helligkeitsübergänge mit einer bestimmten ausgeprägten Schärfe zu erkennen.According to one Further advantageous embodiment, the step of setting of segments in the captured image binarization processing of the first include processed image. This can be a second edited Image are generated at the corresponding pixels, their gray scale value a first predetermined threshold (which depends on the brightness of the captured image is selected) is assigned a binary "1" value while the remaining pixels a binary "0" value is assigned. In other words, can the pixels whose gray scale value exceeds the predetermined first threshold, the value "white" is assigned, while the rest Pixels the value "black" is assigned. Thus, in the second processed image only brightness transitions with a definite one sharpness to recognize.

Zusammenhängende Bildpunkte, denen ein Weiß-Wert zugeordnet ist, können als eine Einheit von Bildpunkten gesehen werden, die zur folgenden Auswertung in eine geometrische Form, wie beispielsweise ein Rechteck, eingeschrieben werden. Diese geometrische Form kann dann als ein festgelegtes Segment definiert werden. Da es notwendig ist, aus der in dem erfassten Bild erfassten Szene biometrische Merkmale, insbesondere ein Gesicht eines Menschen betreffend, herauszufiltern bzw. zu extrahieren, um auf das Vorhandensein eines menschlichen Gesichts schließen zu können, ist es vorteilhaft, bestimmte Bereiche bzw. Strukturen in dem erfassten Bild, die beispielsweise auf Grund ihrer Größe oder Form keine biometrischen Merkmale bezüglich eines Gesichts aufweisen, zu verwerfen.Related pixels, which is a white value is assigned are seen as a unit of pixels leading to the following evaluation in a geometric shape, such as a rectangle inscribed become. This geometric shape can then be considered a fixed segment To be defined. Since it is necessary from the recorded in the Image captured scene biometric features, especially a face concerning a human to filter or extract to be able to infer the presence of a human face is it is advantageous to include certain areas or structures in the Image, for example, due to their size or shape, no biometric Characteristics regarding of a face, discard.

Gemäß einer vorteilhaften Ausgestaltung werden dabei bestimmte Bereiche des zweiten bearbeiteten Bildes mit zusammenhängenden Bildpunkten auf Grund von vorbestimmten Parameteren bezüglich Größe und/oder Form der Bereich oder der diese einbeschreibenden geometrischen Form verworfen und insbesondere werden die den Bereichen zugeordneten Bildpunkte auf einen Schwarz-Wert gesetzt. Ein Kriterium bezüglich der Form von Bereichen zusammenhängender Bildpunkte mit einem Weiß-Wert kann beispielsweise sein, dass die Höhe dieses Bereichs bzw. dieser Struktur einen zu großen Wert im Gegensatz zur Breite der Struktur aufweist. Das bedeutet, das Verhältnis aus Höhe zu Breite ist zu groß. Eine derartige Festlegung wird deutlich, wenn – wie oben bereits erwähnt – Segmente anhand helligkeitsspezifischer Merkmale von horizontal verlaufenden Augenbrauen oder horizontal verlaufender Lippen- bzw. Mundpartien festgelegt werden. Das bedeutet wiederum, dass das zuvor erfasste Bild mit einer großen Anzahl von Bildpunkten auf nur noch eine geringe Anzahl von festgelegten Segmenten zurückgeführt wird, aus deren positionsmäßiger Beziehung zueinander nun das Vorhandensein und die Position eines Gesichts abgeleitet werden kann.According to one advantageous embodiment, certain areas of the second edited image with contiguous pixels based on of predetermined parameters regarding size and / or shape of the area or discarded this inscribing geometric shape and In particular, the pixels associated with the areas become set a black value. A criterion concerning the shape of areas related Pixels with a white value may be, for example, that the height of this area or this Structure too big a value in contrast to the width of the structure. That means that relationship from height too wide is too big. Such a determination becomes clear when - as mentioned above - segments based on brightness-specific features of horizontally extending Eyebrows or horizontally extending lips or mouth parts be determined. This in turn means that the previously captured Picture with a big one Number of pixels to only a small number of specified Segments is returned, from their positional relationship to each other now the presence and position of a face can be derived.

Gemäß einer vorteilhaften Ausgestaltung wird dabei in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem ersten Untersuchungsschritt entsprechend einem ersten Detektionsmechanismus jedes der festgelegten Segmente dahingehend untersucht, ob zu einem zu untersuchenden Segment ein zweites festgelegtes Segment existiert, das auf einer horizontalen Linie bzw. einer im Wesentlichen horizontal verlaufenden Linie zu dem gerade untersuchten festgelegten Segment liegt. Ausgehend von einem erfassten Bild, bestehend aus einer Mehrzahl von Bildpunkten muss das zweite Segment nicht unbedingt auf einer der von dem zu untersuchenden Segment umfassten wagrechten Linie an Bildpunkten liegen, es kann auch um einen vorbestimmten kleinen Betrag an Bildpunkten höher oder tiefer bezüglich der wagrechten oder horizontalen Line liegen. Wird ein zweites festgelegtes horizontales Segmente gefunden, so wird nach einem dritten festgelegten Segment gesucht, das sich unterhalb des untersuchten und des zweiten festgelegten Segments befindet und für das gilt, dass ein Abstand von dem untersuchten zu dem zweiten festgelegten Segment und ein Abstand einer Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment zu dem dritten festgelegten Segment ein erstes vorbestimmtes Verhältnis aufweist. Insbesondere kann eine Normale zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment definiert werden, wobei der Abstand von dem dritten Segment (entlang der Normalen) zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment in das erste vorbestimmte Verhältnis eingeht. Der Abstand zwischen den untersuchten und dem zweiten Segment kann derart definiert werden, dass der Abstand von einem jeweiligen Mittelpunkt der festgelegten Segmente verwendet wird. Insbesondere bei der Verwendung von Segmenten mit der geometrischen Form eines Rechtecks kann ein Mittelpunkt leicht bestimmt werden. Durch den gerade beschriebenen ersten Untersuchungsschritt kann somit auf das Vorhandensein eines Gesichts geschlossen werden, indem die positionsmäßige Beziehung zwischen drei festgelegten Segmenten ermittelt wird. Hierbei wird davon ausgegangen, dass das untersuchte und das zweite festgelegte Segment einen jeweiligen Augenbrauenabschnitt im Gesicht eines Menschen darstellt, der normalerweise einen markanten bzw. scharfen Hell-Dunkel-Helligkeitsübergang von oben nach unten aufweist und somit im zweiten bearbeiteten Bild gut erkennbar ist. Das dritte festgelegte Segment stellt ein Segment einer Mundpartie bzw. den zwischen Oberlippe und Unterlippe Schatten bildenden Grenzbereich dar. Es hat sich erwiesen, dass zur Bestimmung eines menschlichen Gesichts das erste vorbestimmte Verhältnis zwischen Abstand von untersuchten und zweiten festgelegten Segmenten zu dem Abstand der Verbindungsstrecke der beiden Segmente zu dem dritten festgelegten Segment mit einem Wert von 1:1 bis 1:1,7, insbesondere von 1:1,2 bis 1:1,5 vorteilhaft ist. Neben der Möglichkeit, Augenbrauen als markante Segmente mit helligkeitsspezifischen Merkmalen zu verwenden, ist es auch möglich, an Stelle der Augenbrauen Schatten bildende Bereiche der Augenhöhlen bzw. die Augen oder die Iris selbst zu verwenden.In accordance with an advantageous embodiment, in the step of checking the positional relationship in a first examination step corresponding to a first detection mechanism, each of the fixed segments is examined as to whether a second segment fixed to a segment to be examined exists on a horizontal line Substantially horizontal line to the currently examined fixed segment lies. Starting from a captured image consisting of a plurality of pixels, the second segment does not necessarily have to lie on one of the horizontal lines of pixels covered by the segment to be examined, it may also be a predetermined small amount of pixels higher or lower with respect to the horizontal or horizontal line lie. If a second fixed horizontal segment is found, a search is made for a third fixed segment located below the examined and second fixed segment and for which there is a distance from the examined to the second fixed segment and a distance of a link between the examined and the second fixed segment to the third fixed segment has a first predetermined ratio. In particular, a normal to the link between the examined and the second fixed segment can be defined, wherein the distance from the third segment (along the normal) to the link between the examined and the second fixed segment in the first predetermined ratio enters. The distance between the examined and the second segment may be defined such that the distance from a respective center of the fixed segments is used. In particular, when using segments with the geometric shape of a rectangle, a center point can be easily determined. The presence of a face can thus be concluded by the first examination step just described, by determining the positional relationship between three fixed segments. Herein, it is assumed that the examined and the second predetermined segment represent a respective eyebrow portion in the face of a human, which normally has a sharp chiaroscuro brightness transition from top to bottom and thus is easily recognizable in the second processed image. The third predetermined segment represents a segment of an oral region or the border area forming between the upper lip and lower lip. It has been found that, for the determination of a human face, the first predetermined relationship between the distance of the examined and second defined segments to the distance of the connecting path of the both segments to the third fixed segment with a value of 1: 1 to 1: 1.7, in particular from 1: 1.2 to 1: 1.5 is advantageous. In addition to the ability to use eyebrows as distinctive segments with brightness-specific features, it is also possible to use shadow-forming areas of the eye sockets instead of the eyebrows or the eyes or the iris itself.

Gemäß einer weiteren vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem zweiten Untersuchungsschritt (entsprechend einem zweiten Detektionsmechanismus) jedes der festgelegten Segmente dahingehend untersucht, ob zu diesem Segment ein viertes festgelegtes Segment existiert, das sich unterhalb, insbesondere entlang einer Vertikalen, dem untersuchten festgelegten Segment befindet und für das gilt, dass die horizontale Länge des untersuchten festgelegten Segments und der Abstand des vierten festgelegten Segments zum untersuchen festgelegten Segments ein zweites vorbestimmtes Verhältnis aufweisen. Dieser zweite Untersuchungsschritt geht dabei davon aus, dass insbesondere bei Personen, die eine Brille oder Sonnenbrille tragen, die einzelnen Augenbrauen nicht erkennbar sind, sondern dass auf Grund der starken Konturen der Brillen lediglich ein Segment bzw. eine Struktur erkennbar ist, die geometrisch der Länge der beiden Augenbrauen zusammen entspricht. Somit steht auch die Länge dieses die beiden Augenbrauen umfassenden Segments wieder in einem bestimmten Verhältnis zur Entfernung des Mundes im Gesicht des Benutzers. Werden somit zwei festgelegte Segmente erkannt, bei denen die Länge des ersten Segments zum Abstand des zweiten Segments ein zweites vorbestimmtes Verhältnis aufweist, so kann auch gemäß dem zweiten Untersuchungsschritt auf das Vorhandensein eines menschlichen Gesichts geschlossen werden. Als gültiger Bereich für das zweite vorbestimmte Verhältnis kann wieder ein Wert von 1:1 bis 1:1,7, aber insbesondere von 1:1,2 bis 1:1,5 angenommen werden.According to one Another advantageous embodiment is in the step of checking the positional relationship in a second examination step (corresponding to a second examination step) Detection mechanism) of each of the designated segments examines whether there is a fourth fixed segment to this segment exists below, especially along a vertical, the examined fixed segment and for which that the horizontal length of the examined fixed segment and the distance of the fourth specified Segments to examine fixed segment a second predetermined Ratio. This second investigation step assumes that in particular in individuals who wear glasses or sunglasses, the individual eyebrows are not recognizable, but that due to the strong contours the spectacles only one segment or structure is recognizable, the geometrical of the length the two eyebrows together corresponds. Thus stands also the Length of this the both eyebrows comprehensive segment again in a certain relationship to remove the mouth on the user's face. Become thus detected two specified segments, in which the length of the first segment to the distance of the second segment a second predetermined relationship may also according to the second examination step be closed to the presence of a human face. As valid Area for the second predetermined ratio can again a value of 1: 1 to 1: 1.7, but especially from 1: 1.2 to 1: 1.5 are accepted.

Gemäß einer vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung zunächst der erste Untersuchungsschritt durchgeführt, um insbesondere nach Gesichtern von Menschen zu suchen, die keine Brillenträger sind. Zeigt der erste Untersuchungsschritt kein Ergebnis, bei dem zu den jeweiligen untersuchten Segmenten kein zweites und drittes Segment gefunden worden ist, so wird im Folgenden der zweite Untersuchungsschritt durchgeführt. Es ist jedoch auch möglich, zunächst den zweiten und dann den ersten Untersuchungsschritt durchzuführen.According to one advantageous embodiment is in the step of checking the positional relationship first the first examination step carried out in particular for faces to look for people who are not wearing glasses. Shows the first examination step no result at which to the respective examined segments no second and third segment has been found, so in Following the second examination step performed. It but it is also possible first to carry out the second and then the first examination step.

Bei dem bisher beschriebenen Verfahren bzw. den vorteilhaften Ausgestaltungen hiervon wird insbesondere in dem ersten Untersuchungsschritt die positionsmäßige Beziehung dreier festgelegter Segmente zueinander bzw. ein erstes vorbestimmtes Verhältnis der Abstände der Segmente zueinander und wird bei dem zweiten Untersuchungsschritt die positionsmäßige Beziehung von (zwei) Segmenten in Abhängigkeit der Größe und/oder Form, insbesondere der (horizontalen) Länge, des ersten Segments als Kriterium zum Ableiten eines Vorhandenseins eines Gesichts in dem erfassten Bild einer Szene verwendet werden. Zur Verbesserung des Verfahrens, d. h. zur Erhöhung der Wahrscheinlichkeit, dass es sich tatsächlich um ein Gesicht handelt, kann gemäß einer weiteren vorteilhaften Ausgestaltung in einem weiteren Verfahrensschritt ein Extrahieren biometrischer Merkmale bezüglich der Mundpartie oder Lippenpartie aus einem Analysebereich um ein gefundenes drittes oder viertes festgelegtes Segment durchgeführt werden. Das bedeutet, es sollen in diesem zusätzlichen Schritt weitere Untersuchungen durchgeführt werden, ob das einen Mundbereich repräsentierende dritte oder vierte festgelegte Segment tatsächlich einen Mundbereich bzw. eine Mundpartie repräsentiert. Dabei können in dem erfassten Bild in einem Bereich, der sich an der Position des dritten oder des vierten festgelegten Segments befindet und das jeweilige Segment umfasst, Hell-Dunkel- und Dunkel-Hell-Helligkeitsübergänge bestimmt werden, um das Vorhandensein einer Oberlippe und Unterlippe einer Mundpartie abzuleiten. Vorteilhafter Weise wird dabei der Analysebereich des erfassten Bildes, der Bereich mit der vermuteten Mundpartie, einer Bearbeitung mit einem horizontal orientierten Gradientenfilter unterzogen, um ein drittes bearbeitetes Bild zu erhalten. Das dritte bearbeitete Bild, von oben nach unten betrachtet, kann dann entsprechend dem ersten bearbeiteten Bild eine scharfen Hell-Dunkel-übergang vom Oberlippenbereich zum "Zwischenlippenbereich" bzw. zum Mundöffnungsbereich darstellen, wobei anhand dieses Übergangs auf die Form der Oberlippe geschlossen werden kann. Diese ermittelte Form kann einem ersten Prüfschritt unterzogen werden, der anhand der Form der Oberlippenlinie feststellen soll, ob es sich tatsächlich um eine Oberlippe oder irgendeine andere Struktur handelt. Weist die Oberlippe für sie spezifische geometrische Eigenschaften auf, wie beispielsweise eine bestimmte (horizontale) Länge oder eine bzw. mehrere spezifische Krümmungen, so kann zunächst auf das tatsächliche Vorhandensein einer Mundpartie und somit auch auf das Vorhandensein eines Gesichts eines Menschen geschlossen werden. Somit kann das oben beschriebene Verfahren einschließlich dessen vorteilhafter Ausgestaltungen, bei dem bzw. denen anhand der positionsmäßigen Beziehung verschiedener festgelegter Segmente auf das Vorhandensein eines Gesichts geschlossen wird, durch eine Merkmalsextraktion, in diesem Fall der Extraktion geometrischer Eigenschaften der Oberlippe in dem ersten Prüfschritt, verbessert werden. Das bedeutet, dass nach diesem ersten Abschnitt der Merkmalsextraktion im Rahmen des ersten Prüfschritts schon die Wahrscheinlichkeit erhöht werden kann, dass es sich bei dem dritten oder vierten festgelegten Segment bzw. bei dem Analysebereich um einen Bildbereich handelt, in dem sich eine Mundpartie eines Gesichts befindet.In the method and the advantageous embodiments thereof described above, in particular in the first examination step, the positional relationship of three fixed segments to each other or a first predetermined ratio of the distances of the segments to each other and is in the second examination step, the positional relationship of (two) segments in Depending on the size and / or shape, in particular the (horizontal) length, the first segment can be used as a criterion for deriving a presence of a face in the captured image of a scene. In order to improve the method, ie to increase the probability that it is actually a face, according to a further advantageous embodiment, in a further method step, extracting biometric features with respect to the mouth or lip from an analysis area around a found third or fourth fixed segment be performed. This means that in this additional step further investigations are to be carried out as to whether the third or fourth fixed segment representing a mouth region actually represents a mouth region or an oral region. In this case, light-dark and dark-bright-brightness transitions can be determined in the detected image in an area located at the position of the third or the fourth fixed segment and the respective segment, in order to detect the presence of an upper lip and lower lip of a Derive mouth. Advantageously, the analysis region of the acquired image, the region with the presumed mouth part, is subjected to processing with a horizontally oriented gradient filter in order to obtain a third processed image. The third processed image, viewed from top to bottom, can then represent a sharp light-dark transition from the upper lip region to the "intermediate lip region" or the mouth opening region according to the first processed image, it being possible to deduce the shape of the upper lip from this transition. This determined shape can be subjected to a first test step, which is to determine whether it is actually an upper lip or any other structure based on the shape of the upper lip line. Does the upper lip have specific geometric properties for it, such as a certain (horizontal) length or one or more specific curvatures, it can be concluded first on the actual presence of an oral area and thus also on the presence of a human's face. Thus, the method described above, including its advantageous embodiments, which conclude the presence of a face from the positional relationship of various defined segments, can be improved by feature extraction, in this case the extraction of geometric properties of the upper lip in the first test step become. This means that after this first section of the feature extraction in the first checking step, the probability can already be increased that the third or fourth fixed segment or the analysis area is an image area in which a mouth part of a face is located ,

Erfüllen die bestimmten geometrischen Eigenschaften (beispielsweise bezüglich Länge bzw. Krümmung) die für eine Oberlippe spezifischen Kriterien, so kann die Merkmalsextraktion in einen zweiten Extraktionsabschnitt bzw. einen zweiten Prüfschritt übergehen, in dem nun eine Unterlippe bzw. Unterlippenlinie extrahiert werden soll. Eine Unterlippe kann beispielsweise mittels eines vertikalen Such-Algorithmus erkannt bzw. extrahiert werden, bei dem im Analysebereich zunächst die Graustufenwerte der Oberlippe ermittelt werden und dann entsprechende Graustufenwerte in einem Abschnitt gesucht werden, der sich in vertikaler Richtung unterhalb dem Bereich der Oberlippe befindet. Auf diese Weise ist es möglich, sehr helle Bereiche, wie beispielsweise die Zähne, sowie sehr dunkle Bereiche, wie beispielsweise den Rachenbereich, zu überspringen und einen bezüglich der Helligkeit der Oberlippe als Unterlippe zu identifizieren. Eine weitere Möglichkeit, die Unterlippe zu extrahieren, beruht auf der Tatsache, dass bei entsprechend großer Wahl des Analysebereichs, bei der ein Teil des Kinnbereichs mit enthalten ist, insbesondere in dem dritten bearbeiteten Bild von unten nach oben betrachtet, ein dunkler Bereich (Schattenbereich) unterhalb der Unterlippe erkennbar ist, der darauf beruht, dass die Unterlippe normaler Weise bezüglich des Gesichts um einen kleinen Betrag nach vorne gekrümmt ist. Somit kann gemäß diesem Verfahren anhand des untersten und markantesten Helligkeitsübergangs von Dunkel nach Hell von unten nach oben betrachtet, auf die Unterlippe bzw. Unterlippenlinie geschlossen werden.Fulfill the certain geometric properties (for example, in terms of length or curvature) the for one Upper lip specific criteria, so can the feature extraction proceed to a second extraction section or a second checking step, in which now a lower lip or lower lip line are extracted should. A lower lip, for example, by means of a vertical Search algorithm be recognized or extracted, in the analysis area first the Grayscale values of the upper lip are determined and then corresponding gray scale values to be searched in a section that is vertical located below the area of the upper lip. That way is it is possible very bright areas, such as the teeth, as well as very dark areas, such as the throat area, to skip and one regarding the To identify the upper lip as a lower lip. A another possibility extracting the lower lip, based on the fact that when appropriate greater Choice of analysis area where part of the chin area is with is included, especially in the third edited image of viewed down to the top, a dark area (shadow area) below the lower lip, which is based on the fact that the lower lip normal to the face by one small amount curved forward is. Thus, according to this method based on the lowest and most striking brightness transition viewed from dark to bright from bottom to top, on the lower lip or lower lip line are closed.

Sind nun Oberlippe und Unterlippe identifiziert, so ist es nun möglich, Viseme bzw. Mundmerkmale zu extrahieren, indem die geometrischen Eigenschaften der Oberlippe und Unterlippe getrennt untersucht werden. are now identified upper lip and lower lip, so it is now possible viseme or extract oral characteristics by the geometric properties the upper lip and lower lip are examined separately.

Es kann somit zusammenfassend gesagt werden, dass ein Verfahren gemäß der vorliegenden Erfindung es zunächst erlaubt, anhand eines Bildes in einem Durchlauf helligkeitsspezifische Segmente festzulegen, um bei der Überprüfung derer positionsmäßigen Beziehung auf das Vorhandensein und die Position eines (menschlichen) Gesichts zu schließen.It It can thus be said in summary that a method according to the present invention it first allows, based on an image in a single pass, brightness-specific Segments to determine when checking their positional relationship on the presence and position of a (human) face close.

Ein Programmprodukt für eine Datenverarbeitungsanlage, das Codeabschnitte enthält, mit denen eines der geschilderten Verfahren auf der Datenverarbeitungsanlage ausgeführt werden kann, lässt sich durch geeignete Implementierung des Verfahrens in einer Programmiersprache und Übersetzung in von der Datenverarbeitungsanlage ausführbaren Code ausführen. Die Codeabschnitte werden dazu gespeichert. Dabei wird unter einem Programmprodukt das Programm als handelbares Produkt verstanden. Es kann in beliebiger Form vorliegen, so zum Beispiel auf Papier, einem computerlesbaren Datenträger oder über ein Netz verteilt.One Program product for a data processing system containing code sections, with one of the described methods on the data processing system accomplished can be, can be by suitable implementation of the method in a programming language and translation in execute executable code from the data processing system. The Code sections are stored for this purpose. It is under a program product understood the program as a tradable product. It can be in any Form, for example, on paper, a computer-readable medium or via a Network distributed.

Weitere Vorteile und Merkmale der Erfindung ergeben sich aus der Beschreibung eines Ausführungsbeispiels anhand der Zeichnung. Dabei zeigt:Further Advantages and features of the invention will become apparent from the description an embodiment based on the drawing. Showing:

1 einen Benutzer mit einem mobilen Endgerät; 1 a user with a mobile terminal;

2 eine grafische Benutzerschnittstelle mit Steuerung eines Selektionsmittels durch eine Bewegung des Kopfes des Benutzers; 2 a graphical user interface with control of a selection means by a movement of the user's head;

3 eine Darstellung eines Selektionsmittels als Mauszeiger; 3 a representation of a selection agent as a mouse pointer;

4 eine schematische Anordnung der wesentlichen Komponenten zur Analyse eines Bildes eines Gesichts gemäß einer bevorzugten Ausführungsform; 4 a schematic arrangement of the essential components for analyzing an image of a face according to a preferred embodiment;

5 eine schematische Anordnung der Verfahrensschritte gemäß einem primären Detektionsmechanismus zum Auffinden eines Gesichts, insbesondere einer Mundpartie, in einem Bild; 5 a schematic arrangement of the method steps according to a primary detection mechanism for finding a face, in particular an oral area, in an image;

6 ein Bild eines Benutzers im Rohzustand und nach zwei bestimmten Verarbeitungsschritten; 6 an image of a user in the raw state and after two specific processing steps;

7 ein Bild eines Benutzers mit einem markierten Segment eines Mundbereichs; 7 an image of a user with a marked segment of a mouth area;

8 eine vergrößerte Ansicht des in 5 dargestellten Mundbereichs mit markierten Oberlippen- und Unterlippenlinien; 8th an enlarged view of the in 5 illustrated mouth area with marked upper lip and lower lip lines;

9 ein Bild eines Benutzers im Rohzustand und nach einer Mehrzahl von Verarbeitungsschritten. 9 a picture of a user in raw and after a plurality of processing steps.

Der Einzug von Kamerafunktionalitäten in mobile Endgeräte der dritten Generation erlaubt neue Wege der Interaktion mit den Geräten. Mittels Gesichtsdetektion und -tracking kann die von der Kamera aufgezeichnete Bewegung des Benutzers direkt in Bewegungsdaten umgesetzt werden. Diese Bewegungsdaten können derart ausgewertet werden, dass die als Positionierung für die Selektion von auf einer grafischen Benutzerschnittstelle dargestellten Buttons verwendet werden.Of the Collection of camera functionalities into mobile devices The third generation allows new ways of interacting with the Devices. Using face detection and tracking can be done by the camera recorded movement of the user translated directly into motion data become. This movement data can be evaluated in such a way that as a positioning for the selection of buttons displayed on a graphical user interface be used.

Wie in den 1 und 2 gezeigt, kann durch leichte Bewegung eines mobilen Endgerätes 1 und/oder des Kopfes 2 eines Benutzers 3 ein Selektionsmittel (Selektionsmarke) zu einem gewünschten Button bewegt werden. Im dargestellten Ausführungsbeispiel ist dies der Button 9 auf der grafischen Benutzerschnittstelle 4. Dann kann entweder per akustischer Eingabe, insbesondere Spracheingabe, "Ja", Pfiff, Zungenschnalzen, per optischer Eingabe, insbesondere Augenzwinkern, öffnen des Mundes, per Druck auf eine Taste oder per Verweilen des Selektionsmittels auf dem selektierten Objekt in Form des Buttons 9 die zu diesem Objekt gehörige Funktion des mobilen Endgeräts ausgelöst werden.As in the 1 and 2 can be shown by slight movement of a mobile device 1 and / or the head 2 a user 3 a selection means (selection mark) are moved to a desired button. In the illustrated embodiment, this is the button 9 on the graphical user interface 4 , Then either by acoustic input, in particular speech input, "yes", whistle, tongue clicks, by optical input, in particular winking, opening the mouth, by pressing a button or by pausing the selection means on the selected object in the form of the button 9 the function of the mobile terminal belonging to this object is triggered.

Das Selektionsmittel 5 und damit seine Position auf der grafischen Benutzeroberfläche 4 kann auch wie in 3 dargestellt optisch, insbesondere in Form eines Mauszeigers, ausgegeben werden. Der Mauszeiger wird dabei, analog zu optischen Mäusen, durch die Bewegung des Gerätes angetriggert und wird entsprechend der erkannten Bewegungsabschätzung bewegt. Dabei wird die Mauszeigerbewegung nicht mehr wie bei einer optischen Maus über die relative Bewegung zur zugrunde liegenden Oberfläche gemessen und berechnet, sondern aus der relativen Bewegung des mobilen Endgerätes zum Benutzer. Eine intuitive Bedienung ist dabei durch das bei dem Benutzer bereits bekannte Mauskonzept gegeben.The selection agent 5 and thus its position on the graphical user interface 4 can also be like in 3 shown optically, in particular in the form of a mouse pointer, are output. The mouse pointer is thereby, analogous to optical mice, triggered by the movement of the device and is moved according to the detected motion estimation. In this case, the mouse pointer movement is no longer measured and calculated as with an optical mouse via the relative movement to the underlying surface, but from the relative movement of the mobile terminal to the user. Intuitive operation is provided by the already familiar with the user mouse concept.

Dadurch kann bei mobilen Endgeräten, insbesondere bei mobilen Endgeräten mit weniger als 24 oder weniger als 10 Tasten, bei Mobiltelefonen und/oder bei PDAs, mit Kamerafunktionalität eine sehr komfortable Einhandbedienung ohne zusätzliche Hardware realisiert werden. Bei der Realisierung als bewegter Mauszeiger kann der Benutzer das ihm bekannte Bedienkonzept der Maus auf die Bewegung seines Endgeräts übertragen.Thereby can be used on mobile devices, especially with mobile devices with less than 24 or less than 10 buttons, with mobile phones and / or for PDAs, with camera functionality a very comfortable one-hand operation realized without additional hardware become. When implemented as a moving mouse pointer, the user can the familiar operating concept of the mouse on the movement of his Transfer terminal.

Es können weiterhin Stabilisierungsverfahren zur fließenden Bewegung des Mauszeigers bzw. der Button-Auswahl verwendet werden.It can Continue stabilization method for smooth movement of the mouse pointer or the button selection.

Zum optischen Feedback kann entweder das Bild des Kopfs 2 des Benutzers wie in 2 dargestellt, eingespielt werden, oder das Verfahren kann wie in 3 dargestellt ohne Bild-Einspielung eingesetzt werden.For visual feedback, either the image of the head 2 the user as in 2 can be played, recorded, or the method can be as in 3 shown without image recording.

Für eine Bedienung in dunkler Umgebung kann das mobile Endgerät mit Beleuchtungseinrichtungen wie beispielsweise Infrarotleuchtdioden ausgestattet werden.For a service in dark surroundings, the mobile terminal can use lighting devices such as infrared light emitting diodes are equipped.

Das mobile Endgerät und das vorgeschlagene Verfahren können in vielfältiger Weise eingesetzt bzw. angewendet werden. Dazu gehört eine Eingabe von Telefonnummern, bei entsprechender Größe der Anzeige bzw. einem Softscrolling auch eine Auswahl von Buchstaben oder Sonderzeichen, beispielsweise für SMS, eine Menüsteuerung des Gerätes und/oder eine Applikationssteuerung.The mobile terminal and the proposed method can be used in a variety of ways used or applied. This includes entering phone numbers, with appropriate size of the ad or a soft-scrolling also a selection of letters or special characters, for example SMS, a menu control of the device and / or an application control.

Zum Messen der Relativbewegung, also zur Lokalisation des Benutzers bzw. seines Gesichts gegenüber dem Endgerät, kann das im Folgenden beschriebene Verfahren verwendet werden.To the Measuring the relative movement, ie the localization of the user or his face the terminal, For example, the method described below can be used.

Es sei dabei zunächst auf 4 verwiesen, in der eine schematische Darstellung der im mobilen Endgerät enthaltenen Komponenten bzw. Mechanismen zum Erfassen und Analysieren eines Bildes dargestellt sind. Wie in 4 zu erkennen ist, ist dabei eine Kamera K als optischer Sensor vorgesehen, die in der Lage ist, eine Szene (eine reelle Umgebung mit bestimmten Sachen und/oder Personen) zu erfassen. Die Kamera kann dabei beispielsweise als eine CCD-Kamera ausgebildet sein. Die Kamera K ist mit einem optischen Auswerteabschnitt OAA verbunden, in dem verschiedene Mechanismen bzw. Verfahren zur Analyse der von der Kamera erfassten Szene ablaufen können. Der optische Auswerteabschnitt OAA ist dabei in der Lage, einen ersten oder primären Detektionsmechanismus PLD zum Auffinden eines Gesichts bzw. einer Mundpartie in dem erfassten Bild der Szene durchzuführen. Entsprechend kann der optische Auswerteabschnitt einen alternativen oder zusätzlichen zweiten bzw. sekundären Detektionsmechanismus SLD zum Auffinden eines Gesichts bzw. einer Mundpartie durchführen. Nach gefundener Position des Gesichts gemäß dem primären oder sekundären Detektionsmechanismus kann mittels einer Merkmalsextraktion ME zum Einen eine verbesserte Plausibilitätsüberprüfung durchgeführt werden, ob es sich tatsächlich um das gefundene Gesicht, insbesondere seine Mundparite, handelt. Die aus den Mechanismen PLD, SLD und ME gewonnenen Ergebnisse, nämlich dass in dem Bild ein Gesicht einer Person bzw. eine Mundpartie vorhanden ist, können in eine Steuereinrichtung SE weitergeleitet werden.First, be on it 4 referenced, in which a schematic representation of the components contained in the mobile terminal or mechanisms for detecting and analyzing an image are shown. As in 4 can be seen, a camera K is provided as an optical sensor, which is able to capture a scene (a real environment with certain things and / or people). The camera can be designed, for example, as a CCD camera. The camera K is connected to an optical evaluation section OAA, in which various mechanisms or methods for analyzing the scene detected by the camera can take place. The optical evaluation section OAA is capable of performing a first or primary detection mechanism PLD for finding a face or mouth part in the captured image of the scene. Accordingly, the optical evaluation section can perform an alternative or additional second or secondary detection mechanism SLD for finding a face or an oral area. After finding the position of the face according to the primary or secondary detection mechanism, an improved plausibility check can be carried out by means of a feature extraction ME, whether it is actually the face found, in particular its mouthparts. The results obtained from the mechanisms PLD, SLD and ME, namely that a face of a person or an oral area is present in the image, can be forwarded to a control device SE.

Für den Fall der im folgenden erläuterten bevorzugten Ausführungsform sind die in 4 dargestellten Komponenten in einer Datenverarbeitungsanlage in Form eines Mobiltelefons (es sind natürlich auch andere Realisierungen einer Datenverarbeitungsanlage möglich, in denen die in 4 dargestellten Komponenten vorgesehen werden können) angeordnet, wobei die Kamera K fest im Mobiltelefon integriert sein kann oder als auswechselbare Peripheriekomponente vorgesehen sein kann. Gerade in zumeist kleinen mobilen Geräten wie den Mobiltelefonen, ist es wichtig, dass Anwendungen, wie die im Folgenden beschriebenen Analyse einer Szene, ressourcensparende Algorithmen aufweist, die hinsichtlich des Speicherbedarfs, so wie der Rechenzeit bzw. Rechenleistung minimiert sind, um die Ressourcen der Geräte möglichst auszunutzen, ohne aber einen zusätzlichen Prozessor- oder Speicherausbau notwendig zu machen.In the case of the preferred embodiment explained below, the in 4 Darge presented components in a data processing system in the form of a mobile phone (of course, other implementations of a data processing system are possible in which the in 4 components can be provided), wherein the camera K can be permanently integrated in the mobile phone or can be provided as a replaceable peripheral component. Especially in small mobile devices such as mobile phones, it is important that applications, such as the analysis of a scene described below, resource-saving algorithms, which are minimized in terms of memory requirements, such as the computational power, the resources of the devices to make the most possible use, but without necessitating additional processor or memory expansion.

Im Folgenden sollen nun die in dem optischen Auswerteabschnitt OAA durchführbaren Mechanismen bzw. einzelnen Verfahren ausführlich dargestellt werden.in the The following will now be in the optical evaluation section OAA feasible Mechanisms or individual procedures are presented in detail.

Primärer DetektionsmechanismusPrimary detection mechanism

Es sei nun auf 5 verwiesen, in der eine schematisch Darstellung der Komponenten bzw. einzelnen Verfahrensschritte zum Realisieren des primären Detektionsmechanismus gezeigt sind. Ein von der Kamera K erfasstes Bild wird zunächst einer optionalen Bildkontrastverbesserung BKV durch einen histogramm-basierten Graustufenausgleich (Histogram Equalization) je KV der einzelnen Bildpunkte des erfassten Bild zugeführt wird. Das so mit dem Kontrast verbesserte erfasste Bild wird dann einer Bearbeitung durch einen horizontal orientierten positiven Gradientenfilter GF zugeführt, mittels der helligkeitsspezifische horizontale Konturen, d.h. markante bzw. scharfe Hell-Dunkel-Übergänge oder Dunkel-Hell-Übergänge extrahiert werden können. Das so erhaltene erste bearbeitete Bild wird einem Segmentationsalgorithmus SA zugeführt, in dem allen Bildpunkten mit einem Grauwert über einen bestimmten Schwellenwert der Graustufenwert "weiß" zugeordnet wird, während den übrigen Bildpunkten der Graustufenwert "schwarz" zugeordnet wird. Auf diese Weise können beispielsweise nur bestimmte scharfe horizontale Hell-Dunkel-Übergänge sichtbar gemacht werden. In einem derartigen erhaltenen zweiten bearbeiteten Bild können die nun verbliebenen "weißen" Bereiche bezüglich ihrer Fläche, Position oder Geometrie untersucht werden. Die in dem Segmentationsalgorithmus SA festgelegten Segmente können dann einen ersten Untersuchungsschritt US1 unterzogen werden, indem anhand der positionsmäßigen Beziehung entsprechender festgelegter Segmente bzw. anhand der positionsmäßigen Beziehung und der Form oder Ausdehnung der Segmente unter Einbeziehung biogeometrischer Kriterien für ein Gesicht auf das Vorhandensein eines Gesichts und auf die Position des Gesichts bzw. der entsprechenden Mundpartie geschlossen werden kann.It is now up 5 referenced, in which a schematic representation of the components or individual method steps for realizing the primary detection mechanism are shown. An image captured by the camera K is first supplied to an optional image contrast enhancement BKV by a histogram-based Histogram Equalization per KV of the individual pixels of the captured image. The image thus improved with the contrast is then fed to a processing by a horizontally oriented positive gradient filter GF, by means of which brightness-specific horizontal contours, ie sharp chiaroscuro transitions or dark-light transitions can be extracted. The first processed image thus obtained is fed to a segmentation algorithm SA, in which all pixels with a gray value above a certain threshold are assigned the gray scale value "white", while the remaining pixels are assigned the gray scale value "black". In this way, for example, only certain sharp horizontal chiaroscuro transitions can be made visible. In such a second processed image obtained, the remaining "white" regions can be examined for their area, position or geometry. The segments defined in the segmentation algorithm SA can then be subjected to a first examination step US1 by determining the presence of a face and the basis of the positional relationship of corresponding defined segments or the positional relationship and the shape or extent of the segments, including biogeometric criteria for a face on the position of the face or the corresponding mouth can be closed.

Ein derart beschriebener primärer Detektionsmechanismus soll nun anhand der 6A bis 6C ausführlich dargestellt werden. Dabei ist zunächst in 4A das von der Kamera erfasste Bild des Benutzers in einem Fahrzeug dargestellt, das als Graustufenbild vorliegt, d. h. das Bild besteht aus einzelnen Bildpunkten, denen ein jeweiliger bestimmter Graustufenwert zugeordnet ist. Das optional einer Bildkontrastverbesserung BKV (vgl. 5) unterzogene erfasste Bild wird dann einer Bearbeitung durch einen horizontal orientierten positiven Gradientenfilter unterzogen, um horizontale Strukturen, d. h. markante Helligkeitsübergänge, zu ermitteln. Ein derart (erstes) bearbeitetes Bild ist in 6B zu sehen, bei dem Hell-Dunkel-Übergänge von oben nach unten betrachtet, ausgehend von einem mittleren Graustufenwert, entsprechend der Schärfe des Übergangs zu einem erhöhten Graustufenwert (in Richtung "weiß") übergehen, während Dunkel-Hell-Helligkeitsübergänge von oben nach unten betrachtet, ausgehend von einem mittleren Graustufenwert in einen geringeren Graustufenwert (in Richtung "schwarz") übergehen. Durch Anwenden einer Schwellwertbildung (wobei der Schwellwert in Abhängigkeit der Helligkeit des erfassten Bildes gewählt wird, beispielsweise anhand einer Histogrammdarstellung der Graustufenwerte der einzelnen Bildpunkte in dem erfassten Bild) werden Bildpunkten, deren Graustufenwert über dem helligkeitsabhängigen Schwellwert liegt, der Wert "weiß" zugeordnet, während den anderen Bildpunkten der Wert "schwarz" zugeordnet wird. Auf diese Weise können in einem (zweiten) bearbeiteten Bild eine Großzahl für die Analyse der Szene unwichtiger Details entfernt werden. In dem Segmentationsalgorithmus SA können ferner nun erhaltene weiße Bereiche entfernt werden, deren Größe oder Form nicht bestimmten Kriterien, insbesondere biogeometrischen Kriterien bezüglich eines Gesichts entsprechen. Nach Verwerfen dieser zu kleinen bzw. zu großen weißen Bereiche oder in der Form nicht relevanten Bereiche und durch Zuordnen des Werts "schwarz" den entsprechenden Bildpunkten werden die eigentlichen für die spätere Untersuchung relevanten Segmente festgelegt. Zur besseren Analyse werden diese Segmente in Rechtecke einbeschrieben, wie es in 6C zu erkennen ist. In dem ersten Untersuchungsschritt US1 werden nun die festgelegten noch verbliebenen Segmente der Reihe nach auf ihre geometrische bzw. positionsmäßige Beziehung zueinander untersucht. Die Untersuchung basiert darauf, dass zu zwei horizontal zueinander angeordneten Segmenten, die die Augenbrauen (vgl. die Augenbrauenbereiche ABB in 4A, 4B) oder Brillenkonturen in einem Gesicht eines Menschen darstellen können, ein drittes unterhalb diesen ersten beiden Segmenten liegendes Segment gesucht wird, das einem möglichen Mundsegment (vgl. den Mundbereich MB in 6A, 6B) basierend auf dem Helligkeitsübergang von dem Oberlippenbereich in den Zwischenlippenbereich entspricht. Sind dabei ein erstes und ein zweites horizontal zueinander liegendes Segment gefunden, wie die Segmente S1 und S2, so wird deren Abstand zueinander, in diesem Fall der Abstand b, ausgehend von den jeweiligen Mittelpunkten der Segmente bestimmt. Anschließend wird unterhalb der beiden Segmente S1 und S2 ein drittes Segment gesucht, dessen Abstand, der Abstand a, zu den ersten beiden Segmenten bzw. einer Verbindungslinie hiervon in einem ersten biogeometrischen Verhältnis bezüglich eines menschlichen Gesichts stehen. Ein derartiges Verhältnis von a zu b kann einen Wert zwischen 1,0:1 bis 1,7:1, jedoch insbesondere einen Wert von 1,2:1 bis 1,5:1 aufweisen. Je nach Verwendung des Gültigkeitsbereichs für das erste Verhältnis von a zu b, könnten in 6C das Segment S3 und S4 als mögliches drittes Segment (potenzielles Mundsegment) in Frage kommen. Gemäß einer vorteilhaften Ausgestaltung kann daher in diesem Fall noch nach einem vierten relevanten Segment gesucht werden, das sich unmittelbar unterhalb des dritten Segments befindet. Basierend auf der Tatsache, dass im Normalfall die Unterlippe eines Mundsegments leicht nach vorne bezüglich des Gesichts gekrümmt ist und somit unterhalb der Unterlippe ein Schattenbereich entsteht, kann dieser Schattenbereich bei einer Art Plausibilitätsprüfung als viertes Segment, das sich unmittelbar unterhalb des dritten Segments befinden muss, dienen. Auf Grund dieser Überprüfung kann dann das Segment S4 als potenzielles Mundsegment identifiziert werden, wobei das Segment S5 den Schatten unterhalb der Unterlippe darstellt. Nun wird ein Bereich in dem erfassten Bild von 6A gespeichert, der den als potenzielles Mundsegment identifizierten Bereich (Segment S4) in Größe und Position entspricht. Dieser Bereich, der später als Analysebereich bezeichnet wird, wird für die folgende Merkmalsextraktion verwendet.Such a described primary detection mechanism will now be described with reference to 6A to 6C be presented in detail. It is first in 4A the image captured by the camera of the user in a vehicle, which is present as a gray scale image, that is, the image consists of individual pixels, which is assigned a respective specific gray level value. The optional image contrast enhancement BKV (cf. 5 ) is then subjected to a processing by a horizontally oriented positive gradient filter to determine horizontal structures, ie significant brightness transitions. Such a (first) processed image is in 6B seen in which light-dark transitions viewed from top to bottom, starting from an average gray scale value, according to the sharpness of the transition to an increased gray scale value (toward "white") transition, while dark-bright-brightness transitions from top to bottom starting from a middle grayscale value into a lower grayscale value (towards "black"). By applying thresholding (where the threshold value is selected as a function of the brightness of the captured image, for example based on a histogram representation of the gray scale values of the individual pixels in the acquired image), pixels whose gray scale value is above the brightness-dependent threshold are assigned the value "white", while the other pixels are assigned the value "black". In this way, a large number of unimportant details can be removed in a (second) edited image. Furthermore, in the segmentation algorithm SA now obtained white areas can be removed whose size or shape does not correspond to specific criteria, in particular biogeometric criteria with respect to a face. After discarding these too small or too large white areas or areas not relevant in the form and by assigning the value "black" to the corresponding pixels, the actual segments relevant for the later examination are determined. For better analysis, these segments are inscribed in rectangles, as in 6C can be seen. In the first examination step US1, the defined remaining segments are examined in sequence for their geometric or positional relationship to one another. The investigation is based on the fact that the two eyebrows (see the eyebrow areas ABB in 4A . 4B ) or eyeglass contours in a human face, a third segment located below these first two segments is sought, which corresponds to a possible oral segment (cf. area MB in 6A . 6B ) based on the brightness transition from the upper lip region to the intermediate lip region. If a first and a second horizontally lying segment are found, such as the segments S1 and S2, their distance from one another, in this case the distance b, is determined starting from the respective center points of the segments. Subsequently, below the two segments S1 and S2, a third segment is searched whose distance, the distance a, to the first two segments or a connecting line thereof is in a first biogeometric relationship with respect to a human face. Such a ratio of a to b may have a value between 1.0: 1 to 1.7: 1, but in particular a value of 1.2: 1 to 1.5: 1. Depending on the scope of use for the first ratio of a to b, in 6C the segment S3 and S4 may be considered as a possible third segment (potential oral segment). According to an advantageous embodiment, therefore, in this case it is still possible to search for a fourth relevant segment, which is located immediately below the third segment. Based on the fact that under normal circumstances, the lower lip of a mouth segment is curved slightly forward with respect to the face and thus creates a shadow area below the lower lip, this shadow area may, in the case of a kind of plausibility check, be a fourth segment which must be located immediately below the third segment. serve. Based on this review, segment S4 can then be identified as a potential oral segment, with segment S5 representing the shadow below the lower lip. Now, an area in the captured image of 6A stored, which corresponds to the area identified as a potential oral segment (segment S4) in size and position. This area, which will be referred to as the analysis area, will be used for the following feature extraction.

Es sei bemerkt, dass der gesamte Vorgang des primären Detektionsmechanismus, wie er gerade beschrieben worden ist, in einem einzigen Durchgang durchgeführt werden kann, wobei am Ende des Durchgangs das ursprünglich erfasste Bild verworfen werden kann und nur noch die gespeicherten Bildpunktdaten des Analysebereich benötigt werden. Wie es ferner zu erkennen ist, werden innerhalb dieses einzigen Durchlaufs die Bilddaten des erfassten Bildes mit sehr einfachen Algorithmen erheblich verringert, was der Anforderung nach Minimierung des Speicherbedarfs, Rechenzeit und Durchlaufzeit Rechnung trägt.It It should be noted that the entire process of the primary detection mechanism, as just described, in a single pass carried out which at the end of the passage is the one originally recorded Image can be discarded and only the stored pixel data of the analysis area needed become. As will be further appreciated, within this single pass the image data of the captured image with very simple algorithms significantly reduced the requirement for minimizing memory footprint, Calculation time and lead time.

Merkmalsextraktionfeature extraction

Die nun folgende Merkmalsextraktion dient beispielsweise der Plausibilitätsprüfung, ob in dem gefundenen Analysebereich wirklich ein Gesicht mit Mundpartie bzw. Lippen vorliegt. Zunächst sei auf 7 verwiesen, in der nochmals die von der Kamera K in 5 erfasste Szene entsprechend 6A dargestellt ist, wobei der nun im Folgenden zu analysierende Bereich AB der Mundpartie, der während der Durchführung des ersten Detektionsmechanismus gespeichert wurde, markiert ist. Dieser Bereich ist vergrößert in 8 dargestellt. Entsprechend der in 5 dargestellten Bearbeitung mit einem horizontal orientierten Gradientenfilter wird nun auch der in 8 vergrößert dargestellte Analysebereich AB einer Bearbeitung mit einem horizontal orientierten positiven Gradientenfilter unterzogen. Es sei bemerkt, dass vor der Bearbeitung mit dem Gradientenfilter wieder eine Bildkontrastverbesserung entsprechend der Bildkontrastverbesserung BKV in 5 durchgeführt werden kann. Durch die Bearbeitung mit dem horizontal orientierten positiven Gradientenfilter entsteht nun ein drittes bearbeitetes Bild, bei dem (horizontale) Hell-Dunkel-Übergänge, insbesondere von dem Oberlippenbereich in den Zwischenlippenbereich, oder anders ausgedrückt von dem Bereich der Oberlippe zu dem Bereich unterhalb der Oberlippe extrahiert werden. Auf diese Weise ist es möglich, einzelne Segmente der Oberlippe zu gewinnen, welche miteinander verbunden werden können und geglättet werden können. Die nun gefundene bzw. geglättete Oberlippenlinie kann nun bezüglich ihrer geometrischen Eigenschaften (Länge, Krümmung usw.) bewertet werden, d. h. ob sie biogeometrischen Merkmalen einer tatsächlichen Oberlippe bzw. Oberlippenlinie entspricht. Es ist nun möglich, dass sich in dem Analysebereich AB mehrere Hell-Dunkel-Übergänge befinden, die eine Oberlippenlinie darstellen können. Wird eine erste Oberlippenlinie bzw. eine Kombination mehrere als Oberlippenlinie identifizierter Segmente, wie gerade beschrieben, negativ bewertet, wird ein weiterer Hell-Dunkel-Übergang bzw. ein weiterer Abschnitt aus mehreren Hell-Dunkel-Übergängen, die zu einer Oberlippenlinie zusammensetzbar sind, auf das Vorhandensein bestimmter geometrischer Eigenschaften entsprechend einer tatsächlichen Oberlippe untersucht. In Versuchen hat sich gezeigt, dass eine Wiederholung der Untersuchung mit einem drittwahrscheinlichst möglichen Hell-Dunkel-Übergangsbereich zwar möglich ist, aber meist nicht erfolgreich, weshalb gemäß dieser Ausgestaltung der Merkmalsextraktion zu dem unten näher erläuterten sekundären Detektionsmechanismus zum Auffinden der Position eines Gesichts bzw. einer Mundpartie übergegangen wird.The following feature extraction is used, for example, to check the plausibility of whether there is really a face with mouth or lips in the analysis area found. First up 7 referenced, in the again of the camera K in 5 captured scene accordingly 6A is shown, wherein the now to be analyzed area AB of the mouth area, which was stored during the implementation of the first detection mechanism is marked. This area is enlarged in 8th shown. According to the in 5 processing with a horizontally oriented gradient filter is now also the in 8th magnified section AB subjected to processing with a horizontally oriented positive gradient filter. It should be noted that prior to processing with the gradient filter again an image contrast enhancement corresponding to the image contrast enhancement BKV in 5 can be carried out. Processing with the horizontally oriented positive gradient filter now produces a third processed image in which (horizontal) light-dark transitions, in particular from the upper lip region to the intermediate lip region, or in other words extracted from the region of the upper lip to the region below the upper lip become. In this way it is possible to obtain individual segments of the upper lip, which can be connected together and smoothed. The now found or smoothed upper lip line can now be evaluated with regard to its geometric properties (length, curvature, etc.), ie whether it corresponds to biogeometric features of an actual upper lip or upper lip line. It is now possible that there are several light-dark transitions in the analysis area AB, which can represent a top lip line. If a first upper lip line or a combination of several segments identified as the upper lip line, as just described, is evaluated negatively, a further light-dark transition or a further section of a plurality of light-dark transitions, which can be combined to form a top lip line, is formed investigated the presence of certain geometric properties corresponding to an actual upper lip. In experiments it has been shown that a repetition of the investigation with a third most likely bright-dark transition region is possible, but usually unsuccessful, which is why according to this embodiment of the feature extraction to the explained below in more detail secondary detection mechanism for finding the position of a face or an oral part is passed.

Wird eine gefundene Oberlippenlinie als positiv (entsprechend einer tatsächlichen Oberlippe bzw. Oberlippenlinie) bewertet, wird ein zweiter Prüfschritt bzw. Extraktionsschritt durchgeführt, bei dem die Unterlippe oder Unterlippenlinie identifiziert werden soll. Da das genaue Extrahieren der Unterlippe auf Grund generell schwächerer Konturierung der Unterlippe mittels einem Filter, wie dem oben beschriebenen Gradientenfilter, schwierig ist, wird in diesem Fall ein vertikaler Suchalgorithmus angewandt, der ausgehend von der relativ gut erkennbaren Oberlippe bzw. Oberlippenlinie, welche durch die oberen weißen Quadrate OL in 8 dargestellt ist, den ersten farbähnlichen bzw. graustufenähnlichen Bildpunktwert entlang der Vertikalen nach unten sucht. Damit ist es möglich, helle Bereiche, wie beispielsweise die Zähne, sowie auch dunkle Bereiche, wie beispielsweise der Rachenbereich, zu überspringen und einen möglichst nahen Unterlippenbereich, der in 8 durch die Linie aus weißen Quadraten UL gebildet wird, zu identifizieren. Die entsprechenden gefundenen Ober- und Unterlippenlinien OL und UL können dann bezüglich ihrer geometrischen Eigenschaften (Länge und Krümmung) untersucht werden.If a found upper lip line is evaluated as positive (corresponding to an actual upper lip or upper lip line, respectively), a second test step or extraction step is carried out in which the lower lip or lower lip line is to be identified. Because the exact extraction of the lower lip due to generally weaker contouring of Lower lip is difficult by means of a filter, such as the gradient filter described above, in this case, a vertical search algorithm is applied, starting from the relatively well recognizable upper lip or upper lip line, which by the upper white squares OL in 8th is looking down the first color-like or grayscale-like pixel value along the vertical. This makes it possible to skip bright areas, such as the teeth, as well as dark areas, such as the pharynx area, and to have as close a lower lip area as possible to the area 8th formed by the line of white squares UL is identified. The corresponding found upper and lower lip lines OL and UL can then be examined with respect to their geometric properties (length and curvature).

Sekundärere DetektionsmechanismusSecondary detection mechanism

Wie oben bezüglich der Merkmalsextraktion erwähnt worden ist, ist es möglich, dass nach Durchführen des primären Detektionsmechanismus' und nach einer Plausibilitätsprüfung in einem ersten Prüfschritt der Merkmalsextraktion der durch den primären Detektionsmechanismus gefundene Analysebereich keine tatsächliche Mundpartie aufweisen kann. In diesem Fall wird der sekundäre Detektionsmechanismus eingesetzt, um einen Analysebereich für eine Mundpartie zu finden. Es sei dabei erwähnt, dass der sekundäre Detektionsmechanismus bereits algorithmisch beim Durchlauf des primären Detektionsmechanismus berücksichtigt werden kann, d. h. nach Erfassen des ersten Bildes der Szene. Es ist jedoch auch möglich, dass der zweite Detektionsmechanismus aber erst in einem zweiten Durchlauf bezüglich eines zweiten erfassten Bildes der Szene durchgeführt werden kann. Wird der sekundäre Detektionsmechanismus bereits beim Durchlaufen des primären Detektionsmechanismus durchgeführt, so können die damit identifizierten bzw. festgelegten Segmente dann erst beim Aufruf des sekundären Detektionsmechanismus ausgewertet werden.As above the feature extraction mentioned has been possible, it is possible that after performing of the primary Detection mechanism 'and after a plausibility check in a first test step the feature extraction of those found by the primary detection mechanism Analysis area no actual Mouthpiece may have. In this case, the secondary detection mechanism used to find a mouthpiece analysis area. It should be mentioned, that the secondary Detection mechanism already algorithmic in the passage of the primary detection mechanism considered can be, d. H. after capturing the first image of the scene. It but it is also possible that the second detection mechanism but only in a second Pass with respect to one second captured image of the scene can be performed. Will the secondary detection mechanism already performed while going through the primary detection mechanism, so can The identified or specified segments then only when Call the secondary Detection mechanism are evaluated.

Der Grund für das Fehlschlagen des primären Detektionsmechanismus' kann darin liegen, dass bei stark konturierten Brillen, Sonnenbrillen oder durchgängigen Augenbrauen keine zwei getrennten Augenbrauensegmente für die gesichtsgeometrische Beurteilung zur Verfügung stehen, weshalb in diesem Fall ein anderer Detektionsmechanismus zu verwenden ist. Bei dem zweiten Detektionsmechanismus werden dabei zunächst die gleichen Bearbeitungsschritte, wie die in 5 erläuterten Schritte BKV, GF und SA durchgeführt. An Stelle des ersten Untersuchungsschritts US1 wird jedoch hier ein zweiter Untersuchungsschritt US2 verwendet, bei dem zum Finden der Lippen innerhalb des von der Kamera K erfassten Bildes wieder die Gesichtsgeometrie genutzt wird, wobei hier an Stelle des ersten und des zweiten Segments ein Segment gesucht wird, das geometrisch der Länge der beiden Augenbrauen zusammen entsprechen kann.The reason for the failure of the primary detection mechanism may be that with heavily contoured glasses, sunglasses, or continuous eyebrows, there are no two separate eyebrow segments available for facial geometric assessment, so in this case a different detection mechanism should be used. In the case of the second detection mechanism, the same processing steps as those in FIG 5 described steps BKV, GF and SA performed. Instead of the first examination step US1, however, here a second examination step US2 is used, in which the face geometry is used again to find the lips within the image captured by the camera K, a segment being sought here instead of the first and the second segment, which may correspond geometrically to the length of the two eyebrows together.

Ausgehend von einem in 9A gezeigten Bild, die das Gesicht eines Benutzers (einer Person in einem Fahrzeug) aufweist, welcher eine stark konturierte Brille aufweist, soll hier das Gesicht bzw. die Mundpartie dieses Gesichts ermittelt werden. Nach Durchführen der in 5 erläuterten Bearbeitungsschritte BKV, GF, SA bzgl. des Bildes von 9A, wird ein in 9B gezeigtes (zweites) bearbeitetes Bild (entsprechend 6C) erhalten, in dem nur noch markante Hell-Dunkel-Übergänge bestimmter relevanter Größe und Form vorhanden sind. Zunächst wird von jedem dieser vorhandenen Segmente die horizontale Länge b' bestimmt, wie es bei dem Segment S6 dargestellt ist. Nun wird zu jedem Segment, hier beispielhaft an dem Segment S6 gezeigt, ein sich unterhalb befindliches Segment gesucht, das von diesem einen bestimmten Abstand a' aufweist, wobei das Verhältnis a' zu b' ein zweites biogeometrisches Verhältnis bezüglich eines Gesichts aufweisen muss. Dieses zweite Verhältnis von a zu b liegt dabei im Bereich von 1:1 bis 1,7:1, insbesondere jedoch zwischen 1,2:1 bis 1,5:1. Wie es in 9B zu sehen ist, wird zu dem Segment S6 ein weiteres Segment S7 gefunden, durch das die Bedingungen des zweiten Verhältnisses erfüllbar sind. Sind mehrere Segmente vorhanden, durch die das zweite Verhältnis erfüllbar ist, so ist es möglich, für diese Mehrzahl von Segmenten weitere Prüfkriterien zu finden. Beispielsweise kann die Länge des weiteren unterhalb des die Augenbrauen darstellenden Segments überprüft werden, die innerhalb vorbestimmter Parameter zu liegen hat. Ist die Länge des weiteren Segments beispielsweise zu groß (z.B größer als die Länge b), so kann dieses nicht als ein potenzielles Mundsegment identifiziert werden.Starting from a in 9A The image shown having the face of a user (a person in a vehicle) having highly contoured glasses is intended to be the face or mouth part of that face. After performing the in 5 explained processing steps BKV, GF, SA with respect to the image of 9A , will be in 9B shown (second) edited image (corresponding to 6C ), in which only significant light-dark transitions of certain relevant size and shape are present. First, the horizontal length b 'of each of these existing segments is determined, as shown in segment S6. Now, for each segment, shown here by way of example on the segment S6, a subjacent segment is sought, which has a certain distance a 'therefrom, wherein the ratio a' to b 'must have a second biogeometric ratio with respect to a face. This second ratio of a to b is in the range of 1: 1 to 1.7: 1, but in particular between 1.2: 1 to 1.5: 1. As it is in 9B can be seen, a further segment S7 is found to the segment S6, through which the conditions of the second ratio can be satisfied. If there are several segments through which the second ratio can be satisfied, it is possible to find further test criteria for these plurality of segments. For example, the length of the further below the eyebrow representing segment can be checked, which has to lie within predetermined parameters. If, for example, the length of the further segment is too long (eg greater than the length b), this can not be identified as a potential mouth segment.

Ist nun mittels dem sekundären Detektionsmechanismus zu einem ersten den Augenbrauen entsprechenden Segment ein zweites der Mundpartie entsprechendes Segment gefunden worden, so kann dieser gefundene Bereich bezüglich Position und Größe in dem erfassten Bild als Analysebereich gespeichert werden und der oben dargestellten Merkmalsextraktion zugeführt werden.is now by means of the secondary Detection mechanism to a first corresponding to the eyebrows Segment a second of the mouthpiece corresponding segment found has been found, so this area found in position and size in the captured image as an analysis area and the above feature extraction shown are supplied.

Zusammenfassend kann also festgestellt werden, dass die in dem optischen Auswerteabschnitt OAA durchgeführten Verfahren zur Analyse einer Szene bzw. zum Auffinden, Verfolgen und Analysieren einer Mundpartie, insbesondere für Datenverarbeitungsanlage mit eingeschränkten Ressourcen vorteilhaft ist. Durch den Einsatz von gesichtsgeometrischen Segmentierungsverfahren kann das visuelle oder optische Datenvolumen zur Weiterverarbeitung sehr schnell auf kleine Segmentmengen reduziert werden. Eingebaute Plausibilitäts- bzw. Robustheitsprüfung (bei der Merkmalsextraktion) erlauben dabei auch ein hohes Maß an Zuverlässigkeit und verhindern eine Fehldetektion.In summary, it can thus be stated that the method carried out in the optical evaluation section OAA is advantageous for analyzing a scene or for finding, tracking and analyzing an oral area, in particular for data processing installations with limited resources. Through the use of facial geometry segmentation methods, the visual or optical data volume for further processing can very quickly be reduced to small segment quantities be made. Built-in plausibility and robustness test (in the feature extraction) also allow a high degree of reliability and prevent misdetection.

Alle Verfahren können vorteilhaft zur Bestimmung der Position des Benutzers gegenüber dem mobilen Endgerät verwendet werden, indem aus der Position des Gesichts, insbesondere der Mundpartie, im Bild die Position des Benutzers berechnet wird. Dabei ist es nicht einmal nötig, die absolute Position zu bestimmen, sondern nur die relative in aufeinander folgenden Bildern, aus der sich die Relativbewegung des Benutzers gegenüber dem mobilen Endgerät berechnen lässt. Entsprechend dieser Relativbewegung wird dann das Selektionsmittel auf der grafischen Benutzerschnittstelle verschoben.All Procedures can advantageous for determining the position of the user relative to the mobile terminal be used by moving from the position of the face, in particular the mouth part, in the picture the position of the user is computed. there it is not even necessary to determine the absolute position, but only the relative in successive pictures that make up the relative movement of the user the mobile terminal can be calculated. According to this relative movement then the selection agent moved to the graphical user interface.

Claims (24)

Mobiles Endgerät mit – einer Benutzerschnittstelle (4) mit einem auf der Benutzerschnittstelle positionierbaren Selektionsmittel (5), – Mitteln zum Messen einer Position eines Benutzers (3) relativ zu dem mobilen Endgerät (1), – Mitteln zur Ableitung einer Relativbewegung des mobilen Endgerätes (1) gegenüber dem Benutzer (3) aus der Position des Benutzers (3), – Mitteln zum Positionieren des Selektionsmittels (5) auf der Benutzerschnittstelle (4) in Abhängigkeit der Relativbewegung.Mobile terminal with - a user interface ( 4 ) with a selection means positionable on the user interface ( 5 ), Means for measuring a position of a user ( 3 ) relative to the mobile terminal ( 1 ), - means for deriving a relative movement of the mobile terminal ( 1 ) to the user ( 3 ) from the position of the user ( 3 ), - means for positioning the selection agent ( 5 ) on the user interface ( 4 ) in dependence of the relative movement. Mobiles Endgerät nach Anspruch 1, dadurch gekennzeichnet, dass die Mittel zum Messen der Position des Benutzers (3) Mittel zum Erkennen der Position des Gesichts (2) des Benutzers (3) aufweisen.Mobile terminal according to claim 1, characterized in that the means for measuring the position of the user ( 3 ) Means for detecting the position of the face ( 2 ) of the user ( 3 ) exhibit. Mobiles Endgerät nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Mittel zum Messen der Position des Benutzers (3) Mittel zum Erkennen der Position der Lippen und/oder eines Auges des Benutzers (3) aufweisen.Mobile terminal according to claim 1 or 2, characterized in that the means for measuring the position of the user ( 3 ) Means for detecting the position of the lips and / or an eye of the user ( 3 ) exhibit. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das mobile Endgerät zum Messen der Position des Benutzers (3) einen optischen Sensor (K) zur Aufnahme eines Bildes des Benutzers (3) aufweist.Mobile terminal according to one of the preceding claims, characterized in that the mobile terminal for measuring the position of the user ( 3 ) an optical sensor (K) for taking a picture of the user ( 3 ) having. Mobiles Endgerät nach Anspruch 4, dadurch gekennzeichnet, dass auf der Benutzerschnittstelle (4) zur Kontrolle der Relativbewegung als Feedback jeweils das aktuell aufgenommene Bild des Benutzers (3) darstellbar ist.Mobile terminal according to claim 4, characterized in that on the user interface ( 4 ) to control the relative movement as a feedback respectively the currently recorded image of the user ( 3 ) can be displayed. Mobiles Endgerät nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass das mobile Endgerät (1) Beleuchtungsmittel aufweist, um den Benutzer (3) zu beleuchten.Mobile terminal according to one of claims 4 or 5, characterized in that the mobile terminal ( 1 ) Lighting means to the user ( 3 ) to illuminate. Mobiles Endgerät nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass das mobile Endgerät (1) eine Auswerteeinrichtung (OAA, SE) aufweist, durch die das Bild des Benutzers (3) mit folgenden Schritten analysierbar ist: – Festlegen von Segmenten (S1–S7) im Bild, die helligkeitsspezifische Merkmale aufweisen; – Überprüfen einer positionsmäßigen Beziehung (a, b) der festgelegten Segmente zueinander; – Ableiten eines Vorhandenseins und/oder einer Position des Benutzers, insbesondere eines Gesichts des Benutzers, im Bild, wenn eine Auswahl von festgelegten Segmenten (S1, S2, S4; S6, S7) eine bestimmte positionsmäßige Beziehung aufweist.Mobile terminal according to one of claims 4 to 6, characterized in that the mobile terminal ( 1 ) has an evaluation device (OAA, SE) through which the image of the user ( 3 ) can be analyzed with the following steps: - defining segments (S1-S7) in the image which have brightness-specific features; - Checking a positional relationship (a, b) of the predetermined segments to each other; Deriving a presence and / or a position of the user, in particular a face of the user, in the image when a selection of fixed segments (S1, S2, S4, S6, S7) has a certain positional relationship. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Selektionsmittel (5) auf der Benutzerschnittstelle (4) darstellbar ist.Mobile terminal according to one of the preceding claims, characterized in that the selection means ( 5 ) on the user interface ( 4 ) can be displayed. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das mobile Endgerät (1) Stabilisierungsmittel aufweist, um eine fließende Bewegung des Selektionsmittels (5) zu gewährleisten.Mobile terminal according to one of the preceding claims, characterized in that the mobile terminal ( 1 ) Has stabilizing agent in order to ensure a fluid movement of the selection agent ( 5 ) to ensure. Verfahren zum Betreiben eines mobilen Endgerätes, bei dem – eine Position eines Benutzers (3) relativ zu dem mobilen Endgerät (1) gemessen wird, – aus der Position des Benutzers (3) eine Relativbewegung des mobilen Endgerätes (1) gegenüber dem Benutzer (3) abgeleitet wird, – ein Selektionsmittel (5) auf einer Benutzerschnittstelle (4) des mobilen Endgerätes (1) in Abhängigkeit der Relativbewegung positioniert wird.Method for operating a mobile terminal, in which - a position of a user ( 3 ) relative to the mobile terminal ( 1 ), - from the position of the user ( 3 ) a relative movement of the mobile terminal ( 1 ) to the user ( 3 ), - a selection agent ( 5 ) on a user interface ( 4 ) of the mobile terminal ( 1 ) is positioned in dependence of the relative movement. Verfahren nach Anspruch 10, – bei dem ein Bild des Benutzers (3) aufgenommen wird, – bei dem die Position des Benutzers (3) relativ zu dem mobilen Endgerät (1) durch Analyse des Bildes bestimmt wird.Method according to Claim 10, - in which an image of the user ( 3 ) - where the user's position ( 3 ) relative to the mobile terminal ( 1 ) is determined by analyzing the image. Verfahren nach Anspruch 11, bei dem das Bild des Benutzers (3) mit folgenden Schritten analysiert wird: – Festlegen von Segmenten (S1–S7) im Bild, die helligkeitsspezifische Merkmale aufweisen; – Überprüfen einer positionsmäßigen Beziehung (a, b) der festgelegten Segmente zueinander; – Ableiten eines Vorhandenseins und/oder einer Position des Benutzers, insbesondere eines Gesichts des Benutzers, im Bild, wenn eine Auswahl von festgelegten Segmenten (S1, S2, S4; S6, S7) eine bestimmte positionsmäßige Beziehung aufweist.Method according to Claim 11, in which the image of the user ( 3 ) is analyzed with the following steps: - defining segments (S1-S7) in the image which have brightness-specific features; - Checking a positional relationship (a, b) of the predetermined segments to each other; Deriving a presence and / or a position of the user, in particular a face of the user, in the image when a selection of fixed segments (S1, S2, S4, S6, S7) has a certain positional relationship. Verfahren nach Anspruch 12, bei dem das erfasste Bild aus einzelnen Bildpunkten zusammengesetzt ist, welchen jeweilige Graustufenwerte und/oder Farbwerte zugeordnet sind.The method of claim 12, wherein the captured image is composed of individual pixels having respective gray level values and / or color values are assigned. Verfahren nach Anspruch 12 oder 13, bei dem die helligkeitsspezifischen Merkmale scharfe Helligkeitsübergänge und/oder scharfe Farbübergänge aufweisen.A method according to claim 12 or 13, wherein the brightness-specific features sharp brightness transitions and / or have sharp color transitions. Verfahren nach Anspruch 14, bei dem der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Bearbeitung (GF) des Bildes mittels eines Gradientenfilters, insbesondere eines positiven horizontalen Gradientenfilters, umfasst, um ein erstes bearbeitetes Bild zu erzeugen, bei dem am Ort eines Helligkeitsübergangs und/oder eines Farbübergangs im erfassten Bild entsprechende Bildpunkte im ersten bearbeiteten Bild mit einem Graustufenwert vorgesehen werden, der von der Schärfe des Helligkeitsübergangs im erfassten Bild abhängt.The method of claim 14, wherein the step setting segments in the captured image is a modification (GF) of the image by means of a gradient filter, in particular one positive horizontal gradient filter, includes a first to produce an edited image, at the location of a brightness transition and / or a color transition in the captured image corresponding pixels in the first edited Image with a grayscale value provided by the sharpness of the Brightness transfer in the captured image. Verfahren nach Anspruch 15, bei dem der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Binärisierungsbearbeitung (SA) des ersten bearbeiteten Bildes umfasst, um daraus ein zweites bearbeitetes Bild zu erzeugen, bei dem entsprechenden Bildpunkten, deren Graustufenwert einen vorbestimmten Schwellenwert übersteigt, ein "weiß"-Wert zugeordnet wird, während den übrigen Bildpunkten ein "schwarz"-Wert zugeordnet wird.The method of claim 15, wherein the step setting segments in the captured image binarization processing (SA) of the first processed image to make it a second to produce a processed image, at the corresponding pixels, whose greyscale value exceeds a predetermined threshold, assigned a "white" value will, while the remaining pixels assigned a "black" value becomes. Verfahren nach Anspruch 16, bei dem der Schritt des Festlegens von Segmenten in dem erfassten Bild ein Einbeschreiben (SA) eines Bereichs des zweiten bearbeiteten Bilds mit zusammenhängenden Bildpunkten, denen ein "weiß"-Wert zugeordnet ist, in eine geometrische Form, insbesondere ein Rechteck, als festgelegtes Segment umfasst.The method of claim 16, wherein the step specifying segments in the captured image (SA) of a region of the second processed image with contiguous ones Pixels assigned a "white" value is, in a geometric shape, in particular a rectangle, as a fixed Segment includes. Verfahren nach Anspruch 16 oder 17, bei dem bestimmte Bereiche des zweiten bearbeiteten Bilds mit zusammenhängenden "weißen" Bildpunkten auf Grund von bestimmten Parametern bezüglich Größe und/oder Form der Bereiche oder der diese einbeschreibenden geometrischen Form verworfen werden.The method of claim 16 or 17, wherein certain Regions of the second processed image with contiguous "white" pixels Reason of certain parameters regarding size and / or shape of the areas or discarding the geometric shape that inscribes it. Verfahren nach einem der Ansprüche 12 bis 18, bei dem in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem ersten Untersuchungsschritt jedes der festgelegten Segmente dahingehend untersucht wird, ob zu diesem ein zweites (S2) festgelegtes Segment existiert, das im Wesentlichen horizontal zu dem untersuchten festgelegten Segment (S1) liegt, wobei bei Vorhandensein des zweiten festgelegten Segments nach einem dritten festgelegten Segment (S4) gesucht wird, das sich unterhalb des untersuchten und des zweiten Segments befindet, und für das gilt, dass ein Abstand (b) von dem untersuchten zu dem zweiten festgelegten Segment, und ein Abstand (a) einer Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment zu dem dritten festgelegten Segment ein erstes vorbestimmtes Verhältnis aufweist.Method according to one of claims 12 to 18, wherein in the Step of checking the positional relationship in a first examination step each of the defined segments is examined as to whether a second (S2) fixed to this Segment exists, which is essentially horizontal to the examined fixed segment (S1), wherein in the presence of the second fixed segment after a third fixed segment (S4) is sought, which is below the examined and the second Segments is located, and for that is, a distance (b) from the examined to the second fixed segment, and a distance (a) of a link between the examined and the second fixed segment to the third fixed segment has a first predetermined ratio. Verfahren nach einem der Ansprüche 12 bis 19, bei dem in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem zweiten Untersuchungsschritt jedes der festgelegten Segmente dahingehend untersucht wird, ob zu diesem ein viertes festgelegtes Segment (S7) existiert, das sich unterhalb dem untersuchten festgelegten Segment (S6) befindet, und für das gilt, dass die horizontale Länge (b') des untersuchten festgelegten Segments und der Abstand (a') des vierten festgelegten Segments zum untersuchten festgelegten Segment ein zweites vorbestimmtes Verhältnis aufweisen.Method according to one of claims 12 to 19, wherein in the Step of checking the positional relationship in a second examination step each of the defined segments is examined to see whether a fourth fixed Segment (S7) exists, which is set below the examined Segment (S6) is located, and for that is, the horizontal length (b ') of the examined fixed segment and the distance (a ') of the fourth fixed segment to the examined fixed segment a second predetermined one relationship exhibit. Verfahren nach Anspruch 19 oder 20, bei dem das erste/oder das zweite vorbestimmte Verhältnis einen Wert von 1:1 bis 1:1,7, insbesondere von 1:1,2 bis 1:1,5 aufweist.A method according to claim 19 or 20, wherein said first or the second predetermined ratio has a value of 1: 1 to 1: 1.7, in particular from 1: 1.2 to 1: 1.5. Verfahren nach einem der Ansprüche 19 bis 21, das ferner einen Schritt eines Extrahierens biometrischer Merkmale bezüglich einer Mundpartie aus einem Analysebereich um das gefundene dritte (S4) oder vierte (S7) festgelegte Segment umfasst.A method according to any one of claims 19 to 21, further comprising a Step of extracting biometric features with respect to a Mouth part of an analysis area around the found third (S4) or fourth (S7) segment. Verfahren nach Anspruch 22, bei dem in dem erfassten Bild in einem Analysebereich (AB), der sich an der Position des dritten oder vierten festgelegten Segments befindet, und der das jeweilige Segment umfasst, Hell-Dunkel- und/oder Dunkel-Hell-Helligkeitsübergänge bestimmt werden, um das Vorhandensein einer Oberlippe und Unterlippe einer Mundpartie abzuleiten.The method of claim 22, wherein in the detected Image in an analysis area (AB) located at the position of the third or fourth fixed segment, and the includes respective segment, light-dark and / or dark-bright-brightness transitions determined be to the presence of an upper lip and lower lip of a Derive mouth. Programmprodukt, das, wenn es auf eine Datenverarbeitungsanlage geladen und darauf ausgeführt wird, ein Verfahren nach einem der Ansprüche 10 bis 23 oder eine Vorrichtung nach einem der Ansprüche 1 bis 9 in Kraft setzt.Program product that when it comes to a data processing system loaded and executed is a method according to any one of claims 10 to 23 or a device according to one of the claims 1 to 9 goes into effect.
DE10313019A 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition Expired - Fee Related DE10313019B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10313019A DE10313019B4 (en) 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10313019A DE10313019B4 (en) 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition

Publications (2)

Publication Number Publication Date
DE10313019A1 DE10313019A1 (en) 2004-10-28
DE10313019B4 true DE10313019B4 (en) 2005-02-24

Family

ID=33038744

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10313019A Expired - Fee Related DE10313019B4 (en) 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition

Country Status (1)

Country Link
DE (1) DE10313019B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6831632B2 (en) 2001-04-09 2004-12-14 I. C. + Technologies Ltd. Apparatus and methods for hand motion tracking and handwriting recognition
GB0505362D0 (en) * 2005-03-15 2005-04-20 Intelligent Earth Ltd Interface control
DE102005013541B4 (en) * 2005-03-23 2014-02-13 Hewlett-Packard Development Co., L.P. Method for setting a communication terminal and communication terminal
DE102005024638A1 (en) * 2005-05-30 2006-12-07 Siemens Ag Word/text inputs navigation method, for mobile telephone, involves displacing menu based on requirements of electronic device movement found by image recording device, where relative position of cursor and menu entry is found by device
WO2007003195A1 (en) * 2005-07-04 2007-01-11 Bang & Olufsen A/S A unit, an assembly and a method for controlling in a dynamic egocentric interactive space
FR2889323B1 (en) * 2005-07-29 2008-12-12 Realeyes3D Sa METHOD FOR CONTROLLING AN INTERFACE USING A CAMERA COMPRISING A COMMUNICATION TERMINAL
KR100764698B1 (en) * 2006-08-07 2007-10-08 삼성전자주식회사 Mobile device and user interface control method therefor based on pattern cognition and analysis of image captured by camera
DE102007059273A1 (en) 2007-12-08 2009-06-18 T-Mobile Internationale Ag Virtual keyboard of a mobile device
US8126221B2 (en) * 2008-02-14 2012-02-28 Ecole Polytechnique Federale De Lausanne (Epfl) Interactive device and method for transmitting commands from a user

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0825514A2 (en) * 1996-08-05 1998-02-25 Sony Corporation Information processing device and method for inputting information by operating the overall device with a hand
WO2001043473A1 (en) * 1999-12-08 2001-06-14 Telbird Ltd. Hand held data processor unit
GB2357684A (en) * 1999-12-21 2001-06-27 Motorola Ltd Hand-held terminal having a display screen which is controlled by movement of the terminal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0825514A2 (en) * 1996-08-05 1998-02-25 Sony Corporation Information processing device and method for inputting information by operating the overall device with a hand
WO2001043473A1 (en) * 1999-12-08 2001-06-14 Telbird Ltd. Hand held data processor unit
GB2357684A (en) * 1999-12-21 2001-06-27 Motorola Ltd Hand-held terminal having a display screen which is controlled by movement of the terminal

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesian network approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159
DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesiannetwork approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159 *
KIN CHOONG YOW u.a.: Feature-based human face de- tection. In: Image and Vision Computing, Sept. 1997. Elsevier, Netherlands, Vol.15, No.9, Pages: 713-735. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
US11818458B2 (en) 2005-10-17 2023-11-14 Cutting Edge Vision, LLC Camera touchpad

Also Published As

Publication number Publication date
DE10313019A1 (en) 2004-10-28

Similar Documents

Publication Publication Date Title
DE102007056528B3 (en) Method and device for finding and tracking pairs of eyes
DE69428089T2 (en) Device and method for image analysis
DE69612700T2 (en) Feature localization in an image
DE60213600T2 (en) METHOD AND DEVICE FOR EXTRACTION OF A SIGNIFICANT TERRITORY IN A BIOLOGICAL SURFACE PICTURE OBTAINED BY EXCEEDING RECORDING
DE60307583T2 (en) Evaluation of the sharpness of an image of the iris of an eye
DE102007055715A1 (en) Apparatus, method and program for eye detection
DE102010016251A1 (en) Detection method for a moving object and the command input method underlying the detection of the moving object
DE19847261A1 (en) Process and system for person recognition with model-based face finding
DE102013009901A1 (en) Method for assessing quality of human facial images in facial recognition application, involves classifying quality of image by classifying that image has quality same as that of previously classified image related to smallest difference
DE19634768A1 (en) Face identification system using video image analysis
DE102012108838A1 (en) Method and device for recording fingerprints based on fingerprint scanners in reliably high quality
DE19810792A1 (en) Personal identity verification method for access control e.g. for automatic banking machine
DE10313019B4 (en) One-hand operation of terminals using gesture recognition
DE102017212176A1 (en) System and method for determining efficacy of a cosmetic skin treatment
DE112017008174T5 (en) Expression recognizer
DE102023125422A1 (en) Hybrid object detection method based on thermal images in combination with YOLO models and object tracking techniques
DE102005025220B4 (en) Apparatus, method and program for removing pores
DE112019004112T5 (en) SYSTEM AND PROCEDURE FOR ANALYSIS OF MICROSCOPIC IMAGE DATA AND FOR GENERATING A NOTIFIED DATA SET FOR TRAINING THE CLASSIFICATORS
EP1143373A1 (en) Method for error-free image acquisition using an electronic sensor
DE102005049017B4 (en) Method for segmentation in an n-dimensional feature space and method for classification based on geometric properties of segmented objects in an n-dimensional data space
DE19754909C2 (en) Method and device for acquiring and processing images of biological tissue
CH716082A1 (en) Procedure for user identification.
DE112017007162T5 (en) Face detection device, associated control method and program
EP3663976B1 (en) Method for detecting fingerprints
DE10221391B4 (en) Method for analyzing a scene

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee