DE10313019B4 - One-hand operation of terminals using gesture recognition - Google Patents
One-hand operation of terminals using gesture recognition Download PDFInfo
- Publication number
- DE10313019B4 DE10313019B4 DE10313019A DE10313019A DE10313019B4 DE 10313019 B4 DE10313019 B4 DE 10313019B4 DE 10313019 A DE10313019 A DE 10313019A DE 10313019 A DE10313019 A DE 10313019A DE 10313019 B4 DE10313019 B4 DE 10313019B4
- Authority
- DE
- Germany
- Prior art keywords
- user
- image
- mobile terminal
- segments
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Mobiles
Endgerät
mit
– einer
Benutzerschnittstelle (4) mit einem auf der Benutzerschnittstelle
positionierbaren Selektionsmittel (5),
– Mitteln zum Messen einer
Position eines Benutzers (3) relativ zu dem mobilen Endgerät (1),
– Mitteln
zur Ableitung einer Relativbewegung des mobilen Endgerätes (1)
gegenüber
dem Benutzer (3) aus der Position des Benutzers (3),
– Mitteln
zum Positionieren des Selektionsmittels (5) auf der Benutzerschnittstelle
(4) in Abhängigkeit
der Relativbewegung.Mobile terminal with
A user interface (4) with a selection means (5) which can be positioned on the user interface,
Means for measuring a position of a user (3) relative to the mobile terminal (1),
Means for deriving a relative movement of the mobile terminal (1) relative to the user (3) from the position of the user (3),
- Means for positioning the selection means (5) on the user interface (4) in dependence of the relative movement.
Description
Mit der Miniaturisierung von mobilen Kommunikationsendgeräten werden Tastaturen und andere haptische Eingabemöglichkeiten zugunsten der Gerätegröße auf ein Minimum reduziert. In zukünftigen Endgeräten wird sogar auf Keypads oder Eingabetastaturen ganz verzichtet werden. Um dennoch eine praktikable und komfortable Interaktionsmöglichkeit zu gewährleisten, werden neue Bedienkonzepte notwendig. Einschränkendes Limit aufgrund der Kosten ist jedoch meist die vorhandene Hardwareausstattung, die hierzu intelligent genutzt werden muss.With the miniaturization of mobile communication terminals Keyboards and other haptic input options in favor of device size on a Minimum reduced. In future terminals will even be dispensed with keypads or keypads. Nevertheless, a practicable and comfortable interaction possibility to ensure, new operating concepts become necessary. Restrictive limit due to Cost, however, is usually the existing hardware equipment, the this must be used intelligently.
Geräte ohne Keypad oder mit virtuellen Keypads wurden bislang entweder durch Spracherkennung oder durch Stifteingabe bedient, wie sie zum Beispiel bei PDAs üblich ist. Die Spracheingabe allein ist speziell in stark geräuschbehafteten Umgebungen schwierig. Auf der anderen Seite erlaubt die Stifteingabe keine Einhandbedienung, die für mobile Endgeräte oftmals gewünscht wird.Devices without Keypad or with virtual keypads have been either through Speech recognition or by pen input, as for example usual for PDAs is. The speech input alone is especially in heavily noisy Environments difficult. On the other hand, the pen input allows no one - handed operation for mobile devices often desired becomes.
Seit einiger Zeit sind mobile Endgeräte verfügbar, in die eine Kamera integriert ist.since some time are mobile devices available, in which a camera is integrated.
Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, eine Eingabemöglichkeit für mobile Endgeräte zu schaffen, die eine einhändige Bedienung erlaubt und keine Tastatur benötigt.From that Based on the object of the invention, an input option for mobile terminals to create a one-handed Operation allowed and no keyboard needed.
Diese Aufgabe wird durch die in den unabhängigen Ansprüchen angegebenen Erfindungen gelöst. Vorteilhafte Ausgestaltungen ergeben sich aus den abhängigen Ansprüchen.These The object is achieved by those specified in the independent claims Inventions solved. Advantageous embodiments emerge from the dependent claims.
Dementsprechend weist ein mobiles Endgerät eine beispielsweise auf einer Anzeige darstellbare, insbesondere optische und weiter bevorzugt grafische Benutzerschnittstelle auf. Die Benutzerschnittstelle lässt sich etwa in Form einer beispielsweise auf einer Anzeige, insbesondere einer LCD- oder LED-Anzeige, dargestellten Benutzeroberfläche oder Bedienoberfläche realisieren oder aber auch als ganz einfache optische Anzeige mit z.B. unterschiedlich beleuchteten Ziffern, bei der nicht selektierte Ziffern. grün leuchten und selektierte rot. Auf der grafische Benutzerschnittstelle ist ein virtuelles und/oder reales Selektionsmittel zum Selektieren von einzelnen Funktionsbereichen der Benutzerschnittstelle, denen jeweils Funktionalitäten zugeordnet sind, insbesondere durch Verschieben positionierbar. Weiterhin verfügt das mobile Endgerät über Mittel zum Messen einer Relativbewegung des mobilen Endgeräts gegenüber einem Benutzer des mobilen Endgeräts. Darüber hinaus weist das mobile Endgerät auch noch Mittel zum Positionieren des Selektionsmittels auf der Benutzerschnittstelle in Abhängigkeit der gemessenen Relativbewegung auf.Accordingly has a mobile terminal a displayable on a display, in particular optical and further preferably graphical user interface. The user interface let yourself in the form of, for example, a display, in particular an LCD or LED display, illustrated user interface or user interface realize or as a very simple visual display with e.g. different illuminated digits, in the non-selected Digits. green shine and selected red. On the graphical user interface is a virtual and / or real selection means for selecting of individual functional areas of the user interface, which each functionalities are assigned, in particular positionable by moving. Further features the mobile terminal via means for measuring a relative movement of the mobile terminal relative to a User of the mobile terminal. Furthermore has the mobile device also means for positioning the selection agent on the User interface in dependence the measured relative movement.
So kann der Benutzer das mobile Endgerät beispielsweise einfach in seiner Hand halten und sich selbst gegenüber bewegen, um das Selektionsmittel auf einen gewünschten Bereich der Benutzerschnittstelle zu bewegen. Ist das Selektionsmittel auf diese Weise beispielsweise auf einen gewünschten (virtuellen) Betätigungsknopf (Button) der Benutzerschnittstelle bewegt worden, so kann der Benutzer durch Sprechen eines Kommandos oder durch Drücken eines Eingabeknopfes am mobilen Endgerät die mit dem virtuellen Betätigungsknopf verbundene Aktion des mobilen Endgerätes auslösen.So For example, the user can simply put the mobile terminal in hold his hand and move towards the selection agent a desired one Area of the user interface to move. Is the selection agent in this way, for example, to a desired (virtual) operation button (Button) of the user interface has been moved, so the user can by speaking a command or by pressing an input button on the mobile terminal the one with the virtual operation button trigger connected action of the mobile terminal.
Die Mittel zum Messen der Relativbewegung weisen vorzugsweise Mittel zum Erkennen der Position der Lippen, eines Auges und/oder des Gesichts des Benutzers auf. Dann braucht der Benutzer das mobile Endgerät nämlich nur auf sein Gesicht auszurichten und zu bewegen und kann dabei die Bewegung der Selektionsmarke auf der Benutzerschnittstelle verfolgen.The Means for measuring the relative movement preferably have means for detecting the position of the lips, an eye and / or the face of the person User on. In that case, the user only needs the mobile terminal to align and move on his face while doing the Trace the selection mark movement on the user interface.
Am einfachsten lässt sich das Messen der Relativbewegung realisieren, wenn das mobile Endgerät dazu einen optischen Sensor, insbesondere eine Kamera, zur Aufnahme eines jeweiligen Bildes des Benutzers aufweist. Aus der aufgenommenen Folge von Bildern lässt sich dann die Relativbewegung bestimmen.At the easiest Realize the measurement of relative motion when the mobile terminal to an optical sensor, in particular a camera, for recording a respective image of the user. From the recorded episode of pictures then determine the relative movement.
Auf der grafischen Benutzerschnittstelle kann zur Kontrolle der Relativbewegung als Feedback jeweils das aktuell aufgenommene Bild des Benutzers ausgegeben werden, aus dem der Benutzer dann auf seine aktuelle Position gegenüber dem Endgerät schließen kann.On The graphical user interface can be used to control the relative movement as feedback, the currently recorded image of the user from which the user then clicks on his current Position opposite the terminal shut down can.
Für eine Benutzung bei Dunkelheit kann das mobile Endgerät Beleuchtungsmittel aufweisen, um den Benutzer zu beleuchten und auch hier einen Einsatz des optischen Sensors zu ermöglichen.For a use in the dark, the mobile terminal may have lighting means, to illuminate the user and also here use the optical To enable sensors.
Vorzugsweise weist das mobile Endgerät eine Auswerteeinrichtung auf, durch die das Bild des Benutzers analysierbar ist, indem Segmente im erfassten Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und ein Vorhandensein eines Gesichtes im Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.Preferably the mobile terminal has one Evaluation device, through which the image of the user can be analyzed is by setting segments in the captured image that are brightness-specific Have characteristics, a positional relationship of the specified Segments to each other is checked and a presence of a face is derived in the image, if a selection of fixed segments a particular positional relationship having.
Das Selektionsmittel kann als Zeigemittel auf der grafischen Benutzerschnittstelle dargestellt werden. Es ist aber auch möglich, dem Benutzer die Position des Selektionsmittels zu signalisieren, indem nicht das Selektionsmittel selbst angezeigt wird, sondern lediglich jeweils das auf der Benutzerschnittstelle gerade selektierte Element als selektiert dargestellt wird.The selection means can be displayed as a display means on the graphical user interface the. But it is also possible to signal the user the position of the selection means by not the selection means itself is displayed, but only each of the currently selected on the user interface element is displayed as selected.
Um eine fließende Bewegung des Selektionsmittels zu gewährleisten, weist das mobile Endgerät vorteilhaft Stabilisierungsmittel für die Bewegung des Selektionsmittels auf.Around a flowing one To ensure movement of the selection agent, the mobile exhibits terminal advantageous stabilizing agent for the movement of the selection agent on.
In einem Verfahren zum Betreiben eines mobilen Endgerätes wird eine Relativbewegung des mobilen Endgerätes gegenüber einem Benutzer gemessen und ein Selektionsmittel auf einer Benutzerschnittstelle des mobilen Endgeräts in Abhängigkeit der gemessenen Relativbewegung positioniert. Vorteilhafte Ausgestaltungen des Verfahrens ergeben sich analog zu den vorteilhaften Ausgestaltungen des mobilen Endgerätes und umgekehrt.In a method of operating a mobile terminal measured a relative movement of the mobile terminal towards a user and a selection agent on a mobile user interface terminal in dependency of positioned measured relative movement. Advantageous embodiments of the method are analogous to the advantageous embodiments of mobile terminal and vice versa.
So wird beispielsweise vorzugsweise zum Messen der Relativbewegung vom mobilen Endgerät mit einer Kamera ein Bild des Benutzers aufgenommen. Das Bild des Benutzers kann dann analysiert werden, indem Segmente im Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und das Vorhandensein des Benutzers, insbesondere eines Gesichts des Benutzers, im erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.So For example, it is preferably used to measure the relative movement from the mobile device a picture of the user taken by a camera. The picture of the user can then be parsed by setting segments in the image that have brightness-specific features, a positional relationship the defined segments to each other is checked and the presence of the user, in particular a face of the user, in the detected Image is derived when a selection of fixed segments one certain positional relationship having.
Das Verfahren zum Analysieren des Bildes des Benutzers umfasst insbesondere ein Festlegen von Segmenten in dem erfassten Bild, die helligkeitsspezifische Merkmale aufweisen. Wie es unten näher erläutert werden wird, können die helligkeitsspezifischen Merkmale beispielsweise Hell-Dunkel-Übergänge und/oder Dunkel-Hell-Übergänge umfassen. Anschließend wird eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft, wobei ein Vorhandensein eines Benutzers, insbesondere eines (menschlichen) Gesichts, in dem erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist. Das bedeutet, durch das gerade beschriebene Verfahren kann nur durch Analyse bestimmter Bereiche des erfassten Bildes, nämlich der Segmente mit helligkeitsspezifischen Merkmalen, genauer gesagt durch Überprüfen der positionsmäßigen Beziehung der festgelegten Segmente auf das Vorhandensein des Benutzers, insbesondere seines Gesichts, und dessen Position gegenüber dem mobilen Endgerät geschlossen werden. Somit wird zur Durchführung des Verfahrens nur eine geringe Rechenleistung benötigt, wodurch eine Ressourcenverringerung bzw. Ressourcenoptimierung einer Datenverarbeitungsanlage zum Durchführen des Verfahrens ermöglicht wird.The A method for analyzing the image of the user comprises in particular setting segments in the captured image that are brightness-specific Have features. As will be explained in more detail below, the brightness-specific features such as light-dark transitions and / or Include dark-light transitions. Subsequently, will a positional relationship of fixed segments checked each other, with a presence a user, in particular a (human) face, in derived from the captured image when a selection of specified Segments has a particular positional relationship. The means by the process just described can only by Analysis of certain areas of the captured image, namely the Segments with brightness-specific features, more precisely by checking the positional relationship the specified segments on the presence of the user, in particular his Face, and its position closed to the mobile terminal become. Thus, to carry out the method requires only a small amount of computing power, thereby a resource reduction or resource optimization of a data processing system to perform of the method allows becomes.
Gemäß einer vorteilhaften Ausgestaltung handelt es sich bei dem erfassten Bild um ein von einer elektronischen Kamera erfassten Bild, das elektronisch verarbeitbar ist. Insbesondere ist das erfasste Bild aus einzelnen Bildpunkten zusammengesetzt, welchen jeweilige Graustufenwerte zugeordnet sind.According to one advantageous embodiment, it is in the captured image an image captured by an electronic camera that is electronic is processable. In particular, the captured image is single Assembled pixels associated with each gray level values are.
Gemäß einer weiteren vorteilhaften Ausgestaltung werden Segmente in dem erfassten Bild festgelegt, bei denen die helligkeitsspezifischen Merkmale scharfe bzw. abrupte Helligkeitsübergänge, beispielsweise von Dunkel nach Hell oder von Hell nach Dunkel aufweisen. Derartige (scharfe) Helligkeitsübergänge finden sich beispielsweise in einem Gesicht eines Menschen, insbesondere beim Übergang von der Stirn zu den Augenbrauen oder (bei Menschen mit heller Haarfarbe) beim Übergang von der Stirn in den Schatten der Augenhöhlen. Derartige (scharfe) Helligkeitsübergänge finden sich jedoch auch beim Übergang von dem Oberlippenbereich bzw. Lippenbereich zur Mundöffnung oder von der Mundöffnung zum Lippenbereich der Unterlippe bzw. zum Unterlippenbereich. Ein weiterer Helligkeitsübergang stellt sich zwischen der Unterlippe und dem Kinnbereich, genauer gesagt als Schattenbereich (je nach Lichtverhältnis bzw. Lichteinfall) basierend auf einer leichten Vorwölbung der Unterlippe, ein. Wie es unten ausführlicher erläutert werden wird, ist es möglich, anhand dieser Helligkeitsübergänge bzw. anhand der positionsmäßigen Beziehung einer Auswahl der Helligkeitsübergänge auf das Vorhandensein eines menschlichen Gesichts bzw. insbesondere auf die Position einer Mundpartie zu schließen.According to one Another advantageous embodiment, segments are detected in the Image set in which the brightness-specific features sharp or abrupt brightness transitions, for example from dark to bright or from light to dark. such find (sharp) brightness transitions for example, in a human's face, in particular at the transition from the forehead to the eyebrows or (in people with light hair color) at the transition from the forehead in the shadow of the eye sockets. Find such (sharp) brightness transitions but also during the transition from the upper lip area or lip area to the mouth opening or from the mouth opening to the lip area of the lower lip or to the lower lip area. One further brightness transition stands between the lower lip and the chin area, more precisely said as a shadow area (depending on the light ratio or incidence of light) based on a slight protrusion the lower lip, a. As explained in more detail below it will be possible based on these brightness transitions or based on the positional relationship a selection of the brightness transitions the presence of a human face or in particular to close the position of an oral area.
Gemäß einer vorteilhaften Ausgestaltung umfasst der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Bearbeitung des Bilds mittels eines Gradientenfilters, insbesondere eines horizontalen Gradientenfilters, um insbesondere horizontale (scharfe) Helligkeitsübergänge, wie die an den Augenbrauen, an den Augen, oder an dem Mund sichtbar zu machen. Durch die Bearbeitung mittels des Gradientenfilters wird ein erstes bearbeitetes Bild erzeugt, bei dem am Ort eines Helligkeitsübergangs im erfassten Bild entsprechende Bildpunkte im ersten bearbeiteten Bild mit einem Graustufenwert vorgesehen werden, die von der Schärfe des Helligkeitsübergangs im erfassten Bild abhängen. Das bedeutet, bei einem Helligkeitsübergang innerhalb weniger Bildpunkte von einem niedrigen Helligkeitswert (niedriger Graustufenwert) zu einem hohen Helligkeitswert (hoher Graustufenwert) wird in dem ersten bearbeiteten Bild eine entsprechende Information eingetragen. Wird davon ausgegangen, dass das erste bearbeitete Bild in Form eines Graustufenbildes dargestellt wird, so können beispielsweise bei Verwendung eines positiven horizontalen Gradientenfilters, der von oben nach unten auf das erfasste Bild angewendet wird, Bereiche des Bilds, in denen keine Helligkeitsübergänge vorhanden sind, in mittleren Graustufenwerten dargestellt werden, während Hell-Dunkel-Übergänge (von oben nach unten) je nach Schärfe der Übergänge einen dementsprechend höheren Grauwert als den mittleren Grauwert erhalten und Dunkel-Hell-Übergänge (von oben nach unten) einen entsprechend niedrigeren Grauwert in Abhängigkeit der Schärfe des jeweiligen Übergangs erhalten.According to an advantageous embodiment, the step of defining segments in the acquired image comprises processing the image by means of a gradient filter, in particular a horizontal gradient filter, in particular horizontal (sharp) brightness transitions, such as those on the eyebrows, on the eyes, or on the mouth to make visible. The processing by means of the gradient filter produces a first processed image in which corresponding pixels in the first processed image with a grayscale value are provided at the location of a brightness transition in the acquired image, which depend on the sharpness of the brightness transition in the acquired image. This means that in the case of a brightness transition within a few pixels from a low brightness value (low gray scale value) to a high brightness value (high gray scale value), corresponding information is entered in the first processed image. It is assumed that the first edited image is displayed in the form of a grayscale image For example, when using a positive horizontal gradient filter applied from top to bottom to the captured image, areas of the image in which no brightness transitions are present can be represented in medium gray level values, while light to dark transitions (from above depending on the sharpness of the transitions, a correspondingly higher gray value than the average gray value is obtained, and dark-light transitions (from top to bottom) receive a correspondingly lower gray value as a function of the sharpness of the respective transition.
Gemäß einer weiteren vorteilhaften Ausgestaltung kann der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Binärisierungsbearbeitung des ersten bearbeiteten Bildes umfassen. Hierbei kann ein zweites bearbeitetes Bild erzeugt werden, bei den entsprechenden Bildpunkten, deren Graustufenwert einen ersten vorbestimmten Schwellenwert (welcher in Abhängigkeit der Helligkeit des erfassten Bildes gewählt wird) übersteigt, ein binärer "1"-Wert zugeordnet wird, während den übrigen Bildpunkten ein binärer "0"-Wert zugeordnet wird. Anders ausgedrückt, kann den Bildpunkten, deren Graustufenwert den vorbestimmten ersten Schwellenwert übersteigt, der Wert "weiß" zugeordnet werden, während den übrigen Bildpunkten der Wert "schwarz" zugeordnet wird. Somit sind in dem zweiten bearbeiteten Bild nur noch Helligkeitsübergänge mit einer bestimmten ausgeprägten Schärfe zu erkennen.According to one Further advantageous embodiment, the step of setting of segments in the captured image binarization processing of the first include processed image. This can be a second edited Image are generated at the corresponding pixels, their gray scale value a first predetermined threshold (which depends on the brightness of the captured image is selected) is assigned a binary "1" value while the remaining pixels a binary "0" value is assigned. In other words, can the pixels whose gray scale value exceeds the predetermined first threshold, the value "white" is assigned, while the rest Pixels the value "black" is assigned. Thus, in the second processed image only brightness transitions with a definite one sharpness to recognize.
Zusammenhängende Bildpunkte, denen ein Weiß-Wert zugeordnet ist, können als eine Einheit von Bildpunkten gesehen werden, die zur folgenden Auswertung in eine geometrische Form, wie beispielsweise ein Rechteck, eingeschrieben werden. Diese geometrische Form kann dann als ein festgelegtes Segment definiert werden. Da es notwendig ist, aus der in dem erfassten Bild erfassten Szene biometrische Merkmale, insbesondere ein Gesicht eines Menschen betreffend, herauszufiltern bzw. zu extrahieren, um auf das Vorhandensein eines menschlichen Gesichts schließen zu können, ist es vorteilhaft, bestimmte Bereiche bzw. Strukturen in dem erfassten Bild, die beispielsweise auf Grund ihrer Größe oder Form keine biometrischen Merkmale bezüglich eines Gesichts aufweisen, zu verwerfen.Related pixels, which is a white value is assigned are seen as a unit of pixels leading to the following evaluation in a geometric shape, such as a rectangle inscribed become. This geometric shape can then be considered a fixed segment To be defined. Since it is necessary from the recorded in the Image captured scene biometric features, especially a face concerning a human to filter or extract to be able to infer the presence of a human face is it is advantageous to include certain areas or structures in the Image, for example, due to their size or shape, no biometric Characteristics regarding of a face, discard.
Gemäß einer vorteilhaften Ausgestaltung werden dabei bestimmte Bereiche des zweiten bearbeiteten Bildes mit zusammenhängenden Bildpunkten auf Grund von vorbestimmten Parameteren bezüglich Größe und/oder Form der Bereich oder der diese einbeschreibenden geometrischen Form verworfen und insbesondere werden die den Bereichen zugeordneten Bildpunkte auf einen Schwarz-Wert gesetzt. Ein Kriterium bezüglich der Form von Bereichen zusammenhängender Bildpunkte mit einem Weiß-Wert kann beispielsweise sein, dass die Höhe dieses Bereichs bzw. dieser Struktur einen zu großen Wert im Gegensatz zur Breite der Struktur aufweist. Das bedeutet, das Verhältnis aus Höhe zu Breite ist zu groß. Eine derartige Festlegung wird deutlich, wenn – wie oben bereits erwähnt – Segmente anhand helligkeitsspezifischer Merkmale von horizontal verlaufenden Augenbrauen oder horizontal verlaufender Lippen- bzw. Mundpartien festgelegt werden. Das bedeutet wiederum, dass das zuvor erfasste Bild mit einer großen Anzahl von Bildpunkten auf nur noch eine geringe Anzahl von festgelegten Segmenten zurückgeführt wird, aus deren positionsmäßiger Beziehung zueinander nun das Vorhandensein und die Position eines Gesichts abgeleitet werden kann.According to one advantageous embodiment, certain areas of the second edited image with contiguous pixels based on of predetermined parameters regarding size and / or shape of the area or discarded this inscribing geometric shape and In particular, the pixels associated with the areas become set a black value. A criterion concerning the shape of areas related Pixels with a white value may be, for example, that the height of this area or this Structure too big a value in contrast to the width of the structure. That means that relationship from height too wide is too big. Such a determination becomes clear when - as mentioned above - segments based on brightness-specific features of horizontally extending Eyebrows or horizontally extending lips or mouth parts be determined. This in turn means that the previously captured Picture with a big one Number of pixels to only a small number of specified Segments is returned, from their positional relationship to each other now the presence and position of a face can be derived.
Gemäß einer vorteilhaften Ausgestaltung wird dabei in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem ersten Untersuchungsschritt entsprechend einem ersten Detektionsmechanismus jedes der festgelegten Segmente dahingehend untersucht, ob zu einem zu untersuchenden Segment ein zweites festgelegtes Segment existiert, das auf einer horizontalen Linie bzw. einer im Wesentlichen horizontal verlaufenden Linie zu dem gerade untersuchten festgelegten Segment liegt. Ausgehend von einem erfassten Bild, bestehend aus einer Mehrzahl von Bildpunkten muss das zweite Segment nicht unbedingt auf einer der von dem zu untersuchenden Segment umfassten wagrechten Linie an Bildpunkten liegen, es kann auch um einen vorbestimmten kleinen Betrag an Bildpunkten höher oder tiefer bezüglich der wagrechten oder horizontalen Line liegen. Wird ein zweites festgelegtes horizontales Segmente gefunden, so wird nach einem dritten festgelegten Segment gesucht, das sich unterhalb des untersuchten und des zweiten festgelegten Segments befindet und für das gilt, dass ein Abstand von dem untersuchten zu dem zweiten festgelegten Segment und ein Abstand einer Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment zu dem dritten festgelegten Segment ein erstes vorbestimmtes Verhältnis aufweist. Insbesondere kann eine Normale zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment definiert werden, wobei der Abstand von dem dritten Segment (entlang der Normalen) zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment in das erste vorbestimmte Verhältnis eingeht. Der Abstand zwischen den untersuchten und dem zweiten Segment kann derart definiert werden, dass der Abstand von einem jeweiligen Mittelpunkt der festgelegten Segmente verwendet wird. Insbesondere bei der Verwendung von Segmenten mit der geometrischen Form eines Rechtecks kann ein Mittelpunkt leicht bestimmt werden. Durch den gerade beschriebenen ersten Untersuchungsschritt kann somit auf das Vorhandensein eines Gesichts geschlossen werden, indem die positionsmäßige Beziehung zwischen drei festgelegten Segmenten ermittelt wird. Hierbei wird davon ausgegangen, dass das untersuchte und das zweite festgelegte Segment einen jeweiligen Augenbrauenabschnitt im Gesicht eines Menschen darstellt, der normalerweise einen markanten bzw. scharfen Hell-Dunkel-Helligkeitsübergang von oben nach unten aufweist und somit im zweiten bearbeiteten Bild gut erkennbar ist. Das dritte festgelegte Segment stellt ein Segment einer Mundpartie bzw. den zwischen Oberlippe und Unterlippe Schatten bildenden Grenzbereich dar. Es hat sich erwiesen, dass zur Bestimmung eines menschlichen Gesichts das erste vorbestimmte Verhältnis zwischen Abstand von untersuchten und zweiten festgelegten Segmenten zu dem Abstand der Verbindungsstrecke der beiden Segmente zu dem dritten festgelegten Segment mit einem Wert von 1:1 bis 1:1,7, insbesondere von 1:1,2 bis 1:1,5 vorteilhaft ist. Neben der Möglichkeit, Augenbrauen als markante Segmente mit helligkeitsspezifischen Merkmalen zu verwenden, ist es auch möglich, an Stelle der Augenbrauen Schatten bildende Bereiche der Augenhöhlen bzw. die Augen oder die Iris selbst zu verwenden.In accordance with an advantageous embodiment, in the step of checking the positional relationship in a first examination step corresponding to a first detection mechanism, each of the fixed segments is examined as to whether a second segment fixed to a segment to be examined exists on a horizontal line Substantially horizontal line to the currently examined fixed segment lies. Starting from a captured image consisting of a plurality of pixels, the second segment does not necessarily have to lie on one of the horizontal lines of pixels covered by the segment to be examined, it may also be a predetermined small amount of pixels higher or lower with respect to the horizontal or horizontal line lie. If a second fixed horizontal segment is found, a search is made for a third fixed segment located below the examined and second fixed segment and for which there is a distance from the examined to the second fixed segment and a distance of a link between the examined and the second fixed segment to the third fixed segment has a first predetermined ratio. In particular, a normal to the link between the examined and the second fixed segment can be defined, wherein the distance from the third segment (along the normal) to the link between the examined and the second fixed segment in the first predetermined ratio enters. The distance between the examined and the second segment may be defined such that the distance from a respective center of the fixed segments is used. In particular, when using segments with the geometric shape of a rectangle, a center point can be easily determined. The presence of a face can thus be concluded by the first examination step just described, by determining the positional relationship between three fixed segments. Herein, it is assumed that the examined and the second predetermined segment represent a respective eyebrow portion in the face of a human, which normally has a sharp chiaroscuro brightness transition from top to bottom and thus is easily recognizable in the second processed image. The third predetermined segment represents a segment of an oral region or the border area forming between the upper lip and lower lip. It has been found that, for the determination of a human face, the first predetermined relationship between the distance of the examined and second defined segments to the distance of the connecting path of the both segments to the third fixed segment with a value of 1: 1 to 1: 1.7, in particular from 1: 1.2 to 1: 1.5 is advantageous. In addition to the ability to use eyebrows as distinctive segments with brightness-specific features, it is also possible to use shadow-forming areas of the eye sockets instead of the eyebrows or the eyes or the iris itself.
Gemäß einer weiteren vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem zweiten Untersuchungsschritt (entsprechend einem zweiten Detektionsmechanismus) jedes der festgelegten Segmente dahingehend untersucht, ob zu diesem Segment ein viertes festgelegtes Segment existiert, das sich unterhalb, insbesondere entlang einer Vertikalen, dem untersuchten festgelegten Segment befindet und für das gilt, dass die horizontale Länge des untersuchten festgelegten Segments und der Abstand des vierten festgelegten Segments zum untersuchen festgelegten Segments ein zweites vorbestimmtes Verhältnis aufweisen. Dieser zweite Untersuchungsschritt geht dabei davon aus, dass insbesondere bei Personen, die eine Brille oder Sonnenbrille tragen, die einzelnen Augenbrauen nicht erkennbar sind, sondern dass auf Grund der starken Konturen der Brillen lediglich ein Segment bzw. eine Struktur erkennbar ist, die geometrisch der Länge der beiden Augenbrauen zusammen entspricht. Somit steht auch die Länge dieses die beiden Augenbrauen umfassenden Segments wieder in einem bestimmten Verhältnis zur Entfernung des Mundes im Gesicht des Benutzers. Werden somit zwei festgelegte Segmente erkannt, bei denen die Länge des ersten Segments zum Abstand des zweiten Segments ein zweites vorbestimmtes Verhältnis aufweist, so kann auch gemäß dem zweiten Untersuchungsschritt auf das Vorhandensein eines menschlichen Gesichts geschlossen werden. Als gültiger Bereich für das zweite vorbestimmte Verhältnis kann wieder ein Wert von 1:1 bis 1:1,7, aber insbesondere von 1:1,2 bis 1:1,5 angenommen werden.According to one Another advantageous embodiment is in the step of checking the positional relationship in a second examination step (corresponding to a second examination step) Detection mechanism) of each of the designated segments examines whether there is a fourth fixed segment to this segment exists below, especially along a vertical, the examined fixed segment and for which that the horizontal length of the examined fixed segment and the distance of the fourth specified Segments to examine fixed segment a second predetermined Ratio. This second investigation step assumes that in particular in individuals who wear glasses or sunglasses, the individual eyebrows are not recognizable, but that due to the strong contours the spectacles only one segment or structure is recognizable, the geometrical of the length the two eyebrows together corresponds. Thus stands also the Length of this the both eyebrows comprehensive segment again in a certain relationship to remove the mouth on the user's face. Become thus detected two specified segments, in which the length of the first segment to the distance of the second segment a second predetermined relationship may also according to the second examination step be closed to the presence of a human face. As valid Area for the second predetermined ratio can again a value of 1: 1 to 1: 1.7, but especially from 1: 1.2 to 1: 1.5 are accepted.
Gemäß einer vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung zunächst der erste Untersuchungsschritt durchgeführt, um insbesondere nach Gesichtern von Menschen zu suchen, die keine Brillenträger sind. Zeigt der erste Untersuchungsschritt kein Ergebnis, bei dem zu den jeweiligen untersuchten Segmenten kein zweites und drittes Segment gefunden worden ist, so wird im Folgenden der zweite Untersuchungsschritt durchgeführt. Es ist jedoch auch möglich, zunächst den zweiten und dann den ersten Untersuchungsschritt durchzuführen.According to one advantageous embodiment is in the step of checking the positional relationship first the first examination step carried out in particular for faces to look for people who are not wearing glasses. Shows the first examination step no result at which to the respective examined segments no second and third segment has been found, so in Following the second examination step performed. It but it is also possible first to carry out the second and then the first examination step.
Bei dem bisher beschriebenen Verfahren bzw. den vorteilhaften Ausgestaltungen hiervon wird insbesondere in dem ersten Untersuchungsschritt die positionsmäßige Beziehung dreier festgelegter Segmente zueinander bzw. ein erstes vorbestimmtes Verhältnis der Abstände der Segmente zueinander und wird bei dem zweiten Untersuchungsschritt die positionsmäßige Beziehung von (zwei) Segmenten in Abhängigkeit der Größe und/oder Form, insbesondere der (horizontalen) Länge, des ersten Segments als Kriterium zum Ableiten eines Vorhandenseins eines Gesichts in dem erfassten Bild einer Szene verwendet werden. Zur Verbesserung des Verfahrens, d. h. zur Erhöhung der Wahrscheinlichkeit, dass es sich tatsächlich um ein Gesicht handelt, kann gemäß einer weiteren vorteilhaften Ausgestaltung in einem weiteren Verfahrensschritt ein Extrahieren biometrischer Merkmale bezüglich der Mundpartie oder Lippenpartie aus einem Analysebereich um ein gefundenes drittes oder viertes festgelegtes Segment durchgeführt werden. Das bedeutet, es sollen in diesem zusätzlichen Schritt weitere Untersuchungen durchgeführt werden, ob das einen Mundbereich repräsentierende dritte oder vierte festgelegte Segment tatsächlich einen Mundbereich bzw. eine Mundpartie repräsentiert. Dabei können in dem erfassten Bild in einem Bereich, der sich an der Position des dritten oder des vierten festgelegten Segments befindet und das jeweilige Segment umfasst, Hell-Dunkel- und Dunkel-Hell-Helligkeitsübergänge bestimmt werden, um das Vorhandensein einer Oberlippe und Unterlippe einer Mundpartie abzuleiten. Vorteilhafter Weise wird dabei der Analysebereich des erfassten Bildes, der Bereich mit der vermuteten Mundpartie, einer Bearbeitung mit einem horizontal orientierten Gradientenfilter unterzogen, um ein drittes bearbeitetes Bild zu erhalten. Das dritte bearbeitete Bild, von oben nach unten betrachtet, kann dann entsprechend dem ersten bearbeiteten Bild eine scharfen Hell-Dunkel-übergang vom Oberlippenbereich zum "Zwischenlippenbereich" bzw. zum Mundöffnungsbereich darstellen, wobei anhand dieses Übergangs auf die Form der Oberlippe geschlossen werden kann. Diese ermittelte Form kann einem ersten Prüfschritt unterzogen werden, der anhand der Form der Oberlippenlinie feststellen soll, ob es sich tatsächlich um eine Oberlippe oder irgendeine andere Struktur handelt. Weist die Oberlippe für sie spezifische geometrische Eigenschaften auf, wie beispielsweise eine bestimmte (horizontale) Länge oder eine bzw. mehrere spezifische Krümmungen, so kann zunächst auf das tatsächliche Vorhandensein einer Mundpartie und somit auch auf das Vorhandensein eines Gesichts eines Menschen geschlossen werden. Somit kann das oben beschriebene Verfahren einschließlich dessen vorteilhafter Ausgestaltungen, bei dem bzw. denen anhand der positionsmäßigen Beziehung verschiedener festgelegter Segmente auf das Vorhandensein eines Gesichts geschlossen wird, durch eine Merkmalsextraktion, in diesem Fall der Extraktion geometrischer Eigenschaften der Oberlippe in dem ersten Prüfschritt, verbessert werden. Das bedeutet, dass nach diesem ersten Abschnitt der Merkmalsextraktion im Rahmen des ersten Prüfschritts schon die Wahrscheinlichkeit erhöht werden kann, dass es sich bei dem dritten oder vierten festgelegten Segment bzw. bei dem Analysebereich um einen Bildbereich handelt, in dem sich eine Mundpartie eines Gesichts befindet.In the method and the advantageous embodiments thereof described above, in particular in the first examination step, the positional relationship of three fixed segments to each other or a first predetermined ratio of the distances of the segments to each other and is in the second examination step, the positional relationship of (two) segments in Depending on the size and / or shape, in particular the (horizontal) length, the first segment can be used as a criterion for deriving a presence of a face in the captured image of a scene. In order to improve the method, ie to increase the probability that it is actually a face, according to a further advantageous embodiment, in a further method step, extracting biometric features with respect to the mouth or lip from an analysis area around a found third or fourth fixed segment be performed. This means that in this additional step further investigations are to be carried out as to whether the third or fourth fixed segment representing a mouth region actually represents a mouth region or an oral region. In this case, light-dark and dark-bright-brightness transitions can be determined in the detected image in an area located at the position of the third or the fourth fixed segment and the respective segment, in order to detect the presence of an upper lip and lower lip of a Derive mouth. Advantageously, the analysis region of the acquired image, the region with the presumed mouth part, is subjected to processing with a horizontally oriented gradient filter in order to obtain a third processed image. The third processed image, viewed from top to bottom, can then represent a sharp light-dark transition from the upper lip region to the "intermediate lip region" or the mouth opening region according to the first processed image, it being possible to deduce the shape of the upper lip from this transition. This determined shape can be subjected to a first test step, which is to determine whether it is actually an upper lip or any other structure based on the shape of the upper lip line. Does the upper lip have specific geometric properties for it, such as a certain (horizontal) length or one or more specific curvatures, it can be concluded first on the actual presence of an oral area and thus also on the presence of a human's face. Thus, the method described above, including its advantageous embodiments, which conclude the presence of a face from the positional relationship of various defined segments, can be improved by feature extraction, in this case the extraction of geometric properties of the upper lip in the first test step become. This means that after this first section of the feature extraction in the first checking step, the probability can already be increased that the third or fourth fixed segment or the analysis area is an image area in which a mouth part of a face is located ,
Erfüllen die bestimmten geometrischen Eigenschaften (beispielsweise bezüglich Länge bzw. Krümmung) die für eine Oberlippe spezifischen Kriterien, so kann die Merkmalsextraktion in einen zweiten Extraktionsabschnitt bzw. einen zweiten Prüfschritt übergehen, in dem nun eine Unterlippe bzw. Unterlippenlinie extrahiert werden soll. Eine Unterlippe kann beispielsweise mittels eines vertikalen Such-Algorithmus erkannt bzw. extrahiert werden, bei dem im Analysebereich zunächst die Graustufenwerte der Oberlippe ermittelt werden und dann entsprechende Graustufenwerte in einem Abschnitt gesucht werden, der sich in vertikaler Richtung unterhalb dem Bereich der Oberlippe befindet. Auf diese Weise ist es möglich, sehr helle Bereiche, wie beispielsweise die Zähne, sowie sehr dunkle Bereiche, wie beispielsweise den Rachenbereich, zu überspringen und einen bezüglich der Helligkeit der Oberlippe als Unterlippe zu identifizieren. Eine weitere Möglichkeit, die Unterlippe zu extrahieren, beruht auf der Tatsache, dass bei entsprechend großer Wahl des Analysebereichs, bei der ein Teil des Kinnbereichs mit enthalten ist, insbesondere in dem dritten bearbeiteten Bild von unten nach oben betrachtet, ein dunkler Bereich (Schattenbereich) unterhalb der Unterlippe erkennbar ist, der darauf beruht, dass die Unterlippe normaler Weise bezüglich des Gesichts um einen kleinen Betrag nach vorne gekrümmt ist. Somit kann gemäß diesem Verfahren anhand des untersten und markantesten Helligkeitsübergangs von Dunkel nach Hell von unten nach oben betrachtet, auf die Unterlippe bzw. Unterlippenlinie geschlossen werden.Fulfill the certain geometric properties (for example, in terms of length or curvature) the for one Upper lip specific criteria, so can the feature extraction proceed to a second extraction section or a second checking step, in which now a lower lip or lower lip line are extracted should. A lower lip, for example, by means of a vertical Search algorithm be recognized or extracted, in the analysis area first the Grayscale values of the upper lip are determined and then corresponding gray scale values to be searched in a section that is vertical located below the area of the upper lip. That way is it is possible very bright areas, such as the teeth, as well as very dark areas, such as the throat area, to skip and one regarding the To identify the upper lip as a lower lip. A another possibility extracting the lower lip, based on the fact that when appropriate greater Choice of analysis area where part of the chin area is with is included, especially in the third edited image of viewed down to the top, a dark area (shadow area) below the lower lip, which is based on the fact that the lower lip normal to the face by one small amount curved forward is. Thus, according to this method based on the lowest and most striking brightness transition viewed from dark to bright from bottom to top, on the lower lip or lower lip line are closed.
Sind nun Oberlippe und Unterlippe identifiziert, so ist es nun möglich, Viseme bzw. Mundmerkmale zu extrahieren, indem die geometrischen Eigenschaften der Oberlippe und Unterlippe getrennt untersucht werden. are now identified upper lip and lower lip, so it is now possible viseme or extract oral characteristics by the geometric properties the upper lip and lower lip are examined separately.
Es kann somit zusammenfassend gesagt werden, dass ein Verfahren gemäß der vorliegenden Erfindung es zunächst erlaubt, anhand eines Bildes in einem Durchlauf helligkeitsspezifische Segmente festzulegen, um bei der Überprüfung derer positionsmäßigen Beziehung auf das Vorhandensein und die Position eines (menschlichen) Gesichts zu schließen.It It can thus be said in summary that a method according to the present invention it first allows, based on an image in a single pass, brightness-specific Segments to determine when checking their positional relationship on the presence and position of a (human) face close.
Ein Programmprodukt für eine Datenverarbeitungsanlage, das Codeabschnitte enthält, mit denen eines der geschilderten Verfahren auf der Datenverarbeitungsanlage ausgeführt werden kann, lässt sich durch geeignete Implementierung des Verfahrens in einer Programmiersprache und Übersetzung in von der Datenverarbeitungsanlage ausführbaren Code ausführen. Die Codeabschnitte werden dazu gespeichert. Dabei wird unter einem Programmprodukt das Programm als handelbares Produkt verstanden. Es kann in beliebiger Form vorliegen, so zum Beispiel auf Papier, einem computerlesbaren Datenträger oder über ein Netz verteilt.One Program product for a data processing system containing code sections, with one of the described methods on the data processing system accomplished can be, can be by suitable implementation of the method in a programming language and translation in execute executable code from the data processing system. The Code sections are stored for this purpose. It is under a program product understood the program as a tradable product. It can be in any Form, for example, on paper, a computer-readable medium or via a Network distributed.
Weitere Vorteile und Merkmale der Erfindung ergeben sich aus der Beschreibung eines Ausführungsbeispiels anhand der Zeichnung. Dabei zeigt:Further Advantages and features of the invention will become apparent from the description an embodiment based on the drawing. Showing:
Der Einzug von Kamerafunktionalitäten in mobile Endgeräte der dritten Generation erlaubt neue Wege der Interaktion mit den Geräten. Mittels Gesichtsdetektion und -tracking kann die von der Kamera aufgezeichnete Bewegung des Benutzers direkt in Bewegungsdaten umgesetzt werden. Diese Bewegungsdaten können derart ausgewertet werden, dass die als Positionierung für die Selektion von auf einer grafischen Benutzerschnittstelle dargestellten Buttons verwendet werden.Of the Collection of camera functionalities into mobile devices The third generation allows new ways of interacting with the Devices. Using face detection and tracking can be done by the camera recorded movement of the user translated directly into motion data become. This movement data can be evaluated in such a way that as a positioning for the selection of buttons displayed on a graphical user interface be used.
Wie
in den
Das
Selektionsmittel
Dadurch kann bei mobilen Endgeräten, insbesondere bei mobilen Endgeräten mit weniger als 24 oder weniger als 10 Tasten, bei Mobiltelefonen und/oder bei PDAs, mit Kamerafunktionalität eine sehr komfortable Einhandbedienung ohne zusätzliche Hardware realisiert werden. Bei der Realisierung als bewegter Mauszeiger kann der Benutzer das ihm bekannte Bedienkonzept der Maus auf die Bewegung seines Endgeräts übertragen.Thereby can be used on mobile devices, especially with mobile devices with less than 24 or less than 10 buttons, with mobile phones and / or for PDAs, with camera functionality a very comfortable one-hand operation realized without additional hardware become. When implemented as a moving mouse pointer, the user can the familiar operating concept of the mouse on the movement of his Transfer terminal.
Es können weiterhin Stabilisierungsverfahren zur fließenden Bewegung des Mauszeigers bzw. der Button-Auswahl verwendet werden.It can Continue stabilization method for smooth movement of the mouse pointer or the button selection.
Zum
optischen Feedback kann entweder das Bild des Kopfs
Für eine Bedienung in dunkler Umgebung kann das mobile Endgerät mit Beleuchtungseinrichtungen wie beispielsweise Infrarotleuchtdioden ausgestattet werden.For a service in dark surroundings, the mobile terminal can use lighting devices such as infrared light emitting diodes are equipped.
Das mobile Endgerät und das vorgeschlagene Verfahren können in vielfältiger Weise eingesetzt bzw. angewendet werden. Dazu gehört eine Eingabe von Telefonnummern, bei entsprechender Größe der Anzeige bzw. einem Softscrolling auch eine Auswahl von Buchstaben oder Sonderzeichen, beispielsweise für SMS, eine Menüsteuerung des Gerätes und/oder eine Applikationssteuerung.The mobile terminal and the proposed method can be used in a variety of ways used or applied. This includes entering phone numbers, with appropriate size of the ad or a soft-scrolling also a selection of letters or special characters, for example SMS, a menu control of the device and / or an application control.
Zum Messen der Relativbewegung, also zur Lokalisation des Benutzers bzw. seines Gesichts gegenüber dem Endgerät, kann das im Folgenden beschriebene Verfahren verwendet werden.To the Measuring the relative movement, ie the localization of the user or his face the terminal, For example, the method described below can be used.
Es
sei dabei zunächst
auf
Für den Fall
der im folgenden erläuterten
bevorzugten Ausführungsform
sind die in
Im Folgenden sollen nun die in dem optischen Auswerteabschnitt OAA durchführbaren Mechanismen bzw. einzelnen Verfahren ausführlich dargestellt werden.in the The following will now be in the optical evaluation section OAA feasible Mechanisms or individual procedures are presented in detail.
Primärer DetektionsmechanismusPrimary detection mechanism
Es
sei nun auf
Ein
derart beschriebener primärer
Detektionsmechanismus soll nun anhand der
Es sei bemerkt, dass der gesamte Vorgang des primären Detektionsmechanismus, wie er gerade beschrieben worden ist, in einem einzigen Durchgang durchgeführt werden kann, wobei am Ende des Durchgangs das ursprünglich erfasste Bild verworfen werden kann und nur noch die gespeicherten Bildpunktdaten des Analysebereich benötigt werden. Wie es ferner zu erkennen ist, werden innerhalb dieses einzigen Durchlaufs die Bilddaten des erfassten Bildes mit sehr einfachen Algorithmen erheblich verringert, was der Anforderung nach Minimierung des Speicherbedarfs, Rechenzeit und Durchlaufzeit Rechnung trägt.It It should be noted that the entire process of the primary detection mechanism, as just described, in a single pass carried out which at the end of the passage is the one originally recorded Image can be discarded and only the stored pixel data of the analysis area needed become. As will be further appreciated, within this single pass the image data of the captured image with very simple algorithms significantly reduced the requirement for minimizing memory footprint, Calculation time and lead time.
Merkmalsextraktionfeature extraction
Die
nun folgende Merkmalsextraktion dient beispielsweise der Plausibilitätsprüfung, ob
in dem gefundenen Analysebereich wirklich ein Gesicht mit Mundpartie
bzw. Lippen vorliegt. Zunächst
sei auf
Wird
eine gefundene Oberlippenlinie als positiv (entsprechend einer tatsächlichen
Oberlippe bzw. Oberlippenlinie) bewertet, wird ein zweiter Prüfschritt
bzw. Extraktionsschritt durchgeführt,
bei dem die Unterlippe oder Unterlippenlinie identifiziert werden
soll. Da das genaue Extrahieren der Unterlippe auf Grund generell
schwächerer
Konturierung der Unterlippe mittels einem Filter, wie dem oben beschriebenen
Gradientenfilter, schwierig ist, wird in diesem Fall ein vertikaler
Suchalgorithmus angewandt, der ausgehend von der relativ gut erkennbaren
Oberlippe bzw. Oberlippenlinie, welche durch die oberen weißen Quadrate
OL in
Sekundärere DetektionsmechanismusSecondary detection mechanism
Wie oben bezüglich der Merkmalsextraktion erwähnt worden ist, ist es möglich, dass nach Durchführen des primären Detektionsmechanismus' und nach einer Plausibilitätsprüfung in einem ersten Prüfschritt der Merkmalsextraktion der durch den primären Detektionsmechanismus gefundene Analysebereich keine tatsächliche Mundpartie aufweisen kann. In diesem Fall wird der sekundäre Detektionsmechanismus eingesetzt, um einen Analysebereich für eine Mundpartie zu finden. Es sei dabei erwähnt, dass der sekundäre Detektionsmechanismus bereits algorithmisch beim Durchlauf des primären Detektionsmechanismus berücksichtigt werden kann, d. h. nach Erfassen des ersten Bildes der Szene. Es ist jedoch auch möglich, dass der zweite Detektionsmechanismus aber erst in einem zweiten Durchlauf bezüglich eines zweiten erfassten Bildes der Szene durchgeführt werden kann. Wird der sekundäre Detektionsmechanismus bereits beim Durchlaufen des primären Detektionsmechanismus durchgeführt, so können die damit identifizierten bzw. festgelegten Segmente dann erst beim Aufruf des sekundären Detektionsmechanismus ausgewertet werden.As above the feature extraction mentioned has been possible, it is possible that after performing of the primary Detection mechanism 'and after a plausibility check in a first test step the feature extraction of those found by the primary detection mechanism Analysis area no actual Mouthpiece may have. In this case, the secondary detection mechanism used to find a mouthpiece analysis area. It should be mentioned, that the secondary Detection mechanism already algorithmic in the passage of the primary detection mechanism considered can be, d. H. after capturing the first image of the scene. It but it is also possible that the second detection mechanism but only in a second Pass with respect to one second captured image of the scene can be performed. Will the secondary detection mechanism already performed while going through the primary detection mechanism, so can The identified or specified segments then only when Call the secondary Detection mechanism are evaluated.
Der
Grund für
das Fehlschlagen des primären
Detektionsmechanismus' kann
darin liegen, dass bei stark konturierten Brillen, Sonnenbrillen
oder durchgängigen
Augenbrauen keine zwei getrennten Augenbrauensegmente für die gesichtsgeometrische Beurteilung
zur Verfügung
stehen, weshalb in diesem Fall ein anderer Detektionsmechanismus
zu verwenden ist. Bei dem zweiten Detektionsmechanismus werden dabei
zunächst
die gleichen Bearbeitungsschritte, wie die in
Ausgehend
von einem in
Ist nun mittels dem sekundären Detektionsmechanismus zu einem ersten den Augenbrauen entsprechenden Segment ein zweites der Mundpartie entsprechendes Segment gefunden worden, so kann dieser gefundene Bereich bezüglich Position und Größe in dem erfassten Bild als Analysebereich gespeichert werden und der oben dargestellten Merkmalsextraktion zugeführt werden.is now by means of the secondary Detection mechanism to a first corresponding to the eyebrows Segment a second of the mouthpiece corresponding segment found has been found, so this area found in position and size in the captured image as an analysis area and the above feature extraction shown are supplied.
Zusammenfassend kann also festgestellt werden, dass die in dem optischen Auswerteabschnitt OAA durchgeführten Verfahren zur Analyse einer Szene bzw. zum Auffinden, Verfolgen und Analysieren einer Mundpartie, insbesondere für Datenverarbeitungsanlage mit eingeschränkten Ressourcen vorteilhaft ist. Durch den Einsatz von gesichtsgeometrischen Segmentierungsverfahren kann das visuelle oder optische Datenvolumen zur Weiterverarbeitung sehr schnell auf kleine Segmentmengen reduziert werden. Eingebaute Plausibilitäts- bzw. Robustheitsprüfung (bei der Merkmalsextraktion) erlauben dabei auch ein hohes Maß an Zuverlässigkeit und verhindern eine Fehldetektion.In summary, it can thus be stated that the method carried out in the optical evaluation section OAA is advantageous for analyzing a scene or for finding, tracking and analyzing an oral area, in particular for data processing installations with limited resources. Through the use of facial geometry segmentation methods, the visual or optical data volume for further processing can very quickly be reduced to small segment quantities be made. Built-in plausibility and robustness test (in the feature extraction) also allow a high degree of reliability and prevent misdetection.
Alle Verfahren können vorteilhaft zur Bestimmung der Position des Benutzers gegenüber dem mobilen Endgerät verwendet werden, indem aus der Position des Gesichts, insbesondere der Mundpartie, im Bild die Position des Benutzers berechnet wird. Dabei ist es nicht einmal nötig, die absolute Position zu bestimmen, sondern nur die relative in aufeinander folgenden Bildern, aus der sich die Relativbewegung des Benutzers gegenüber dem mobilen Endgerät berechnen lässt. Entsprechend dieser Relativbewegung wird dann das Selektionsmittel auf der grafischen Benutzerschnittstelle verschoben.All Procedures can advantageous for determining the position of the user relative to the mobile terminal be used by moving from the position of the face, in particular the mouth part, in the picture the position of the user is computed. there it is not even necessary to determine the absolute position, but only the relative in successive pictures that make up the relative movement of the user the mobile terminal can be calculated. According to this relative movement then the selection agent moved to the graphical user interface.
Claims (24)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10313019A DE10313019B4 (en) | 2003-03-24 | 2003-03-24 | One-hand operation of terminals using gesture recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10313019A DE10313019B4 (en) | 2003-03-24 | 2003-03-24 | One-hand operation of terminals using gesture recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10313019A1 DE10313019A1 (en) | 2004-10-28 |
DE10313019B4 true DE10313019B4 (en) | 2005-02-24 |
Family
ID=33038744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10313019A Expired - Fee Related DE10313019B4 (en) | 2003-03-24 | 2003-03-24 | One-hand operation of terminals using gesture recognition |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10313019B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11153472B2 (en) | 2005-10-17 | 2021-10-19 | Cutting Edge Vision, LLC | Automatic upload of pictures from a camera |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6831632B2 (en) | 2001-04-09 | 2004-12-14 | I. C. + Technologies Ltd. | Apparatus and methods for hand motion tracking and handwriting recognition |
GB0505362D0 (en) * | 2005-03-15 | 2005-04-20 | Intelligent Earth Ltd | Interface control |
DE102005013541B4 (en) * | 2005-03-23 | 2014-02-13 | Hewlett-Packard Development Co., L.P. | Method for setting a communication terminal and communication terminal |
DE102005024638A1 (en) * | 2005-05-30 | 2006-12-07 | Siemens Ag | Word/text inputs navigation method, for mobile telephone, involves displacing menu based on requirements of electronic device movement found by image recording device, where relative position of cursor and menu entry is found by device |
WO2007003195A1 (en) * | 2005-07-04 | 2007-01-11 | Bang & Olufsen A/S | A unit, an assembly and a method for controlling in a dynamic egocentric interactive space |
FR2889323B1 (en) * | 2005-07-29 | 2008-12-12 | Realeyes3D Sa | METHOD FOR CONTROLLING AN INTERFACE USING A CAMERA COMPRISING A COMMUNICATION TERMINAL |
KR100764698B1 (en) * | 2006-08-07 | 2007-10-08 | 삼성전자주식회사 | Mobile device and user interface control method therefor based on pattern cognition and analysis of image captured by camera |
DE102007059273A1 (en) | 2007-12-08 | 2009-06-18 | T-Mobile Internationale Ag | Virtual keyboard of a mobile device |
US8126221B2 (en) * | 2008-02-14 | 2012-02-28 | Ecole Polytechnique Federale De Lausanne (Epfl) | Interactive device and method for transmitting commands from a user |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0825514A2 (en) * | 1996-08-05 | 1998-02-25 | Sony Corporation | Information processing device and method for inputting information by operating the overall device with a hand |
WO2001043473A1 (en) * | 1999-12-08 | 2001-06-14 | Telbird Ltd. | Hand held data processor unit |
GB2357684A (en) * | 1999-12-21 | 2001-06-27 | Motorola Ltd | Hand-held terminal having a display screen which is controlled by movement of the terminal |
-
2003
- 2003-03-24 DE DE10313019A patent/DE10313019B4/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0825514A2 (en) * | 1996-08-05 | 1998-02-25 | Sony Corporation | Information processing device and method for inputting information by operating the overall device with a hand |
WO2001043473A1 (en) * | 1999-12-08 | 2001-06-14 | Telbird Ltd. | Hand held data processor unit |
GB2357684A (en) * | 1999-12-21 | 2001-06-27 | Motorola Ltd | Hand-held terminal having a display screen which is controlled by movement of the terminal |
Non-Patent Citations (3)
Title |
---|
DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesian network approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159 |
DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesiannetwork approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159 * |
KIN CHOONG YOW u.a.: Feature-based human face de- tection. In: Image and Vision Computing, Sept. 1997. Elsevier, Netherlands, Vol.15, No.9, Pages: 713-735. * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11153472B2 (en) | 2005-10-17 | 2021-10-19 | Cutting Edge Vision, LLC | Automatic upload of pictures from a camera |
US11818458B2 (en) | 2005-10-17 | 2023-11-14 | Cutting Edge Vision, LLC | Camera touchpad |
Also Published As
Publication number | Publication date |
---|---|
DE10313019A1 (en) | 2004-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007056528B3 (en) | Method and device for finding and tracking pairs of eyes | |
DE69428089T2 (en) | Device and method for image analysis | |
DE69612700T2 (en) | Feature localization in an image | |
DE60213600T2 (en) | METHOD AND DEVICE FOR EXTRACTION OF A SIGNIFICANT TERRITORY IN A BIOLOGICAL SURFACE PICTURE OBTAINED BY EXCEEDING RECORDING | |
DE60307583T2 (en) | Evaluation of the sharpness of an image of the iris of an eye | |
DE102007055715A1 (en) | Apparatus, method and program for eye detection | |
DE102010016251A1 (en) | Detection method for a moving object and the command input method underlying the detection of the moving object | |
DE19847261A1 (en) | Process and system for person recognition with model-based face finding | |
DE102013009901A1 (en) | Method for assessing quality of human facial images in facial recognition application, involves classifying quality of image by classifying that image has quality same as that of previously classified image related to smallest difference | |
DE19634768A1 (en) | Face identification system using video image analysis | |
DE102012108838A1 (en) | Method and device for recording fingerprints based on fingerprint scanners in reliably high quality | |
DE19810792A1 (en) | Personal identity verification method for access control e.g. for automatic banking machine | |
DE10313019B4 (en) | One-hand operation of terminals using gesture recognition | |
DE102017212176A1 (en) | System and method for determining efficacy of a cosmetic skin treatment | |
DE112017008174T5 (en) | Expression recognizer | |
DE102023125422A1 (en) | Hybrid object detection method based on thermal images in combination with YOLO models and object tracking techniques | |
DE102005025220B4 (en) | Apparatus, method and program for removing pores | |
DE112019004112T5 (en) | SYSTEM AND PROCEDURE FOR ANALYSIS OF MICROSCOPIC IMAGE DATA AND FOR GENERATING A NOTIFIED DATA SET FOR TRAINING THE CLASSIFICATORS | |
EP1143373A1 (en) | Method for error-free image acquisition using an electronic sensor | |
DE102005049017B4 (en) | Method for segmentation in an n-dimensional feature space and method for classification based on geometric properties of segmented objects in an n-dimensional data space | |
DE19754909C2 (en) | Method and device for acquiring and processing images of biological tissue | |
CH716082A1 (en) | Procedure for user identification. | |
DE112017007162T5 (en) | Face detection device, associated control method and program | |
EP3663976B1 (en) | Method for detecting fingerprints | |
DE10221391B4 (en) | Method for analyzing a scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |