DE4339161A1 - Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder - Google Patents

Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder

Info

Publication number
DE4339161A1
DE4339161A1 DE4339161A DE4339161A DE4339161A1 DE 4339161 A1 DE4339161 A1 DE 4339161A1 DE 4339161 A DE4339161 A DE 4339161A DE 4339161 A DE4339161 A DE 4339161A DE 4339161 A1 DE4339161 A1 DE 4339161A1
Authority
DE
Germany
Prior art keywords
hand
image
segment
segmentation
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4339161A
Other languages
English (en)
Other versions
DE4339161C2 (de
Inventor
Subutai Dr Ahmad
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of DE4339161A1 publication Critical patent/DE4339161A1/de
Application granted granted Critical
Publication of DE4339161C2 publication Critical patent/DE4339161C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft ein Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder. Derartige Verfahren werden z. B. zur Steuerung von Datenverarbeitungssystemen oder daran ange­ schlossenen-Systemen, z. B. in der Medizintechnik, der Ferti­ gungstechnik oder der Automatisierungstechnik benötigt. In der Literatur sind verschiedene Verfahren dieser Art be­ schrieben worden. So beschreibt Krueger in [1] ein System, welches die Umrisse bzw. die Umrandungskurve einer Hand in zwei Dimensionen detektieren kann, unter der Vorraussetzung eines gleichförmigen Hintergrundes hinter der Hand. Segen be­ schreibt in [2] ein System mit ähnlichen Eigenschaften, wel­ ches die Bewegungen einer Hand in zwei Dimensionen unter der Annahme eines weißen Hintergrundes verfolgen kann; dieses Sy­ stem ist auch bereits dazu in der Lage, eine kleine Anzahl von Gesten zu erlernen. Schließlich beschreiben Wirtz und Maggioni in [3] ein System zur Verfolgung von Handbewegungen in drei Dimensionen, das zwar unabhängig von den Eigenschaf­ ten des Bildhintergrundes arbeitet, dafür aber voraussetzt, daß die betreffende Person einen Handschuh mit darauf ange­ brachten speziellen Markierungen trägt.
Keines der bekannten Verfahren ist jedoch in der Lage, unab­ hängig von den Eigenschaften des Bildhintergrundes und in drei Dimensionen zu arbeiten, ohne auf spezielle Markierungen auf der Handoberfläche angewiesen zu sein. Der Erfindung liegt deshalb die Aufgabe zugrunde, ein Verfahren zur Verfol­ gung von Bewegungen einer menschlichen Hand in einer zeitli­ chen Folge digitaler Farbbilder anzugeben, welches in der La­ ge ist, dreidimensionale Informationen auszuwerten, unabhän­ gig von den Eigenschaften des Bildhintergrundes arbeitet und nicht auf spezielle Markierungen auf der Handoberfläche ange­ wiesen ist. Diese Aufgabe wird erfindungsgemäß durch ein Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder mit Merk­ malen nach Anspruch 1 gelöst.
Bei diesem Verfahren wird eine Segmentierung der Hand mit Hilfe eines Farbhistogramms dieser Hand durchgeführt.
Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen.
Eine bevorzugte Ausführungsform des erfindungsgemäßen Verfah­ rens klassifiziert dazu eine Gruppe von Bildpunkten als zum Handsegment gehörend, falls ein Vergleich des Farbhistogramms dieser Gruppe von Bildpunkten mit dem Farbhistogramm der Hand eine hinreichende Übereinstimmung ergibt.
Diese Vorgehensweise ist mit dem Vorteil einer geringeren Rauschempfindlichkeit der Segmentierung verbunden. Bei einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden aus den Koordinaten der Mittelpunkte der zum Handsegment gehörenden Gruppen von Bildpunkten die Koor­ dinaten des Schwerpunktes des Handsegments, die Momente zweiter Ordnung um diesen Schwerpunkt und daraus die Orien­ tierung der Hauptachse des Handsegments ermittelt, und es wird die senkrechte zur Bildebene gemessene momentane Entfer­ nung der Hand von der Kamera durch einen Vergleich der momen­ tanen Fläche des Handsegments mit seiner Fläche im Zeitpunkt einer Kalibrierung ermittelt. Da das Moment der Ordnung 0 gerade die Fläche des Handsegments angibt, bietet diese Vorgehensweise einen vorteilhaften Weg zur Bestimmung der Fläche des Handsegments.
Bei einer weiteren bevorzugten Ausführungsform des erfin­ dungsgemäßen Verfahrens werden zur Rauschunterdrückung die ermittelten Meßwerte für die Schwerpunktskoordinaten und die Orientierung der Hauptachse des Handsegments zur zeitlich rekursive Filterung geglättet. Auf diese Weise wird das erfindungsgemäße Verfahren weniger anfällig gegen Rauschen in den gemessenen Schwerpunktskoordinaten.
Bei einer weiteren bevorzugten Ausführungsform des erfin­ dungsgemäßen Verfahrens wird die Segmentierung eines Bildes auf einen Ausschnitt der Bildebene beschränkt, welcher das Handsegment des vorhergehenden Bildes zusammen mit einer geeignet gewählten Umgebung des Handsegments enthält. Auf diese Weise läßt sich eine beachtliche Beschleunigung des erfindungsgemäßen Verfahrens erzielen, welcher einer Ausführ­ barkeit dieses Verfahrens in Echtzeit zugute kommt.
Bei einer weiteren bevorzugten Ausführungsform des erfin­ dungsgemäßen Verfahrens wird die Segmentierung mit Hilfe einer Unterabtastung des zu segmentierenden Bildes durchge­ führt. Auch diese Vorgehensweise ist mit einer bedeutenden Beschleunigung des erfindungsgemäßen Verfahrens verbunden.
Im folgenden wird die Erfindung anhand bevorzugter Ausfüh­ rungsbeispiele näher beschrieben.
Zur Durchführung des erfindungsgemäßen Verfahrens wird eine menschliche Hand und ihre Bewegungen mit Hilfe einer Kamera, welche eine zeitliche Folge digitaler Farbbilder erzeugt, aufgenommen. Liegt diese zeitliche Folge von digitalen Farb­ bildern vor, besteht eine erste Aufgabe eines Systems zur Durchführung des erfindungsgemäßen Verfahrens in der Trennung der zu verfolgenden Hand von dem Bildhintergrund. Das haupt­ sächliche Problem bei der Entwicklung eines entsprechenden Moduls zur Segmentierung besteht darin, daß diese Segmentie­ rung unempfindlich gegenüber normalerweise auftretenden Bildhintergrundformen sein muß und daß das Verfahren in Echtzeit ablaufen muß. Dies ist deshalb keine einfache Aufga­ be, weil das Bild im allgemeinen eine Vielzahl irrelevanter und verwirrender Details enthalten kann. Die grundlegende Idee die den Kern des erfindungsgemäßen Verfahrens bildet, besteht darin, die spezielle Farbe einer menschlichen Hand dazu zu verwenden, diese Hand vom Bildhintergrund zu trennen. Die meisten Objekte in üblichen Arbeitsumgebungen haben nicht die gleiche Farbe wie eine menschliche Hand, so daß eine Segmentierung aufgrund der Farbunterschiede verhältnismäßig saubere Ergebnisse liefern sollte. Bei dem erfindungsgemäßen Verfahren wird ein Farbhistogramm dazu benutzt die Verteilung der Farben in einem Flächenausschnitt aus einem Bild der menschlichen Haut zu schätzen. Sobald diese Schätzung vor­ liegt, kann sie dazu verwendet werden zu entscheiden, welche Teile eines Bildes zur Handfläche gehören und welche nicht dazu gehören.
Die grundlegende Idee hinter dem Begriff "Farbhistogramm" ist eine Unterteilung des RGB (Rot-Grün-Blau) Farbraumes in einer Anzahl von Zellen. Zur Gewinnung eines repräsentativen Farb­ histogramms wird ein Ausschnitt eines Bildes einer Hauptober­ fläche ausgewählt. Aus der Menge der Bildpunkte dieses Aus­ schnittes wird ein Farbhistogramm gebildet, in dem jeweils die Zahl derjenigen Bildpunkte ermittelt wird, deren Farbwert in einer gegebenen Zelle des Farbraums liegt. Anstelle des RGB Raums könnte auch ein normalisierter zweidimensionaler Farbraum verwendet werden, welcher dazu beiträgt, die Auswir­ kungen von Beleuchtungsänderungen abzuschwächen.
Ist ein Beispielbildpunkt mit Hautfarbe gegeben, dessen Farbwerte mit r, g und b, bezeichnet werden, können dessen normalisierte Farben nach den Formeln
r′ = r/(r+g+b+1)
und
b′ = b/(r+g+b+1)
berechnet werden. Die Werte für r′ und b′ liegen zwischen 0 und 1 und können als relative Anteile der Farben Rot und Blau interpretiert werden. Jede der Achsen r′ und b′ im zweidi­ mensionalen normalisierten Farbraum kann mit einem Faktor d (z. B. d = 5) diskretisiert werden. Das normalisierte Farbhi­ stogramm ist dann eine d×d-Matrix. Für jeden Bildpunkt kann der Index jeder Dimension dann nach den Beziehungen
berechnet werden.
Um das Histogramm zu erstellen wird die Matrix zunächst mit Nullen initialisiert. Dann wird für jeden Bildpunkt (x, y) in dem Satz von Bildpunkten der zum Training des Histogramms verwendet wird die normalisierten Farbwerte berechnet welche dem Histogrammindex entsprechen, und der entsprechende Histo­ grammwert an dieser Stelle wird um 1 erhöht: H(i,j) ← H(i,j)+1. Durch diese Art der Histogrammberechnung von Haut­ proben wird im wesentlichen eine grobe Schätzung der Wahr­ scheinlichkeitsverteilung der Farben in der Hautoberfläche ermittelt.
Zur Laufzeit vergleicht das erfindungsgemäße Verfahren lau­ fend kleine Ausschnitte des momentanen digitalen Bildes (Gruppen von Bildpunkten) mit dem gespeicherten Histogramm, wobei eine der üblichen Algorithmen zum Vergleich von Histo­ grammen verwendet werden kann. Ein verbreiteter Weg zum Vergleich zweier Histogramme ist der Algorithmus von Swain und Ballard [4]. Bei diesem Algorithmus wird die Vergleichs­ zahl M zwischen den Histogrammen p und q definiert als:
Diejenigen Gruppen von Bildpunkten (Bildausschnitte) deren Vergleichszahl über einem vorgegebenen Schwellwert (typisch 0,9) liegt werden als Bereiche mit Hautfarbe angesehen und es wird davon ausgegangen, daß diese Bereiche zur Hand gehören.
Sobald das gesamte Bild auf diese Weise segmentiert wurde, liegt eine Liste von Bildausschnitten des Bildes vor; welche zu dem gespeicherten Histogramm passen. Jeder Bildausschnitt besitzt ein Zentrum und eine Fläche. Aus der Menge dieser Bildausschnitte und aus ihren Parametern (Schwerpunkten und Flächen) ist es möglich den Schwerpunkt und die Orientierung der Handfläche zu ermitteln. Dies wird weiter unten beschrie­ ben. Wenn sich die Hand bewegt, ist es auf diese Weise mög­ lich ihre Position und Orientierung im Raum in Echtzeit zu verfolgen.
Nach der Segmentierung kann die Position der Hand im Raum und ihre Orientierung (Anordnung) ermittelt werden. Die Schwer­ punkte der segmentierten Gruppen von Bildpunkten (der segmen­ tierten Bildausschnitte) ist gleich der zweidimensionalen Position der Hand:
und
wobei N die Gesamtzahl der Bildausschnitte bezeichnet die bei der Segmentierung als zur Hand gehörig ermittelt wurden, und wobei pix und piy die x- und y-Koordinaten des Schwerpunktes des Bildausschnittes mit dem Index i bezeichnen.
Die ebene Drehung (Drehung um die Kameraachse) der Hand wird durch Anpassung einer Ellipse an die segmentierten Bildaus­ schnitte ermittelt, wobei der Winkel und die Hauptachsen der Ellipse ermittelt werden. Dies kann mit Hilfe der Momente geschehen, insbesondere der Momente zweiter Ordnung der Bildausschnitte:
Die Orientierung der Hauptachse ist durch
gegeben.
Da das Verfahren mit einer Kamera arbeitet, ist es nicht ganz leicht eine genaue Schätzung des Abstandes der Hand von der Kamera zu erhalten. In jedem Falle ist es jedoch möglich, die relative Tiefe (d. h. die Tiefe relativ zu einer gegebenen Standardanordnung) zu berechnen. Mit dieser Information ist es dann möglich zu sagen, ob die Hand sich der Kamera nähert oder ob sie sich von der Kamera wegbewegt. Eine Methode dies zu ermitteln besteht darin, einfach die Gesamtfläche der segmentierten Bildausschnitte zu ermitteln. Wenn die zu verfolgende Hand der Kamera näher kommt, wird sie im allge­ meinen einen größeren Ausschnitt in der Bildebene belegen und die Gesamtfläche aller zur Hand gehörigen Bildausschnitte wird zunehmen. Dieser Effekt kann aber auch durch Störungen, welche durch vorübergehend auftretende Rauschsegmente veran­ laßt sind auftreten. Eine robustere Schätzung erhält man deshalb durch eine gewichtete Berechnung der Fläche der Bild­ ausschnitte mit Hilfe einer Gaußkurve, die um den Schwerpunkt der Bildausschnitte zentriert ist:
Hierbei bezeichnet Ap die Fläche die von jedem Bildausschnitt belegt wird und S ist ein Skalierungsfaktor. Um das System zu kalibrieren, muß die Fläche des ersten Bildes gespeichert werden (Kalibrierungsschritt). Anhand dieser Fläche ist es dann bei nachfolgenden Bildern möglich, eine Schätzung des Abstandes der Hand von der Kamera durch Vergleich der momen­ tanen Fläche mit der kalibrierten Fläche zu erhalten. Die z-Koordinate der Schwerpunktslage ergibt sich somit als Quoti­ ent der anfänglichen Fläche zur momentanen Fläche. Dieser Wert ist dann ein, wenn die zu verfolgende Hand sich gerade an der gleichen Position befindet wie im zur Kalibrierung verwendeten Bild. Der Wert wird kleiner, wenn die Hand sich der Kamera nähert und größer, wenn sie sich fortbewegt. Auf diese Weise gibt dieser Wert eine Schätzung der relativen Lage der zu verfolgenden Hand in Abstand zur Kamera an.
Um in diesen Schätzungen ein Rauschen zu unterdrücken ist es vorteilhaft, eine gleitende Mittelwertbildung in Form einer zeitlich rekursiven Filterung der oben angegebenen Parameter zu verwenden. Hierbei werden frühere Schätzungen mit laufen­ den Messungen so kombiniert, wie dies in den nachstehenden Formeln angegeben ist:
(7) Cx(t) = αxCx+(1-αx)Cx(t-1)
(8) Cy(t) = αyCy+(1-αy)Cy(t-1)
(9) Cz(t) = αzCz+(1-αz)Cz(t-1)
(10) R(t) = αRR+(1-αR)R(t-1)
Hierbei sind die Werte der Gewichtsfaktoren α im allgemeinen zwischen 0 und 1. Auf diese Weise erhält man zeitlich geglät­ tete Schätzwerte für die oben angegebenen Parameter. Im allgemeinen ist ein Wert von α = 0,5 zur Durchführung des Verfahrens gut geeignet.
Obwohl die angegebenen Berechnungen bereits meistens mit ausreichender Effizienz durchgeführt werden können, kann die Eignung des erfindungsgemäßen Verfahrens für die Echzeitaus­ führung noch durch weitere Verbesserungen merklich gesteigert werden. Diese möglichen Verbesserungen umfassen den Einsatz eines dynamisch gesteuerten Suchfensters und einer adaptiven Unterabtastung der Bilder.
Der Zweck eines dynamischen Suchfensters besteht darin, irrelevante Bereiche des Bildes von vornherein zu ignorieren. Dazu verwaltet das Verfahren vorzugsweise ein rechteckiges Suchfenster um die segmentierten Bildausschnitte. Für jedes nachfolgende Bild werden lediglich Bildbereiche innerhalb dieses Suchfensters für die Segmentierung bearbeitet. In jedem Iterationsschritt des geschilderten Segmentierungsalgo­ rithmus werden die Ränder dieses Suchfensters für das folgen­ de Bild wie folgt berechnet:
xmin = mini (pix)-bx
xmax = maxi (pix)+bx
ymin = mini (piy)-by
ymax = maxi (piy)+by (11)
Auf diese Weise werden im folgenden Bild nur diejenigen Pixel durchsucht, die innerhalb des durch die Koordinaten xmin, ymin und xmax, ymax definierten Grenzen liegen. Die Konstante b (mit typischen Werten um 40) stellt sicher, daß das Fenster etwas größer ist als die tatsächlichen Ausmessungen der zu verfolgenden Hand.
Dabei ist es nicht erforderlich, jeden Bildpunkt innerhalb des Suchfensters zu untersuchen. In vielen Fällen ist dies auch für Echtzeitanwendungen zu zeitraubend. Um das Verfahren zu beschleunigen, wird in einem bevorzugten Ausführungsbei­ spiel des erfindungsgemäßen Verfahrens daher eine Unterabta­ stung des Bildes verwendet. Das bedeutet folgendes: Wurde ein Bildausschnitt am Ort (x, y) untersucht, wird der nächste Bildausschnitt an der Stelle (x+s, y) ausgewählt. Wird dabei das Ende der Abtastzeile erreicht, wird statt des­ sen der Bildausschnitt, der bei (0, y+s) beginnt untersucht. Dabei ist die Auswahl eines optimalen Unterabtastfaktors s wichtig aber nicht ganz einfach. Die Unterabtastung beein­ flußt nämlich die Genauigkeit und auch die Geschwindigkeit der Verfolgung. Wählt man die Unterabtastung zu groß, dann werden die Lageschätzungen zu sehr verrauscht. Wählt man die Unterabtastung hingegen zu klein, wird das Verfahren insge­ samt zu langsam und daher für eine Echzeitverarbeitung unge­ eignet.
Anstatt ein optimales Unterabtastverhältnis auf dem Wege des Probierens zu finden, verwendet das erfindungsgemäße Verfah­ ren bevorzugt eine adaptive Technik zur automatischen Auswahl eines optimalen Unterabtastverhältnisses s. Dabei wird eine anzustrebende Bildfrequenz als Zielbildfrequenz vorgegeben. Der Segmentationsalgorithmus überwacht dabei laufend seine eigene Geschwindigkeit. Falls die Segmentationszeit mehr als 10% unter der gewünschten Segmentationszeit liegt, wird die Unterabtastung verringert, so daß eine größere Genauigkeit entsteht. Ist die Segmentationszeit hingegen 10% größer als gewünscht, dann wird die Unterabtastung erhöht um die Verar­ beitungsgeschwindigkeit zu steigern. Dabei mißt das Verfahren jeweils nach 10 Bildern die Zeit, die für die Verarbeitung dieser 10 Bilder benötigt wurde. Ist diese Zeit tp größer als das 1,1fache des Quotienten aus 10 und der Zielbildfrequenz, dann ist die Verarbeitungszeit zu klein und s wird erhöht. Andernfalls, wenn tp kleiner als das 0,9fache des Quotienten aus 10 und der Zielbildfrequenz ist, ist die Verarbeitungs­ zeit zu schnell und s wird erniedrigt.
Auf diese Art und Weise balanciert das Verfahren automatisch die sich widersprechenden Anforderungen zwischen Geschwindig­ keit und Genauigkeit unter Berücksichtigung der Anforderungen des erfindungsgemäßen Verfahrens.
Ein wichtiger Gesichtspunkt dabei ist, daß bei einer Änderung des Unterabtastfaktors s die Zahl der Bildausschnitte in der Hand sich ändert. Aus diesem Grunde kann man nicht die tat­ sächliche Fläche eines Bildaufschnitts für die Berechnung der Tiefeninformation verwenden. Z. B. wenn s verkleinert wird, gibt es mehr Bildausschnitte in der Hand, obwohl die Tiefe unverändert ist. Aus diesem Grunde wird der Faktor ap in Formel (6) gleich s² gewählt. Hierdurch wird die Veränderung der Bildausschnittsfläche, d. h. der Fläche die eine Gruppe von Bildpunkten bei der Segmentierung belegt, der Unterabta­ stung angepaßt. Hierdurch bleibt die Berechnung der Tiefe von der Änderung der Unterabtastrate unbeeinflußt.
Im Rahmen dieser Patentanmeldung wurden die folgenden Veröf­ fentlichungen zitiert:
[1] Krüger, M. (1991). Artificial Reality II. Addison-Wesley
[2] Segen, J. (1989), "Model learning and recognition of nonrigid objects" in IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego, CA.
[3] Wirtz, B. and C. Maggioni (1993), Imageglove: "A novel way to control virtual environments", in Proceedings of Virtual Reality Systems ′93, New York.
[4] Swain, M. and D. Ballard (1991). Color indexing "International Journal of Computer Vision 7, 11-32.

Claims (6)

1. Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder, bei dem eine Segmentierung der Hand mit Hilfe eines Farbhistogramms dieser Hand durchgeführt wird.
2. Verfahren nach Anspruch 1, bei dem eine Gruppe von Bild­ punkten als zum Handsegment gehörend klassifiziert wird, falls ein Vergleich des Farbhistogramms dieser Gruppe von Bildpunkten mit dem Farbhistogramm der Hand eine hinreichende Übereinstimmung ergibt.
3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem aus den Koordinaten der Mittelpunkte der zum Handsegment ge­ hörenden Gruppen von Bildpunkten die Koordinaten des Schwer­ punktes des Handsegments, die Momente zweiter Ordnung um die­ sen Schwerpunkt und daraus die Orientierung der Hauptachse des Handsegmentes ermittelt werden, und bei dem die senkrecht zur Bildebene gemessene momentane Entfernung der Hand von der Kamera durch einen Vergleich der momentanen Fläche des Hand­ segments mit seiner Fläche im Zeitpunkt einer Kalibrierung ermittelt wird.
4. Verfahren nach Anspruch 3, bei dem zur Rauschunterdrückung die ermittelten Meßwerte für die Schwerpunktskoordinaten und die Orientierung der Hauptachse des Handsegmentes durch zeit­ lich rekursive Filterung geglättet werden.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Segmentierung eines Bildes auf einen Ausschnitt der Bild­ ebene beschränkt wird, welcher das Handsegment des vorherge­ henden Bildes zusammen mit einer geeignet gewählten Umgebung dieses Handsegments enthält.
6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Segmentierung mit Hilfe einer Unterabtastung des zu seg­ mentierenden Bildes durchgeführt wird.
DE4339161A 1993-08-09 1993-11-16 Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder Expired - Fee Related DE4339161C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP93112720 1993-08-09

Publications (2)

Publication Number Publication Date
DE4339161A1 true DE4339161A1 (de) 1995-02-16
DE4339161C2 DE4339161C2 (de) 1996-11-28

Family

ID=8213153

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4339161A Expired - Fee Related DE4339161C2 (de) 1993-08-09 1993-11-16 Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder

Country Status (1)

Country Link
DE (1) DE4339161C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19516664C1 (de) * 1995-05-05 1996-08-29 Siemens Ag Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19646821A1 (de) * 1996-11-13 1998-05-14 Axel Prof Ritz Bilddaten-Erfassungsgerät zur Bestimmung der farbmetrischen Koordinaten von Bildpunkten in Aufsicht- oder Durchlichtvorlagen
DE10000287B4 (de) * 2000-01-07 2004-02-12 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
US5168531A (en) * 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
DE4309878A1 (de) * 1992-04-06 1993-11-04 Hell Ag Linotype Verfahren und einrichtung zur analyse und korrektur der bildgradation in bildvorlagen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016173A (en) * 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
US5168531A (en) * 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
DE4309878A1 (de) * 1992-04-06 1993-11-04 Hell Ag Linotype Verfahren und einrichtung zur analyse und korrektur der bildgradation in bildvorlagen

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
6th International Conference on Pattern Recognition, München 1982, S. 520-522 *
KRUEGER, Myron W.: "Artificial Reality II", Addison-Verlag Publishing Company, 1991, S. 170-182 *
SEGEN, J.: "Model Learning and Recognition of Nonrigid Objects" IEEE Computer Society Conferen- ce on Computer Vision and Pattern Recognition, San Diego, CA, 1989 *
SWAIN/BALLARD: "Color Indexing" Int. Journal of Computer Vision, 7:1, 11-32, 1991 *
WIRTZ/MAGGIONI: "Image Glove: A Novel Way to Control Virtual Environments" Proceedings of Virtual Reality Systems, 1993, New York *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19516664C1 (de) * 1995-05-05 1996-08-29 Siemens Ag Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
US5828779A (en) * 1995-05-05 1998-10-27 Siemens Aktiengesellschaft Method for constructing a color table in a computer unit for the classification of picture elements in an image

Also Published As

Publication number Publication date
DE4339161C2 (de) 1996-11-28

Similar Documents

Publication Publication Date Title
EP0385384B1 (de) Verfahren zur Detektion bewegter Objekte in digitaler Bildfolge
DE10043460C2 (de) Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
WO1995004977A1 (de) Verfahren zur erkennung der räumlichen lage und drehlage von in geeigneter weise markierten objekten in digitalen bildfolgen
DE19516664C1 (de) Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
DE69938173T2 (de) Automatische voreingestellte teilnehmerpositionsbestimmung für videokonferenzsysteme
DE69935437T2 (de) Visuelle vorrichtung
EP0560779B1 (de) Verfahren zur erkennung und schätzung der räumlichen lage von objekten aus einer zweidimensionalen abbildung
EP0541567B1 (de) Verfahren zur analyse zeitlicher folgen digitaler bilder
EP0721631B1 (de) Verfahren zur segmentation von digitalen farbbildern
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE19847261A1 (de) Verfahren und System zur Personenerkennung mit modellbasierter Gesichtsfindung
EP2430614A1 (de) Verfahren zur echtzeitfähigen, rechnergestützten analyse einer eine veränderliche pose enthaltenden bildsequenz
DE68921976T2 (de) Segmentierungsverfahren zur feststellung eines zielpunktes auf bewegten objekten.
EP0163885A1 (de) Anordnung zur Segmentierung von Linien
DE112004002219T5 (de) Verfahren zum Antreiben eines Roboters
DE68918263T2 (de) Maskierbarer zweistufen korrelator.
DE102005058240A1 (de) Trackingsystem und Verfahren zur Posenbestimmung
DE602004002837T2 (de) Objekterkennung
DE102021128523A1 (de) Hierarchische bildzerlegung zur defekterkennung
DE4339161C2 (de) Verfahren zur Verfolgung von Bewegungen einer menschlichen Hand in einer zeitlichen Folge digitaler Farbbilder
WO2002093931A2 (de) Verfahren und vorrichtung zum ermitteln von bewegung in zeitlich aufeinander folgenden digitalen bildern
EP0713592B1 (de) Verfahren zur erkennung der räumlichen lage und drehlage von in geeigneter weise markierten objekten in digitalen bildfolgen
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE102005041633B4 (de) Verfahren und Vorrichtung zur Positions- und Ähnlichkeitsbestimmung von Objektpunkten in Bildern

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee