DE102006009774B4 - Bewegungsanalyse in digitalen Bildfolgen - Google Patents

Bewegungsanalyse in digitalen Bildfolgen Download PDF

Info

Publication number
DE102006009774B4
DE102006009774B4 DE102006009774A DE102006009774A DE102006009774B4 DE 102006009774 B4 DE102006009774 B4 DE 102006009774B4 DE 102006009774 A DE102006009774 A DE 102006009774A DE 102006009774 A DE102006009774 A DE 102006009774A DE 102006009774 B4 DE102006009774 B4 DE 102006009774B4
Authority
DE
Germany
Prior art keywords
image
pixels
current
pixel
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102006009774A
Other languages
English (en)
Other versions
DE102006009774A1 (de
Inventor
Bernd Kleinjohann
Christian Reimann
Christian Schneider
Dirk Stichling
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Universitaet Paderborn
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102006009774A priority Critical patent/DE102006009774B4/de
Priority to US12/224,520 priority patent/US20090169059A1/en
Priority to EP07712336A priority patent/EP1989680A2/de
Priority to PCT/EP2007/051847 priority patent/WO2007099099A2/de
Publication of DE102006009774A1 publication Critical patent/DE102006009774A1/de
Application granted granted Critical
Publication of DE102006009774B4 publication Critical patent/DE102006009774B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Methode zur Bestimmung eines Bewegungsvektors in einem vorgegeben Bereich einer Folge von digitalen Bildern durch Vergleich eines aktuellen Bildes mit einem Vorgängerbild, wobei das aktuelle und das Vorgängerbild durch dieselben Filter zur Bildanpassung aufbereitet sind, mit den Merkmalen:
– es werden jeweils Abstandsvektoren zwischen einem Pixel des aktuellen Bildes in dem vorgegebenen Bereich und in einer Nachbarschaft befindlichen gleichwertigen Pixeln des Vorgängerbildes bestimmt, und diese Abstandsvektoren zu einem Verschiebungsvektor für das Pixel gemittelt;
– die Verschiebungsvektoren des aktuellen Bildes in dem vorgegebenen Bereich werden ihrerseits gemittelt und ergeben den Bewegungsvektor.

Description

  • Die Erfindung betrifft die Analyse von Bewegungen realer Gegenstände in digitalen Bildfolgen.
  • Insbesondere bei Anwendungen von 'Augmented Reality', bei denen einem realen Videostrom virtuelle Objekte überlagert werden, ist eine Beeinflussung der Bildinhalte durch im Bild sichtbare reale Objekte sinnvoll. Ein einfaches Beispiel einer solchen Anwendung ist in dem Artikel von V. Paelke, Ch. Reimann und D. Stichling, "Foot-based mobile Interaction with Games", ACE2004, Singapore, Juni 2004, beschrieben, bei dem ein virtueller Fußball durch den realen Fuß des Spielers anzustoßen ist. Hierzu wird eine Einrichtung benötigt, die aus dem Videobild die Bewegung des Fußes bestimmt.
  • Eine der hierzu bekannten Methoden ist die Bestimmung von Kanten im Videobild, und darauf aufbauend die Bewegungsanalyse der extrahierten Kanten. Um die Kantenbewegung bestimmen zu können, wird zunächst versucht, die Kanten durch Polygonzüge zu approximieren. Das gilt auch für den o.g. Artikel; siehe S. 2, linke Spalte, Absatz unter 2, erster Satz: "To perfom collision detection, straight edges inside the ROI are vectorized and tracked between two consecutive images". Es werden gerade Kanten (in dem interessierenden Bereich, ROI = region of interest) vektorisiert und deren Bewegung nachvollzogen. Dazu müssen die vektorisierten Kanten der zweier Bilder einer Folge einander zugeordnet werden, unter Berücksichtigung, dass der neue Vektor sowohl eine andere Lage im Raum als auch eine andere Länge haben kann, aber beide Werte unterhalb einer vorgegebenene Schranke liegen. Diese Berechunung sind relativ aufwändig.
  • Andere Methoden sind hauptsächlich unter zwei Stichwörtern zu finden: 'Tracking' und 'Optical Flow'. Unter 'Tracking' sind auch Techniken zu finden, die die Bewegung einer Kamera bestimmen und daher hier nicht relevant sind.
  • Eine Übersicht über den Stand der Technik im Bereich des 'Tracking' ist in dem technischen Bericht TR VRVis 2001 025, "State of the Art Report on Optical Tracking" von Miguel Ribo, Wien 2001, enthalten. Für Anwendungen der oben genannten Art entfallen dabei alle Verfahren mit besonders präparierten Gegenständen sowie solche, bei denen ein Modell des zu verfolgenden Gegenstands vorgegeben sein muss. Die verbleibenden Verfahren setzen entweder Kantenverfolgung oder aufwendige Matrixoperationen ein, um diejenige Bewegung zu bestimmen, mit der eine minimale Abweichung der Bildinformation bestimmt wird.
  • Darunter fallen auch Verfahren, wie sie im Artikel von C.-L. Huang, Y.-R. Choo und P.-C. Chung, "Combining Region-based Differential and Matching Algorithms to Obtain Accurate Motion Vectors for Moving Object in a Video Sequence", ICDCSW02, 2002, beschrieben sind. Bekannt sind dabei die dort aufgeführten Verfahren von Horn-Schunk oder Lucas-Kanade, die zu den Optical-Flow-Verfahren zählen. Sie bestimmen die Gradienten durch Differentialbildung und benötigen erheblichen Rechenaufwand. Gleiches gilt für die in dem Artikel von B. Galvin, B. McCane, K. Novins, D. Mason und S. Mills, "Recovering Motion Fields: An Evaluation of Eight Optical Flow Algorithms", BMVC98, 1998, dargestellen Verfahren. Die meisten der genannten Methoden haben zudem den Nachteil, empfindlich gegen Bildstörungen zu sein und zu deren Kompensation weitere Schritte zu benötigen.
  • Bewegungsanalyse für aufeinander folgende Videobilder wird auch in den MPEG-Codierverfahren verwendet, in denen für Kompressionszwecke die Bewegung von Pixelblöcken fester Größe bestimmt wird. Dabei ist es unerheblich, ob diese der Bewegung von Bildobjekten entspricht; diese Methoden sind daher im Rahmen von 'Augmented Reality' nicht verwendbar.
  • Aus A. Haro, K. Mori, S. Wilkinson: „Mobile Camera-based User Interaction", Lecture Notes in Computer Science, Vol. 3766/2005, Seite 79-89, Springer Verlag, Berlin und Heidelberg, 2005 ist ein Verfahren zur Vereinfachung der Benutzerinteraktion mit mobilen Endgeräten beschrieben, insbesondere Mobiltelefone mit integrierter Digitalkamera. Dabei interagiert ein Benutzer mit einer durch das Mobiltelefon bereitgestellten Anwendung, indem er das Gerät bewegt. Die integrierte Kamera wird zur Bilderfassung verwendet, und Bildlaufrichtung und -vergrößerung werden mittels eines Tracking-Algorithmus abgeschätzt. Somit wird die integrierte Kamera als Eingabegerät zur Steuerung von Bildlauf und Bildvergrößerungsgrad in der auf dem Mobiltelefon laufenden Anwendung verwendet.
  • Der vorlegenden Erfindung liegt die Aufgabe zugrunde, ein einfaches, schnelles und robustes Verfahren zur Bewegungsanalyse anzugeben.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den in Anspruch 1 angegebenen Merkmalen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Die vorliegende Erfindung bietet den Vorteil, daß kein Modell des im Bild ganz oder teilweise sichtbaren Gegenstands und keine Vektorisierung von Kanten erforderlich sind. zudem ist das erfindungsgemäße Verfahren relativ unempfindlich gegen Bildrauschen und andere Störungen, die bei einer herkömmlichen Kantenerkennung das Kantenbild stören.
  • Es handelt sich um eine Methode zur Erkennung der Bewegung von Bildausschnitten in digitalen Bildfolgen, bei der nach einer Konturenhervorhebung in einem ausgewählten Ausschnitt zu jedem Pixel der Mittelwert der Verschiebungsvektoren zu benachbarten Pixeln bestimmt und sodann der Mittelwert aller dieser Verschiebungsvektoren gebildet und als Verschiebungsvektor für einen in dem Ausschnitt sichtbaren Gegenstand verwendet wird.
  • Vor der Anwendung der nachfolgend genauer beschriebenen Methode wird jedes einzelne Bild aus der Bildfolge durch bekannte Filter vorbehandelt. Diese Filter dienen der Farbreduktion der Bildpixel, der Verringerung des Rauschens und der Hervorhebung von Konturen bzw. Kanten. Die Art und der Umfang der Vorbehandlung ist je nach Anwendung zu bestimmen. In einer Anwendung in einem Handgerät wie einem Mobiltelefon mit Kamera war es vorteilhaft, sämtliche der folgenden Filter anzuwenden.
  • Farbige Ausgangsbilder werden zunächst (zum Beispiel durch Mittelwertbildung aller Farbkanäle eines jeden Pixels) in Graustufen umgewandelt. Stark verrauschte Bilder können optional durch einen Gauß-Filter geglättet werden; dies kann beispielsweise erfolgen, wenn ein Sensor eine geringe Umgebungshelligkeit feststellt. Anschließend wird aus dem Graustufenbild durch Konturenfilter ein Kantenbild erstellt. In der Praxis wird dazu oft der Sobel-Filter verwendet. Alternativ können auch der Prewitt-Filter, der Laplace-Filter oder vergleichbare Filter zur Erzeugung eines Kantenbildes eingesetzt werden.
  • In einer Ausprägung der Erfindung wird ein reines schwarz-weiss-Bild mit 1 Bit per Pixel verwendet, d.h. die Helligkeitswerte werden auf ein Bit reduziert, so dass jedes Pixel binär entweder weiß (8 bzw. „keine Kante") oder schwarz (1 bzw. „Kante") ist. Der Schwellwert für diese Umwandlung kann entweder fest vorgegeben sein oder relativ zum Mittel- oder Medianwert der Graustufen bestimmt werden. Pixel mit dem Wert 1 werden im Folgenden einfacherweise als Kantenpixel bezeichnet, auch wenn die Erfindung keine Kanten vektorisiert, sondern die Bewegung ohne die Rekonstruktion von Kanten aus Pixelbewegungen zu bestimmen erlaubt.
  • Anstelle der expliziten Bestimmung von Kanten erfolgt gemäß der Erfindung erfolgt die Berechnung der Bewegung eines Bildausschnittes in zwei aufeinander folgenden Bildern (z.B. zur impliziten Kollisionserkennung mit einem virtuellen Objekt) durch zwei verschachtelte Schritte, die lediglich auf die Pixel des Bildes Bezug nehmen. Diese Pixel sind bevorzugt die o.g. Kantenpixel.
    • 1. Für jedes einzelne Kantenpixel wird eine Bewegung berechnet (siehe Schritt 2). Anschließend werden die Bewegungen aller Kantenpixel des Bildausschnittes gemittelt. Das Mittel ist die Bewegung des gesamten Ausschnittes und somit eines Gegenstandes, der sich ganz oder teilweise in dem Bildausschnitt befindet.
    • 2. Da die Kantenpixel keine Attribute besitzen (wie zum Beispiel Helligkeit, Muster usw.), kann keine eindeutige Zuordnung zwischen einem Kantenpixel im aktuellen Bild und einem Kantenpixel im vorherigen Bild erfolgen. Daher wird die Bewegung eines Kantenpixels in Bezug zu benachbarten Kantenpixeln berechnet, indem Verschiebungsvektoren zu den benachbarten Kantenpixeln bestimmt und gemittelt werden. Als Verschiebungsvektor (2-dimensional) wird der Vektor von der Position des Pixels im aktuellen Bild zur Position eines Umgebungspixels im vorherigen Bild bezeichnet.
  • Im nachfolgenden Beispiel wird der Einfachheit halber ein quadratischer Bildausschnitt von fünf mal fünf Punkten verwendet. 1a zeigt das Eingabebild, das in Form von Graustufen vorliegt. Nach Anwendung eines Kantenfilters verbleiben vier Pixel, wie in 1b dargestellt. für die nachfolgende Beschreibung wurden die Pixel durchnummeriert.
  • Angenommen, in dem Folgebild habe sich das Objekt nach oben bewegt. Das Ergebnis ist in 1c dargestellt, wobei die im vorherigen Bild besetzten Positionen durch Kreise markiert sind.
  • In einer ersten Variante der Erfindung wird für jedes Kantenpixel im aktuellen Bild (1', 2', 3' und 4') die Bewegung berechnet. In diesem Beispiel wird dazu die 9er-Nachbarschaft verwendet, also alle Positionen, die direkt oder diagonal mit der aktuellen Position benachbart sind und die aktuelle Position selbst, d.h. es werden Pixel in einem vorgegebenen Abstand betrachtet.
  • Kantenpixel 1' hat zwei benachbarte Kantenpixel im vorherigen Bild (1 und 2). Die gemittelte Bewegung M1' von 1' lautet somit:
    Figure 00060001
  • Entsprechend ergeben sich für die anderen Pixel folgende Bewegungen:
    Figure 00060002
  • Um die gesamte Bewegung M des Bildausschnittes zu berechnen, wird das Mittel aller einzelnen Bewegungen ermittelt:
    Figure 00060003
  • Es ist zu erkennen, dass eine starke Bewegung nach oben (–0,5) und eine sehr geringe Bewegung nach rechts (0,083) detektiert wurde.
  • In einem alternativen Berechnungverfahren werden alle Punkte verwendet, bei denen sich der Pixelwert geändert hat. Hierzu dient 2a zur Veranschaulichung; hier sind der Übersichtlichkeit halber gegenüber 1c die schwarzen Blöcke entfernt worden und die Kreise kleiner. Punkte, bei denen sich die Pixelwerte geändert haben, sind im Beispiel die nicht eingekreisten Punkte 1 bis 3. Punkt 4 wird nicht berücksichtigt, da sich der Pixelwert nicht geändert hat. Zu jedem der (geänderten) Punkte 1 bis 3 und jedem im vorheigen Bild im Bereich gesetzten Punkte wird nun ein Abstandsvektor gebildet, dies ist in 2 für Punkt 1 durch Pfeile angedeutet und in der folgenden Tabelle aufgeführt; der Mittelwert dieser Vektoren wird durch Mittlung der x- und y-Werte gebildet und ergibt die letzte Spalte, mit MW für Mittelwert bezeichnet:
    Figure 00070001
  • Dabei werden nur solche Punkte berücksichtigt, die in einer vorgegebenen Umgebung des jeweiligen Punktes vorhanden sind, im Beispiel sind das zwei Pixel in x- bzw. y-Richtung, also eine 25er-Nachbarschaft. Daher entfallen die Vektoren für den Abstand vom neuen Punkt 2 zum alten Punkt 4 und vom neuen Punkt 3 zum alten Punkt 1, die deshalb in Klammern gesetzt sind. Im Unterschied zu der vorherigen Variante wurden hier nur geänderte Pixelwerte berücksichtigt, dafür jedoch ein grösserer Bereich.
  • Von den Mittelwerten der Punkte wird dann auf die gleiche Art ein neuer Mittelwert gebildet, der bereits das Ergebnis darstellt. Auch hier ergibt sich richtig eine Bewegung nach oben Der Wert der tatsächlichen Verschiebung ist 0/–1.
  • In den beiden Beispielen wurden schwarz-weiss-Bilder verwendet, bei denen die schwarzen Bildpunkt durch Filter Kanten entsprechen, und nur diese schwarzen Pixel berücksichtigt wurden. Die Erfindung ist jedoch nicht hierauf beschränkt. Wenn größerer Genauigkeit im Ausgleich für mehr Rechenleistung benötigt wird, kann das Verfahren auch für Graustufen- oder farbige Bilder angewendet werden.
  • Hierbei werden zu einem Pixel in dem aktuellen Bild zunächst alle Pixel des Vorgängerbildes ermittelt, die dem Pixel gleichwertig sind. Im Falle von Graustufen-Bildern sind das Pixel der gleichen Graustufe bezüglich einer vorgegebenen Schranke der Abweichung; bei 8 Bit oder 256 Graustufen beispielsweise 8 Graustufenwerte. Alternativ kann auch vorab das Graustufen-Bild quantisiert werden, indem von den 256 möglichen Graustufen nur 16 Graustufen verwendet werden und die übrigen auf diese 16 Werte gerundet werden, und dann exakte Gleichheit der Pixelwerte verwendet wird. Beide Verfahren geben geringfügig unterschiedliche Gleichwertigkeiten, da die Quantisierung zu unterschiedlich ist. In den oben dargestellten Beispielen wurde nach den Kantenfiltern eine Quantisierung auf 1 Bit vor der Bestimmung der gleichwertigen Pixel durchgeführt und die weissen Pixel nicht verwendet. Es wurde als zunächst quantisiert und dann nur Pixel in einem vorbestimmten Intervall, hier nur die schwarzen Pixel, verwendet. Da hier der Farb- bzw. Grauwert nur noch ein Bit beträgt, ist hier nur die Gleichheit der Pixelwerte sinnvoll.
  • Die Erfindung kann in einer Anwendung von erweiterter Realität ('augmented reality') verwendet werden, um mit wenig Rechenaufwand eine Interaktion zwischen realen und virtuellen Gegenständen zu bewirken. Beispielsweise wird ein Mobiltelefon verwendet, das eine Kamera auf der Rückseite und einen Bildschirm auf der Vorderseite umfasst, und das Kamerabild auf dem Bildschirm reproduziert wird, so das scheinbar durch den Bildschirm auf die dahinterliegende Szene geblickt werden kann. Der virtuelle Gegenstand sei, wie in dem eingangs erwähnten Artikel, ein Ball. Durch die Erfindung wird ein wesentlich verbessertes Verfahren angegeben, um die Bewegung eines realen Fusses zu erkennen und den Stoß in Richtung auf den virtuellen Ball zu erkennen. Die in dem oben genannten Artikel beschriebenen bekannten Verfahren konnten hingegen nur durch Delegation auf über ein Netzwerk verbundenen leistungsfähigeren Rechner in Realzeit verwendet werden.

Claims (7)

  1. Methode zur Bestimmung eines Bewegungsvektors in einem vorgegeben Bereich einer Folge von digitalen Bildern durch Vergleich eines aktuellen Bildes mit einem Vorgängerbild, wobei das aktuelle und das Vorgängerbild durch dieselben Filter zur Bildanpassung aufbereitet sind, mit den Merkmalen: – es werden jeweils Abstandsvektoren zwischen einem Pixel des aktuellen Bildes in dem vorgegebenen Bereich und in einer Nachbarschaft befindlichen gleichwertigen Pixeln des Vorgängerbildes bestimmt, und diese Abstandsvektoren zu einem Verschiebungsvektor für das Pixel gemittelt; – die Verschiebungsvektoren des aktuellen Bildes in dem vorgegebenen Bereich werden ihrerseits gemittelt und ergeben den Bewegungsvektor.
  2. Methode nach Anspruch 1, wobei nach Anwendung der Filter die Pixelwerte sowohl des aktuellen wie auch des Vorgängerbildes quantisiert werden, lediglich Pixelwerte in einem vorbestimmten Intervall verwendet werden und gleichwertige Pixel gleichen Pixelwert aufweisen.
  3. Methode nach Anspruch 1, wobei nach Anwendung der Filter Pixel des aktuellen Bildes und Pixel des Vorgängerbildes dann als gleichwertig gelten, wenn die Differenz der Pixelwerte innerhalb einer vorgegebenen Schranke liegt.
  4. Methode nach einem der Ansprüche 1 bis 3, wobei die Pixelwerte binär quantisiert werden, nur Pixel eines der beiden noch möglichen Werte betrachtet werden, und die Verschiebungsvektoren zu allen benachbarten Pixeln desselben Wertes im Vorgängerbild gebildet werden.
  5. Methode nach Anspruch 4, wobei nur von Pixeln die Verschiebungsvektoren verwendet werden, deren Pixelwerte in dem Vorgängerbild ungleich waren.
  6. Methode zur Bestimmung einer Stoßbewegung eines realen Gegenstands in einem vorbestimmten Bereich einer digitialsierten Bildfolge, indem nach einer der Methoden der vorhergehenden Ansprüche jeweils ein Bewegungsvektor gebildet und mit dem Bewegungsvektor des Vorgängerbildes verglichen wird, und bei Überschreiten einer vorgegeben unteren Schranke der Betragsänderung und oberen Schranke der Richtungsänderung ein Stoß in Richtung des aktuellen Bewegungsvektors als erfolgt erkannt wird.
  7. Anwendung der Methode nach Anspruch 6 in einem Gerät, das mit Hilfe einer eingebauten Kamera, eines Bildschirms und eine Prozessors erweiteterte Realität darstellt, um den Stoß eines realen Gegengstands in Bezug auf einen virtuellen Gegenstand zu bestimmen, indem der Bereich um den virtuellen Gegenstand als vorbestimmter Bereich verwendet wird und ein erkannter Stoß auf den virtuellen Gegenstand angewendet wird.
DE102006009774A 2006-03-01 2006-03-01 Bewegungsanalyse in digitalen Bildfolgen Expired - Fee Related DE102006009774B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102006009774A DE102006009774B4 (de) 2006-03-01 2006-03-01 Bewegungsanalyse in digitalen Bildfolgen
US12/224,520 US20090169059A1 (en) 2006-03-01 2007-02-27 Motion Analysis in Digital Image Sequences
EP07712336A EP1989680A2 (de) 2006-03-01 2007-02-27 Bewegungsanalyse in digitalen bildfolgen
PCT/EP2007/051847 WO2007099099A2 (de) 2006-03-01 2007-02-27 Bewegungsanalyse in digitalen bildfolgen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006009774A DE102006009774B4 (de) 2006-03-01 2006-03-01 Bewegungsanalyse in digitalen Bildfolgen

Publications (2)

Publication Number Publication Date
DE102006009774A1 DE102006009774A1 (de) 2007-09-06
DE102006009774B4 true DE102006009774B4 (de) 2007-10-18

Family

ID=38329206

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006009774A Expired - Fee Related DE102006009774B4 (de) 2006-03-01 2006-03-01 Bewegungsanalyse in digitalen Bildfolgen

Country Status (4)

Country Link
US (1) US20090169059A1 (de)
EP (1) EP1989680A2 (de)
DE (1) DE102006009774B4 (de)
WO (1) WO2007099099A2 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011233039A (ja) * 2010-04-28 2011-11-17 Sony Corp 画像処理装置、画像処理方法、撮像装置、およびプログラム
JP2013041387A (ja) * 2011-08-15 2013-02-28 Sony Corp 画像処理装置、画像処理方法、撮像装置、電子機器、及び、プログラム
KR102369802B1 (ko) * 2017-07-13 2022-03-04 한화디펜스 주식회사 영상 처리 시스템 및 그에 의한 영상 처리 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826294B1 (en) * 1999-03-05 2004-11-30 Koninklijke Philips Electronics N.V. Block matching motion estimation using reduced precision clustered predictions
EP1395061A1 (de) * 2002-08-27 2004-03-03 Mitsubishi Electric Information Technology Centre Europe B.V. Verfahren und Vorrichtung zur Kompensation von falschen Bewegunsvektoren in Videodaten

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A. Haro, K. Mori, T. Capin, S. Wilkinson: "Mobi- le Camera-based User Interaction", Springer-Ver- lag Berlin Heidelberg 2005, Lecture notes in Computer Science, Vol. 3766/2005, S. 79-89
A. Haro, K. Mori, T. Capin, S. Wilkinson: "Mobile Camera-based User Interaction", Springer-Verlag Berlin Heidelberg 2005, Lecture notes in Computer Science, Vol. 3766/2005, S. 79-89 *
Chich-Ling Huang, Yuh-Ren Choo, Pau-Choo Chung: "Combining region-based differential and matching algorithms to obtain accurate motion vectors for moving object in a video sequence", IEEE Procee- dings of the 22nd International Conference on Distributed Computing Sstems Workshops, 2002, pp. 202-207
Chich-Ling Huang, Yuh-Ren Choo, Pau-Choo Chung: "Combining region-based differential and matching algorithms to obtain accurate motion vectors for moving object in a video sequence", IEEE Proceedings of the 22nd International Conference on Distributed Computing Sstems Workshops, 2002, pp. 202-207 *

Also Published As

Publication number Publication date
EP1989680A2 (de) 2008-11-12
US20090169059A1 (en) 2009-07-02
WO2007099099A3 (de) 2008-03-20
WO2007099099A2 (de) 2007-09-07
DE102006009774A1 (de) 2007-09-06

Similar Documents

Publication Publication Date Title
DE102020131265A1 (de) Segmentieren von video-rahmen unter verwendung eines neuronalen netzes mit verringerter auflösung und von masken aus vorhergehenden rahmen
DE112017002799T5 (de) Verfahren und system zum generieren multimodaler digitaler bilder
DE112016005905T5 (de) Verfahren und System zum Verschmelzen erfasster Messungen
CN109685045B (zh) 一种运动目标视频跟踪方法及系统
DE112016006081T5 (de) Automatische Echtzeit-Fahrzeugkamerakalibrierung
DE102015009981A1 (de) Verfahren und Vorrichtung zur Bildsynthese
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE102010016251A1 (de) Erkennungsverfahren für ein bewegliches Objekt und das der Erkennung des beweglichen Objekts zugrunde liegende Befehlseingabeverfahren
DE112014006439T5 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
EP2901414A1 (de) Verfahren und bildverarbeitungsanlage zum bestimmen von parametern einer kamera
DE102011113154A1 (de) Maschinelles Lernverfahren zum maschinellen Erlernen von Erscheinungsformen von Objekten in Bildern
DE102006009774B4 (de) Bewegungsanalyse in digitalen Bildfolgen
Wang et al. First image then video: a two-stage network for spatiotemporal video denoising
DE102019105293A1 (de) Schätzung der Bewegung einer Bildposition
DE102004026782A1 (de) Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element
DE112017008230T5 (de) Verfahren und vorrichtung zum abbilden einer virtuellen umgebung auf eine physische umgebung
DE60305936T2 (de) Verfahren und anordnung zur bewertung der qualität von hautabdruckbildern
EP3655920B1 (de) Verfahren und vorrichtung zur bewertung von bildausschnitten für eine korrespondenzbildung
EP2893510B1 (de) Verfahren und bildverarbeitungsanlage zum entfernen eines visuellen objektes aus einem bild
DE112017007162T5 (de) Gesichtsermittlungsvorrichtung, dazugehöriges Steuerungsverfahren und Programm
DE102015003537B4 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
EP4118620A1 (de) Verfahren und vorrichtung zum verarbeiten von bildern
Varalakshmamma et al. Detection and restoration of image from multi-color fence occlusions
DE102009009572B3 (de) Verfahren zur entropiebasierten Bestimmung von Objektrandkurven
CN113516609A (zh) 分屏视频检测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

Owner name: UNIVERSITAET PADERBORN, 33098 PADERBORN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20111001