DE60116717T2 - Vorrichtung und Verfahren zur Erzeugungung von objekt-markierten Bildern in einer Videosequenz - Google Patents

Vorrichtung und Verfahren zur Erzeugungung von objekt-markierten Bildern in einer Videosequenz Download PDF

Info

Publication number
DE60116717T2
DE60116717T2 DE2001616717 DE60116717T DE60116717T2 DE 60116717 T2 DE60116717 T2 DE 60116717T2 DE 2001616717 DE2001616717 DE 2001616717 DE 60116717 T DE60116717 T DE 60116717T DE 60116717 T2 DE60116717 T2 DE 60116717T2
Authority
DE
Germany
Prior art keywords
frames
request
images
objects
video sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE2001616717
Other languages
English (en)
Other versions
DE60116717D1 (de
Inventor
Seong-deok Yongin-city Lee
Chang-yeong Euiwang-city Kim
Ji-yeon Songpa-gu Kim
Sang-Kyun 103-401 Geumhwa Maeul Daew Kim
Young-su Gangseo-gu Moon
Doo-sik dong Paldal-gu Suwon-city Park
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE60116717D1 publication Critical patent/DE60116717D1/de
Application granted granted Critical
Publication of DE60116717T2 publication Critical patent/DE60116717T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7335Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • Y10S707/99945Object-oriented database structure processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99948Application of database or data structure, e.g. distributed, multimedia, or image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zum Extrahieren von Anfrageobjekten aus einer Videosequenz und Erzeugen von objekt-markierten Bildern für die Anfrageobjekte.
  • Bei herkömmlicher Technologie werden Anfrageobjekte aus jedem Frame einer bewegten Bildsequenz von Hand extrahiert, um objekt-markierte Bilder in der bewegten Darstellung zu erzeugen. Verfahren zum automatischen Extrahieren von Objekten ohne Notwendigkeit zusätzlicher Arbeitsvorgänge wurden unlängst angekündigt.
  • Verfahren zum Extrahieren von Objekten aus Bildern beinhalten auf Bewegung basierende Extraktionsverfahren und auf Merkmalen basierende Extraktionsverfahren. Auf Bewegung basierende Extraktionsverfahren beinhalten auf Framedifferenz basierende Extraktionsverfahren, auf Hintergrundsubtraktion basierende Extraktionsverfahren und auf Bewegungsanalyse basierende Extraktionsverfahren. Auf Framedifferenz basierende Extraktionsverfahren, wie sie in den US-Patenten Nr. 5,500,904 und 5,109,435 offenbart sind, extrahieren Bewegung durch Berechnen einer Differenz in der Helligkeit zwischen kontinuierlichen Frames eines Bildes. Bei Hintergrundsubtraktionsverfahren, wie sie in US-Patent Nr. 5,748,775 offenbart sind, wird ein Hintergrundbild durch temporäre Veränderung eines Bildmerkmalsparameters gewonnen und ein Objektbereich wird durch die Differenz zwischen einem ursprünglichen Bild und dem Hintergrundbild extrahiert. Beim Bewegungsanalyseverfahren, wie sie in den US-Patent Nr. 5,862,508 offenbart sind, wird ein Bewegungsbereich durch Berechnen der Bewegungsrichtung und der Geschwindigkeit eines bewegten Objekts extrahiert.
  • Solche Objektbereichextraktionsverfahren können jedoch nur verwendet werden, wenn die Bewegungsgeschwindigkeit eines Objekts geeignet ist. Es ist schwierig, solche Verfahren bei einem stillen Bild, einen langsam bewegten Objekt oder einem schnell bewegten Objekt anzuwenden.
  • Ein Ansatz zur Verwendung eines Merkmalswertes eines Objektbereichs beinhaltet ein Templatanpassungsverfahren wie es in US-Patent Nr. 5,943,442 offenbart ist, ein Mehrwertschwellenverfahren, wie es in US-Patent Nr. 5,138,671 offenbart ist und ein Merkmalswertanpassungsverfahren. Um diese Verfahren beim Extrahieren eines Anfrageobjekts aus Daten von bewegten Darstellungen zu extrahieren, müssen die Verfahren auf alle Frames auf Basis von Anfrageobjekten angewendet werden. Deshalb ist ein beträchtlicher Zeitaufwand erforderlich.
  • WO 98/50869 offenbart ein Verfahren und ein System zum Durchführen einer objekt-orientierten inhaltsbasierten Videosuche. Es ist auch ein Verfahren zum Extrahieren von zuvor undefinierten „Videoobjekten" aus Videoclips offenbart.
  • Gemäß der Erfindung wird ein Verfahren zum Markieren von Anfrageobjekten in einer Videosequenz auf Basis von Bildern der Anfrageobjekte zur Verfügung gestellt, wobei die markierte Videosequenz zur Verwendung in einem interaktiven Service für abfragbare Objekte vorgesehen ist, wobei das Verfahren die Schritte umfasst: a. Empfangen der Videosequenz und Empfangen der Bilder der Anfrageobjekte; b. Teilen der Videosequenz in eine oder mehrere Aufnahmen, deren jede ein Satz Frames mit einer ähnlichen Szene ist, und Auswählen eines oder mehrerer Key-Frames (Schlüsselbilder) aus jeder der Aufnahmen; c. Bestimmen, ob ein Objekt ähnlich jedem der Anfrageobjekte in jedem der Key-Frames vorhanden ist, und wenn es ein ähnliches Objekt in einem Key-Frame gibt, Extrahieren des ähnlichen Objekts als ein entsprechendes Anfrageobjekt auf Basis des Ausgangsobjektbereichs; d. Verfolgen von Objektbereichen in allen Frames jeder der Aufnahmen auf Basis des entsprechenden Anfrageobjekts auf Basis der Ausgangsobjektbereiche; und e. Markieren der verfolgten Objektbereiche in jedem der Frames auf Basis von Information über die entsprechenden Anfrageobjekte.
  • Die Erfindung betrifft auch eine Vorrichtung zum Markieren von Anfrageobjekten in einer Videosequenz auf Basis von Bildern der Anfrageobjekte, wobei die markierte Videosequenz zur Verwendung in einem interaktiven System für abfragbare Objekte vorgesehen ist, wobei die Vorrichtung umfasst: eine Videosequenzempfangseinheit zum Empfangen der Videosequenz undeiner Anfragebildempfangseinheit zum Empfangen von Bildern der Anfrageobjekte; eine Aufnahmen- und Key-Frame-Einstelleinheit, die so angeordnet ist, dass sie die Videosequenz in eine oder mehrere Aufnahmen teilt, deren jede ein Satz Frames mit einer ähnlichen Szene ist, und Auswählen eines oder mehrerer Key-Frames aus jeder der Aufnahmen; einen Ausgangsobjektbereichsextraktor, so angeordnet, dass er bestimmt, ob ein Objekt ähnlich jedem der Anfrageobjekte in jedem der Key-Frames vorhanden ist, und wenn ein ähnliches Objekt in einem Key-Frame vorhanden ist, Extrahieren des ähnlichen Objekts als ein entsprechendes Anfrageobjekt auf Basis des Ausgangsobjektbereichs; eine Objektbereichsverfolgungseinrichtung so angeordnet, dass sie Objektbereiche in allen Frames jeder der Aufnahmen auf Basis des entsprechenden Anfrageobjekts auf Basis von Ausgangsobjektbereichen verfolgt; und einen Generator für objekt-markierte Bilder, so angeordnet, dass er die verfolgten Objektbereiche in jedem der Frames auf Basis von Information über die entsprechenden Anfrageobjekte markiert.
  • Die vorliegende Erfindung stellt eine Vorrichtung und ein Verfahren zum Erzeugen von objekt-markierten Bildern in einer bewegten Darstellung zur Verfügung, in dem Anfrageobjektbereiche automatisch in jedem Frame auf Basis von Key-Frames extrahiert werden können, ohne dass zusätzliche Vorgänge von Hand notwendig sind und ungeachtet des Bewegungsgrads eines Objekts, und Objektbilder, die auf Basis von Information der entsprechenden Anfrageobjekte markiert sind, werden in jedem Frame erzeugt.
  • Die obigen Ziele und Vorteile der vorliegenden Erfindung werden besser ersichtlich aus einer ausführlichen Beschreibung bevorzugter Ausführungsformen mit Bezug zu den begleitenden Zeichnungen, in denen:
  • 1 ein Blockdiagramm eines objektbasierten interaktiven Servicesystems ist, bei dem die vorliegende Erfindung angewendet wird;
  • 2 ein Blockdiagramm ist, das eine Vorrichtung zum Erzeugen eines objekt-markierten Bildes gemäß der vorliegenden Erfindung zeigt;
  • 3A und 3B Fließbilder sind, die ein Verfahren zum Erzeugen eines objekt-markierten Bildes gemäß der vorliegenden Erfindung darstellen;
  • 4 ein Beispiel einer Videosequenz zeigt, die in p Aufnahmen unterteilt ist und ihre Key-Frames;
  • 5 ein Beispiel einer Videosequenz zeigt, die in 9 Aufnahmen unterteilt ist und ihre Key-Frames;
  • 6 ein Beispiel eines Bildframes und von Anfrageobjekten zeigt, die im Framebild vorhanden sind;
  • 7 ein Beispiel zum Markieren von Objekten mit Markierungsnummern zeigt;
  • 8 ein Beispiel zeigt, wo ein Objekt mit dem Schwerpunkt und dem Minimalflächenrechteck markiert wird;
  • 9 ein Beispiel der Objektmarkierung zeigt, die den Schwerpunkt und die Koordinatenwerte des Minimalflächenrechtecks von 8 verwendet; und
  • 10 eine Ausführungsform eines objektbasierten interaktiven Service unter Verwendung der vorliegenden Erfindung zeigt.
  • 1 ist ein schematisches Blockdiagramm eines objektbasierten interaktiven Servicesystems, bei dem die vorliegende Erfindung angewendet wird. Das objektbasierte interaktive Servicesystem beinhaltet Benutzerterminals 100, einen Server 120, eine Videodatenbasis (DB) 130 für Videosequenzen und eine Objekt DB 140 für interessierende Objekte.
  • Als Anwendungsbeispiel der vorliegenden Erfindung werden für einen Service durch das in 1 gezeigte Objekt basierte interaktive Servicesystem ein oder mehrere Objektbereiche in bewegten Bilddaten, die einem oder mehreren Anfrageobjekten entsprechen, als Objekt-markierte Bilder erzeugt.
  • Mit Bezug zu 1 beinhaltet jedes der Benutzerterminals 100 eine objektbasierte interaktive Bildabspieleinrichtung oder eine MPEG-4-Abspieleinrichtung und ist mit dem Server 120 durch ein Netzwerk 110 auf Entfernung verbunden. Wenn eines der Benutzerterminals 100 mit dem Server 120 verbunden ist, kann ein Benutzer eine bewegte Darstellung (Videosequenz) betrachten, die vom Server 120 auf dem Bildschirm des Benutzerterminals bereitgestellt wird, indem die objektbasierte interaktive Bildabspieleinrichtung betätigt wird. Der Benutzer kann ein beliebiges Objekt auswählen (ein Objekt, das ihn interessiert) in einem beliebigen Frame der Videosequenz, während er diese durch die objektbasierte interaktive Bildabspieleinrichtung betrachtet.
  • Der Server 120 stellt die in der Video DB 130 gespeicherten Videosequenzen für jedes der Benutzerterminals 100 bereit und stellt auch detaillierte Information zu dem Objekt bereit, das von dem Benutzer ausgewählt ist, mit Bezug zur Objekt DB 140. Zu diesem Zeitpunkt kann der Benutzer Information zu dem ausgewählten Objekt durch einen separaten Frame ansehen (einen α-Frame im Falle von MPEG 4), der zusammen mit RGB-Frames (oder YUV-Frames) bereitgestellt ist.
  • In 1 verwaltet der Server 120 die Video DB 130, in der verschiedene Videosequenzdaten gespeichert sind und die Objekt DB 140, in der Information zu interessierenden Objekten wie Produkten oder Personen, die in einem speziellen Bild einer Videosequenz enthalten sind, gespeichert ist. Die DBs 130 und 140 können im Server 120 implementiert sein. Das interaktive Servicesystem von 1 kann unter Bedingungen des Web ausgeführt sein. In diesem Fall dient der Server 120 als Webserver und jedes der Benutzerterminals 100 beinhaltet einen Webbrowser und ist mit dem Webserver 120 durch das Internet 110 verbunden.
  • Nachfolgend werden eine Vorrichtung und ein Verfahren zum Erzeugen eines objekt-markierten Bildes in einer Videosequenz gemäß der vorliegenden Erfindung beschrieben.
  • 2 ist ein Blockdiagramm der Vorrichtung zum Erzeugen von objektmarkierten Bildern gemäß der vorliegenden Erfindung. Die Vorrichtung zum Erzeugen von objekt-markierten Bildern beinhaltet eine Videosequenzempfängereinheit 200, eine Anfragebildempfangseinheit 210, eine Aufnahme- und Key-Frame-Einstelleinheit 220, einen Ausgangsobjektbereichsextraktor 230, eine Objektbereichsverfolgungseinrichtung 240 und einen Generator 250 für objekt-markierte Bilder.
  • Mit Bezug zu 2 empfängt die Videosequenzempfangseinheit 200 eine Videosequenz, d. h. eine Reine von Rahmendaten in drei Primärfarben, wie eine Reihe von RGB-Bildern (oder YUV-Bildern) und gibt die empfangene Bildsequenz zur Aufnahme- und Key-Frame-Einstelleinheit 220. Hier ist die Videosequenz ein Satz Frames. Jeder der Frames kann ein Bild sein, das ein Anfrageobjekt enthält oder ein Bild ohne ein Anfrageobjekt.
  • Die Aufnahme- und Key-Frame-Einstelleinheit 220 teilt die eingegebene Vidoesequenz in eine oder mehrere Aufnahmen, deren jede ein Satz Frames ist, die eine ähnliche Szene aufweisen und gibt Information zu den geteilten Aufnahmen an die Objektbereichsverfolgungseinrichtung 240 aus, d. h. Information zu Frames, die jede der Aufnahmen bilden. Ebenso wählt die Aufnahme- und Key-Frame-Einstelleinheit 220 einen Key-Frame (einen repräsentativen (R) Frame) jeder der Aufnahmen aus, die die Aufnahme darstellen. Hier kann die Anzahl an Key-Frames für eine einzelne Aufnahme eins oder mehr betragen.
  • Der Ausgangsobjektbereichsextraktor 230 empfängt sequentiell Anfragebilder, deren jedes ein Anfrageobjekt enthält, aus der Anfragebildempfangseinheit 210 und empfängt den Key-Frame jeder der Aufnahmen von der Aufnahme- und Key-Frame-Einstelleinheit 220. Der Ausgangsobjektbereichsextraktor 230 bestimmt, ob der Key-Frame für jede der Aufnahmen ein Objekt enthält, das dem Anfrageobjekt des Anfragebildes entpsricht, das von der Anfragebildempfangseinheit 210 empfangen ist, extrahiert einen Anfangsobjektbereich entsprechend dem Anfrageobjekt aus dem Key-Frame jeder der Aufnahmen und maskiert die Fläche des Anfangsobjektbereichs als binäres Bild, ein Graustufenbild usw., um ein Aufnahmenmaskenbild zu erzeugen. Nach Erzeugen des Aufnahmemaskenbildes entsprechend jedem der Anfrageobjekte für alle Key-Frames, werden die Aufnahmemaskenbilder an die Objektbereichsverfolgungseinrichtung 240 ausgegeben.
  • Die Objektbereichsverfolgungseinrichtung 240 empfängt die von der ursprünglichen Videosequenz geteilten Aufnahmen, wobei die Anfragebilder jeweils ein Anfrageobjekt enthalten und die Aufnahmemaskenbilder. Die Objektbereichsverfolgungseinrichtung 240 verfolgt Objektbereiche in allen Frames jeder der Aufnahmen ausgehend von den Anfangsobjektbereichen. Speziell werden Objektbereiche für alle Frames jeder der Aufnahmen ausgehend von den entsprechenden Anfangsobjektbereichen verfolgt, die ausgehend von den Anfrageobjekten extrahiert sind. Wenn ein Objektbereich in einem Frame vorhanden ist, werden die Lage und Fläche des Objektbereichs im Frame identifiziert und die Fläche des Objektbereichs als binäres Bild, als 1:1-Bild usw. maskiert, um ein Framemaskenbild zu erzeugen. Dieses Objektbereichsverfolgen wird bei allen Frames der Aufnahmen durchgeführt und wiederholt, bis die Framemaskenbilder für alle Anfrageobjekte durchgenommen sind.
  • Der Generator 250 für objekt-markierte Bilder vereint die verfolgten Framemaskenbilder ausgehend von den Anfrageobjekten in jedem Frame und markiert eines oder mehrere Anfrageobjekte, die in jedem der Frames vorhanden sind. Speziell werden die anfrageobjektbasierten Framemaskenbilder für jeden der Frames als einzelner objekt-markierter Bildframe vereint, in dem alle Objekte markiert sind. Unter Annahme, dass ein Frame zum Beispiel drei Anfrageobjekte enthält, können die Objektbereiche, die den drei Anfrageobjekten entsprechen, mit einem besonderen Pixelwert zwischen 1 und 255 markiert werden, und die andere Pixelregion ohne ein Objekt kann mit „0" markiert werden (OFF).
  • Information zu den objekt-markierten Bildframes, die vom Generator 250 für objekt-markierte Bilder erzeugt sind, und Information zu realen Objekten, die den markierten Objektbildern entsprechen sind, in der Objekt DB 140 gespeichert, wie in 1 gezeigt.
  • Die 3A und 3B sind Fliessbilder, die ein Erzeugungsverfahren für objekt-markierte Bilder gemäß der vorliegenden Erfindung darstellen. Der Betrieb der Vorrichtung zum Erzeugen von objekt-markierten Bildern von 2 wird mit Bezug zu den 3A und 3B ausführlich beschrieben.
  • Eine Videosequenz, aus der ein Anfrageobjekt extrahiert werden soll, wird in eine oder mehrere Aufnahmen geteilt, deren jede ein Satz Frames mit einer ähnlichen Szene ist, und einer oder mehrere Key-Frames werden aus jeder der Aufnahmen ausgewählt (Schritte 300 bis 304). Im allgemeinen kann eine Videosequenz in eine Mehrzahl von Aufnahmen geteilt werden, entsprechend Veränderungen im Kamerawinkel, Personen oder Gegenständen, Ort und Beleuchtung. Variationen zwischen den Aufnahmen sind größer als beispielsweise die in Farbwerten, zwischen den Frames, die jede der Aufnahmen bilden und können von einem Unterschied in der Farbe zwischen zwei Frames erfasst werden, d. h. Key-Frames der interessierenden Aufnahmen.
  • Einer der Frames, die jede der Aufnahmen bilden, wird als Key-Frame ausgewählt. Der erste oder mittlere Frame jeder der Aufnahmen wird als Key-Frame ausgewählt. Bei der vorliegenden Erfindung wird nur der Key-Frame jeder Aufnahme verwendet, um zu bestimmen, ob ein Anfrageobjekt in jeder der Aufnahmen vorhanden ist. Wenn zum Beispiel p Aufnahmen vorhanden sind, ist die Anzahl der Key-Frames gleich p.
  • Speziell in 3A werden eine Videosequenz und Anfragebilder (1 bis n) eingegeben (Schritt 300). Die Videosequenz wird in eine oder mehrere Aufnahmen geteilt (1 bis p), ein Key-Frame wird in jeder der Aufnahmen ausgewählt (Schritt 302). Danach werden p Key-Frames gepuffert (Schritt 304). 4 zeigt ein Beispiel einer Videosequenz, die in p Aufnahmen geteilt ist und ihre Key-Frames. In 4 wird der erste Frame aus jeder der Aufnahmen als Key-Frames KF!1, KF!2, KF!3, ... und KF!p ausgewählt. 5 zeigt ein Beispiel des Teilens einer Videosequenz, die aus einer Seifenoper extrahiert ist, in 8 Aufnahmen und Auswählen ihrer Key-Frames. In 5 wird die aus 619 Frames bestehende Videosequenz in 9 Aufnahmen geteilt, und der Key-Frame jeder der Aufnahmen wird durch eine Framenummer bezeichnet.
  • Ein Objektbereich wird aus jedem der Key-Frames ausgehend von Anfrageobjekten extrahiert (Schritte 306 bis 312). Bevorzugt wird ausgehend von einem Farbhistogramm oder Merkmalen wie Textur oder Struktur der mehrfarbigen Bereiche, die Objekte bilden, bestimmt, ob ein Objekt ähnlich wie das Anfrageobjekt in jedem der Anfrageobjekte vorhanden ist.
  • Speziell werden n Anfrageobjekte einzeln eingegeben. Ein erstes Anfrageobjekt wird geladen (Schritt 306). Es wird geprüft, ob ein Objekt ähnlich dem ersten Anfrageobjekt in jedem der p Key-Frames vorhanden ist, und wenn ein solches Objekt vorhanden ist, wird das Objekt als Anfangsobjektbereich für den entsprechenden Key-Frame extrahiert (Schritt 308). Pixel, die zum Anfangsobjektbereich des Key-Frames gehören werden angeschaltet („1") und die übrigen Pixel werden abgeschaltet („0"), wodurch ein Aufnahmemaskenbild für den Key-Frame erzeugt wird (Schritt 310). Es wird bestimmt, ob die Anfrageobjektzahl größer als n ist (Schritt 312). Falls nicht, wird das nächste Anfrageobjekt geladen (Schritt 314). Die oben beschriebenen Vorgänge werden bezüglich der n Anfrageobjekte wiederholt. Speziell werden n-mal-p Aufnahmemaskenbilder bezüglich der p Key-Frames und n Anfrageobjekte gebildet (die Pixel des Aufnahmemaskenbildes ohne den Objektbereich sind alle ausgeschaltet („0")).
  • Objektbereiche werden in Bezug auf alle Frames jeder der Aufnahmen ausgehend von den Anfangsobjektbereichen verfolgt (Schritte 316 bis 330). Die Anfangsobjektbereiche, die aus jedem der Key-Frames der Aufnahmen ausgehend von Anfragebildern in vorherigen Prozessen extrahiert sind, werden über die übrigen Frames jeder der Aufnahmen erstreckt. Insbesondere unter Verwendung des Aufnahmemaskenbildes, das von jedem der Key-Frames von Aufnahmen als Anfangsmaske extrahiert ist, werden Lage und Fläche (Bereich) eines Objektbereichs, der dem Anfrageobjekt entspricht, in allen Frames jeder der Aufnahmen verfolgt, ausgehend von Information zur Farbe des Anfragebildes, das dem Anfrageobjekt entspricht. Ein genauerer Objektbereich kann durch Prüfen der Ähnlichkeit zwischen den verfolgten Objektbereichen und unter Verwendung von Bewegungsmodell- und Farbinformation geprüft werden, wobei Veränderungen in Lage und Fläche des Objektbildes berücksichtigt werden.
  • Speziell im Zustand, wo das erste Anfrageobjekt geladen wird (Schritt 316), wird ein Aufnahmemaskenbild für das erste Anfragebild geladen (Schritt 318). Wenn die Pixel des geladenen Aufnahmemaskenbildes abgeschaltet sind („0"), d. h. wenn bestimmt ist, dass das geladene Aufnahmemaskenbild keinen Objektbereich enthält, der dem ersten Anfragebild entspricht (Schritt 320), wird das nächste Aufnahmemaskenbild geladen (Schritt 328). Insbesondere, wenn bestimmt ist, dass das geladene Aufnahmemaskenbild den Objektbereich nicht enthält, der dem ersten Anfragebild entspricht, wird bestimmt, ob die Aufnahmezahl größer ist als p (Schritt (326). Falls die Aufnahmezahl nicht größer ist als p, wird das nächste Aufnahmemaskenbild geladen (Schritt 328). Inzwischen wird, wenn bestimmt ist, dass der Objektbereich im geladenen Aufnahmemaskenbild vorhanden ist, der Objektbereich in allen Frames der entsprechenden Aufnahme verfolgt (Schritt 322), wodurch Framemaskenbilder für die entsprechende Aufnahme ausgehend vom ersten Anfrageobjekt erzeugt werden (Schritt 324). Die oben genannten Vorgänge werden in Bezug auf alle Aufnahmen und mit Bezug zu allen Anfrageobjekten wiederholt (Schritte 330 und 332).
  • Die Framebildmasken ausgehend von den Anfrageobjekten werden in jedem Frame vereint, und die Anfrageobjektbereiche, die in jedem Frame vorhanden sind, markiert (Schritt 334). Wenn eine eingegebene Videosequenz aus m Frames besteht und jeder der Frames n Anfrageobjekte beinhaltet, können n-mal-m Framemaskenbilder durch die vorhergehenden Prozesse erzeugt werden und können in m Frames vereint werden. Tatsächlich beinhalten jedoch nicht alle Frames n Anfrageobjekte und daher ist die Anzahl der erzeugten Framemaskenbilder kleiner als n-mal-m. Jedes der Anfrageobjekte weist einen speziellen Farbwert zwischen 0 und 255 auf und Pixel der Anfrageobjektbereiche, die den Anfrageobjekten entsprechen, die in den vereinten Frames vorhanden sind, weisen einen einzigartigen Farbwert auf, der dem entsprechenden Anfrageobjekt zugeordnet ist.
  • 6 zeigt ein Beispiel eines Framebildes und Anfrageobjekte, die im Framebild vorhanden sind. In 6 weist ein beliebiges Framebild, das links gezeigt ist, eine Mehrzahl von Anfrageobjekten auf, wie ein Notizbuch 552, eine Halskette 553, eine Tasse 554, ein Tuch 555 und einen Hintergrund 551.
  • 7 zeigt ein Beispiel zur Markierung von Objekten mit Markierungsnummern. Wie in 7 gezeigt ist, weist jedes der Anfrageobjekte eine einzigartige Markierungsnummer auf. Wenn daher die ausgehend von den Anfrageobjekten erzeugten Framemaskenbilder in jedem Frame vereint werden, wird jedes der Framemaskenbilder mit der entsprechenden einzigartigen Markierungsnummer markiert, wie es rechts in 7 gezeigt ist.
  • 8 zeigt ein Beispiel, wo ein Objekt mit dem Schwerpunkt und dem Minimalflächenrechteck markiert ist. In einem anderen Verfahren zum Darstellen eines Objektbereichs kann der Schwerpunkt des Objektbereichs, der mit „X" markiert ist, und das Minimalflächenrechteck, das den Objektbereich einen Frame umgibt oder darin eingeschlossen ist, anstelle der einzigartigen Markierungsnummer verwendet werden. Hier bezeichnen P1 und P2 diagonal gegenüberstehende Ecken des Rechtecks. 9 zeigt ein Beispiel der Objektmarkierung unter Verwendung des Schwerpunkts und der Koordinatenwerte des Minimalflächenrechtecks von 8.
  • Gemäß der vorliegenden Erfindung wird eine Videosequenz in eine Mehrzahl von Aufnahmen geteilt, deren jede aus einem Satz Frames besteht, die eine ähnliche Szene aufweisen, und ein Anfangsobjektbe reich wird aus jeder der Aufnahmen extrahiert, indem bestimmt wird, ob ein Objektbild in Key-Frames der Aufnahmen vorhanden ist. Ausgehend vom Anfangsobjektbereich, der aus jedem der Key-Frames extrahiert ist, werden Objektbereiche in allen Frames der Aufnahmen verfolgt. Dann werden die Objektbereiche markiert, um objekt-markierte Bilder zu erzeugen. Deshalb kann die vorliegende Erfindung, im Vergleich zu einem herkömmlichen Verfahren zum Extrahieren von Objekten und Erzeugen von objekt-markierten Bildern, ungeachtet des Bewegungsgrads eines Objekts angewendet werden und die erforderliche Zeit zum Extrahieren von Anfrageobjekten kann reduziert werden. Ebenso kann die vorliegende Erfindung leicht angewendet werden, um objektbasierte interaktive Dienste bereitzustellen, ohne dass zusätzliche Bedienung von Hand notwendig ist.
  • 10 zeigt eine Ausführungsform eines objektbasierten interaktiven Services unter Verwendung der vorliegenden Erfindung. In jedem Frame vorhandene Objektbilder werden in objekt-markierte Bilder markiert und in der Objekt-DB 104 gespeichert, wie es mit Bezug zu 1 beschrieben ist. Wenn ein Benutzer zum Beispiel unter Verwendung eines objektbasierten interaktiven Abspielgeräts auf einen beliebigen Teil der Bluse der Frau in einem beliebigen Frame klickt, wie es in 10 links gezeigt ist, wird dem Browser des Benutzers Information zu einem Objekt zugeführt, die dem angeklickten Objektbild entspricht, die in der Objekt-DB 104 gespeichert ist. Die rechte Seite von 10 zeigt ein Beispiel von Information zum Objekt.
  • Die Erfindung kann in einem digitalen Computer für allgemeine Anwendungen ausgeführt sein, auf dem ein Programm für ein computernutzbares Medium läuft, das Speichermedien wie Magnetspeichermedien (z. B. ROM, Floppy-Disk, Festplatte usw.), optisch lesbare Medien (z. B. CD-ROM, DVD usw.) und Trägerwellen (z. B. Übertragung über das Internet) beinhaltet, ohne darauf beschränkt zu sein. Die vorliegende Erfin dung kann als computernutzbares Medium ausgeführt sein, das eine computerlesbare Programmcodeeinheit für dezentrale Computersysteme aufweist, die durch ein Netzwerk verbunden sind.
  • Wie oben beschrieben ist, werden bei der Vorrichtung und dem Verfahren zum Erzeugen von Objektmarkierungsbildern in einer Videosequenz gemäß der vorliegenden Erfindung die auf Basis von Anfrageobjekten erzeugten Framemaskenbilder in jedem Frame vereint, und daher kann, im Vergleich zum herkömmlichen Objektextraktionsverfahren, die zum Extrahieren einer Mehrzahl von Anfrageobjekten aus einem Frame erforderliche Zeit reduziert werden. Deshalb kann die vorliegende Erfindung leicht beim Ausbilden, Editieren und Codieren von Daten bewegter Darstellungen auf Basis von Objekten angewendet werden. Die vorliegende Erfindung kann in interaktiver Internetausstrahlung verbreitet verwendet werden und kann zum Herstellen von auf dem Internet beruhenden Werbematerial, Inhalten und als Schreibwerkzeug eingesetzt werden.
  • Während diese Erfindung insbesondere mit Bezug zu bevorzugten Ausführungsformen gezeigt und beschrieben wurde, versteht es sich für die Fachleute, dass hierbei verschiedene Veränderungen in Form und Details vorgenommen werden können, ohne vom Rahmen der Erfindung abzuweichen, wie er in den beigefügten Ansprüchen definiert ist.

Claims (9)

  1. Verfahren zum Markieren von Anfrageobjekten in einer Videosequenz auf Basis von Bildern der Anfrageobjekte, wobei die Videosequenz zur Verwendung in einem interaktiven Service für abfragbare Objekte vorgesehen ist, wobei das Verfahren die Schritte umfasst: a. Empfangen der Videosequenz und Empfangen der Bilder der Anfrageobjekte (300); b. Teilen der Videosequenz in eine oder mehrere Aufnahmen, deren jede ein Satz Frames mit einer ähnlichen Szene ist, und Auswählen eines oder mehrerer Key-Frames aus jeder der Aufnahmen (302); c. Bestimmen, ob ein Objekt ähnlich jedem der Anfrageobjekte in jedem der Key-Frames vorhanden ist, und wenn es ein ähnliches Objekt in einem Key-Frame gibt, Extrahieren des ähnlichen Objekts als ein entsprechendes Anfrageobjekt auf Basis des Ausgangsobjektbereichs (308); d. Verfolgen von Objektbereichen in allen Frames jeder der Aufnahmen auf Basis des entsprechenden Anfrageobjekts auf Basis der Ausgangsobjektbereiche (322); und e. Markieren der verfolgten Objektbereiche in jedem der Frames auf Basis von Information über die entsprechenden Anfrageobjekte (334).
  2. Verfahren nach Anspruch 1, worin Schritt c. ferner umfasst: Erzeugen von Aufnahmemaskenbildern auf Basis des Anfrageobjekts in allen Key-Frames der Aufnahmen durch Einstellen von Pixeln des Anfrageobjekts auf Basis der Ausgangsobjektbereiche, die aus jedem der Key-Frames extrahiert sind, als ersten Wert und Einstellen der übrigen Pixel jedes der Key-Frames als zweiten Wert (310).
  3. Verfahren nach Anspruch 2, worin Schritt d. umfasst: d1. Verfolgen der Objektbereiche in allen Rahmen jeder der Aufnahmen auf Basis des entsprechenden Anfrageobjekts auf Basis von Aufnah memaskenbildern und Videomerkmalswerten der entsprechenden Anfrageobjekte (322); und d2. Erzeugen von Framemaskenbildern auf Basis des Anfrageobjekts in allen Frames jeder der Aufnahmen durch Einstellen von Pixeln der Objektbereiche, die in jedem der Frames verfolgt sind, als ersten Wert und Einstellen der übrigen Pixel jedes der Key-Frames als zweiten Wert (324).
  4. Verfahren nach Anspruch 3, worin in Schritt e. jeder der Objektbereiche in jedem Frame mit einer einzigartigen Zahl markiert wird, die auf das entsprechende Anfragebild oder Koordinateninformation des entsprechenden Anfragebildes in jedem Frame gesetzt ist.
  5. Computerprogrammprodukt, das in einen digitalen Computer einladbar ist, mit Code zum Durchführen der Schritte eines Verfahrens gemäß einem der vorhergehenden Ansprüche, wenn es auf dem Computer läuft.
  6. Vorrichtung zum Markieren von Anfrageobjekten in einer Videosequenz auf Basis von Bildern der Anfrageobjekte, wobei die markierte Videosequenz zur Verwendung in einem interaktiven System für abfragbare Objekte vorgesehen ist, wobei die Vorrichtung umfasst: eine Videosequenzempfangseinheit (200) zum Empfangen der Videosequenz und eine Anfragebildempfangseinheit (210) zum Empfangen der Bilder der Anfrageobjekte; eine Aufnahme- und Key-Frame-Einstelleinheit (220), die so angeordnet ist, dass sie die Videosequenz in eine oder mehrere Aufnahmen teilt, deren jede ein Satz Frames mit einer ähnlichen Szene ist, und Auswählen eines oder mehrerer Key-Frames aus jeder der Aufnahmen; einen Ausgangsobjektbereichsextraktor (230), so angeordnet, dass er bestimmt, ob ein Objekt ähnlich jedem der Anfrageobjekte in jedem der Key-Frames vorhanden ist, und wenn ein ähnliches Objekt in einern Key-Frame vorhanden ist, Extrahieren des ähnlichen Objekts als ein entsprechendes Anfrageobjekt auf Basis des Ausgangsobjektbereichs; eine Objektbereichsverfolgungseinrichtung (240), so angeordnet, dass sie Objektbereiche in allen Frames jeder der Aufnahmen auf Basis des entsprechenden Anfrageobjekts auf Basis von Ausgangsobjektbereichen verfolgt; und einen Generator (250) für Objekt-markierte Bilder, so angeordnet, dass er die verfolgten Objektbereiche in jedem der Frames auf Basis von Information über die entsprechenden Anfrageobjekte markiert.
  7. Vorrichtung nach Anspruch 6, worin der Ausgangsobjektbereichsextraktor (230), ferner so angeordnet ist, dass er auf Basis des Anfrageobjekts Aufnahmemaskenbilder in allen Key-Frames jeder der Aufnahmen erzeugt durch Einstellen von Pixeln des Anfrageobjekts auf Basis von Ausgangsobjektbereichen extrahiert aus jedem der Key-Frames als ersten Wert und Einstellen der übrigen Pixel in jedem der Key-Frames als zweiten Wert.
  8. Vorrichtung nach Anspruch 7, worin die Objektbereichsverfolgungseinrichtung (240) die Objektbereiche in allen Frames jeder der Aufnahmen auf Basis der entsprechenden Aufnahmemaskenbildern auf Basis des Anfrageobjekts und Videomerkmalswerten der entsprechenden Anfrageobjekte verfolgt und auf Basis des Anfrageobjekts Framemaskenbilder in allen Frames jeder der Aufnahmen erzeugt durch Einstellen von Pixeln der in jedem der Frames verfolgten Objektbereiche als ersten Wert und Einstellen der übrigen Pixel jedes der Key-Frames als zweiten Wert.
  9. Vorrichtung nach Anspruch 6 bis 8, worin der Generator (250) für Objekt-markierte Bilder jeden der Objektbereiche in jedem Frame mit einer einzigartigen Zahl markiert, die auf das entsprechende Anfragebild oder Koordinateninformation des entsprechenden Anfragebildes in jedem Frame gesetzt ist.
DE2001616717 2001-01-20 2001-08-30 Vorrichtung und Verfahren zur Erzeugungung von objekt-markierten Bildern in einer Videosequenz Expired - Lifetime DE60116717T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020010003423A KR100355382B1 (ko) 2001-01-20 2001-01-20 영상 시퀀스에서의 객체 레이블 영상 생성장치 및 그 방법
KR2001003423 2001-01-20

Publications (2)

Publication Number Publication Date
DE60116717D1 DE60116717D1 (de) 2006-04-06
DE60116717T2 true DE60116717T2 (de) 2006-11-02

Family

ID=19704920

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001616717 Expired - Lifetime DE60116717T2 (de) 2001-01-20 2001-08-30 Vorrichtung und Verfahren zur Erzeugungung von objekt-markierten Bildern in einer Videosequenz

Country Status (6)

Country Link
US (1) US7024020B2 (de)
EP (1) EP1225518B1 (de)
JP (1) JP4370387B2 (de)
KR (1) KR100355382B1 (de)
CN (1) CN1222897C (de)
DE (1) DE60116717T2 (de)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6774908B2 (en) * 2000-10-03 2004-08-10 Creative Frontier Inc. System and method for tracking an object in a video and linking information thereto
US20030098869A1 (en) * 2001-11-09 2003-05-29 Arnold Glenn Christopher Real time interactive video system
KR100486709B1 (ko) * 2002-04-17 2005-05-03 삼성전자주식회사 객체기반 대화형 동영상 서비스 시스템 및 그 방법
JP4300767B2 (ja) 2002-08-05 2009-07-22 ソニー株式会社 ガイドシステム、コンテンツサーバ、携帯装置、情報処理方法、情報処理プログラム、及び記憶媒体
US7647301B2 (en) * 2003-08-08 2010-01-12 Open-Circuit, Ltd. Information provision apparatus, format separation apparatus, information provision method and program
US7299126B2 (en) * 2003-11-03 2007-11-20 International Business Machines Corporation System and method for evaluating moving queries over moving objects
US7664292B2 (en) * 2003-12-03 2010-02-16 Safehouse International, Inc. Monitoring an output from a camera
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US20050229227A1 (en) * 2004-04-13 2005-10-13 Evenhere, Inc. Aggregation of retailers for televised media programming product placement
GB2414615A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Object detection, scanning and labelling
US7660468B2 (en) * 2005-05-09 2010-02-09 Like.Com System and method for enabling image searching using manual enrichment, classification, and/or segmentation
EP1889207A4 (de) * 2005-05-09 2012-12-12 Google Inc System und verfahren zur ermöglichung der benutzung erfasster bilder durch erkennung
US7945099B2 (en) * 2005-05-09 2011-05-17 Like.Com System and method for use of images with recognition analysis
US7783135B2 (en) 2005-05-09 2010-08-24 Like.Com System and method for providing objectified image renderings using recognition information from images
US7519200B2 (en) * 2005-05-09 2009-04-14 Like.Com System and method for enabling the use of captured images through recognition
US7542610B2 (en) * 2005-05-09 2009-06-02 Like.Com System and method for use of images with recognition analysis
US20080177640A1 (en) 2005-05-09 2008-07-24 Salih Burak Gokturk System and method for using image analysis and search in e-commerce
US7809722B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for enabling search and retrieval from image files based on recognized information
US7657126B2 (en) 2005-05-09 2010-02-02 Like.Com System and method for search portions of objects in images and features thereof
US7657100B2 (en) 2005-05-09 2010-02-02 Like.Com System and method for enabling image recognition and searching of images
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
US8732025B2 (en) * 2005-05-09 2014-05-20 Google Inc. System and method for enabling image recognition and searching of remote content on display
US7760917B2 (en) * 2005-05-09 2010-07-20 Like.Com Computer-implemented method for performing similarity searches
US8494951B2 (en) * 2005-08-05 2013-07-23 Bgc Partners, Inc. Matching of trading orders based on priority
US20070208629A1 (en) * 2006-03-02 2007-09-06 Jung Edward K Y Shopping using exemplars
US8600832B2 (en) 2006-03-03 2013-12-03 The Invention Science Fund I, Llc Considering selling exemplar-based goods, items, or services
US8571272B2 (en) * 2006-03-12 2013-10-29 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
US9690979B2 (en) 2006-03-12 2017-06-27 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
US8233702B2 (en) * 2006-08-18 2012-07-31 Google Inc. Computer implemented technique for analyzing images
US8341152B1 (en) 2006-09-12 2012-12-25 Creatier Interactive Llc System and method for enabling objects within video to be searched on the internet or intranet
CN100413327C (zh) * 2006-09-14 2008-08-20 浙江大学 一种基于轮廓时空特征的视频对象标注方法
KR100853267B1 (ko) * 2007-02-02 2008-08-20 전남대학교산학협력단 스테레오 시각 정보를 이용한 복수 인물 추적 방법 및 그시스템
CN100568958C (zh) * 2007-02-14 2009-12-09 成都索贝数码科技股份有限公司 一种基于网络的节目远程编辑方法
WO2008150936A1 (en) * 2007-05-30 2008-12-11 Creatier Interactive, Llc Method and system for enabling advertising and transaction within user generated video content
US7929764B2 (en) * 2007-06-15 2011-04-19 Microsoft Corporation Identifying character information in media content
US8416981B2 (en) 2007-07-29 2013-04-09 Google Inc. System and method for displaying contextual supplemental content based on image content
CN101420595B (zh) * 2007-10-23 2012-11-21 华为技术有限公司 一种描述和捕获视频对象的方法及设备
US9189794B2 (en) * 2008-02-11 2015-11-17 Goldspot Media, Inc. Method and apparatus for maximizing brand exposure in a minimal mobile display
US20110110649A1 (en) * 2008-06-19 2011-05-12 Thomson Licensing Adaptive video key frame selection
JP5389168B2 (ja) * 2008-07-14 2014-01-15 グーグル インコーポレイテッド 関心がもたれる別のコンテンツアイテムを識別するための検索規準に対して補足コンテンツアイテムを用いるためのシステム及び方法
US8239359B2 (en) * 2008-09-23 2012-08-07 Disney Enterprises, Inc. System and method for visual search in a video media player
US9715701B2 (en) * 2008-11-24 2017-07-25 Ebay Inc. Image-based listing using image of multiple items
CN102075689A (zh) * 2009-11-24 2011-05-25 新奥特(北京)视频技术有限公司 一种快速制作动画的字幕机
JP4784709B1 (ja) * 2011-03-10 2011-10-05 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
WO2012171839A1 (en) * 2011-06-17 2012-12-20 Thomson Licensing Video navigation through object location
US8798362B2 (en) * 2011-08-15 2014-08-05 Hewlett-Packard Development Company, L.P. Clothing search in images
CN102930887A (zh) * 2012-10-31 2013-02-13 深圳市宜搜科技发展有限公司 一种音频文件处理方法及系统
US9626567B2 (en) * 2013-03-13 2017-04-18 Visible Measures Corp. Automated video campaign building
US9378556B2 (en) * 2014-04-25 2016-06-28 Xerox Corporation Method for reducing false object detection in stop-and-go scenarios
CN103970906B (zh) * 2014-05-27 2017-07-04 百度在线网络技术(北京)有限公司 视频标签的建立方法和装置、视频内容的显示方法和装置
WO2017164640A1 (en) * 2016-03-22 2017-09-28 Jam2Go, Inc. System and method for editing video contents automatically technical field
KR101717014B1 (ko) * 2016-04-21 2017-03-15 (주)노바빈 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법
CN107798272B (zh) * 2016-08-30 2021-11-02 佳能株式会社 快速多目标检测与跟踪系统
KR101751863B1 (ko) * 2017-03-08 2017-06-28 (주)잼투고 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법
CN108629224B (zh) * 2017-03-15 2019-11-05 北京京东尚科信息技术有限公司 信息呈现方法和装置
KR101827985B1 (ko) * 2017-05-19 2018-03-22 (주)잼투고 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법
WO2019014861A1 (en) 2017-07-18 2019-01-24 Hangzhou Taruo Information Technology Co., Ltd. INTELLIGENT FOLLOWING OF OBJECTS
CN110119650A (zh) * 2018-02-06 2019-08-13 优酷网络技术(北京)有限公司 信息展示方法及装置
TWI666595B (zh) 2018-02-26 2019-07-21 財團法人工業技術研究院 物件標示系統及方法
CN109284404A (zh) * 2018-09-07 2019-01-29 成都川江信息技术有限公司 一种将实时视频中的场景坐标与地理信息相匹配的方法
JP7121277B2 (ja) 2018-09-28 2022-08-18 日本電信電話株式会社 情報同期装置、情報同期方法及び情報同期プログラム
KR102604937B1 (ko) * 2018-12-05 2023-11-23 삼성전자주식회사 캐릭터를 포함하는 동영상을 생성하기 위한 전자 장치 및 그에 관한 방법
KR102028319B1 (ko) * 2018-12-17 2019-11-04 엘아이지넥스원 주식회사 연관 영상 제공장치 및 방법
KR101997799B1 (ko) * 2018-12-17 2019-07-08 엘아이지넥스원 주식회사 관심영역 연관 영상 제공시스템
US11823476B2 (en) 2021-05-25 2023-11-21 Bank Of America Corporation Contextual analysis for digital image processing

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109435A (en) 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
JPH07104921B2 (ja) 1989-11-17 1995-11-13 松下電器産業株式会社 画像閾値決定方法
JPH0766448B2 (ja) * 1991-06-25 1995-07-19 富士ゼロックス株式会社 画像信号分析装置
US5500904A (en) 1992-04-22 1996-03-19 Texas Instruments Incorporated System and method for indicating a change between images
JP3329408B2 (ja) * 1993-12-27 2002-09-30 日本電信電話株式会社 動画像処理方法および装置
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
JP3569992B2 (ja) 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
JPH09282456A (ja) * 1996-04-18 1997-10-31 Matsushita Electric Ind Co Ltd 画像ラベリング装置および画像検索装置
US5943442A (en) 1996-06-12 1999-08-24 Nippon Telegraph And Telephone Corporation Method of image processing using parametric template matching
KR20010012261A (ko) 1997-05-05 2001-02-15 더 트러스티스 오브 컬럼비아 유니버시티 인 더 시티 오브 뉴욕 객체 지향형 콘텐트에 기초한 비디오 탐색용 알고리즘 및시스템
JP3787019B2 (ja) * 1997-07-18 2006-06-21 日本放送協会 画像の領域分割処理用ラベルマーカ生成装置および画像の領域分割処理装置
KR100304662B1 (ko) * 1998-01-21 2001-09-29 윤종용 2차원 영상 시퀀스를 이용한 스테레오 영상 생성장치 및 방법
KR100361939B1 (ko) * 1999-07-27 2002-11-22 학교법인 한국정보통신학원 객체 움직임을 이용한 mpeg 비디오 시퀀스의 데이터 베이스 구축 및 검색 방법과 그 기록 매체
KR100331050B1 (ko) * 2000-06-01 2002-04-19 송종수 동영상 데이터상의 객체 추적 방법

Also Published As

Publication number Publication date
KR100355382B1 (ko) 2002-10-12
US20020097893A1 (en) 2002-07-25
JP2002232839A (ja) 2002-08-16
KR20020062429A (ko) 2002-07-26
CN1222897C (zh) 2005-10-12
EP1225518A2 (de) 2002-07-24
EP1225518B1 (de) 2006-01-18
DE60116717D1 (de) 2006-04-06
EP1225518A3 (de) 2003-01-02
CN1367616A (zh) 2002-09-04
JP4370387B2 (ja) 2009-11-25
US7024020B2 (en) 2006-04-04

Similar Documents

Publication Publication Date Title
DE60116717T2 (de) Vorrichtung und Verfahren zur Erzeugungung von objekt-markierten Bildern in einer Videosequenz
DE60037485T2 (de) Signalverarbeitungsverfahren und Videosignalprozessor zum Ermitteln und Analysieren eines Bild- und/oder Audiomusters
DE69333177T2 (de) Aufzeichnungsmedium, ein Gerät zum Aufzeichnen bewegter Bilder, ein Gerät und ein System zum Erzeugen eines Abrisses bewegter Bilder, und Verfahren zu dessen Erzeugung
DE60216547T2 (de) Videostrukturierung durch wahrscheinlichkeitstheoretische Zusammenführung von Videosegmenten
EP2089886B1 (de) Verfahren zur zeitlichen segmentierung eines videos in videobildfolgen und zur auswahl von keyframes für das auffinden von bildinhalten unter einbeziehung einer subshot-detektion
DE60317053T2 (de) Verfahren und Vorrichtung zur Darstellung einer Bildgruppe
DE60111851T2 (de) Videobildsegmentierungsverfahren unter verwendung von elementären objekten
DE69934605T2 (de) Verfahren und Vorrichtung zur Bearbeitung von Videosignalen durch Charakteristischen Punkten Extraktion im komprimierten Bereich.
DE69925033T2 (de) Verfahren und system zur erzeugung von 3d modellen aus sequentiellen 2d bilddaten
US7606397B2 (en) Visual language classification system
DE69922973T2 (de) Verfolgung semantischer objekte in vektorbildsequenzen
DE69938173T2 (de) Automatische voreingestellte teilnehmerpositionsbestimmung für videokonferenzsysteme
DE102008056603B4 (de) Verfahren und Vorrichtungen zur Messung von Markenexposition in Medienstreams und zur Festlegung von Interessenbereichen in zugeordneten Videoframes
DE102017010210A1 (de) Bild-Matting mittels tiefem Lernen
DE102016010744A1 (de) Modifizieren von zumindest einem Attribut von einem Bild mit zumindest einem Attribut, das von einem anderen Bild extrahiert wurde
DE112017002821T5 (de) Verfahren, System und Computerprogrammprodukt zur interaktiven Identifizierung von gleichen Personen oder Objekten in Videoaufnahmen
DE60119012T2 (de) Verfahren um Überblendung in einer MPEG-Umgebung zu detektieren
CN106937120B (zh) 基于对象的监控视频浓缩方法
DE60314989T2 (de) Verfahren und Einrichtung zur Überprüfung von Fingerabdrücken
DE10197062T5 (de) Bildextraktion aus komplexen Szenen bei digitalen Videos
DE112016002175T5 (de) Entitätsbasierte temporale Segmentierung von Videostreams
DE112008003972T5 (de) Automatische Erzeugung einer skalierbaren, nach Relevanz geordneten Darstellung einer Bildsammlung
DE102019130137A1 (de) Alias-Erfassung zur Unterstützung der Suche nach einem Objekt von Interesse
DE602004002837T2 (de) Objekterkennung
DE60036288T2 (de) Dynamisches bildsuch-informations-aufzeichnungsgerät und dynamische bildsuchvorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition