DE69820093T2 - Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation - Google Patents

Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation Download PDF

Info

Publication number
DE69820093T2
DE69820093T2 DE69820093T DE69820093T DE69820093T2 DE 69820093 T2 DE69820093 T2 DE 69820093T2 DE 69820093 T DE69820093 T DE 69820093T DE 69820093 T DE69820093 T DE 69820093T DE 69820093 T2 DE69820093 T2 DE 69820093T2
Authority
DE
Germany
Prior art keywords
information
image
content
user
related information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69820093T
Other languages
English (en)
Other versions
DE69820093D1 (de
Inventor
Richard Jungiang Qian
Ibrahim Muhammed SEZAN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of DE69820093D1 publication Critical patent/DE69820093D1/de
Publication of DE69820093T2 publication Critical patent/DE69820093T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/748Hypervideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99943Generating database or data structure, e.g. via user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

  • Gebiet der Erfindung
  • Diese Erfindung bezieht sich auf Systeme, die Bildern Informationen zuordnen und diese Informationen in Anwendungen für die inhaltsbasierte Informationswiedergewinnung und für die objektbasierte Editierung und Manipulation verwenden, und auf ein Verfahren zur Manipulation von Informationen in diesen Systemen.
  • Hintergrund der Erfindung
  • Das Zuordnen von Informationen zu Bildern ist nützlich, um eine erfolgreiche Identifizierung von Bildern und den Austausch von Bildern zwischen verschiedenen Anwendungen zu ermöglichen. Wenn außer den Bilddaten selbst zugeordnete Informationen audiovisuell gerendert werden, können die Bilder auf neue Weise verwendet und genutzt werden. In bekannten Verfahren und Systemen sind diese Informationen allgemein dem Wesen nach global, d. h., sie betreffen das gesamte Bild, ohne zwischen verschiedenen Objekten (z. B. eine Person gegenüber dem Hintergrund oder anderen Personen) in dem Bild zu unterscheiden. Ein Beispiel eines Dateiformats, das von Normungsgremien entwickelt worden ist und das das Anfügen globaler Informationen an Bilder ermöglicht, ist das Still-Picture-Interchange-File-Format (SPIFF), das als eine Erweiterung der JPEG-Norm, ISO/IEC IS 10918-3 (Anhang F), spezifiziert ist.
  • Das Dokument WO-A-9712342 (WISTENDAHL U. A.) offenbart ein System, das es ermöglicht, einen Medieninhalt in einem interaktiven Programm für digitale Medien (IDM) zu verwenden. Das IDM-Programm stellt Verknüpfungen her, die die Objekte verbinden, die durch N Daten auf andere Funktionen abgebildet sind, welche in Verbindung mit der Anzeige des Medieninhalts auszuführen sind. Die Auswahl eines Objekts, das in dem Medieninhalt erscheint, mit einem Zeiger führt zur Auslösung einer besonderen interaktiven Funktion.
  • In bekannten Systemen werden die Informationen einfach und ohne Vorsehen von Interaktivität zum Anwender "geschoben". Die bekannten Systeme behandeln überhaupt keine Audiovisualisierung der Inhaltsinformationen; sie sind alle auf klassische Bilddatenbank- oder Bilddateiaustausch-Anwendungen ausgerichtet. Es gibt keine Möglichkeit, dass der Anwender zusätzliche Informationen über den Gegenstand des angezeigten Bildes erfährt.
  • Zusammenfassung der Erfindung
  • Die Erfindung ist durch den beigefügten Satz von Ansprüchen definiert.
  • Eine Aufgabe der Erfindung besteht in der Entwicklung einer hierarchischen Datenstruktur und eines Verfahrens, das die Zuordnung deskriptiver Daten zu einem Bild ermöglicht.
  • Eine weitere Aufgabe der Erfindung ist die Schaffung eines Systems und eines Verfahrens, in denen die deskriptiven Daten spezifisch für Objekte in dem Bild sein können und Textinformationen, Verknüpfungen zu anderen Dateien, anderen Objekten in dem gleichen Bild oder in anderen Bildern oder Verknüpfungen zu Web-Seiten sowie Objektmerkmale wie etwa die Gestalt und Audioannotationen umfassen können.
  • Eine weitere Aufgabe der Erfindung ist die Schaffung eines Systems und eines Verfahrens, die ein Mittel zur Erzeugung bildinhaltsbezogener Informationen und zur Bildung der Datenstruktur, die diese Informationen enthält, und Mittel zum Erfahren dieser Informationen schaffen. Solche Systeme können eine Kamera oder eine Kamera, die mit einem Personal Computer verbunden ist, oder irgendeine Informationseinrichtung mit Bilderfassungs- oder Bilderzeugungs-, Bildbetrachtungs- und Bildbehandlungsfähigkeiten umfassen. Im Obigen bezieht sich der Begriff "Erfahren" auf die audiovisuelle Beobachtung bildinhaltsbezogener Informationen durch die Anzeige und Wiedergabe, während sich "Verwenden" auf die Editierung, Archivierung und Wiedergewinnung, Manipulation, Umnutzung und Kommunikation von Bildern bezieht.
  • Kurzbeschreibung der Zeichnung
  • 1 ist ein Blockschaltplan der Hauptkomponenten des Systems der Erfindung.
  • 2 ist ein Blockschaltplan eines Systems zur Wiedergewinnung inhaltsbasierter Informationen.
  • 3 ist ein Blockschaltplan, der ein objektbasiertes Bildeditierverfahren zeigt.
  • 4 zeigt die Dateistruktur der bevorzugten Ausführungsform.
  • 5 zeigt die Integration der hierarchischen Datenstruktur mit Bilddaten unter Verwendung des JFIF-Dateiformats.
  • Ausführliche Beschreibung der bevorzugten Ausführungsform
  • Diese Erfindung schafft ein System und ein Verfahren zur (i) Definition objektbasierter Informationen über Bereiche in einem digitalen Bild, (ii) Strukturierung und Integration dieser Informationen in einem gemeinsamen Dateiformat, das die Bilddaten selbst enthält, und (iii) Verwendung dieser Informationen in Anwendungen für die inhaltsbasierte Informationswiedergewinnung und für die objektbasierte Editierung und Manipulation.
  • Das Verfahren der Erfindung ist so beschaffen, dass es mit irgendeinem Bildkomprimierungsstandard wie etwa mit dem momentanen JPEG-Standard sowie mit künftigen Versionen von JPEG wie etwa mit JPEG2000 funktioniert. Das Zuordnen von Informationen über Begrenzungsrechtecke verschiedener Bildobjekte sowie über genaue Umrissdaten gehört zu den einzigartigen Merkmalen dieser Erfindung. Ein wichtiges Merkmal der Erfindung ist, dass die hierarchische Datenstruktur und die inhaltsbezogenen Informationen einem Anwender nur dann heruntergeladen und präsentiert werden, wenn der Anwender dies anfordert. Es wird ein objektbasiertes Paradigma geschaffen. Das System und das Verfahren unterstützen neue Typen inhaltsbezogener Informationen wie etwa Web-Seiten und Objektrandinformationen. Es wird ein Verknüpfungsmechanismus geschaffen, der ein Bild oder einen Bereich/ein Objekt in einem Bild mit irgendeinem anderen lokalen oder fernen Multimedia-Inhalt verknüpfen kann. Das neu definierte Format ist rückwärts kompatibel zu vorhandenen Systemen.
  • Im Gegensatz zu den rahmenbasierten Paradigmen bekannter Systeme, bei de nen sich die Informationen auf das gesamte Bild beziehen, ohne die Möglichkeit einer Unterscheidung zwischen verschiedenen Bildobjekten zuzulassen, verwendet die Erfindung ein objektbasiertes Paradigma.
  • Die Hauptkomponenten einer Ausführungsform eines Systems der Erfindung sind in 1 allgemein bei 10 gezeigt. In dieser Ausführungsform wird ein Bild 12 erfasst und/oder erzeugt. Das Bild kann von einer Kamera erfasst, von einem Computer erzeugt oder ein vorhandenes Bild sein. Wenn das Bild erfasst worden ist, kann die Objektauswahl 14 interaktiv durch das Zeichnen von Rechtecken ausgeführt werden, die interessierende Objekte einschließen. Falls die Erfassung oder Erzeugung des Bildes 12 in einer Kamera bzw. in einem Computer stattfindet, können die Rechtecke durch Eingabe mit einem Eingabestift auf einen LCD-Bildschirm gezeichnet werden. Alternativ kann die Objektauswahl auf einer Computerplattform ausgeführt werden, auf die die digitalen Bilder heruntergeladen werden. Für Text- und Verknüpfungsinformationen kann eine objektbasierte Informationseingabe 14 mit einem Eingabestift ausgeführt werden. Audioannotationen können über ein Mikrofon eingegeben werden, das in die Kamera integriert sein kann, um Annotationen während des Erfassungsprozesses zu ermöglichen. Außerdem kann die Kamera ein Spracherkennungsmodul aufweisen, wobei Textinformationen unter Verwendung einer Sprache-Text-Umsetzung über Sprache eingegeben werden können. Ein Komprimierungsmodul 15 umfasst einen Audiokomprimierungsmechanismus 15a und einen Datenkomprimierungsmechanismus 15b. Die Komprimierung der Audioannotationen unter Verwendung eines Standard-Audiokomprimierungsverfahrens (z. B. der Delta-Pulscodemodulation (DPCM)) und die Komprimierung anderer zugeordneter Daten unter Verwendung eines Standard-Datenkomprimierungsverfahrens (z. B. Lempel-Zev-Welch (LZW)) sind optional.
  • Die Erzeugung einer hierarchischen Datenstruktur 16, die die Informationen in zwei Ebenen enthält, wobei die erste Schicht die "Basisschicht" genannt wird, wird hier später beschrieben. In der bevorzugten Ausführungsform kombiniert ein Integrationsmodul 17 inhaltsbezogene Daten und die Bilddaten selbst zu einer gemeinsamen Datei. Diese Kombination kann als ein ursprünglicher Teil eines zukünftigen Bilddateiformats wie etwa beispielsweise des Formats, das von JPEG2000 oder MPEG4 verwendet wird, unterstützt werden. Allerdings ist es ebenfalls möglich, momentan vorhandene Standard-Dateiformate zu verwenden, indem sie auf herstellerspezifische Weise erweitert werden. Letzteres schafft eine Rückwärtskompatibilität in dem Sinn, dass ein älterer Betrachter, der ein vorhandenes Dateiformat verwendet, das Bild wenigstens anzeigen kann, ohne zusammenzubrechen, wobei er die zusätzlichen Informationen ignoriert. Dies wird hier später beschrieben. Wie später in Verbindung mit 4 beschrieben wird, ist außerdem mit bestimmten Vor- und Nachteilen eine Implementierung mit getrennten Bild- und Informationsdateien möglich. Der integrierte Bildinhalt und die Bilddaten selbst werden daraufhin, Block 18, in einem Kanal, in einem Server oder über ein Netz übertragen oder gespeichert.
  • Die Ablage kann eine Speichereinheit, z. B. ein Speicher in einer elektronischen Kamera oder in einem Server, sein. Alternativ können die integrierten Daten über E-Mail oder als Anlage zu einer E-Mail gesendet werden. Das Bildkomprimierungsmodul 20 ist optional und kann vorgesehen sein, um den JPEG-Standardalgorithmus oder irgendeinen anderen Bildkomprimierungsalgorithmus zu implementieren. Falls Ton und/oder die anderen zugeordneten Daten komprimiert werden, wird vor der audiovisuellen Realisierung der Informationen im Modul 24 eine Dekomprimierung des Tons und/oder der Daten ausgeführt. Wenn die Bilder und die hierarchische Datenstruktur, die ihnen zugeordnet ist, für Anwender verfügbar sind, können sie interaktiv verwendet werden.
  • Interaktive Audiovisuelle Realisierung:
  • Ein interaktives System, das die Erfindung verwendet, kann die folgenden Schritte befolgen, um die Wiedergewinnung und die audiovisuelle Realisierung von dem Bild zugeordneten Objektinformationen, Block 24, zu implementieren.
    • (a) Wiedergewinnen und Anzeigen der Bilddaten;
    • (b) Lesen der Basisschichtinformationen;
    • (c) Verwenden der Basisschichtinformationen als einen Überlagerungserzeugungsmechanismus und Erzeugen einer Überlagerung zur visuellen Angabe derjenigen Bereiche, die Informationen enthalten, hinsichtlich "markanter Punkte" gemäß den in der Basisschicht enthaltenen Bereichsinformationen. Ein markanter Punkt kann nur dann hervorgehoben werden, wenn die Zeigevorrichtung des Anwenders auf eine Stelle in der Fläche dieses Bereiches zeigt;
    • (d) Anzeigen von Popup-Menüs durch die Objekte, während der Anwender auf die markanten Punkte zeigt und klickt, wobei die Typen der für dieses Objekt verfügbaren Informationen in den Menüs enthalten sind; und
    • (e) Rendern der durch den Anwender ausgewählten Informationen, wenn der Anwender auf den richtigen Eintrag in dem Menü klickt.
  • Es ist wichtig anzumerken, dass die markanten Punkte und Popups lediglich aufgerufen werden, wenn der Anwender dies anfordert. In diesem Sinn werden die durch diese Erfindung gelieferten zusätzlichen Informationen nie störend. Die Schritte a–e werden durch die audiovisuelle Realisierung des Objektinformationsmoduls 24 implementiert, das geeignete Computer-Software enthält.
  • In einer vollständigen Implementierung der Erfindung werden auch die inhaltsbasierte Bildwiedergewinnung und -editierung unterstützt. Es ist eine Suchmaschine 28 vorgesehen, die ermöglicht, dass der Anwender ein spezifisches Bild auffindet. Die Editierung wird von einem objektbasierten Bildmanipulationsund -editieruntersystem 26 geliefert. Die Bilder 12 können in einer Datenbank enthalten sein, die eine Sammlung digitaler Bilder enthält. Eine solche Bilddatenbank kann auch als Bibliothek oder als digitale Bibliothek bezeichnet werden.
  • Die inhaltsbasierte Informationswiedergewinnung schafft für die Anwender neue Dimensionen zur Verwendung und Wechselwirkung mit Bildern. Zunächst kann der Anwender auf einige interessierende Bereiche/Objekte in einem Bild klicken, um weitere Informationen über sie wiederzugewinnen. Solche Informationen können umfassen: Verknüpfungen zu den verwandten Web-Seiten oder zu weiterem Multimedia-Material, Textbeschreibungen, Sprachannotationen usw. Zweitens kann der Anwender über fortgeschrittene Suchmaschinen in einer Datenbank nach bestimmten Bildern suchen. In Datenbankanwendungen können die Bilder anhand der zugeordneten Informationen, die ihren Inhalt beschreiben, indiziert und wiedergewonnen werden. Solche inhaltsbezogenen Informationen können Bildern und Objekten in Bildern zugeordnet und nachfolgend unter Verwendung der Erfindung bei der Informationswiedergewinnung verwendet werden.
  • Die objektbasierte Bildeditierung ermöglicht, dass ein Anwender Bilder hinsichtlich der Objekte in den Bildern manipuliert. Beispielsweise kann der Anwender eine menschliche Person in einem Bild "ziehen", sie auf ein anderes Hintergrundbild "ablegen" und somit ein neues Bild mit bestimmten gewünschten Wirkungen zusammensetzen. Die Erfindung gestattet den Zugriff auf genaue Umrissinformationen (Konturinformationen) von Objekten, um zu ermöglichen, dass Objekte geschnitten und von einem Bild in ein anderes gezogen werden, wo sie nahtlos in andere Hintergründe integriert werden. Die inhaltsbasierte Informationswiedergewinnung und die objektbasierte Bildeditierung bieten einem Anwender gemeinsam eine neue erregende Erfahrung bei der Betrachtung und Manipulation von Bildern.
  • Im Folgenden wird ein integriertes Verfahren offenbart, das ermöglicht, dass eine Bilddatenstruktur die inhaltsbasierte Informationswiedergewinnung und die objektbasierte Bildeditierung unterstützt. Das Verfahren konstruiert eine hierarchische Datenstruktur, in der die "Basisschicht" lediglich Indikatoren für inhaltsbezogene Informationen übermittelt und außerordentlich leicht ist. Die tatsächlichen inhaltsbezogenen Informationen werden in der "zweiten Schicht" übermittelt. Die hierarchische Implementierung stellt sicher, dass die Effizienz des Herunterladens komprimierter Bilder nach Einführung der neuen Funktionalitäten praktisch ungestört ist, während diese Funktionalitäten vollständig realisiert werden können, wenn ein Anwender dies anweist.
  • Es gibt zwei Hauptziele bei der Entwicklung eines Verfahrens zur Unterstützung der inhaltsbasierten Informationswiedergewinnung und der objektbasierten Bildeditierung. Diese sind: 1) ein komprimiertes Bild, das diese Funktionalitäten unterstützt, sollte im Wesentlichen mit der gleichen Geschwindigkeit heruntergeladen und im Wesentlichen unter Verwendung des gleichen Plattenplatzes gespeichert werden können, wie wenn es diese Funktionalitäten nicht unterstützen würde; 2) diese Funktionalitäten können vollständig realisiert werden, wenn ein Anwender/eine Anwendung dies auswählt.
  • Zur Lösung der obigen Aufgaben wird eine hierarchische Datenstruktur verwendet, die zwei Schichten besitzt. Die erste Schicht, die hier als die "Basisschicht" bezeichnet wird, enthält bis zu einer festen Anzahl von Bytes. Diese Bytes werden verwendet, um eine Anzahl interessierender Bereiche anzugeben und eine Anzahl von Merkern zu speichern, die angeben, ob für einen Bereich bestimmte zusätzliche inhaltsbezogene Informationen verfügbar sind. Die zweite Schicht übermittelt die tatsächlichen inhaltsbezogenen Informationen. In einer Netzanwendung werden anfangs lediglich das komprimierte Bild und die Basisschicht ihrer zugeordneten inhaltsbezogenen Informationen übertragen. Da die Basisschicht lediglich bis zu einer festen kleinen Anzahl von Bytes übermittelt, kann ihre Auswirkung auf die Übertragungsgeschwindigkeit des Bildes in der Praxis vernachlässigbar sein.
  • Wie nun in 2 gezeigt ist, kann ein Anwender das Bild 40, nachdem er es zunächst heruntergeladen hat, betrachten, wobei er sich außerdem dazu entscheiden kann, mit dem Inhalt des Bildes in Wechselwirkung zu treten. Dies kann die Wechselwirkung mit einem interessierenden Objekt wie etwa mit der Person 1 (42), mit der Person 2 (44) oder mit einem anderen Element wie etwa mit dem Element 46 umfassen. Alternativ kann ein Bereich des Bildes als interessierendes Objekt betrachtet werden. Auch das gesamte Bild kann als interessierendes Objekt behandelt werden. Der Anwender kann dies dadurch tun, dass er auf Bereiche oder Objekte, an denen er interessiert sein kann, "klickt". Daraufhin zeigt das System ein Popup-Menü 48, 50 an, das anhand der in der Basisschicht gespeicherten Merker die verfügbaren Informationen in Bezug auf den gewählten Bereich oder in Bezug auf das gewählte Objekt auflistet. Falls der Anwender einen Eintrag in dem Menü auswählt, beginnt das System daraufhin, die in der zweiten Schicht gespeicherten diesbezüglichen Informationen von der Originalquelle herunterzuladen und dem Anwender anzuzeigen. Außerdem kann sich der Anwender dafür entscheiden, ein komprimiertes Bild mit oder ohne seine inhaltsbezogenen Informationen zu sichern. Wenn sich der Anwender dafür entscheidet, das Bild mit seinen inhaltsbezogenen Informationen zu sichern, werden die Merker in der Basisschicht, die den verfügbaren Informationen entsprechen, auf wahr gesetzt und umgekehrt.
  • Eine Anfangsmenge inhaltsbezogener Informationen, die von allgemeinem Interesse sein können, umfasst: 1) Verknüpfungen; 2) Metatextinformationen; 3) Sprachannotationen; und 4) Objektränder. Außerdem können 5) Sicherheits-Copyright-Informationen; und 6) Bezugnahmen auf (nicht gezeigt) MPEG-7-Deskriptoren, wie sie in "MPEG-7: Context and Objectives (Version 4)" ISO/IEC JTC1/SC29/WG11, Coding of Moving Pictures and Audio, N1733, Juli 1997, beschrieben sind, angezeigt werden. Um die Erfassung inhaltsbezogener Informationen zu unterstützen, kann die Syntax aus Tabelle 1 verwendet werden. Es wird angemerkt, dass bei Bedarf weitere Typen inhaltsbezogener Informationen zu dieser Anfangsmenge hinzugefügt werden können, um verschiedene Anwendungen zu befriedigen. Beispielsweise kann zu der Liste zugeordneter Informationen ein Computer-Code hinzugefügt werden, der beispielsweise in der Sprache Java® geschrieben ist. In einigen Fällen öffnet das System eine bereits laufende Anwendung wie etwa einen Web-Browser oder eine Medienwiedergabe, während es erforderlich sein kann, dass das System eine Anwendung startet, wenn die Anwendung noch nicht läuft. Diese Anwendungen können irgendeine Form wie etwa eine Textverarbeitungsanwendung, ein Java®-Applet oder irgendeine andere geforderte Anwendung annehmen. SYNTAX DER BASISSCHICHT
    Figure 00090001
    Tabelle 1 wobei N = Geil (log2(max(image_width, image_height))) ist.
  • Semantik
    num of regions die Anzahl der Bereiche in einem Bild, die zusätzliche inhaltsbezogene Informationen besitzen können.
    region_start_x die x-Koordinate der linken oberen Ecke eines Bereiches.
    region_start_y die y-Koordinate der linken oberen Ecke eines Bereiches.
    region_width die Breite eines Bereiches.
    region_height die Höhe eines Bereiches.
    link_flag ein 1-Bit-Merker, der das Vorhandensein eines Links für einen Bereich angibt. '1' gibt an, dass an diesem Bereich Verknüpfungen angebracht sind, während '0' angibt, dass keine angebracht sind.
    meta_flag ein 1-Bit-Merker, der das Vorhandensein von Metainformationen für einen Bereich angibt. '1' gibt an, dass es Metainformationen gibt, während '0' angibt, dass es keine gibt.
    voice_flag ein 1-Bit-Merker, der das Vorhandensein von Sprachannotationen für einen Bereich angibt. '1' gibt an, dass es Sprachannotationen gibt, während '0' angibt, dass es keine gibt.
    boundary_flag ein 1-Bit-Merker, der das Vorhandensein genauer Randnformationen für einen Bereich angibt. '1' gibt an, dass es Randinformationen gibt, während '0' angibt, dass es keine gibt.
    security_flag ein 1-Bit-Merker, der das Vorhandensein von Sicherheits-Copyright-Informationen für einen Bereich angibt. '1' gibt an, dass es diese Informationen gibt, während '0' angibt, dass es keine gibt.
    mpeg7_flag ein 1-Bit-Merker, der das Vorhandensein einer Bezugnahme auf MPEG-7-Deskriptoren für einen Bereich angibt. '1' gibt an, dass es MPEG-7-Referenzinformationen gibt, während '0' angibt, dass es keine gibt.
  • Die obige Syntax legt nahe, dass die Basisschicht leicht ist. Beispielsweise kann 30 die Basisschicht mit 256 Bytes wenigstens 26 Bereiche irgendwo in einem Bild definieren, das so groß wie 65.536 × 65.536 Pixel sein kann. Um 4 Bereiche in einem Bild zu definieren, verbraucht die Basisschicht lediglich 38 Bytes.
  • SYNTAX DER ZWEITEN SCHICHT
  • Die zweite Schicht übermittelt tatsächliche inhaltsbezogene Informationen, die für jeden Bereich Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen umfassen können. Um die obigen Informationen in der zweiten Schicht zu speichern, kann die höhere Syntax aus Tabelle 2 verwendet werden.
  • Figure 00110001
    Tabelle 2
  • Die Verknüpfungen und die Metainformationen sind Textdaten und erfordern eine verlustlose Codierung. Die Sprachinformationen können unter Verwendung eines vorhandenen Klangkomprimierungsformats wie etwa der Delta-Pulscodemodulation (DPCM) codiert werden. Die Randinformationen können die in MPEG-4 "Description of Core Experiments on Shape Coding in MPEG4 Video", ISO/IEC JTC1/SC29/WG11, Coding of Moving Pictures and Audio, N 1584, März 1997, entwickelten Gestaltscodierungstechniken verwenden. Die Sicherheits-Copyright-Informationen können bestimmte Verschlüsselungstechniken verwenden. Die früher angeführten MPEG-7-Referenzinformationen enthalten bestimmte Typen von Verknüpfungen mit den zukünftigen in MPEG-7 entwickelten Beschreibungsströmen.
  • Die genaue Syntax und das Format für jeden Typ der oben identifizierten inhaltsbezogenen Informationen können während der Dateiformatentwicklung für zukünftige Standards bestimmt werden und werden hier lediglich als Beispiele für das System und für das Verfahren der Erfindung dargestellt. Im Allgemeinen kann aber die Syntaxstruktur aus Tabelle 3 verwendet werden.
  • Figure 00120001
    Tabelle 3
  • Semantik
    links () die Untersyntax für die Codierung von Verknüpfungen.
    meta () die Untersyntax für die Codierung von Metainformationen.
    voice () die Untersyntax für die Codierung von Sprachannotationen.
    boundary () die Untersyntax für die Codierung von Randinformationen.
    security () die Untersyntax für die Codierung von Sicherheits-Copyright-Informationen.
    mpeg7 () die Untersyntax für die Codierung von MPEG-7-Referenzinformationen.
    end_of_region ein 16-Bit-Identifizierungskennzeichen, das das Ende der inhaltsbezogenen Informationen für einen Bereich signalisiert.
    type_of_info ein 8-Bit-Identifizierungskennzeichen, das eindeutig den Typ der inhaltsbezogenen Informationen definiert. Der Wert dieses Parameters kann einer aus einer Menge von Zahlen sein, die in einer Tabelle definiert sind, welche alle Typen inhaltsbezogener Informationen wie etwa Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen auflistet.
    length_of_data die Anzahl der Bytes, die zum Speichern der inhaltsbezogenen Informationen verwendet werden.
    data () die tatsächliche Syntax zum Codieren der inhaltsbezogenen Informationen. Diese kann auf der Basis von Anwendungsanforderungen oder in Übereinstimmung mit den Spezifikationen eines zukünftigen Dateiformats, das die hierarchische Datenstruktur als eines seiner ursprünglichen Merkmale unterstützen kann, bestimmt werden.
  • Es werden nun einige wenige Beispiele dargestellt, die eine typische Anwendung der Funktionalitäten veranschaulichen.
  • Wiedergewinnung inhaltsbezogener Informationen
  • Das Anfügen zusätzlicher Informationen wie etwa von Sprachannotationen und URL-Verknüpfungen an Bereiche/Objekte in einem Bild ermöglicht, dass ein Anwender auf interessantere Verweise mit dem Bild in Wechselwirkung tritt. Es fügt eine neue Dimension zu der Art und Weise hinzu, in der Standbilder betrachtet und verwendet werden. 2 zeigt ein Szenarium, in dem ein Bild mit diesen Funktionalitäten, d. h. ein informationserweitertes Bild, angezeigt wird. Die Anwendung liest die Bilddaten sowie die Basisschichtinformationen. Daraufhin zeigt sie das Bild an, wobei sie gemäß den Bereichsinformationen in der Basisschicht visuell die "markanten Punkte" über eine Überlagerung in dem Bild angibt. Ein Anwender klickt auf einen Bereich/ein Objekt, an dem er interessiert sein kann. Es erscheint ein Popup-Menü, das die Einträge auflistet, die für den ausgewählten Bereich/für das ausgewählte Objekt verfügbar sind. Wenn der Anwender den Sprachannotationseintrag auswählt, lokalisiert die Anwendung beispielsweise die Klanginformationen in der zweiten Schicht und gibt sie unter Verwendung einer Standard-Klangwiedergabeanwendung wieder. Wenn der Anwender eine Verknüpfung auswählt, die eine URL-Verknüpfung auf eine Web-Seite 52 ist, lokalisiert das System daraufhin die Adresse und zeigt die entsprechende Web-Seite in einem Standard-Web-Browser an. Außerdem kann eine Verknüpfung zu einer weiteren Bilddatei oder sogar zu einem weiteren Bereich/Objekt in einem Bild zeigen. Ähnlich können auch zusätzliche Metainformationen (in einer Vielzahl verschiedener Formen) durch den Anwender wiedergewonnen und betrachtet werden, indem einfach der entsprechende Eintrag wie etwa eine Medienwiedergabe 54 aus dem Menü ausgewählt wird.
  • Unter Verwendung des obenbeschriebenen Verfahrens können an verschiedenen Bereichen/Objekten in dem gleichen Bild verschiedene Zusatzinformationen angebracht sein. Beispielsweise kann ein Anwender verschiedene Stimmen hören, die verschiedenen Personen in dem Bild entsprechen. Außerdem können an relevanteren Komponenten in der Szene direkt einzelne Web-Seiten angebracht sein.
  • Objektbasierte Bildeditierung
  • Wenn Bilder editiert werden, ist es wünschenswert, Objekte mit beliebigen Gestalten auszuschneiden/zu kopieren/einzufügen. Das vorgeschlagene Verfahren unterstützt diese Funktionalität, wenn zusätzliche Gestaltsinformationen codiert sind. 3 zeigt ein Beispiel, durch das ein Anwender unter Verwendung der Randinformationen 60, die einem Baby-Objekt 62 zugeordnet sind, das Baby-Objekt 62 kopieren und in einen anderen Hintergrund 64 einsetzen und somit ein computergeneriertes Bild in ein weiteres computergeneriertes Bild verschieben kann. Die Folge der Aktionen kann folgendermaßen ablaufen. Zunächst klickt der Anwender auf das Baby-Objekt 62, wobei das System ein Menü 66 erscheinen lässt. Daraufhin wählt der Anwender das Randelement 68 aus, das in dem System durch einen Randerzeugungsmechanismus erzeugt wird. Daraufhin lädt das System die Randinformationen, wobei es das Baby-Objekt, wie durch die helle Linie um das Objekt gezeigt ist, hervorhebt. Daraufhin kann der Anwender das Baby-Objekt kopieren und einfügen 70, indem er entweder eine Zieh- und Ablegeaktion 72 ausführt oder indem er aus dem Editiermenü 70 die Kopier- und Einfügefunktionen auswählt.
  • Inhaltsbezogene Wiedergewinnung von Bildern
  • Durch das Zuordnen von MPEG-7-Deskriptoren zu Bildern können die Bilder durch fortgeschrittene Suchmaschinen anhand ihres Graphikinhalts wiedergewonnen werden. Die Deskriptoren können Farbe, Textur, Gestalt sowie Schlüsselwörter, wie sie in MPEG-7 bestimmt sind, umfassen. Im Allgemeinen braucht ein Bild lediglich leichte Referenzinformationen zu übermitteln, die auf den MPEG-7-Beschreibungsstrom zeigen.
  • Es ist ein integriertes Verfahren zur Unterstützung der fortgeschrittenen Funktionalitäten der inhaltsbasierten Informationswiedergewinnung und der objektbasierten Bildeditierung offenbart worden. Das Verfahren verwendet eine hierarchische Zweischicht-Datenstruktur zum Speichern der inhaltsbezogenen Informationen. Die erste Schicht übermittelt Koordinaten, die interessierende Regionen in Rechteckgestalt angeben, und Merker, die angeben, ob bestimmte zusätzliche inhaltsbezogene Informationen für die angegebenen Bereiche verfügbar sind. Die tatsächlichen inhaltsbezogenen Informationen sind in der zweiten Schicht gespeichert, in der sich Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen für jeden angegebenen Bereich finden können.
  • Die erste Schicht ist in der Weise konstruiert, dass sie leicht ist, d. h. höchstens 256 Bytes umfasst. Dies stellt sicher, dass die Effizienz des Herunterladens und Speicherns eines komprimierten Bildes im Wesentlichen ungestört sein kann, es sei denn, dass ein Anwender explizit zusätzliche inhaltsbezogene Informationen anfordert. Andererseits stellt das vorgeschlagene Verfahren sicher, dass diese Informationen vollständig geliefert werden, falls sie der Anwender anfordern sollte.
  • Die vorhandenen JPEG-komprimierten Bilddateiformate wie etwa das Standbild-Austausch-Dateiformat (SPIFF) oder das JPEG-Dateiaustausch-Format (JFIF) unterstützen inhärent keine objektbasierte Informationseinbettung und interaktive Wiedergewinnung dieser Informationen. Obgleich die Erzeugung, das Erlebnis und die Verwendung von informationserweiterten Bildern unter Verwendung des Verfahrens und des Systems der Erfindung ausgeführt werden kann, kann es wünschenswert sein, dass die von der Erfindung erzeugten informationserweiterten Bilder von älteren Betrachtern, die JFIF oder SPIFF verwenden, wenigstens decodiert und angezeigt werden. Tatsächlich können die älteren Systeme die zugeordneten Informationen nicht wie das erfindungsgemäße System erkennen und verwenden. Das Ziel besteht somit in der Sicherstellung einer erfolgreichen Bilddecodierung und -anzeige durch ein älteres System, ohne dass das ältere System zusammenbricht.
  • Falls die Abwärtskompatibilität mit älteren Betrachtern wie etwa jenen, die das JFIF- und das SPIFF-Dateiformat verwenden, erforderlich ist, kann die offenbarte hierarchische Datenstruktur in einem JIFF- oder SPIFF-Dateiformat gekapselt werden. Beispiele dieser Kapselungen, die von dem Modul 17 in 1 implementiert werden können, werden unten gegeben.
  • Im Fall des JIFF-Dateiformats (Graphics File Formats: Second Edition, von J. D. Murray und W. Van Ryper, O'Reilly & Associates Inc., 1996, S. 510–515) wird nun auf 5 verwiesen, in der allgemein bei 90 eine JFIF-Dateistruktur gezeigt ist. Das JFIF-Dateiformat enthält JPEG-Daten 92 und ein Bildende-Kennzeichen (EOI-Kennzeichen) 94. Ein JFIF-Betrachter ignoriert einfach ir gendwelche Daten, die auf das EOI-Kennzeichen folgen. Somit können ältere Betrachter, wenn an eine JFIF-Datei unmittelbar nach dem EOI 94 die hier offenbarte hierarchische 2-Schicht-Datenstruktur 96 angehängt wird, das Bild decodieren und anzeigen, wobei sie die zusätzliche Datenstruktur ignorieren. Ein System, das gemäß der momentanen Erfindung konstruiert ist, kann die zusätzlichen Daten geeignet interpretieren und die interaktiven Funktionalitäten der Erfindung implementieren.
  • Bei Verwendung von SPIFF kann die hierarchische Datenstruktur unter Verwendung eines privaten Identifizierungskennzeichens, das dem System der Erfindung bekannt ist, gekapselt werden. Da ein älterer Betrachter Nicht-Standard-Identifizierungskennzeichen und die zugeordneten Informationsfelder gemäß der SPIFF-Spezifikation ignoriert, können die Bilder von SPIFF-kompatiblen älteren Systemen erfolgreich decodiert und angezeigt werden. Das System der Erfindung erkennt dann die angefügten Daten und verwendet sie geeignet, um ihre interaktiven Funktionalitäten zu ermöglichen. (Ein weiterer, besserer zugänglicher Literaturhinweis für SPIFF ist: Graphics File Formats: Second Edition, von J. D. Murray und W. Van Ryper, O'Reilly & Associates Inc., 1996, S. 822–837.)
  • Das Verfahren kann auf irgendeine vorhandene Computerumgebung angewendet werden. Falls eine Bilddatei auf einer lokalen Platte gespeichert wird, können die vorgeschlagenen Funktionalitäten ohne irgendwelche zusätzliche Systemänderungen durch einen selbstständigen Bildbetrachter oder durch irgendeine Anwendung, die diese Funktionalitäten unterstützt, realisiert werden. Falls die Bilddatei fern auf einem Server gespeichert ist, können die vorgeschlagenen Funktionalitäten immer noch durch irgendeine Anwendung, die diese Funktionalitäten auf der Client-Seite unterstützt, zuzüglich eines Bildanalysealgorithmusmoduls auf dem Server realisiert werden. Der Grund dafür, dass der Server einen Bildanalysealgorithmus enthalten muss, besteht darin, dass die zusätzlichen inhaltsbezogenen Informationen in der gleichen Datei wie das Bild selbst liegen. Wenn ein Anwender bestimmte inhaltsbezogene Informationen hinsichtlich eines ausgewählten Bereiches/Objekts in einem Bild, z. B. seine Metainformationen, anfordert, ist es wichtig, dass das System so schnell wie möglich lediglich dieses Informationsstück holt und an den Anwender übergibt. Um diese Aufgabe zu lösen, muss der Server eine Bilddatei analysieren und irgendein Stück inhaltsbezogener Informationen, das durch den Client angegeben worden ist, auffinden und übertragen können.
  • Um das Obige ohne irgendeine Verbesserung in einem momentan vorhandenen Netz-Server zu implementieren, müssen alle inhaltsbezogenen Informationen jeweils in einer getrennten Datei gespeichert werden, wie sie in 4 allgemein bei 80 gezeigt ist. Somit gibt es für jeden definierten Bereich so viel wie sechs Dateien, die jeweils Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen enthalten. Für ein gegebenes Bild, z. B. my_image.jpg wird ein Verzeichnis erzeugt, das my_image.info genannt wird und das die inhaltsbezogenen Informationen für N definierte Bereiche enthält, wobei darin Folgendes gespeichert wird:
    region01.links
    region01.meta
    region01.voice
    region01.boundary
    region01.security
    region01.mpeg7
    *****
    region0N.links
    region0N.meta
    region0N.voice
    region0N.boundary
    region0N.security
    region0N.mpeg7
  • Natürlich ist die Lösung, zum Speichern der Zusatzinformationen getrennte Dateien zu verwenden, in der Praxis anfällig und unschön. Eine einfache Fehlanpassung zwischen den Dateinamen wegen einer Namensänderung führt zum vollständigen Verlust der inhaltsbezogenen Informationen.
  • Die "Bilder" können in dieser Erfindung Vollbildern von digitalen Videosequenzen, beispielsweise einer Menge von Vollbildern, die den Video-Inhalt am besten darstellen, entsprechen. Außerdem wird angemerkt, dass die Bildinhaltsinformationen komprimiert werden können, um den Speicher effizient zu nutzen und die Geschwindigkeit des Herunterladens zu erhöhen. Dies kann mit Komprimierungsverfahren des Standes der Technik ausgeführt werden. Die Gestalts- Informationen können beispielsweise unter Verwendung des in dem MPEG-4-Standard enthaltenen Verfahrens komprimiert werden. In diesem Fall sollte die Betrachtungsanwendung mit den richtigen Dekomprimierungshilfsmitteln ausgestattet sein.
  • Gegenüber dem bekannten Stand der Technik besitzt die Erfindung die folgenden Vorteile: (1) Sie ist objektbasiert und somit flexibel; (2) sie ermöglicht den Einschluss von Objektmerkmalsinformationen wie etwa des Randes einer Objektgestalt; (3) sie besitzt eine hierarchische Datenstruktur und belastet somit auf keine Weise jene Anwendungen, die sich dafür entscheiden, bildinhaltsbezogene Informationen nicht herunterzuladen und zu speichern; (4) sie ermöglicht die audiovisuelle Realisierung objektbasierter Informationen, wenn der Anwender dies anfordert; (5) sie ermöglicht den Einschluss von URL-Verknüpfungen und schafft somit eine zusätzliche Dimension des Genusses und der Nutzung digitaler Bilder (die URL-Verknüpfungen können auf Web-Seiten, die sich auf den Bildinhalt beziehen, wie etwa auf persönliche Web-Seiten, auf Produkt-Web-Seiten und auf Web-Seiten für bestimmte Städte, Orte usw. zeigen); und (6) sie ist allgemein und anwendbar auf irgendeine Bildkomprimierungstechnik sowie auf unkomprimierte Bilder. Sie kann mit dem gleichen Token objektbasierte Funktionalitäten für irgendwelche in Kürze erscheinenden Komprimierungsnormen wie etwa JPEG 2000 schaffen. Obgleich keines der momentanen Dateiformate das Verfahren und das System, die hier offenbart sind, von Natur aus unterstützt, sind Verfahren offenbart worden, um das System auf rückwärtskompatible Weise zu implementieren, wobei ältere Systeme wenigstens die Bilddaten decodieren und die Zusatzinformationen ignorieren können.
  • Um Anwendungen, die lediglich an den Bilddaten, aber nicht an den Inhaltsinformationen interessiert sind, nicht zu belasten, können die Datenstrukturen, die auf die in der Erfindung beschriebene Weise konfiguriert sind, auf selektive Weise über ein Netz heruntergeladen werden. Die herunterladende Anwendung prüft interaktiv mit dem Anwender, ob der Anwender die Inhaltsinformationen herunterzuladen und zu speichern wünscht. Falls der Anwender "nein" sagt, gewinnt die Anwendung lediglich die Bilddaten und die Basisschicht wieder, wobei sie die Merker in der Basisschicht zur Angabe, dass es bei dem Bild keine Inhaltsinformationen gibt, auf null setzt.
  • Außerdem unterstützen das Verfahren und das System skalierbare Bild-Komprimierungs-/Dekomprimierungs-Algorithmen. Bei der qualitätsskalierbaren Komprimierung kann ein Bild in mehreren verschiedenen Qualitätsstufen decodiert werden. Bei der räumlich skalierbaren Komprimierung kann das Bild in verschiedenen räumlichen Auflösungen decodiert werden. Im Fall eines Komprimierungsalgorithmus, der die Skalierbarkeit unterstützt, brauchen lediglich die Bereichsinformationen und der Objektumriss skaliert zu werden, um die räumliche Skalierbarkeit zu unterstützen. Alle weiteren Datentypen bleiben ungestört.
  • Obgleich eine bevorzugte Ausführungsform des Systems und des Verfahrens der Erfindung offenbart worden sind, ist für den Fachmann auf dem Gebiet klar, dass weitere Änderungen und Abwandlungen daran vorgenommen werden können, ohne von dem Umfang der Erfindung, wie er in den beigefügten Ansprüchen definiert ist, abzuweichen.

Claims (27)

  1. Hierarchisches System für objektbasiertes deskriptives Etikettieren von Bildern für die Informationsrückgewinnung, -editierung und -manipulation, mit: – Mitteln für die Erzeugung einer hierarchischen Datenstruktur, die eine hierarchische Datenstruktur für das Bild erzeugen und dem Bild Hilfsinformationen zuordnen, wobei die hierarchische Datenstruktur eine Basisschicht, die Indikatoren für inhaltsbezogene Informationen enthält, und eine zweite Schicht, die inhaltsbezogene Informationen enthält, umfasst, wobei die Indikatoren für inhaltsbezogene Informationen angeben, ob bestimmte inhaltsbezogene Informationen in der zweiten Schicht verfügbar sind; – einem Übertragungs-/Speichermechanismus, der das Bild und die hierarchische Datenstruktur speichert; – einem objektbasierten Auswahlmechanismus, der ein interessierendes Objekt in einem Bild auswählt; – Mitteln, die die verfügbaren inhaltsbezogenen Informationen, die auf einen gewählten Bereich oder ein gewähltes Objekt bezogen sind, anhand der Indikatoren für inhaltsbezogene Informationen auflisten; und – Mitteln, die die in der zweiten Schicht gespeicherten verwandten Informationen bei Auswahl eines Elements durch den Anwender herunterladen.
  2. System nach Anspruch 1, das einen Bilderfassungsmechanismus enthält, der ein Bild erfasst.
  3. System nach einem der vorhergehenden Ansprüche, das einen Anzeigemechanismus enthält, der das Bild für einen Anwender anzeigt.
  4. System nach Anspruch 3, bei dem der Anzeigemechanismus so konstruiert und beschaffen ist, dass er die hierarchische Datenstruktur für einen Anwender anzeigt.
  5. System nach einem der vorhergehenden Ansprüche, das einen Speichermechanismus zum Speichern eines Bildes enthält.
  6. System nach einem der vorhergehenden Ansprüche, das eine Datenbank enthält, die eine Sammlung digitaler Bilder enthält.
  7. System nach einem der vorhergehenden Ansprüche, das einen Wiedergewinnungs- und Manipulationsmechanismus enthält, der einem Anwender ermöglicht, das Bild und die ihm zugeordneten Hilfsinformationen wahlweise wiederzugewinnen und zu manipulieren.
  8. System nach Anspruch 7, das einen Erzeugungsmechanismus für die Erzeugung einer Überlagerung, die dem Bild zugeordnet ist, enthält und bei dem die Überlagerung wenigstens einen markanten Punkt enthält, der vom Rest des Bildes visuell unterscheidbar ist, wenn er durch den Anwender hervorgehoben wird.
  9. System nach Anspruch 7 oder Anspruch 8, der einen Erzeugungsmechanismus zum Erzeugen von Randinformationen enthält, der einen Rand um ein interessierendes Objekt identifiziert, und bei dem der Rand sämtliche Informationen innerhalb des Randes für eine Manipulation durch den Anwender gruppiert.
  10. System nach einem der vorhergehenden Ansprüche, das einen Mechanismus zur audiovisuellen Darstellung enthält, wobei die Hilfsinformationen dem Anwender visuell angezeigt werden und dem Anwender hörbar vorgespielt werden, wenn der Anwender dies anfordert.
  11. System nach einem der vorherhergehenden Ansprüche, das einen Mechanismus zur audiovisuellen Darstellung enthält, bei dem die Hilfsinformationen für die objektbasierte Bildeditierung verwendet werden.
  12. System nach einem der vorhergehenden Ansprüche, das einen Erzeugungsmechanismus zum Erzeugen eines Popup-Menüs enthält, das die Typen verfügbarer inhaltsbezogener Informationen auf der Grundlage der Indikatoren für inhaltsbezogene Informationen, die in der Basisschicht gespeichert sind, auflistet.
  13. System nach Anspruch 12, das Mittel enthält, die die von dem Anwender ausgewählten Informationen wiedergewinnen und rendern, wenn der Anwender auf den entsprechenden Eintrag im Menü klickt.
  14. System nach einem der vorhergehenden Ansprüche, bei dem die Indikatoren für inhaltsbezogene Informationen als Merker implementiert sind.
  15. System nach einem der vorhergehenden Ansprüche, bei dem jeder Typ der inhaltsbezogenen Informationen, die in der zweiten Schicht enthalten sind, in einer getrennten Datei gespeichert ist.
  16. System nach einem der vorhergehenden Ansprüche, bei dem die in der zweiten Schicht enthaltenen inhaltsbezogenen Informationen wenigstens einen der folgenden Typen aufweisen: Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen, MPEG-7-Referenzinformationen.
  17. Hierarchisches Verfahren für die objektbasierte, audiovisuelle deskriptive Editierung von Bildern für die Informationswiedergewinnung, -editierung und -manipulation, mit den folgenden Schritten: – Erzeugen einer hierarchischen Datenstruktur für das Bild und Zuordnen von Hilfsinformationen zu dem Bild durch Erzeugen einer Basisschicht, die Indikatoren für inhaltsbezogene Informationen enthält, und durch Erzeugen einer zweiten Schicht, die inhaltsbezogene Informationen enthält, wobei die Indikatoren für inhaltsbezogene Informationen angeben, ob bestimmte inhaltsbezogene Informationen in der zweiten Schicht verfügbar sind; – Auswählen eines interessierenden Objekts in dem Bild mittels eines objektbasierten Auswahlmechanismus; – Auflisten der verfügbaren inhaltsbezogenen Informationen, die mit einem ausgewählten Bereich oder Objekt in Beziehung stehen, anhand der Indikatoren für inhaltsbezogene Informationen; – Herunterladen der in der zweiten Schicht gespeicherten verwandten Informationen bei Auswahl eines Elements durch den Anwender.
  18. Verfahren nach Anspruch 17, das das Erfassen eines Bildes mit einem Bilderfassungsmechanismus enthält.
  19. Verfahren nach Anspruch 17 oder Anspruch 18, das das Anzeigen des übertragenen/gespeicherten Bildes für einen Anwender enthält.
  20. Verfahren nach einem der Ansprüche 17 bis 19, das das wahlweise Wiedergewinnen und Manipulieren des Bildes und der ihm zugeordneten Hilfsinformationen enthält.
  21. Verfahren nach einem der Ansprüche 17 bis 20, das ferner das visuelle Anzeigen von Hilfsinformationen und das hörbare Abspielen von Hilfsinformationen für den Anwender auf Anforderung des Anwenders enthält.
  22. Verfahren nach einem der Ansprüche 17 bis 21, das das Verwenden von Hilfsinformationen für die objektbasierte Bildeditierung enthält.
  23. Verfahren nach einem der Ansprüche 17 bis 22, bei dem die inhaltsbezogenen Informationen, die in der zweiten Schicht enthalten sind, wenigstens einen der folgenden Typen aufweisen: Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen, MPEG-7-Referenzinformationen.
  24. Verfahren nach einem der Ansprüche 17 bis 23, bei dem das wahlweise Wiedergewinnen und Manipulieren enthält: (a) Wiedergewinnen der Bilddaten; (b) Lesen der Basisschicht-Informationen; (c) Anzeigen des Bildes; (d) Erzeugen einer Überlagerung, um entsprechend den Bereichsinformationen, die in der Basisschicht enthalten sind, jene Bereiche, die Informationen über "markante Punkte" enthalten, visuell anzugeben; (e) Anzeigen von Popup-Menüs, wenn der Anwender auf die markanten Punkte zeigt und klickt, wobei die Typen verfügbarer Informationen in den Menüs aufgeführt sind; und (f) Wiedergewinnen und Rendern der durch den Anwender ausgewählten Informationen, wenn der Anwender auf den entsprechenden Eintrag in dem Menü klickt.
  25. Verfahren nach Anspruch 24, bei dem die Popup-Menüs auf der Grundlage der Indikatoren für inhaltsbezogene Informationen, die in der Basisschicht enthalten sind, erzeugt werden.
  26. Verfahren nach Anspruch 24 oder Anspruch 25, bei dem das Erzeugen einer Überlagerung das Hervorheben eines markanten Punkts enthält, wenn die Zeigervorrichtung des Anwenders auf eine Stelle innerhalb der Fläche dieses Bereichs zeigt.
  27. Verfahren nach einem der Ansprüche 24 bis 26, bei dem das Erzeugen einer Überlagerung das Identifizieren eines Randes um ein interessierendes Objekt enthält.
DE69820093T 1997-09-29 1998-09-28 Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation Expired - Lifetime DE69820093T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US6140597P 1997-09-29 1997-09-29
US61405P 1997-09-29
US33568 1998-03-02
US09/033,568 US6070167A (en) 1997-09-29 1998-03-02 Hierarchical method and system for object-based audiovisual descriptive tagging of images for information retrieval, editing, and manipulation
PCT/JP1998/004340 WO1999017228A1 (en) 1997-09-29 1998-09-28 Hierarchical method and system for object-based audiovisual descriptive tagging of images for information retrieval, editing, and manipulation

Publications (2)

Publication Number Publication Date
DE69820093D1 DE69820093D1 (de) 2004-01-08
DE69820093T2 true DE69820093T2 (de) 2004-08-05

Family

ID=26709875

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69820093T Expired - Lifetime DE69820093T2 (de) 1997-09-29 1998-09-28 Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation

Country Status (5)

Country Link
US (1) US6070167A (de)
EP (1) EP1019852B1 (de)
JP (1) JP4159248B2 (de)
DE (1) DE69820093T2 (de)
WO (1) WO1999017228A1 (de)

Families Citing this family (185)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6301583B1 (en) * 1997-05-16 2001-10-09 Paul Zellweger Method and apparatus for generating data files for an applet-based content menu using an open hierarchical data structure
US6735253B1 (en) 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US6910184B1 (en) * 1997-07-25 2005-06-21 Ricoh Company, Ltd. Document information management system
JP4154015B2 (ja) * 1997-12-10 2008-09-24 キヤノン株式会社 情報処理装置およびその方法
US6654931B1 (en) 1998-01-27 2003-11-25 At&T Corp. Systems and methods for playing, browsing and interacting with MPEG-4 coded audio-visual objects
US6229524B1 (en) * 1998-07-17 2001-05-08 International Business Machines Corporation User interface for interaction with video
EP1684517A3 (de) 1998-08-24 2010-05-26 Sharp Kabushiki Kaisha System zur Darstellung von Informationen
JP3619685B2 (ja) * 1998-09-25 2005-02-09 コニカミノルタビジネステクノロジーズ株式会社 情報処理装置、情報処理方法、及び、記録媒体
US7339595B2 (en) * 1998-10-19 2008-03-04 Lightsurf Technologies, Inc. Method and system for improved internet color
US20020126135A1 (en) * 1998-10-19 2002-09-12 Keith Ball Image sharing for instant messaging
US7143434B1 (en) * 1998-11-06 2006-11-28 Seungyup Paek Video description system and method
US7046263B1 (en) 1998-12-18 2006-05-16 Tangis Corporation Requesting computer user's context data
US7779015B2 (en) 1998-12-18 2010-08-17 Microsoft Corporation Logging and analyzing context attributes
US7225229B1 (en) 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
US6801223B1 (en) 1998-12-18 2004-10-05 Tangis Corporation Managing interactions between computer users' context models
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US7073129B1 (en) 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
US7076737B2 (en) 1998-12-18 2006-07-11 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6920616B1 (en) 1998-12-18 2005-07-19 Tangis Corporation Interface for exchanging context data
US6513046B1 (en) 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
US9183306B2 (en) 1998-12-18 2015-11-10 Microsoft Technology Licensing, Llc Automated selection of appropriate information based on a computer user's context
US7055101B2 (en) 1998-12-18 2006-05-30 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6791580B1 (en) 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US7137069B2 (en) 1998-12-18 2006-11-14 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6490370B1 (en) * 1999-01-28 2002-12-03 Koninklijke Philips Electronics N.V. System and method for describing multimedia content
US6593936B1 (en) * 1999-02-01 2003-07-15 At&T Corp. Synthetic audiovisual description scheme, method and system for MPEG-7
US6748158B1 (en) * 1999-02-01 2004-06-08 Grass Valley (U.S.) Inc. Method for classifying and searching video databases based on 3-D camera motion
US6236395B1 (en) * 1999-02-01 2001-05-22 Sharp Laboratories Of America, Inc. Audiovisual information management system
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
EP1045315A3 (de) * 1999-04-13 2011-03-02 Canon Kabushiki Kaisha Datenverarbeitungsverfahren und -Vorrichtung
WO2000077790A2 (en) * 1999-06-15 2000-12-21 Digital Electronic Cinema, Inc. Systems and methods for facilitating the recomposition of data blocks
US7058647B1 (en) 1999-08-31 2006-06-06 Charles E. Hill & Associates Electronic presentation generation system and method
US7509580B2 (en) * 1999-09-16 2009-03-24 Sharp Laboratories Of America, Inc. Audiovisual information management system with preferences descriptions
US7082567B1 (en) * 1999-10-18 2006-07-25 Rose Blush Software Llc Enhanced human computer user interface system for searching and browsing documents
US7191462B1 (en) * 1999-11-08 2007-03-13 Kendyl A. Román System for transmitting video images over a computer network to a remote receiver
US6675158B1 (en) * 1999-11-30 2004-01-06 Sony Corporation Method and apparatus for organizing data pertaining to audiovisual content
US20010051881A1 (en) * 1999-12-22 2001-12-13 Aaron G. Filler System, method and article of manufacture for managing a medical services network
KR100523684B1 (ko) * 2000-03-23 2005-10-26 미쓰비시덴키 가부시키가이샤 화상 검색 분배 시스템 및 화상 검색 분배 방법
JP3810268B2 (ja) * 2000-04-07 2006-08-16 シャープ株式会社 オーディオビジュアルシステム
EP1158799A1 (de) * 2000-05-18 2001-11-28 Deutsche Thomson-Brandt Gmbh Verfahren und Empfänger zur Bereitstellung von mehrsprachigen Untertiteldaten auf Anfrage
US8028314B1 (en) 2000-05-26 2011-09-27 Sharp Laboratories Of America, Inc. Audiovisual information management system
US8296805B2 (en) * 2000-05-30 2012-10-23 Sony Corporation Command description scheme providing for dynamic update of instance documents and their associated schema
US20020012471A1 (en) * 2000-06-14 2002-01-31 Wildform, Inc. Multimedia compression/decompression and compressed data representation
AU2001271397A1 (en) * 2000-06-23 2002-01-08 Decis E-Direct, Inc. Component models
US7647340B2 (en) 2000-06-28 2010-01-12 Sharp Laboratories Of America, Inc. Metadata in JPEG 2000 file format
US7433881B1 (en) * 2000-08-31 2008-10-07 Charles E. Hill & Associates, Inc. System and method for handling multi-resolution graphics files
US8020183B2 (en) 2000-09-14 2011-09-13 Sharp Laboratories Of America, Inc. Audiovisual management system
AU2002214613A1 (en) * 2000-11-08 2002-05-21 Digimarc Corporation Content authentication and recovery using digital watermarks
AU2002230449A1 (en) * 2000-11-15 2002-05-27 Mark Frigon Method and apparatus for processing objects in online images
WO2002052565A1 (en) * 2000-12-22 2002-07-04 Muvee Technologies Pte Ltd System and method for media production
JP2002230018A (ja) * 2001-02-03 2002-08-16 Vision Arts Kk 情報画像変換システム
GB2374225A (en) * 2001-03-28 2002-10-09 Hewlett Packard Co Camera for recording linked information associated with a recorded image
EP1380172A1 (de) * 2001-04-10 2004-01-14 Koninklijke Philips Electronics N.V. Videoverarbeitungsverfahren und system zur anreicherung des inhalts eines fernsehprogramms
US6993594B2 (en) * 2001-04-19 2006-01-31 Steven Schneider Method, product, and apparatus for requesting a resource from an identifier having a character image
US7904814B2 (en) 2001-04-19 2011-03-08 Sharp Laboratories Of America, Inc. System for presenting audio-video content
KR100769371B1 (ko) * 2001-05-12 2007-10-22 엘지전자 주식회사 스크립트 파일이 포함 기록된 기록매체와, 그 재생장치 및방법
KR100769375B1 (ko) * 2001-05-12 2007-10-22 엘지전자 주식회사 스크립트 파일이 포함 기록된 기록매체와, 그 재생장치 및방법
KR100771264B1 (ko) * 2001-05-12 2007-10-29 엘지전자 주식회사 스크립트 파일이 포함 기록된 기록매체와, 그 재생장치 및방법
WO2002093928A2 (en) * 2001-05-15 2002-11-21 Koninklijke Philips Electronics N.V. Content analysis apparatus
US20020188630A1 (en) * 2001-05-21 2002-12-12 Autodesk, Inc. Method and apparatus for annotating a sequence of frames
JP2002358336A (ja) * 2001-06-01 2002-12-13 Pioneer Electronic Corp 設計情報公開システム、設計情報公開方法および記録媒体
US20030004934A1 (en) * 2001-06-29 2003-01-02 Richard Qian Creating and managing portable user preferences for personalizion of media consumption from device to device
KR100438697B1 (ko) * 2001-07-07 2004-07-05 삼성전자주식회사 재생장치 및 그 북마크 정보 제공방법
US7130861B2 (en) * 2001-08-16 2006-10-31 Sentius International Corporation Automated creation and delivery of database content
EP1302865A1 (de) * 2001-10-10 2003-04-16 Mitsubishi Electric Information Technology Centre Europe B.V. Verfahren und Vorrichtung zur Suche und zum Wiederauffinden von Farbbildern
US7474698B2 (en) 2001-10-19 2009-01-06 Sharp Laboratories Of America, Inc. Identification of replay segments
US7925139B2 (en) 2001-12-03 2011-04-12 Sony Corporation Distributed semantic descriptions of audiovisual content
WO2003049424A1 (fr) 2001-12-03 2003-06-12 Nikon Corporation Appareil electronique, camera electronique, dispositif electronique, appareil d'affichage d'image et systeme de transmission d'image
WO2003051031A2 (en) * 2001-12-06 2003-06-19 The Trustees Of Columbia University In The City Of New York Method and apparatus for planarization of a material by growing and removing a sacrificial film
GB0129787D0 (en) * 2001-12-13 2002-01-30 Hewlett Packard Co Method and system for collecting user-interest information regarding a picture
US8214741B2 (en) 2002-03-19 2012-07-03 Sharp Laboratories Of America, Inc. Synchronization of video and data
DE10230812B4 (de) 2002-07-08 2004-11-25 T-Mobile Deutschland Gmbh Verfahren zur Übertragung von zusätzlichen Informationen bei Verwendung eines Verfahrens zur Komprimierung von Daten mittels einer priorisierenden Pixelübertragung
GB2391150B (en) * 2002-07-19 2005-10-26 Autodesk Canada Inc Editing image data
US7657907B2 (en) 2002-09-30 2010-02-02 Sharp Laboratories Of America, Inc. Automatic user profiling
US7477793B1 (en) * 2002-12-13 2009-01-13 Ricoh Co., Ltd. JPEG 2000-like access using the JPM compound document file format
JP2004254298A (ja) * 2003-01-30 2004-09-09 Ricoh Co Ltd 画像処理装置、プログラム及び記憶媒体
US20040197088A1 (en) * 2003-03-31 2004-10-07 Ferman Ahmet Mufit System for presenting audio-video content
US20040191731A1 (en) * 2003-03-31 2004-09-30 Stork David G. Paper document-based assistive technologies for the visually impaired
JP2005151147A (ja) * 2003-11-14 2005-06-09 Toshiba Corp 再生装置及び再生方法
US7245923B2 (en) * 2003-11-20 2007-07-17 Intelligent Spatial Technologies Mobile device and geographic information system background and summary of the related art
US8060112B2 (en) 2003-11-20 2011-11-15 Intellient Spatial Technologies, Inc. Mobile device and geographic information system background and summary of the related art
US8356317B2 (en) 2004-03-04 2013-01-15 Sharp Laboratories Of America, Inc. Presence based technology
US8949899B2 (en) 2005-03-04 2015-02-03 Sharp Laboratories Of America, Inc. Collaborative recommendation system
US7594245B2 (en) 2004-03-04 2009-09-22 Sharp Laboratories Of America, Inc. Networked video devices
US8250034B2 (en) * 2004-04-14 2012-08-21 Verisign, Inc. Method and apparatus to provide visual editing
US20050234838A1 (en) * 2004-04-14 2005-10-20 Manousos Nicholas H Method and apparatus for providing in place editing within static documents
US7739306B2 (en) * 2004-04-14 2010-06-15 Verisign, Inc. Method and apparatus for creating, assembling, and organizing compound media objects
JP4478513B2 (ja) * 2004-06-10 2010-06-09 キヤノン株式会社 デジタルカメラ、デジタルカメラの制御方法、プログラムおよびそれを格納した記録媒体
JP2006185575A (ja) * 2004-11-30 2006-07-13 Matsushita Electric Ind Co Ltd コンテンツ記録装置
US20060159414A1 (en) * 2005-01-14 2006-07-20 Pinnacle Systems, Inc. Systems and methods for associating graphics information with audio and video material
WO2006096612A2 (en) * 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
US7418341B2 (en) * 2005-09-12 2008-08-26 Intelligent Spatial Technologies System and method for the selection of a unique geographic feature
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US10180942B2 (en) 2005-10-26 2019-01-15 Cortica Ltd. System and method for generation of concept structures based on sub-concepts
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US10193990B2 (en) 2005-10-26 2019-01-29 Cortica Ltd. System and method for creating user profiles based on multimedia content
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US9372940B2 (en) 2005-10-26 2016-06-21 Cortica, Ltd. Apparatus and method for determining user attention using a deep-content-classification (DCC) system
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US10380267B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for tagging multimedia content elements
US20150379751A1 (en) * 2005-10-26 2015-12-31 Cortica, Ltd. System and method for embedding codes in mutlimedia content elements
US9384196B2 (en) 2005-10-26 2016-07-05 Cortica, Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US10380623B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for generating an advertisement effectiveness performance score
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
DE102005053148B4 (de) * 2005-11-04 2022-12-22 Robert Bosch Gmbh Verfahren zur Handhabung von Inhaltsinformationen
EP1826723B1 (de) * 2006-02-28 2015-03-25 Microsoft Corporation Bildbearbeitung auf Objektebene
US8689253B2 (en) 2006-03-03 2014-04-01 Sharp Laboratories Of America, Inc. Method and system for configuring media-playing sets
US8370455B2 (en) * 2006-03-09 2013-02-05 24/7 Media Systems and methods for mapping media content to web sites
US8208694B2 (en) 2006-06-06 2012-06-26 Thomas Jelonek Method and system for image and video analysis, enhancement and display for communication
US8538676B2 (en) * 2006-06-30 2013-09-17 IPointer, Inc. Mobile geographic information system and method
US8132151B2 (en) * 2006-07-18 2012-03-06 Yahoo! Inc. Action tags
US20080052113A1 (en) * 2006-07-31 2008-02-28 Wright State University System, method, and article of manufacture for managing a health and human services regional network
US10733326B2 (en) 2006-10-26 2020-08-04 Cortica Ltd. System and method for identification of inappropriate multimedia content
US7979388B2 (en) * 2006-11-17 2011-07-12 Microsoft Corporation Deriving hierarchical organization from a set of tagged digital objects
US7465241B2 (en) * 2007-03-23 2008-12-16 Acushnet Company Functionalized, crosslinked, rubber nanoparticles for use in golf ball castable thermoset layers
KR100961444B1 (ko) * 2007-04-23 2010-06-09 한국전자통신연구원 멀티미디어 콘텐츠를 검색하는 방법 및 장치
JP5024668B2 (ja) * 2007-07-10 2012-09-12 富士ゼロックス株式会社 画像形成装置および情報処理装置
US8121902B1 (en) 2007-07-24 2012-02-21 Amazon Technologies, Inc. Customer-annotated catalog pages
US8296291B1 (en) 2007-12-12 2012-10-23 Amazon Technologies, Inc. Surfacing related user-provided content
WO2009126785A2 (en) * 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
WO2009155281A1 (en) * 2008-06-17 2009-12-23 The Trustees Of Columbia University In The City Of New York System and method for dynamically and interactively searching media data
US20100034466A1 (en) * 2008-08-11 2010-02-11 Google Inc. Object Identification in Images
US9715701B2 (en) 2008-11-24 2017-07-25 Ebay Inc. Image-based listing using image of multiple items
US8671069B2 (en) 2008-12-22 2014-03-11 The Trustees Of Columbia University, In The City Of New York Rapid image annotation via brain state decoding and visual pattern mining
WO2010075466A1 (en) 2008-12-22 2010-07-01 Intelligent Spatial Technologies, Inc. System and method for linking real-world objects and object representations by pointing
US8483519B2 (en) 2008-12-22 2013-07-09 Ipointer Inc. Mobile image search and indexing system and method
EP2368174A4 (de) * 2008-12-22 2014-05-07 Intelligent Spatial Technologies Inc System und verfahren für den start von aktionen und lieferung von rückmeldungen mittels zeigen auf ein bestimmtes objekt
EP2361424A1 (de) 2008-12-22 2011-08-31 Intelligent Spatial Technologies, Inc. System und verfahren zur untersuchung von 3d-szenen durch zeigen auf ein referenzobjekt
JP5608680B2 (ja) * 2008-12-30 2014-10-15 インテリジェント スペイシャル テクノロジーズ,インク. モバイルの画像検索及びインデキシングのシステム及び方法
US8719104B1 (en) 2009-03-31 2014-05-06 Amazon Technologies, Inc. Acquiring multiple items in an image
US8589433B2 (en) * 2009-10-21 2013-11-19 International Business Machines Corporation Dynamic tagging
US8533192B2 (en) * 2010-09-16 2013-09-10 Alcatel Lucent Content capture device and methods for automatically tagging content
CN102682025B (zh) * 2011-03-16 2014-03-19 中兴通讯股份有限公司 一种web图片评论添加和显示方法及装置
US9946739B2 (en) * 2013-03-15 2018-04-17 Neura Labs Corp. Intelligent internet system with adaptive user interface providing one-step access to knowledge
KR101501028B1 (ko) 2013-04-04 2015-03-12 박정환 개체가 삽입된 이미지를 생성하고 편집하는 방법 및 그 장치
US10824313B2 (en) * 2013-04-04 2020-11-03 P.J. Factory Co., Ltd. Method and device for creating and editing object-inserted images
US20150089446A1 (en) * 2013-09-24 2015-03-26 Google Inc. Providing control points in images
KR102380979B1 (ko) * 2015-01-05 2022-04-01 삼성전자 주식회사 이미지의 메타데이터 관리 방법 및 장치
CN106033418B (zh) * 2015-03-10 2020-01-31 阿里巴巴集团控股有限公司 语音添加、播放方法及装置、图片分类、检索方法及装置
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
US11037015B2 (en) 2015-12-15 2021-06-15 Cortica Ltd. Identification of key points in multimedia data elements
US11760387B2 (en) 2017-07-05 2023-09-19 AutoBrains Technologies Ltd. Driving policies determination
US11899707B2 (en) 2017-07-09 2024-02-13 Cortica Ltd. Driving policies determination
US10971121B2 (en) * 2018-07-09 2021-04-06 Tree Goat Media, Inc. Systems and methods for transforming digital audio content into visual topic-based segments
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US11244176B2 (en) 2018-10-26 2022-02-08 Cartica Ai Ltd Obstacle detection and mapping
US10748038B1 (en) 2019-03-31 2020-08-18 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU8932191A (en) * 1990-11-30 1992-06-25 Cambridge Animation Systems Limited Image synthesis and processing
US5862260A (en) * 1993-11-18 1999-01-19 Digimarc Corporation Methods for surveying dissemination of proprietary empirical data
US5594504A (en) * 1994-07-06 1997-01-14 Lucent Technologies Inc. Predictive video coding using a motion vector updating routine
US5708845A (en) * 1995-09-29 1998-01-13 Wistendahl; Douglass A. System for mapping hot spots in media content for interactive digital media program
US5764814A (en) * 1996-03-22 1998-06-09 Microsoft Corporation Representation and encoding of general arbitrary shapes
US5832495A (en) * 1996-07-08 1998-11-03 Survivors Of The Shoah Visual History Foundation Method and apparatus for cataloguing multimedia data

Also Published As

Publication number Publication date
WO1999017228A9 (en) 1999-06-10
JP4159248B2 (ja) 2008-10-01
DE69820093D1 (de) 2004-01-08
WO1999017228A1 (en) 1999-04-08
US6070167A (en) 2000-05-30
JP2001518669A (ja) 2001-10-16
EP1019852A1 (de) 2000-07-19
EP1019852B1 (de) 2003-11-26

Similar Documents

Publication Publication Date Title
DE69820093T2 (de) Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation
DE69729826T2 (de) Vorrichtung zur Übertragung von Daten, Verfahren und Vorrichtung zum Empfang von Daten und Kommunikationssystem
US7536706B1 (en) Information enhanced audio video encoding system
DE4225872C2 (de) Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern
DE69836790T2 (de) Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür
DE60006708T2 (de) System und verfahren zur aufnahme von push daten
DE60203867T2 (de) Verfahren und Vorrichtung zur Wiedergabe von Inhalten von einem Informationsspeichermedium in einem interaktiven Modus
DE69731988T2 (de) Verfahren und Gerät zur Anzeige von Bildern und Daten
DE69731549T2 (de) Interaktivität mit audiovisueller programmierung
US7313762B2 (en) Methods and systems for real-time storyboarding with a web page and graphical user interface for automatic video parsing and browsing
DE60035910T2 (de) Meta-deskriptor für multimedia-information
EP0982947A2 (de) Vorrichtung zur Audiovideokodierung mit verbesserter Funktionalität
DE69922705T2 (de) System zur numerischen erfassung und aufnahme von panoramabildern.
DE60118947T2 (de) Verfahren und systeme zum aufbau von benutzermedialisten
DE69838786T2 (de) Vorrichtung und verfahren zur spekulativen dekompression von kompromierten bilddaten in einer bildaufnahmeeinheit
DE69722513T2 (de) Verfahren zur Übertragung von audiovisuellen Programmen über ein Übertragungsnetzwerk
US20030200507A1 (en) System and method for data publication through web pages
DE69830013T2 (de) Programmerzeugung
DE69825851T2 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE10297520T5 (de) Transformieren von Multimediadaten zur Abgabe an mehrere heterogene Geräte
DE69907482T2 (de) Vorrichtung und verfahren zur ausführung von interaktiven fernsehanwendungen auf set top boxen
DE102014008038A1 (de) Anordnen von unaufdringlichen Oberlagerungen in einem Videocontent
EP0814611A2 (de) Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
CN1476237A (zh) 可重新配置的用户接口
DE60005482T2 (de) Verfahren und system zur auswahl von produkten in einer video produktion unter verwendung von referenzbildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition