DE69820093T2 - Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation - Google Patents
Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation Download PDFInfo
- Publication number
- DE69820093T2 DE69820093T2 DE69820093T DE69820093T DE69820093T2 DE 69820093 T2 DE69820093 T2 DE 69820093T2 DE 69820093 T DE69820093 T DE 69820093T DE 69820093 T DE69820093 T DE 69820093T DE 69820093 T2 DE69820093 T2 DE 69820093T2
- Authority
- DE
- Germany
- Prior art keywords
- information
- image
- content
- user
- related information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000011084 recovery Methods 0.000 title claims description 4
- 238000002372 labelling Methods 0.000 title claims 2
- 230000007246 mechanism Effects 0.000 claims description 19
- 238000009877 rendering Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims 1
- 238000007906 compression Methods 0.000 description 16
- 230000006835 compression Effects 0.000 description 16
- 230000002452 interceptive effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/71—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
- G06F16/748—Hypervideo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234318—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99941—Database schema or data structure
- Y10S707/99943—Generating database or data structure, e.g. via user interface
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
- Gebiet der Erfindung
- Diese Erfindung bezieht sich auf Systeme, die Bildern Informationen zuordnen und diese Informationen in Anwendungen für die inhaltsbasierte Informationswiedergewinnung und für die objektbasierte Editierung und Manipulation verwenden, und auf ein Verfahren zur Manipulation von Informationen in diesen Systemen.
- Hintergrund der Erfindung
- Das Zuordnen von Informationen zu Bildern ist nützlich, um eine erfolgreiche Identifizierung von Bildern und den Austausch von Bildern zwischen verschiedenen Anwendungen zu ermöglichen. Wenn außer den Bilddaten selbst zugeordnete Informationen audiovisuell gerendert werden, können die Bilder auf neue Weise verwendet und genutzt werden. In bekannten Verfahren und Systemen sind diese Informationen allgemein dem Wesen nach global, d. h., sie betreffen das gesamte Bild, ohne zwischen verschiedenen Objekten (z. B. eine Person gegenüber dem Hintergrund oder anderen Personen) in dem Bild zu unterscheiden. Ein Beispiel eines Dateiformats, das von Normungsgremien entwickelt worden ist und das das Anfügen globaler Informationen an Bilder ermöglicht, ist das Still-Picture-Interchange-File-Format (SPIFF), das als eine Erweiterung der JPEG-Norm, ISO/IEC IS 10918-3 (Anhang F), spezifiziert ist.
- Das Dokument WO-A-9712342 (WISTENDAHL U. A.) offenbart ein System, das es ermöglicht, einen Medieninhalt in einem interaktiven Programm für digitale Medien (IDM) zu verwenden. Das IDM-Programm stellt Verknüpfungen her, die die Objekte verbinden, die durch N Daten auf andere Funktionen abgebildet sind, welche in Verbindung mit der Anzeige des Medieninhalts auszuführen sind. Die Auswahl eines Objekts, das in dem Medieninhalt erscheint, mit einem Zeiger führt zur Auslösung einer besonderen interaktiven Funktion.
- In bekannten Systemen werden die Informationen einfach und ohne Vorsehen von Interaktivität zum Anwender "geschoben". Die bekannten Systeme behandeln überhaupt keine Audiovisualisierung der Inhaltsinformationen; sie sind alle auf klassische Bilddatenbank- oder Bilddateiaustausch-Anwendungen ausgerichtet. Es gibt keine Möglichkeit, dass der Anwender zusätzliche Informationen über den Gegenstand des angezeigten Bildes erfährt.
- Zusammenfassung der Erfindung
- Die Erfindung ist durch den beigefügten Satz von Ansprüchen definiert.
- Eine Aufgabe der Erfindung besteht in der Entwicklung einer hierarchischen Datenstruktur und eines Verfahrens, das die Zuordnung deskriptiver Daten zu einem Bild ermöglicht.
- Eine weitere Aufgabe der Erfindung ist die Schaffung eines Systems und eines Verfahrens, in denen die deskriptiven Daten spezifisch für Objekte in dem Bild sein können und Textinformationen, Verknüpfungen zu anderen Dateien, anderen Objekten in dem gleichen Bild oder in anderen Bildern oder Verknüpfungen zu Web-Seiten sowie Objektmerkmale wie etwa die Gestalt und Audioannotationen umfassen können.
- Eine weitere Aufgabe der Erfindung ist die Schaffung eines Systems und eines Verfahrens, die ein Mittel zur Erzeugung bildinhaltsbezogener Informationen und zur Bildung der Datenstruktur, die diese Informationen enthält, und Mittel zum Erfahren dieser Informationen schaffen. Solche Systeme können eine Kamera oder eine Kamera, die mit einem Personal Computer verbunden ist, oder irgendeine Informationseinrichtung mit Bilderfassungs- oder Bilderzeugungs-, Bildbetrachtungs- und Bildbehandlungsfähigkeiten umfassen. Im Obigen bezieht sich der Begriff "Erfahren" auf die audiovisuelle Beobachtung bildinhaltsbezogener Informationen durch die Anzeige und Wiedergabe, während sich "Verwenden" auf die Editierung, Archivierung und Wiedergewinnung, Manipulation, Umnutzung und Kommunikation von Bildern bezieht.
- Kurzbeschreibung der Zeichnung
-
1 ist ein Blockschaltplan der Hauptkomponenten des Systems der Erfindung. -
2 ist ein Blockschaltplan eines Systems zur Wiedergewinnung inhaltsbasierter Informationen. -
3 ist ein Blockschaltplan, der ein objektbasiertes Bildeditierverfahren zeigt. -
4 zeigt die Dateistruktur der bevorzugten Ausführungsform. -
5 zeigt die Integration der hierarchischen Datenstruktur mit Bilddaten unter Verwendung des JFIF-Dateiformats. - Ausführliche Beschreibung der bevorzugten Ausführungsform
- Diese Erfindung schafft ein System und ein Verfahren zur (i) Definition objektbasierter Informationen über Bereiche in einem digitalen Bild, (ii) Strukturierung und Integration dieser Informationen in einem gemeinsamen Dateiformat, das die Bilddaten selbst enthält, und (iii) Verwendung dieser Informationen in Anwendungen für die inhaltsbasierte Informationswiedergewinnung und für die objektbasierte Editierung und Manipulation.
- Das Verfahren der Erfindung ist so beschaffen, dass es mit irgendeinem Bildkomprimierungsstandard wie etwa mit dem momentanen JPEG-Standard sowie mit künftigen Versionen von JPEG wie etwa mit JPEG2000 funktioniert. Das Zuordnen von Informationen über Begrenzungsrechtecke verschiedener Bildobjekte sowie über genaue Umrissdaten gehört zu den einzigartigen Merkmalen dieser Erfindung. Ein wichtiges Merkmal der Erfindung ist, dass die hierarchische Datenstruktur und die inhaltsbezogenen Informationen einem Anwender nur dann heruntergeladen und präsentiert werden, wenn der Anwender dies anfordert. Es wird ein objektbasiertes Paradigma geschaffen. Das System und das Verfahren unterstützen neue Typen inhaltsbezogener Informationen wie etwa Web-Seiten und Objektrandinformationen. Es wird ein Verknüpfungsmechanismus geschaffen, der ein Bild oder einen Bereich/ein Objekt in einem Bild mit irgendeinem anderen lokalen oder fernen Multimedia-Inhalt verknüpfen kann. Das neu definierte Format ist rückwärts kompatibel zu vorhandenen Systemen.
- Im Gegensatz zu den rahmenbasierten Paradigmen bekannter Systeme, bei de nen sich die Informationen auf das gesamte Bild beziehen, ohne die Möglichkeit einer Unterscheidung zwischen verschiedenen Bildobjekten zuzulassen, verwendet die Erfindung ein objektbasiertes Paradigma.
- Die Hauptkomponenten einer Ausführungsform eines Systems der Erfindung sind in
1 allgemein bei10 gezeigt. In dieser Ausführungsform wird ein Bild12 erfasst und/oder erzeugt. Das Bild kann von einer Kamera erfasst, von einem Computer erzeugt oder ein vorhandenes Bild sein. Wenn das Bild erfasst worden ist, kann die Objektauswahl14 interaktiv durch das Zeichnen von Rechtecken ausgeführt werden, die interessierende Objekte einschließen. Falls die Erfassung oder Erzeugung des Bildes 12 in einer Kamera bzw. in einem Computer stattfindet, können die Rechtecke durch Eingabe mit einem Eingabestift auf einen LCD-Bildschirm gezeichnet werden. Alternativ kann die Objektauswahl auf einer Computerplattform ausgeführt werden, auf die die digitalen Bilder heruntergeladen werden. Für Text- und Verknüpfungsinformationen kann eine objektbasierte Informationseingabe14 mit einem Eingabestift ausgeführt werden. Audioannotationen können über ein Mikrofon eingegeben werden, das in die Kamera integriert sein kann, um Annotationen während des Erfassungsprozesses zu ermöglichen. Außerdem kann die Kamera ein Spracherkennungsmodul aufweisen, wobei Textinformationen unter Verwendung einer Sprache-Text-Umsetzung über Sprache eingegeben werden können. Ein Komprimierungsmodul15 umfasst einen Audiokomprimierungsmechanismus15a und einen Datenkomprimierungsmechanismus15b . Die Komprimierung der Audioannotationen unter Verwendung eines Standard-Audiokomprimierungsverfahrens (z. B. der Delta-Pulscodemodulation (DPCM)) und die Komprimierung anderer zugeordneter Daten unter Verwendung eines Standard-Datenkomprimierungsverfahrens (z. B. Lempel-Zev-Welch (LZW)) sind optional. - Die Erzeugung einer hierarchischen Datenstruktur
16 , die die Informationen in zwei Ebenen enthält, wobei die erste Schicht die "Basisschicht" genannt wird, wird hier später beschrieben. In der bevorzugten Ausführungsform kombiniert ein Integrationsmodul17 inhaltsbezogene Daten und die Bilddaten selbst zu einer gemeinsamen Datei. Diese Kombination kann als ein ursprünglicher Teil eines zukünftigen Bilddateiformats wie etwa beispielsweise des Formats, das von JPEG2000 oder MPEG4 verwendet wird, unterstützt werden. Allerdings ist es ebenfalls möglich, momentan vorhandene Standard-Dateiformate zu verwenden, indem sie auf herstellerspezifische Weise erweitert werden. Letzteres schafft eine Rückwärtskompatibilität in dem Sinn, dass ein älterer Betrachter, der ein vorhandenes Dateiformat verwendet, das Bild wenigstens anzeigen kann, ohne zusammenzubrechen, wobei er die zusätzlichen Informationen ignoriert. Dies wird hier später beschrieben. Wie später in Verbindung mit4 beschrieben wird, ist außerdem mit bestimmten Vor- und Nachteilen eine Implementierung mit getrennten Bild- und Informationsdateien möglich. Der integrierte Bildinhalt und die Bilddaten selbst werden daraufhin, Block18 , in einem Kanal, in einem Server oder über ein Netz übertragen oder gespeichert. - Die Ablage kann eine Speichereinheit, z. B. ein Speicher in einer elektronischen Kamera oder in einem Server, sein. Alternativ können die integrierten Daten über E-Mail oder als Anlage zu einer E-Mail gesendet werden. Das Bildkomprimierungsmodul
20 ist optional und kann vorgesehen sein, um den JPEG-Standardalgorithmus oder irgendeinen anderen Bildkomprimierungsalgorithmus zu implementieren. Falls Ton und/oder die anderen zugeordneten Daten komprimiert werden, wird vor der audiovisuellen Realisierung der Informationen im Modul24 eine Dekomprimierung des Tons und/oder der Daten ausgeführt. Wenn die Bilder und die hierarchische Datenstruktur, die ihnen zugeordnet ist, für Anwender verfügbar sind, können sie interaktiv verwendet werden. - Interaktive Audiovisuelle Realisierung:
- Ein interaktives System, das die Erfindung verwendet, kann die folgenden Schritte befolgen, um die Wiedergewinnung und die audiovisuelle Realisierung von dem Bild zugeordneten Objektinformationen, Block
24 , zu implementieren. - (a) Wiedergewinnen und Anzeigen der Bilddaten;
- (b) Lesen der Basisschichtinformationen;
- (c) Verwenden der Basisschichtinformationen als einen Überlagerungserzeugungsmechanismus und Erzeugen einer Überlagerung zur visuellen Angabe derjenigen Bereiche, die Informationen enthalten, hinsichtlich "markanter Punkte" gemäß den in der Basisschicht enthaltenen Bereichsinformationen. Ein markanter Punkt kann nur dann hervorgehoben werden, wenn die Zeigevorrichtung des Anwenders auf eine Stelle in der Fläche dieses Bereiches zeigt;
- (d) Anzeigen von Popup-Menüs durch die Objekte, während der Anwender auf die markanten Punkte zeigt und klickt, wobei die Typen der für dieses Objekt verfügbaren Informationen in den Menüs enthalten sind; und
- (e) Rendern der durch den Anwender ausgewählten Informationen, wenn der Anwender auf den richtigen Eintrag in dem Menü klickt.
- Es ist wichtig anzumerken, dass die markanten Punkte und Popups lediglich aufgerufen werden, wenn der Anwender dies anfordert. In diesem Sinn werden die durch diese Erfindung gelieferten zusätzlichen Informationen nie störend. Die Schritte a–e werden durch die audiovisuelle Realisierung des Objektinformationsmoduls
24 implementiert, das geeignete Computer-Software enthält. - In einer vollständigen Implementierung der Erfindung werden auch die inhaltsbasierte Bildwiedergewinnung und -editierung unterstützt. Es ist eine Suchmaschine
28 vorgesehen, die ermöglicht, dass der Anwender ein spezifisches Bild auffindet. Die Editierung wird von einem objektbasierten Bildmanipulationsund -editieruntersystem26 geliefert. Die Bilder12 können in einer Datenbank enthalten sein, die eine Sammlung digitaler Bilder enthält. Eine solche Bilddatenbank kann auch als Bibliothek oder als digitale Bibliothek bezeichnet werden. - Die inhaltsbasierte Informationswiedergewinnung schafft für die Anwender neue Dimensionen zur Verwendung und Wechselwirkung mit Bildern. Zunächst kann der Anwender auf einige interessierende Bereiche/Objekte in einem Bild klicken, um weitere Informationen über sie wiederzugewinnen. Solche Informationen können umfassen: Verknüpfungen zu den verwandten Web-Seiten oder zu weiterem Multimedia-Material, Textbeschreibungen, Sprachannotationen usw. Zweitens kann der Anwender über fortgeschrittene Suchmaschinen in einer Datenbank nach bestimmten Bildern suchen. In Datenbankanwendungen können die Bilder anhand der zugeordneten Informationen, die ihren Inhalt beschreiben, indiziert und wiedergewonnen werden. Solche inhaltsbezogenen Informationen können Bildern und Objekten in Bildern zugeordnet und nachfolgend unter Verwendung der Erfindung bei der Informationswiedergewinnung verwendet werden.
- Die objektbasierte Bildeditierung ermöglicht, dass ein Anwender Bilder hinsichtlich der Objekte in den Bildern manipuliert. Beispielsweise kann der Anwender eine menschliche Person in einem Bild "ziehen", sie auf ein anderes Hintergrundbild "ablegen" und somit ein neues Bild mit bestimmten gewünschten Wirkungen zusammensetzen. Die Erfindung gestattet den Zugriff auf genaue Umrissinformationen (Konturinformationen) von Objekten, um zu ermöglichen, dass Objekte geschnitten und von einem Bild in ein anderes gezogen werden, wo sie nahtlos in andere Hintergründe integriert werden. Die inhaltsbasierte Informationswiedergewinnung und die objektbasierte Bildeditierung bieten einem Anwender gemeinsam eine neue erregende Erfahrung bei der Betrachtung und Manipulation von Bildern.
- Im Folgenden wird ein integriertes Verfahren offenbart, das ermöglicht, dass eine Bilddatenstruktur die inhaltsbasierte Informationswiedergewinnung und die objektbasierte Bildeditierung unterstützt. Das Verfahren konstruiert eine hierarchische Datenstruktur, in der die "Basisschicht" lediglich Indikatoren für inhaltsbezogene Informationen übermittelt und außerordentlich leicht ist. Die tatsächlichen inhaltsbezogenen Informationen werden in der "zweiten Schicht" übermittelt. Die hierarchische Implementierung stellt sicher, dass die Effizienz des Herunterladens komprimierter Bilder nach Einführung der neuen Funktionalitäten praktisch ungestört ist, während diese Funktionalitäten vollständig realisiert werden können, wenn ein Anwender dies anweist.
- Es gibt zwei Hauptziele bei der Entwicklung eines Verfahrens zur Unterstützung der inhaltsbasierten Informationswiedergewinnung und der objektbasierten Bildeditierung. Diese sind: 1) ein komprimiertes Bild, das diese Funktionalitäten unterstützt, sollte im Wesentlichen mit der gleichen Geschwindigkeit heruntergeladen und im Wesentlichen unter Verwendung des gleichen Plattenplatzes gespeichert werden können, wie wenn es diese Funktionalitäten nicht unterstützen würde; 2) diese Funktionalitäten können vollständig realisiert werden, wenn ein Anwender/eine Anwendung dies auswählt.
- Zur Lösung der obigen Aufgaben wird eine hierarchische Datenstruktur verwendet, die zwei Schichten besitzt. Die erste Schicht, die hier als die "Basisschicht" bezeichnet wird, enthält bis zu einer festen Anzahl von Bytes. Diese Bytes werden verwendet, um eine Anzahl interessierender Bereiche anzugeben und eine Anzahl von Merkern zu speichern, die angeben, ob für einen Bereich bestimmte zusätzliche inhaltsbezogene Informationen verfügbar sind. Die zweite Schicht übermittelt die tatsächlichen inhaltsbezogenen Informationen. In einer Netzanwendung werden anfangs lediglich das komprimierte Bild und die Basisschicht ihrer zugeordneten inhaltsbezogenen Informationen übertragen. Da die Basisschicht lediglich bis zu einer festen kleinen Anzahl von Bytes übermittelt, kann ihre Auswirkung auf die Übertragungsgeschwindigkeit des Bildes in der Praxis vernachlässigbar sein.
- Wie nun in
2 gezeigt ist, kann ein Anwender das Bild40 , nachdem er es zunächst heruntergeladen hat, betrachten, wobei er sich außerdem dazu entscheiden kann, mit dem Inhalt des Bildes in Wechselwirkung zu treten. Dies kann die Wechselwirkung mit einem interessierenden Objekt wie etwa mit der Person 1 (42 ), mit der Person 2 (44 ) oder mit einem anderen Element wie etwa mit dem Element46 umfassen. Alternativ kann ein Bereich des Bildes als interessierendes Objekt betrachtet werden. Auch das gesamte Bild kann als interessierendes Objekt behandelt werden. Der Anwender kann dies dadurch tun, dass er auf Bereiche oder Objekte, an denen er interessiert sein kann, "klickt". Daraufhin zeigt das System ein Popup-Menü48 ,50 an, das anhand der in der Basisschicht gespeicherten Merker die verfügbaren Informationen in Bezug auf den gewählten Bereich oder in Bezug auf das gewählte Objekt auflistet. Falls der Anwender einen Eintrag in dem Menü auswählt, beginnt das System daraufhin, die in der zweiten Schicht gespeicherten diesbezüglichen Informationen von der Originalquelle herunterzuladen und dem Anwender anzuzeigen. Außerdem kann sich der Anwender dafür entscheiden, ein komprimiertes Bild mit oder ohne seine inhaltsbezogenen Informationen zu sichern. Wenn sich der Anwender dafür entscheidet, das Bild mit seinen inhaltsbezogenen Informationen zu sichern, werden die Merker in der Basisschicht, die den verfügbaren Informationen entsprechen, auf wahr gesetzt und umgekehrt. - Eine Anfangsmenge inhaltsbezogener Informationen, die von allgemeinem Interesse sein können, umfasst: 1) Verknüpfungen; 2) Metatextinformationen; 3) Sprachannotationen; und 4) Objektränder. Außerdem können 5) Sicherheits-Copyright-Informationen; und 6) Bezugnahmen auf (nicht gezeigt) MPEG-7-Deskriptoren, wie sie in "MPEG-7: Context and Objectives (Version 4)" ISO/IEC JTC1/SC29/WG11, Coding of Moving Pictures and Audio, N1733, Juli 1997, beschrieben sind, angezeigt werden. Um die Erfassung inhaltsbezogener Informationen zu unterstützen, kann die Syntax aus Tabelle 1 verwendet werden. Es wird angemerkt, dass bei Bedarf weitere Typen inhaltsbezogener Informationen zu dieser Anfangsmenge hinzugefügt werden können, um verschiedene Anwendungen zu befriedigen. Beispielsweise kann zu der Liste zugeordneter Informationen ein Computer-Code hinzugefügt werden, der beispielsweise in der Sprache Java® geschrieben ist. In einigen Fällen öffnet das System eine bereits laufende Anwendung wie etwa einen Web-Browser oder eine Medienwiedergabe, während es erforderlich sein kann, dass das System eine Anwendung startet, wenn die Anwendung noch nicht läuft. Diese Anwendungen können irgendeine Form wie etwa eine Textverarbeitungsanwendung, ein Java®-Applet oder irgendeine andere geforderte Anwendung annehmen. SYNTAX DER BASISSCHICHT Tabelle 1 wobei N = Geil (log2(max(image_width, image_height))) ist.
- Semantik
num of regions die Anzahl der Bereiche in einem Bild, die zusätzliche inhaltsbezogene Informationen besitzen können. region_start_x die x-Koordinate der linken oberen Ecke eines Bereiches. region_start_y die y-Koordinate der linken oberen Ecke eines Bereiches. region_width die Breite eines Bereiches. region_height die Höhe eines Bereiches. link_flag ein 1-Bit-Merker, der das Vorhandensein eines Links für einen Bereich angibt. '1' gibt an, dass an diesem Bereich Verknüpfungen angebracht sind, während '0' angibt, dass keine angebracht sind. meta_flag ein 1-Bit-Merker, der das Vorhandensein von Metainformationen für einen Bereich angibt. '1' gibt an, dass es Metainformationen gibt, während '0' angibt, dass es keine gibt. voice_flag ein 1-Bit-Merker, der das Vorhandensein von Sprachannotationen für einen Bereich angibt. '1' gibt an, dass es Sprachannotationen gibt, während '0' angibt, dass es keine gibt. boundary_flag ein 1-Bit-Merker, der das Vorhandensein genauer Randnformationen für einen Bereich angibt. '1' gibt an, dass es Randinformationen gibt, während '0' angibt, dass es keine gibt. security_flag ein 1-Bit-Merker, der das Vorhandensein von Sicherheits-Copyright-Informationen für einen Bereich angibt. '1' gibt an, dass es diese Informationen gibt, während '0' angibt, dass es keine gibt. mpeg7_flag ein 1-Bit-Merker, der das Vorhandensein einer Bezugnahme auf MPEG-7-Deskriptoren für einen Bereich angibt. '1' gibt an, dass es MPEG-7-Referenzinformationen gibt, während '0' angibt, dass es keine gibt. - Die obige Syntax legt nahe, dass die Basisschicht leicht ist. Beispielsweise kann 30 die Basisschicht mit 256 Bytes wenigstens 26 Bereiche irgendwo in einem Bild definieren, das so groß wie 65.536 × 65.536 Pixel sein kann. Um 4 Bereiche in einem Bild zu definieren, verbraucht die Basisschicht lediglich 38 Bytes.
- SYNTAX DER ZWEITEN SCHICHT
- Die zweite Schicht übermittelt tatsächliche inhaltsbezogene Informationen, die für jeden Bereich Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen umfassen können. Um die obigen Informationen in der zweiten Schicht zu speichern, kann die höhere Syntax aus Tabelle 2 verwendet werden.
- Die Verknüpfungen und die Metainformationen sind Textdaten und erfordern eine verlustlose Codierung. Die Sprachinformationen können unter Verwendung eines vorhandenen Klangkomprimierungsformats wie etwa der Delta-Pulscodemodulation (DPCM) codiert werden. Die Randinformationen können die in MPEG-4 "Description of Core Experiments on Shape Coding in MPEG4 Video", ISO/IEC JTC1/SC29/WG11, Coding of Moving Pictures and Audio, N 1584, März 1997, entwickelten Gestaltscodierungstechniken verwenden. Die Sicherheits-Copyright-Informationen können bestimmte Verschlüsselungstechniken verwenden. Die früher angeführten MPEG-7-Referenzinformationen enthalten bestimmte Typen von Verknüpfungen mit den zukünftigen in MPEG-7 entwickelten Beschreibungsströmen.
- Die genaue Syntax und das Format für jeden Typ der oben identifizierten inhaltsbezogenen Informationen können während der Dateiformatentwicklung für zukünftige Standards bestimmt werden und werden hier lediglich als Beispiele für das System und für das Verfahren der Erfindung dargestellt. Im Allgemeinen kann aber die Syntaxstruktur aus Tabelle 3 verwendet werden.
- Semantik
links () die Untersyntax für die Codierung von Verknüpfungen. meta () die Untersyntax für die Codierung von Metainformationen. voice () die Untersyntax für die Codierung von Sprachannotationen. boundary () die Untersyntax für die Codierung von Randinformationen. security () die Untersyntax für die Codierung von Sicherheits-Copyright-Informationen. mpeg7 () die Untersyntax für die Codierung von MPEG-7-Referenzinformationen. end_of_region ein 16-Bit-Identifizierungskennzeichen, das das Ende der inhaltsbezogenen Informationen für einen Bereich signalisiert. type_of_info ein 8-Bit-Identifizierungskennzeichen, das eindeutig den Typ der inhaltsbezogenen Informationen definiert. Der Wert dieses Parameters kann einer aus einer Menge von Zahlen sein, die in einer Tabelle definiert sind, welche alle Typen inhaltsbezogener Informationen wie etwa Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen auflistet. length_of_data die Anzahl der Bytes, die zum Speichern der inhaltsbezogenen Informationen verwendet werden. data () die tatsächliche Syntax zum Codieren der inhaltsbezogenen Informationen. Diese kann auf der Basis von Anwendungsanforderungen oder in Übereinstimmung mit den Spezifikationen eines zukünftigen Dateiformats, das die hierarchische Datenstruktur als eines seiner ursprünglichen Merkmale unterstützen kann, bestimmt werden. - Es werden nun einige wenige Beispiele dargestellt, die eine typische Anwendung der Funktionalitäten veranschaulichen.
- Wiedergewinnung inhaltsbezogener Informationen
- Das Anfügen zusätzlicher Informationen wie etwa von Sprachannotationen und URL-Verknüpfungen an Bereiche/Objekte in einem Bild ermöglicht, dass ein Anwender auf interessantere Verweise mit dem Bild in Wechselwirkung tritt. Es fügt eine neue Dimension zu der Art und Weise hinzu, in der Standbilder betrachtet und verwendet werden.
2 zeigt ein Szenarium, in dem ein Bild mit diesen Funktionalitäten, d. h. ein informationserweitertes Bild, angezeigt wird. Die Anwendung liest die Bilddaten sowie die Basisschichtinformationen. Daraufhin zeigt sie das Bild an, wobei sie gemäß den Bereichsinformationen in der Basisschicht visuell die "markanten Punkte" über eine Überlagerung in dem Bild angibt. Ein Anwender klickt auf einen Bereich/ein Objekt, an dem er interessiert sein kann. Es erscheint ein Popup-Menü, das die Einträge auflistet, die für den ausgewählten Bereich/für das ausgewählte Objekt verfügbar sind. Wenn der Anwender den Sprachannotationseintrag auswählt, lokalisiert die Anwendung beispielsweise die Klanginformationen in der zweiten Schicht und gibt sie unter Verwendung einer Standard-Klangwiedergabeanwendung wieder. Wenn der Anwender eine Verknüpfung auswählt, die eine URL-Verknüpfung auf eine Web-Seite52 ist, lokalisiert das System daraufhin die Adresse und zeigt die entsprechende Web-Seite in einem Standard-Web-Browser an. Außerdem kann eine Verknüpfung zu einer weiteren Bilddatei oder sogar zu einem weiteren Bereich/Objekt in einem Bild zeigen. Ähnlich können auch zusätzliche Metainformationen (in einer Vielzahl verschiedener Formen) durch den Anwender wiedergewonnen und betrachtet werden, indem einfach der entsprechende Eintrag wie etwa eine Medienwiedergabe54 aus dem Menü ausgewählt wird. - Unter Verwendung des obenbeschriebenen Verfahrens können an verschiedenen Bereichen/Objekten in dem gleichen Bild verschiedene Zusatzinformationen angebracht sein. Beispielsweise kann ein Anwender verschiedene Stimmen hören, die verschiedenen Personen in dem Bild entsprechen. Außerdem können an relevanteren Komponenten in der Szene direkt einzelne Web-Seiten angebracht sein.
- Objektbasierte Bildeditierung
- Wenn Bilder editiert werden, ist es wünschenswert, Objekte mit beliebigen Gestalten auszuschneiden/zu kopieren/einzufügen. Das vorgeschlagene Verfahren unterstützt diese Funktionalität, wenn zusätzliche Gestaltsinformationen codiert sind.
3 zeigt ein Beispiel, durch das ein Anwender unter Verwendung der Randinformationen60 , die einem Baby-Objekt62 zugeordnet sind, das Baby-Objekt62 kopieren und in einen anderen Hintergrund64 einsetzen und somit ein computergeneriertes Bild in ein weiteres computergeneriertes Bild verschieben kann. Die Folge der Aktionen kann folgendermaßen ablaufen. Zunächst klickt der Anwender auf das Baby-Objekt62 , wobei das System ein Menü66 erscheinen lässt. Daraufhin wählt der Anwender das Randelement68 aus, das in dem System durch einen Randerzeugungsmechanismus erzeugt wird. Daraufhin lädt das System die Randinformationen, wobei es das Baby-Objekt, wie durch die helle Linie um das Objekt gezeigt ist, hervorhebt. Daraufhin kann der Anwender das Baby-Objekt kopieren und einfügen 70, indem er entweder eine Zieh- und Ablegeaktion72 ausführt oder indem er aus dem Editiermenü70 die Kopier- und Einfügefunktionen auswählt. - Inhaltsbezogene Wiedergewinnung von Bildern
- Durch das Zuordnen von MPEG-7-Deskriptoren zu Bildern können die Bilder durch fortgeschrittene Suchmaschinen anhand ihres Graphikinhalts wiedergewonnen werden. Die Deskriptoren können Farbe, Textur, Gestalt sowie Schlüsselwörter, wie sie in MPEG-7 bestimmt sind, umfassen. Im Allgemeinen braucht ein Bild lediglich leichte Referenzinformationen zu übermitteln, die auf den MPEG-7-Beschreibungsstrom zeigen.
- Es ist ein integriertes Verfahren zur Unterstützung der fortgeschrittenen Funktionalitäten der inhaltsbasierten Informationswiedergewinnung und der objektbasierten Bildeditierung offenbart worden. Das Verfahren verwendet eine hierarchische Zweischicht-Datenstruktur zum Speichern der inhaltsbezogenen Informationen. Die erste Schicht übermittelt Koordinaten, die interessierende Regionen in Rechteckgestalt angeben, und Merker, die angeben, ob bestimmte zusätzliche inhaltsbezogene Informationen für die angegebenen Bereiche verfügbar sind. Die tatsächlichen inhaltsbezogenen Informationen sind in der zweiten Schicht gespeichert, in der sich Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen für jeden angegebenen Bereich finden können.
- Die erste Schicht ist in der Weise konstruiert, dass sie leicht ist, d. h. höchstens 256 Bytes umfasst. Dies stellt sicher, dass die Effizienz des Herunterladens und Speicherns eines komprimierten Bildes im Wesentlichen ungestört sein kann, es sei denn, dass ein Anwender explizit zusätzliche inhaltsbezogene Informationen anfordert. Andererseits stellt das vorgeschlagene Verfahren sicher, dass diese Informationen vollständig geliefert werden, falls sie der Anwender anfordern sollte.
- Die vorhandenen JPEG-komprimierten Bilddateiformate wie etwa das Standbild-Austausch-Dateiformat (SPIFF) oder das JPEG-Dateiaustausch-Format (JFIF) unterstützen inhärent keine objektbasierte Informationseinbettung und interaktive Wiedergewinnung dieser Informationen. Obgleich die Erzeugung, das Erlebnis und die Verwendung von informationserweiterten Bildern unter Verwendung des Verfahrens und des Systems der Erfindung ausgeführt werden kann, kann es wünschenswert sein, dass die von der Erfindung erzeugten informationserweiterten Bilder von älteren Betrachtern, die JFIF oder SPIFF verwenden, wenigstens decodiert und angezeigt werden. Tatsächlich können die älteren Systeme die zugeordneten Informationen nicht wie das erfindungsgemäße System erkennen und verwenden. Das Ziel besteht somit in der Sicherstellung einer erfolgreichen Bilddecodierung und -anzeige durch ein älteres System, ohne dass das ältere System zusammenbricht.
- Falls die Abwärtskompatibilität mit älteren Betrachtern wie etwa jenen, die das JFIF- und das SPIFF-Dateiformat verwenden, erforderlich ist, kann die offenbarte hierarchische Datenstruktur in einem JIFF- oder SPIFF-Dateiformat gekapselt werden. Beispiele dieser Kapselungen, die von dem Modul
17 in1 implementiert werden können, werden unten gegeben. - Im Fall des JIFF-Dateiformats (Graphics File Formats: Second Edition, von J. D. Murray und W. Van Ryper, O'Reilly & Associates Inc., 1996, S. 510–515) wird nun auf
5 verwiesen, in der allgemein bei90 eine JFIF-Dateistruktur gezeigt ist. Das JFIF-Dateiformat enthält JPEG-Daten92 und ein Bildende-Kennzeichen (EOI-Kennzeichen)94 . Ein JFIF-Betrachter ignoriert einfach ir gendwelche Daten, die auf das EOI-Kennzeichen folgen. Somit können ältere Betrachter, wenn an eine JFIF-Datei unmittelbar nach dem EOI94 die hier offenbarte hierarchische 2-Schicht-Datenstruktur96 angehängt wird, das Bild decodieren und anzeigen, wobei sie die zusätzliche Datenstruktur ignorieren. Ein System, das gemäß der momentanen Erfindung konstruiert ist, kann die zusätzlichen Daten geeignet interpretieren und die interaktiven Funktionalitäten der Erfindung implementieren. - Bei Verwendung von SPIFF kann die hierarchische Datenstruktur unter Verwendung eines privaten Identifizierungskennzeichens, das dem System der Erfindung bekannt ist, gekapselt werden. Da ein älterer Betrachter Nicht-Standard-Identifizierungskennzeichen und die zugeordneten Informationsfelder gemäß der SPIFF-Spezifikation ignoriert, können die Bilder von SPIFF-kompatiblen älteren Systemen erfolgreich decodiert und angezeigt werden. Das System der Erfindung erkennt dann die angefügten Daten und verwendet sie geeignet, um ihre interaktiven Funktionalitäten zu ermöglichen. (Ein weiterer, besserer zugänglicher Literaturhinweis für SPIFF ist: Graphics File Formats: Second Edition, von J. D. Murray und W. Van Ryper, O'Reilly & Associates Inc., 1996, S. 822–837.)
- Das Verfahren kann auf irgendeine vorhandene Computerumgebung angewendet werden. Falls eine Bilddatei auf einer lokalen Platte gespeichert wird, können die vorgeschlagenen Funktionalitäten ohne irgendwelche zusätzliche Systemänderungen durch einen selbstständigen Bildbetrachter oder durch irgendeine Anwendung, die diese Funktionalitäten unterstützt, realisiert werden. Falls die Bilddatei fern auf einem Server gespeichert ist, können die vorgeschlagenen Funktionalitäten immer noch durch irgendeine Anwendung, die diese Funktionalitäten auf der Client-Seite unterstützt, zuzüglich eines Bildanalysealgorithmusmoduls auf dem Server realisiert werden. Der Grund dafür, dass der Server einen Bildanalysealgorithmus enthalten muss, besteht darin, dass die zusätzlichen inhaltsbezogenen Informationen in der gleichen Datei wie das Bild selbst liegen. Wenn ein Anwender bestimmte inhaltsbezogene Informationen hinsichtlich eines ausgewählten Bereiches/Objekts in einem Bild, z. B. seine Metainformationen, anfordert, ist es wichtig, dass das System so schnell wie möglich lediglich dieses Informationsstück holt und an den Anwender übergibt. Um diese Aufgabe zu lösen, muss der Server eine Bilddatei analysieren und irgendein Stück inhaltsbezogener Informationen, das durch den Client angegeben worden ist, auffinden und übertragen können.
- Um das Obige ohne irgendeine Verbesserung in einem momentan vorhandenen Netz-Server zu implementieren, müssen alle inhaltsbezogenen Informationen jeweils in einer getrennten Datei gespeichert werden, wie sie in
4 allgemein bei 80 gezeigt ist. Somit gibt es für jeden definierten Bereich so viel wie sechs Dateien, die jeweils Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen und MPEG-7-Referenzinformationen enthalten. Für ein gegebenes Bild, z. B. my_image.jpg wird ein Verzeichnis erzeugt, das my_image.info genannt wird und das die inhaltsbezogenen Informationen für N definierte Bereiche enthält, wobei darin Folgendes gespeichert wird:
region01.links
region01.meta
region01.voice
region01.boundary
region01.security
region01.mpeg7
*****
region0N.links
region0N.meta
region0N.voice
region0N.boundary
region0N.security
region0N.mpeg7 - Natürlich ist die Lösung, zum Speichern der Zusatzinformationen getrennte Dateien zu verwenden, in der Praxis anfällig und unschön. Eine einfache Fehlanpassung zwischen den Dateinamen wegen einer Namensänderung führt zum vollständigen Verlust der inhaltsbezogenen Informationen.
- Die "Bilder" können in dieser Erfindung Vollbildern von digitalen Videosequenzen, beispielsweise einer Menge von Vollbildern, die den Video-Inhalt am besten darstellen, entsprechen. Außerdem wird angemerkt, dass die Bildinhaltsinformationen komprimiert werden können, um den Speicher effizient zu nutzen und die Geschwindigkeit des Herunterladens zu erhöhen. Dies kann mit Komprimierungsverfahren des Standes der Technik ausgeführt werden. Die Gestalts- Informationen können beispielsweise unter Verwendung des in dem MPEG-4-Standard enthaltenen Verfahrens komprimiert werden. In diesem Fall sollte die Betrachtungsanwendung mit den richtigen Dekomprimierungshilfsmitteln ausgestattet sein.
- Gegenüber dem bekannten Stand der Technik besitzt die Erfindung die folgenden Vorteile: (1) Sie ist objektbasiert und somit flexibel; (2) sie ermöglicht den Einschluss von Objektmerkmalsinformationen wie etwa des Randes einer Objektgestalt; (3) sie besitzt eine hierarchische Datenstruktur und belastet somit auf keine Weise jene Anwendungen, die sich dafür entscheiden, bildinhaltsbezogene Informationen nicht herunterzuladen und zu speichern; (4) sie ermöglicht die audiovisuelle Realisierung objektbasierter Informationen, wenn der Anwender dies anfordert; (5) sie ermöglicht den Einschluss von URL-Verknüpfungen und schafft somit eine zusätzliche Dimension des Genusses und der Nutzung digitaler Bilder (die URL-Verknüpfungen können auf Web-Seiten, die sich auf den Bildinhalt beziehen, wie etwa auf persönliche Web-Seiten, auf Produkt-Web-Seiten und auf Web-Seiten für bestimmte Städte, Orte usw. zeigen); und (6) sie ist allgemein und anwendbar auf irgendeine Bildkomprimierungstechnik sowie auf unkomprimierte Bilder. Sie kann mit dem gleichen Token objektbasierte Funktionalitäten für irgendwelche in Kürze erscheinenden Komprimierungsnormen wie etwa JPEG 2000 schaffen. Obgleich keines der momentanen Dateiformate das Verfahren und das System, die hier offenbart sind, von Natur aus unterstützt, sind Verfahren offenbart worden, um das System auf rückwärtskompatible Weise zu implementieren, wobei ältere Systeme wenigstens die Bilddaten decodieren und die Zusatzinformationen ignorieren können.
- Um Anwendungen, die lediglich an den Bilddaten, aber nicht an den Inhaltsinformationen interessiert sind, nicht zu belasten, können die Datenstrukturen, die auf die in der Erfindung beschriebene Weise konfiguriert sind, auf selektive Weise über ein Netz heruntergeladen werden. Die herunterladende Anwendung prüft interaktiv mit dem Anwender, ob der Anwender die Inhaltsinformationen herunterzuladen und zu speichern wünscht. Falls der Anwender "nein" sagt, gewinnt die Anwendung lediglich die Bilddaten und die Basisschicht wieder, wobei sie die Merker in der Basisschicht zur Angabe, dass es bei dem Bild keine Inhaltsinformationen gibt, auf null setzt.
- Außerdem unterstützen das Verfahren und das System skalierbare Bild-Komprimierungs-/Dekomprimierungs-Algorithmen. Bei der qualitätsskalierbaren Komprimierung kann ein Bild in mehreren verschiedenen Qualitätsstufen decodiert werden. Bei der räumlich skalierbaren Komprimierung kann das Bild in verschiedenen räumlichen Auflösungen decodiert werden. Im Fall eines Komprimierungsalgorithmus, der die Skalierbarkeit unterstützt, brauchen lediglich die Bereichsinformationen und der Objektumriss skaliert zu werden, um die räumliche Skalierbarkeit zu unterstützen. Alle weiteren Datentypen bleiben ungestört.
- Obgleich eine bevorzugte Ausführungsform des Systems und des Verfahrens der Erfindung offenbart worden sind, ist für den Fachmann auf dem Gebiet klar, dass weitere Änderungen und Abwandlungen daran vorgenommen werden können, ohne von dem Umfang der Erfindung, wie er in den beigefügten Ansprüchen definiert ist, abzuweichen.
Claims (27)
- Hierarchisches System für objektbasiertes deskriptives Etikettieren von Bildern für die Informationsrückgewinnung, -editierung und -manipulation, mit: – Mitteln für die Erzeugung einer hierarchischen Datenstruktur, die eine hierarchische Datenstruktur für das Bild erzeugen und dem Bild Hilfsinformationen zuordnen, wobei die hierarchische Datenstruktur eine Basisschicht, die Indikatoren für inhaltsbezogene Informationen enthält, und eine zweite Schicht, die inhaltsbezogene Informationen enthält, umfasst, wobei die Indikatoren für inhaltsbezogene Informationen angeben, ob bestimmte inhaltsbezogene Informationen in der zweiten Schicht verfügbar sind; – einem Übertragungs-/Speichermechanismus, der das Bild und die hierarchische Datenstruktur speichert; – einem objektbasierten Auswahlmechanismus, der ein interessierendes Objekt in einem Bild auswählt; – Mitteln, die die verfügbaren inhaltsbezogenen Informationen, die auf einen gewählten Bereich oder ein gewähltes Objekt bezogen sind, anhand der Indikatoren für inhaltsbezogene Informationen auflisten; und – Mitteln, die die in der zweiten Schicht gespeicherten verwandten Informationen bei Auswahl eines Elements durch den Anwender herunterladen.
- System nach Anspruch 1, das einen Bilderfassungsmechanismus enthält, der ein Bild erfasst.
- System nach einem der vorhergehenden Ansprüche, das einen Anzeigemechanismus enthält, der das Bild für einen Anwender anzeigt.
- System nach Anspruch 3, bei dem der Anzeigemechanismus so konstruiert und beschaffen ist, dass er die hierarchische Datenstruktur für einen Anwender anzeigt.
- System nach einem der vorhergehenden Ansprüche, das einen Speichermechanismus zum Speichern eines Bildes enthält.
- System nach einem der vorhergehenden Ansprüche, das eine Datenbank enthält, die eine Sammlung digitaler Bilder enthält.
- System nach einem der vorhergehenden Ansprüche, das einen Wiedergewinnungs- und Manipulationsmechanismus enthält, der einem Anwender ermöglicht, das Bild und die ihm zugeordneten Hilfsinformationen wahlweise wiederzugewinnen und zu manipulieren.
- System nach Anspruch 7, das einen Erzeugungsmechanismus für die Erzeugung einer Überlagerung, die dem Bild zugeordnet ist, enthält und bei dem die Überlagerung wenigstens einen markanten Punkt enthält, der vom Rest des Bildes visuell unterscheidbar ist, wenn er durch den Anwender hervorgehoben wird.
- System nach Anspruch 7 oder Anspruch 8, der einen Erzeugungsmechanismus zum Erzeugen von Randinformationen enthält, der einen Rand um ein interessierendes Objekt identifiziert, und bei dem der Rand sämtliche Informationen innerhalb des Randes für eine Manipulation durch den Anwender gruppiert.
- System nach einem der vorhergehenden Ansprüche, das einen Mechanismus zur audiovisuellen Darstellung enthält, wobei die Hilfsinformationen dem Anwender visuell angezeigt werden und dem Anwender hörbar vorgespielt werden, wenn der Anwender dies anfordert.
- System nach einem der vorherhergehenden Ansprüche, das einen Mechanismus zur audiovisuellen Darstellung enthält, bei dem die Hilfsinformationen für die objektbasierte Bildeditierung verwendet werden.
- System nach einem der vorhergehenden Ansprüche, das einen Erzeugungsmechanismus zum Erzeugen eines Popup-Menüs enthält, das die Typen verfügbarer inhaltsbezogener Informationen auf der Grundlage der Indikatoren für inhaltsbezogene Informationen, die in der Basisschicht gespeichert sind, auflistet.
- System nach Anspruch 12, das Mittel enthält, die die von dem Anwender ausgewählten Informationen wiedergewinnen und rendern, wenn der Anwender auf den entsprechenden Eintrag im Menü klickt.
- System nach einem der vorhergehenden Ansprüche, bei dem die Indikatoren für inhaltsbezogene Informationen als Merker implementiert sind.
- System nach einem der vorhergehenden Ansprüche, bei dem jeder Typ der inhaltsbezogenen Informationen, die in der zweiten Schicht enthalten sind, in einer getrennten Datei gespeichert ist.
- System nach einem der vorhergehenden Ansprüche, bei dem die in der zweiten Schicht enthaltenen inhaltsbezogenen Informationen wenigstens einen der folgenden Typen aufweisen: Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen, MPEG-7-Referenzinformationen.
- Hierarchisches Verfahren für die objektbasierte, audiovisuelle deskriptive Editierung von Bildern für die Informationswiedergewinnung, -editierung und -manipulation, mit den folgenden Schritten: – Erzeugen einer hierarchischen Datenstruktur für das Bild und Zuordnen von Hilfsinformationen zu dem Bild durch Erzeugen einer Basisschicht, die Indikatoren für inhaltsbezogene Informationen enthält, und durch Erzeugen einer zweiten Schicht, die inhaltsbezogene Informationen enthält, wobei die Indikatoren für inhaltsbezogene Informationen angeben, ob bestimmte inhaltsbezogene Informationen in der zweiten Schicht verfügbar sind; – Auswählen eines interessierenden Objekts in dem Bild mittels eines objektbasierten Auswahlmechanismus; – Auflisten der verfügbaren inhaltsbezogenen Informationen, die mit einem ausgewählten Bereich oder Objekt in Beziehung stehen, anhand der Indikatoren für inhaltsbezogene Informationen; – Herunterladen der in der zweiten Schicht gespeicherten verwandten Informationen bei Auswahl eines Elements durch den Anwender.
- Verfahren nach Anspruch 17, das das Erfassen eines Bildes mit einem Bilderfassungsmechanismus enthält.
- Verfahren nach Anspruch 17 oder Anspruch 18, das das Anzeigen des übertragenen/gespeicherten Bildes für einen Anwender enthält.
- Verfahren nach einem der Ansprüche 17 bis 19, das das wahlweise Wiedergewinnen und Manipulieren des Bildes und der ihm zugeordneten Hilfsinformationen enthält.
- Verfahren nach einem der Ansprüche 17 bis 20, das ferner das visuelle Anzeigen von Hilfsinformationen und das hörbare Abspielen von Hilfsinformationen für den Anwender auf Anforderung des Anwenders enthält.
- Verfahren nach einem der Ansprüche 17 bis 21, das das Verwenden von Hilfsinformationen für die objektbasierte Bildeditierung enthält.
- Verfahren nach einem der Ansprüche 17 bis 22, bei dem die inhaltsbezogenen Informationen, die in der zweiten Schicht enthalten sind, wenigstens einen der folgenden Typen aufweisen: Verknüpfungen, Metainformationen, Sprachannotationen, Randinformationen, Sicherheits-Copyright-Informationen, MPEG-7-Referenzinformationen.
- Verfahren nach einem der Ansprüche 17 bis 23, bei dem das wahlweise Wiedergewinnen und Manipulieren enthält: (a) Wiedergewinnen der Bilddaten; (b) Lesen der Basisschicht-Informationen; (c) Anzeigen des Bildes; (d) Erzeugen einer Überlagerung, um entsprechend den Bereichsinformationen, die in der Basisschicht enthalten sind, jene Bereiche, die Informationen über "markante Punkte" enthalten, visuell anzugeben; (e) Anzeigen von Popup-Menüs, wenn der Anwender auf die markanten Punkte zeigt und klickt, wobei die Typen verfügbarer Informationen in den Menüs aufgeführt sind; und (f) Wiedergewinnen und Rendern der durch den Anwender ausgewählten Informationen, wenn der Anwender auf den entsprechenden Eintrag in dem Menü klickt.
- Verfahren nach Anspruch 24, bei dem die Popup-Menüs auf der Grundlage der Indikatoren für inhaltsbezogene Informationen, die in der Basisschicht enthalten sind, erzeugt werden.
- Verfahren nach Anspruch 24 oder Anspruch 25, bei dem das Erzeugen einer Überlagerung das Hervorheben eines markanten Punkts enthält, wenn die Zeigervorrichtung des Anwenders auf eine Stelle innerhalb der Fläche dieses Bereichs zeigt.
- Verfahren nach einem der Ansprüche 24 bis 26, bei dem das Erzeugen einer Überlagerung das Identifizieren eines Randes um ein interessierendes Objekt enthält.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US6140597P | 1997-09-29 | 1997-09-29 | |
US61405P | 1997-09-29 | ||
US33568 | 1998-03-02 | ||
US09/033,568 US6070167A (en) | 1997-09-29 | 1998-03-02 | Hierarchical method and system for object-based audiovisual descriptive tagging of images for information retrieval, editing, and manipulation |
PCT/JP1998/004340 WO1999017228A1 (en) | 1997-09-29 | 1998-09-28 | Hierarchical method and system for object-based audiovisual descriptive tagging of images for information retrieval, editing, and manipulation |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69820093D1 DE69820093D1 (de) | 2004-01-08 |
DE69820093T2 true DE69820093T2 (de) | 2004-08-05 |
Family
ID=26709875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69820093T Expired - Lifetime DE69820093T2 (de) | 1997-09-29 | 1998-09-28 | Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation |
Country Status (5)
Country | Link |
---|---|
US (1) | US6070167A (de) |
EP (1) | EP1019852B1 (de) |
JP (1) | JP4159248B2 (de) |
DE (1) | DE69820093T2 (de) |
WO (1) | WO1999017228A1 (de) |
Families Citing this family (185)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US6301583B1 (en) * | 1997-05-16 | 2001-10-09 | Paul Zellweger | Method and apparatus for generating data files for an applet-based content menu using an open hierarchical data structure |
US6735253B1 (en) | 1997-05-16 | 2004-05-11 | The Trustees Of Columbia University In The City Of New York | Methods and architecture for indexing and editing compressed video over the world wide web |
US6910184B1 (en) * | 1997-07-25 | 2005-06-21 | Ricoh Company, Ltd. | Document information management system |
JP4154015B2 (ja) * | 1997-12-10 | 2008-09-24 | キヤノン株式会社 | 情報処理装置およびその方法 |
US6654931B1 (en) | 1998-01-27 | 2003-11-25 | At&T Corp. | Systems and methods for playing, browsing and interacting with MPEG-4 coded audio-visual objects |
US6229524B1 (en) * | 1998-07-17 | 2001-05-08 | International Business Machines Corporation | User interface for interaction with video |
EP1684517A3 (de) | 1998-08-24 | 2010-05-26 | Sharp Kabushiki Kaisha | System zur Darstellung von Informationen |
JP3619685B2 (ja) * | 1998-09-25 | 2005-02-09 | コニカミノルタビジネステクノロジーズ株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
US7339595B2 (en) * | 1998-10-19 | 2008-03-04 | Lightsurf Technologies, Inc. | Method and system for improved internet color |
US20020126135A1 (en) * | 1998-10-19 | 2002-09-12 | Keith Ball | Image sharing for instant messaging |
US7143434B1 (en) * | 1998-11-06 | 2006-11-28 | Seungyup Paek | Video description system and method |
US7046263B1 (en) | 1998-12-18 | 2006-05-16 | Tangis Corporation | Requesting computer user's context data |
US7779015B2 (en) | 1998-12-18 | 2010-08-17 | Microsoft Corporation | Logging and analyzing context attributes |
US7225229B1 (en) | 1998-12-18 | 2007-05-29 | Tangis Corporation | Automated pushing of computer user's context data to clients |
US6801223B1 (en) | 1998-12-18 | 2004-10-05 | Tangis Corporation | Managing interactions between computer users' context models |
US7107539B2 (en) | 1998-12-18 | 2006-09-12 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US7073129B1 (en) | 1998-12-18 | 2006-07-04 | Tangis Corporation | Automated selection of appropriate information based on a computer user's context |
US7076737B2 (en) | 1998-12-18 | 2006-07-11 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US6920616B1 (en) | 1998-12-18 | 2005-07-19 | Tangis Corporation | Interface for exchanging context data |
US6513046B1 (en) | 1999-12-15 | 2003-01-28 | Tangis Corporation | Storing and recalling information to augment human memories |
US9183306B2 (en) | 1998-12-18 | 2015-11-10 | Microsoft Technology Licensing, Llc | Automated selection of appropriate information based on a computer user's context |
US7055101B2 (en) | 1998-12-18 | 2006-05-30 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US6791580B1 (en) | 1998-12-18 | 2004-09-14 | Tangis Corporation | Supplying notifications related to supply and consumption of user context data |
US7137069B2 (en) | 1998-12-18 | 2006-11-14 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US6490370B1 (en) * | 1999-01-28 | 2002-12-03 | Koninklijke Philips Electronics N.V. | System and method for describing multimedia content |
US6593936B1 (en) * | 1999-02-01 | 2003-07-15 | At&T Corp. | Synthetic audiovisual description scheme, method and system for MPEG-7 |
US6748158B1 (en) * | 1999-02-01 | 2004-06-08 | Grass Valley (U.S.) Inc. | Method for classifying and searching video databases based on 3-D camera motion |
US6236395B1 (en) * | 1999-02-01 | 2001-05-22 | Sharp Laboratories Of America, Inc. | Audiovisual information management system |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
EP1045315A3 (de) * | 1999-04-13 | 2011-03-02 | Canon Kabushiki Kaisha | Datenverarbeitungsverfahren und -Vorrichtung |
WO2000077790A2 (en) * | 1999-06-15 | 2000-12-21 | Digital Electronic Cinema, Inc. | Systems and methods for facilitating the recomposition of data blocks |
US7058647B1 (en) | 1999-08-31 | 2006-06-06 | Charles E. Hill & Associates | Electronic presentation generation system and method |
US7509580B2 (en) * | 1999-09-16 | 2009-03-24 | Sharp Laboratories Of America, Inc. | Audiovisual information management system with preferences descriptions |
US7082567B1 (en) * | 1999-10-18 | 2006-07-25 | Rose Blush Software Llc | Enhanced human computer user interface system for searching and browsing documents |
US7191462B1 (en) * | 1999-11-08 | 2007-03-13 | Kendyl A. Román | System for transmitting video images over a computer network to a remote receiver |
US6675158B1 (en) * | 1999-11-30 | 2004-01-06 | Sony Corporation | Method and apparatus for organizing data pertaining to audiovisual content |
US20010051881A1 (en) * | 1999-12-22 | 2001-12-13 | Aaron G. Filler | System, method and article of manufacture for managing a medical services network |
KR100523684B1 (ko) * | 2000-03-23 | 2005-10-26 | 미쓰비시덴키 가부시키가이샤 | 화상 검색 분배 시스템 및 화상 검색 분배 방법 |
JP3810268B2 (ja) * | 2000-04-07 | 2006-08-16 | シャープ株式会社 | オーディオビジュアルシステム |
EP1158799A1 (de) * | 2000-05-18 | 2001-11-28 | Deutsche Thomson-Brandt Gmbh | Verfahren und Empfänger zur Bereitstellung von mehrsprachigen Untertiteldaten auf Anfrage |
US8028314B1 (en) | 2000-05-26 | 2011-09-27 | Sharp Laboratories Of America, Inc. | Audiovisual information management system |
US8296805B2 (en) * | 2000-05-30 | 2012-10-23 | Sony Corporation | Command description scheme providing for dynamic update of instance documents and their associated schema |
US20020012471A1 (en) * | 2000-06-14 | 2002-01-31 | Wildform, Inc. | Multimedia compression/decompression and compressed data representation |
AU2001271397A1 (en) * | 2000-06-23 | 2002-01-08 | Decis E-Direct, Inc. | Component models |
US7647340B2 (en) | 2000-06-28 | 2010-01-12 | Sharp Laboratories Of America, Inc. | Metadata in JPEG 2000 file format |
US7433881B1 (en) * | 2000-08-31 | 2008-10-07 | Charles E. Hill & Associates, Inc. | System and method for handling multi-resolution graphics files |
US8020183B2 (en) | 2000-09-14 | 2011-09-13 | Sharp Laboratories Of America, Inc. | Audiovisual management system |
AU2002214613A1 (en) * | 2000-11-08 | 2002-05-21 | Digimarc Corporation | Content authentication and recovery using digital watermarks |
AU2002230449A1 (en) * | 2000-11-15 | 2002-05-27 | Mark Frigon | Method and apparatus for processing objects in online images |
WO2002052565A1 (en) * | 2000-12-22 | 2002-07-04 | Muvee Technologies Pte Ltd | System and method for media production |
JP2002230018A (ja) * | 2001-02-03 | 2002-08-16 | Vision Arts Kk | 情報画像変換システム |
GB2374225A (en) * | 2001-03-28 | 2002-10-09 | Hewlett Packard Co | Camera for recording linked information associated with a recorded image |
EP1380172A1 (de) * | 2001-04-10 | 2004-01-14 | Koninklijke Philips Electronics N.V. | Videoverarbeitungsverfahren und system zur anreicherung des inhalts eines fernsehprogramms |
US6993594B2 (en) * | 2001-04-19 | 2006-01-31 | Steven Schneider | Method, product, and apparatus for requesting a resource from an identifier having a character image |
US7904814B2 (en) | 2001-04-19 | 2011-03-08 | Sharp Laboratories Of America, Inc. | System for presenting audio-video content |
KR100769371B1 (ko) * | 2001-05-12 | 2007-10-22 | 엘지전자 주식회사 | 스크립트 파일이 포함 기록된 기록매체와, 그 재생장치 및방법 |
KR100769375B1 (ko) * | 2001-05-12 | 2007-10-22 | 엘지전자 주식회사 | 스크립트 파일이 포함 기록된 기록매체와, 그 재생장치 및방법 |
KR100771264B1 (ko) * | 2001-05-12 | 2007-10-29 | 엘지전자 주식회사 | 스크립트 파일이 포함 기록된 기록매체와, 그 재생장치 및방법 |
WO2002093928A2 (en) * | 2001-05-15 | 2002-11-21 | Koninklijke Philips Electronics N.V. | Content analysis apparatus |
US20020188630A1 (en) * | 2001-05-21 | 2002-12-12 | Autodesk, Inc. | Method and apparatus for annotating a sequence of frames |
JP2002358336A (ja) * | 2001-06-01 | 2002-12-13 | Pioneer Electronic Corp | 設計情報公開システム、設計情報公開方法および記録媒体 |
US20030004934A1 (en) * | 2001-06-29 | 2003-01-02 | Richard Qian | Creating and managing portable user preferences for personalizion of media consumption from device to device |
KR100438697B1 (ko) * | 2001-07-07 | 2004-07-05 | 삼성전자주식회사 | 재생장치 및 그 북마크 정보 제공방법 |
US7130861B2 (en) * | 2001-08-16 | 2006-10-31 | Sentius International Corporation | Automated creation and delivery of database content |
EP1302865A1 (de) * | 2001-10-10 | 2003-04-16 | Mitsubishi Electric Information Technology Centre Europe B.V. | Verfahren und Vorrichtung zur Suche und zum Wiederauffinden von Farbbildern |
US7474698B2 (en) | 2001-10-19 | 2009-01-06 | Sharp Laboratories Of America, Inc. | Identification of replay segments |
US7925139B2 (en) | 2001-12-03 | 2011-04-12 | Sony Corporation | Distributed semantic descriptions of audiovisual content |
WO2003049424A1 (fr) | 2001-12-03 | 2003-06-12 | Nikon Corporation | Appareil electronique, camera electronique, dispositif electronique, appareil d'affichage d'image et systeme de transmission d'image |
WO2003051031A2 (en) * | 2001-12-06 | 2003-06-19 | The Trustees Of Columbia University In The City Of New York | Method and apparatus for planarization of a material by growing and removing a sacrificial film |
GB0129787D0 (en) * | 2001-12-13 | 2002-01-30 | Hewlett Packard Co | Method and system for collecting user-interest information regarding a picture |
US8214741B2 (en) | 2002-03-19 | 2012-07-03 | Sharp Laboratories Of America, Inc. | Synchronization of video and data |
DE10230812B4 (de) | 2002-07-08 | 2004-11-25 | T-Mobile Deutschland Gmbh | Verfahren zur Übertragung von zusätzlichen Informationen bei Verwendung eines Verfahrens zur Komprimierung von Daten mittels einer priorisierenden Pixelübertragung |
GB2391150B (en) * | 2002-07-19 | 2005-10-26 | Autodesk Canada Inc | Editing image data |
US7657907B2 (en) | 2002-09-30 | 2010-02-02 | Sharp Laboratories Of America, Inc. | Automatic user profiling |
US7477793B1 (en) * | 2002-12-13 | 2009-01-13 | Ricoh Co., Ltd. | JPEG 2000-like access using the JPM compound document file format |
JP2004254298A (ja) * | 2003-01-30 | 2004-09-09 | Ricoh Co Ltd | 画像処理装置、プログラム及び記憶媒体 |
US20040197088A1 (en) * | 2003-03-31 | 2004-10-07 | Ferman Ahmet Mufit | System for presenting audio-video content |
US20040191731A1 (en) * | 2003-03-31 | 2004-09-30 | Stork David G. | Paper document-based assistive technologies for the visually impaired |
JP2005151147A (ja) * | 2003-11-14 | 2005-06-09 | Toshiba Corp | 再生装置及び再生方法 |
US7245923B2 (en) * | 2003-11-20 | 2007-07-17 | Intelligent Spatial Technologies | Mobile device and geographic information system background and summary of the related art |
US8060112B2 (en) | 2003-11-20 | 2011-11-15 | Intellient Spatial Technologies, Inc. | Mobile device and geographic information system background and summary of the related art |
US8356317B2 (en) | 2004-03-04 | 2013-01-15 | Sharp Laboratories Of America, Inc. | Presence based technology |
US8949899B2 (en) | 2005-03-04 | 2015-02-03 | Sharp Laboratories Of America, Inc. | Collaborative recommendation system |
US7594245B2 (en) | 2004-03-04 | 2009-09-22 | Sharp Laboratories Of America, Inc. | Networked video devices |
US8250034B2 (en) * | 2004-04-14 | 2012-08-21 | Verisign, Inc. | Method and apparatus to provide visual editing |
US20050234838A1 (en) * | 2004-04-14 | 2005-10-20 | Manousos Nicholas H | Method and apparatus for providing in place editing within static documents |
US7739306B2 (en) * | 2004-04-14 | 2010-06-15 | Verisign, Inc. | Method and apparatus for creating, assembling, and organizing compound media objects |
JP4478513B2 (ja) * | 2004-06-10 | 2010-06-09 | キヤノン株式会社 | デジタルカメラ、デジタルカメラの制御方法、プログラムおよびそれを格納した記録媒体 |
JP2006185575A (ja) * | 2004-11-30 | 2006-07-13 | Matsushita Electric Ind Co Ltd | コンテンツ記録装置 |
US20060159414A1 (en) * | 2005-01-14 | 2006-07-20 | Pinnacle Systems, Inc. | Systems and methods for associating graphics information with audio and video material |
WO2006096612A2 (en) * | 2005-03-04 | 2006-09-14 | The Trustees Of Columbia University In The City Of New York | System and method for motion estimation and mode decision for low-complexity h.264 decoder |
US7418341B2 (en) * | 2005-09-12 | 2008-08-26 | Intelligent Spatial Technologies | System and method for the selection of a unique geographic feature |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US20160321253A1 (en) | 2005-10-26 | 2016-11-03 | Cortica, Ltd. | System and method for providing recommendations based on user profiles |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US11216498B2 (en) | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US20150379751A1 (en) * | 2005-10-26 | 2015-12-31 | Cortica, Ltd. | System and method for embedding codes in mutlimedia content elements |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
DE102005053148B4 (de) * | 2005-11-04 | 2022-12-22 | Robert Bosch Gmbh | Verfahren zur Handhabung von Inhaltsinformationen |
EP1826723B1 (de) * | 2006-02-28 | 2015-03-25 | Microsoft Corporation | Bildbearbeitung auf Objektebene |
US8689253B2 (en) | 2006-03-03 | 2014-04-01 | Sharp Laboratories Of America, Inc. | Method and system for configuring media-playing sets |
US8370455B2 (en) * | 2006-03-09 | 2013-02-05 | 24/7 Media | Systems and methods for mapping media content to web sites |
US8208694B2 (en) | 2006-06-06 | 2012-06-26 | Thomas Jelonek | Method and system for image and video analysis, enhancement and display for communication |
US8538676B2 (en) * | 2006-06-30 | 2013-09-17 | IPointer, Inc. | Mobile geographic information system and method |
US8132151B2 (en) * | 2006-07-18 | 2012-03-06 | Yahoo! Inc. | Action tags |
US20080052113A1 (en) * | 2006-07-31 | 2008-02-28 | Wright State University | System, method, and article of manufacture for managing a health and human services regional network |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
US7979388B2 (en) * | 2006-11-17 | 2011-07-12 | Microsoft Corporation | Deriving hierarchical organization from a set of tagged digital objects |
US7465241B2 (en) * | 2007-03-23 | 2008-12-16 | Acushnet Company | Functionalized, crosslinked, rubber nanoparticles for use in golf ball castable thermoset layers |
KR100961444B1 (ko) * | 2007-04-23 | 2010-06-09 | 한국전자통신연구원 | 멀티미디어 콘텐츠를 검색하는 방법 및 장치 |
JP5024668B2 (ja) * | 2007-07-10 | 2012-09-12 | 富士ゼロックス株式会社 | 画像形成装置および情報処理装置 |
US8121902B1 (en) | 2007-07-24 | 2012-02-21 | Amazon Technologies, Inc. | Customer-annotated catalog pages |
US8296291B1 (en) | 2007-12-12 | 2012-10-23 | Amazon Technologies, Inc. | Surfacing related user-provided content |
WO2009126785A2 (en) * | 2008-04-10 | 2009-10-15 | The Trustees Of Columbia University In The City Of New York | Systems and methods for image archaeology |
WO2009155281A1 (en) * | 2008-06-17 | 2009-12-23 | The Trustees Of Columbia University In The City Of New York | System and method for dynamically and interactively searching media data |
US20100034466A1 (en) * | 2008-08-11 | 2010-02-11 | Google Inc. | Object Identification in Images |
US9715701B2 (en) | 2008-11-24 | 2017-07-25 | Ebay Inc. | Image-based listing using image of multiple items |
US8671069B2 (en) | 2008-12-22 | 2014-03-11 | The Trustees Of Columbia University, In The City Of New York | Rapid image annotation via brain state decoding and visual pattern mining |
WO2010075466A1 (en) | 2008-12-22 | 2010-07-01 | Intelligent Spatial Technologies, Inc. | System and method for linking real-world objects and object representations by pointing |
US8483519B2 (en) | 2008-12-22 | 2013-07-09 | Ipointer Inc. | Mobile image search and indexing system and method |
EP2368174A4 (de) * | 2008-12-22 | 2014-05-07 | Intelligent Spatial Technologies Inc | System und verfahren für den start von aktionen und lieferung von rückmeldungen mittels zeigen auf ein bestimmtes objekt |
EP2361424A1 (de) | 2008-12-22 | 2011-08-31 | Intelligent Spatial Technologies, Inc. | System und verfahren zur untersuchung von 3d-szenen durch zeigen auf ein referenzobjekt |
JP5608680B2 (ja) * | 2008-12-30 | 2014-10-15 | インテリジェント スペイシャル テクノロジーズ,インク. | モバイルの画像検索及びインデキシングのシステム及び方法 |
US8719104B1 (en) | 2009-03-31 | 2014-05-06 | Amazon Technologies, Inc. | Acquiring multiple items in an image |
US8589433B2 (en) * | 2009-10-21 | 2013-11-19 | International Business Machines Corporation | Dynamic tagging |
US8533192B2 (en) * | 2010-09-16 | 2013-09-10 | Alcatel Lucent | Content capture device and methods for automatically tagging content |
CN102682025B (zh) * | 2011-03-16 | 2014-03-19 | 中兴通讯股份有限公司 | 一种web图片评论添加和显示方法及装置 |
US9946739B2 (en) * | 2013-03-15 | 2018-04-17 | Neura Labs Corp. | Intelligent internet system with adaptive user interface providing one-step access to knowledge |
KR101501028B1 (ko) | 2013-04-04 | 2015-03-12 | 박정환 | 개체가 삽입된 이미지를 생성하고 편집하는 방법 및 그 장치 |
US10824313B2 (en) * | 2013-04-04 | 2020-11-03 | P.J. Factory Co., Ltd. | Method and device for creating and editing object-inserted images |
US20150089446A1 (en) * | 2013-09-24 | 2015-03-26 | Google Inc. | Providing control points in images |
KR102380979B1 (ko) * | 2015-01-05 | 2022-04-01 | 삼성전자 주식회사 | 이미지의 메타데이터 관리 방법 및 장치 |
CN106033418B (zh) * | 2015-03-10 | 2020-01-31 | 阿里巴巴集团控股有限公司 | 语音添加、播放方法及装置、图片分类、检索方法及装置 |
US11195043B2 (en) | 2015-12-15 | 2021-12-07 | Cortica, Ltd. | System and method for determining common patterns in multimedia content elements based on key points |
US11037015B2 (en) | 2015-12-15 | 2021-06-15 | Cortica Ltd. | Identification of key points in multimedia data elements |
US11760387B2 (en) | 2017-07-05 | 2023-09-19 | AutoBrains Technologies Ltd. | Driving policies determination |
US11899707B2 (en) | 2017-07-09 | 2024-02-13 | Cortica Ltd. | Driving policies determination |
US10971121B2 (en) * | 2018-07-09 | 2021-04-06 | Tree Goat Media, Inc. | Systems and methods for transforming digital audio content into visual topic-based segments |
US10846544B2 (en) | 2018-07-16 | 2020-11-24 | Cartica Ai Ltd. | Transportation prediction system and method |
US10839694B2 (en) | 2018-10-18 | 2020-11-17 | Cartica Ai Ltd | Blind spot alert |
US11181911B2 (en) | 2018-10-18 | 2021-11-23 | Cartica Ai Ltd | Control transfer of a vehicle |
US20200133308A1 (en) | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US11126870B2 (en) | 2018-10-18 | 2021-09-21 | Cartica Ai Ltd. | Method and system for obstacle detection |
US11244176B2 (en) | 2018-10-26 | 2022-02-08 | Cartica Ai Ltd | Obstacle detection and mapping |
US10748038B1 (en) | 2019-03-31 | 2020-08-18 | Cortica Ltd. | Efficient calculation of a robust signature of a media unit |
US10789535B2 (en) | 2018-11-26 | 2020-09-29 | Cartica Ai Ltd | Detection of road elements |
US11643005B2 (en) | 2019-02-27 | 2023-05-09 | Autobrains Technologies Ltd | Adjusting adjustable headlights of a vehicle |
US11285963B2 (en) | 2019-03-10 | 2022-03-29 | Cartica Ai Ltd. | Driver-based prediction of dangerous events |
US11694088B2 (en) | 2019-03-13 | 2023-07-04 | Cortica Ltd. | Method for object detection using knowledge distillation |
US11132548B2 (en) | 2019-03-20 | 2021-09-28 | Cortica Ltd. | Determining object information that does not explicitly appear in a media unit signature |
US11222069B2 (en) | 2019-03-31 | 2022-01-11 | Cortica Ltd. | Low-power calculation of a signature of a media unit |
US10796444B1 (en) | 2019-03-31 | 2020-10-06 | Cortica Ltd | Configuring spanning elements of a signature generator |
US10789527B1 (en) | 2019-03-31 | 2020-09-29 | Cortica Ltd. | Method for object detection using shallow neural networks |
US10776669B1 (en) | 2019-03-31 | 2020-09-15 | Cortica Ltd. | Signature generation and object detection that refer to rare scenes |
US11593662B2 (en) | 2019-12-12 | 2023-02-28 | Autobrains Technologies Ltd | Unsupervised cluster generation |
US10748022B1 (en) | 2019-12-12 | 2020-08-18 | Cartica Ai Ltd | Crowd separation |
US11590988B2 (en) | 2020-03-19 | 2023-02-28 | Autobrains Technologies Ltd | Predictive turning assistant |
US11827215B2 (en) | 2020-03-31 | 2023-11-28 | AutoBrains Technologies Ltd. | Method for training a driving related object detector |
US11756424B2 (en) | 2020-07-24 | 2023-09-12 | AutoBrains Technologies Ltd. | Parking assist |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU8932191A (en) * | 1990-11-30 | 1992-06-25 | Cambridge Animation Systems Limited | Image synthesis and processing |
US5862260A (en) * | 1993-11-18 | 1999-01-19 | Digimarc Corporation | Methods for surveying dissemination of proprietary empirical data |
US5594504A (en) * | 1994-07-06 | 1997-01-14 | Lucent Technologies Inc. | Predictive video coding using a motion vector updating routine |
US5708845A (en) * | 1995-09-29 | 1998-01-13 | Wistendahl; Douglass A. | System for mapping hot spots in media content for interactive digital media program |
US5764814A (en) * | 1996-03-22 | 1998-06-09 | Microsoft Corporation | Representation and encoding of general arbitrary shapes |
US5832495A (en) * | 1996-07-08 | 1998-11-03 | Survivors Of The Shoah Visual History Foundation | Method and apparatus for cataloguing multimedia data |
-
1998
- 1998-03-02 US US09/033,568 patent/US6070167A/en not_active Expired - Lifetime
- 1998-09-28 WO PCT/JP1998/004340 patent/WO1999017228A1/en active IP Right Grant
- 1998-09-28 DE DE69820093T patent/DE69820093T2/de not_active Expired - Lifetime
- 1998-09-28 JP JP2000514223A patent/JP4159248B2/ja not_active Expired - Fee Related
- 1998-09-28 EP EP98944269A patent/EP1019852B1/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
WO1999017228A9 (en) | 1999-06-10 |
JP4159248B2 (ja) | 2008-10-01 |
DE69820093D1 (de) | 2004-01-08 |
WO1999017228A1 (en) | 1999-04-08 |
US6070167A (en) | 2000-05-30 |
JP2001518669A (ja) | 2001-10-16 |
EP1019852A1 (de) | 2000-07-19 |
EP1019852B1 (de) | 2003-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69820093T2 (de) | Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation | |
DE69729826T2 (de) | Vorrichtung zur Übertragung von Daten, Verfahren und Vorrichtung zum Empfang von Daten und Kommunikationssystem | |
US7536706B1 (en) | Information enhanced audio video encoding system | |
DE4225872C2 (de) | Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern | |
DE69836790T2 (de) | Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür | |
DE60006708T2 (de) | System und verfahren zur aufnahme von push daten | |
DE60203867T2 (de) | Verfahren und Vorrichtung zur Wiedergabe von Inhalten von einem Informationsspeichermedium in einem interaktiven Modus | |
DE69731988T2 (de) | Verfahren und Gerät zur Anzeige von Bildern und Daten | |
DE69731549T2 (de) | Interaktivität mit audiovisueller programmierung | |
US7313762B2 (en) | Methods and systems for real-time storyboarding with a web page and graphical user interface for automatic video parsing and browsing | |
DE60035910T2 (de) | Meta-deskriptor für multimedia-information | |
EP0982947A2 (de) | Vorrichtung zur Audiovideokodierung mit verbesserter Funktionalität | |
DE69922705T2 (de) | System zur numerischen erfassung und aufnahme von panoramabildern. | |
DE60118947T2 (de) | Verfahren und systeme zum aufbau von benutzermedialisten | |
DE69838786T2 (de) | Vorrichtung und verfahren zur spekulativen dekompression von kompromierten bilddaten in einer bildaufnahmeeinheit | |
DE69722513T2 (de) | Verfahren zur Übertragung von audiovisuellen Programmen über ein Übertragungsnetzwerk | |
US20030200507A1 (en) | System and method for data publication through web pages | |
DE69830013T2 (de) | Programmerzeugung | |
DE69825851T2 (de) | Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren | |
DE10297520T5 (de) | Transformieren von Multimediadaten zur Abgabe an mehrere heterogene Geräte | |
DE69907482T2 (de) | Vorrichtung und verfahren zur ausführung von interaktiven fernsehanwendungen auf set top boxen | |
DE102014008038A1 (de) | Anordnen von unaufdringlichen Oberlagerungen in einem Videocontent | |
EP0814611A2 (de) | Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder | |
CN1476237A (zh) | 可重新配置的用户接口 | |
DE60005482T2 (de) | Verfahren und system zur auswahl von produkten in einer video produktion unter verwendung von referenzbildern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |