DE4225872C2 - Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern - Google Patents
Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in BildernInfo
- Publication number
- DE4225872C2 DE4225872C2 DE4225872A DE4225872A DE4225872C2 DE 4225872 C2 DE4225872 C2 DE 4225872C2 DE 4225872 A DE4225872 A DE 4225872A DE 4225872 A DE4225872 A DE 4225872A DE 4225872 C2 DE4225872 C2 DE 4225872C2
- Authority
- DE
- Germany
- Prior art keywords
- area
- image
- memory
- images
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
- H04N21/4725—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
- H04N21/8583—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Abstract
Das Verfahren dient zur Unterstützung der Identifikation von Objekten bei einer interaktiven Benutzerauswahl aus einer zeitlichen Sequenz von auf einer Anzeigeeinrichtung wiedergegebenen Bildern. Jedes Objekt ist durch ein Gebiet aus Pixeln eines Einzelbildes einer zeitlichen Folge von Einzelbildern definiert, wobei die zeitliche Folge als eine von mehreren zeitlich parallelen Datenspuren in einem Speicher gespeichert wird. Zusätzlich wird eine zeitlich parallele Treffer-Test-Datenspur zum Unterstützen der Identifikation von Objekten erzeugt und gespeichert, indem ein ein Objekt definierendes Gebiet identifiziert wird und dem Gebiet ein eindeutiger Gebietsidentifizierer zugeordnet wird, dann jedem Pixel in dem identifizierten Gebiet des Gebietsidentifizierers derart zugeordnet wird, daß auf den Gebietsidentifizierer mittels einer dem Pixelort entsprechenden Pixeladresse zugegriffen werden kann, die den Pixeln zugeordneten Gebietsidentifizierer in einem mit dem zugehörigen Objekt des Einzelbildes verbundenen Speicherbereich eines Treffer-Test-Einzelbildes gespeichert werden und diese drei Schritte für jedes zu identifizierende Gebiet eines Einzelbildes und nachfolgend für jedes Einzelbild der zeitlichen Folge wiederholt werden, wobei die Treffer-Test-Einzelbilder als Treffer-Test-Spur in einem entsprechend gekennzeichneten Speicherbereich gespeichert werden. Während einer Wiedergabe der Datenspur und einer Anzeige der Folge von Einzelbildern (70) wird mit Hilfe einer ...
Description
Objektauswahlverfahren gestatten es einem Benutzer, ein
einzelnes Objekt aus einer Gruppe von Objekten in einem Bild
auszuwählen. Eine Möglichkeit der Objektauswahl beruht auf
der Bestimmung desjenigen Zeilensegments auf einer zweidi
mensionalen Bildschirmabbildung, welches durch einen Benut
zer ausgewählt wurde. Üblicherweise sind diese Zeilensegmen
te unter Bildung eines Polygongebiets miteinander verbunden;
aber sie können ebensogut voneinander getrennt sein. Ein
"cursor picking" genanntes Verfahren, welches von J. D. Foley
und A. Van Dam in "Fundamentals of Interactive Computer
Graphics", Addison-Wesley Publishing Company, 1984, Seiten
200-204, beschrieben wurde, schafft umgrenzte Gebiete, die
mit Hilfe einfacher Gleichungen überprüft werden können. Ein
solches Schema gestattet es einem Benutzer beispielsweise,
die Charakteristiken eines bestimmten Dreiecks auf einem
Bildschirm auszuwählen und zu modifizieren, obwohl es viele
andere Objekte, wie beispielsweise Kreise, Trapeze und be
liebige Polygongebiete geben kann, die ebenfalls auf dem
Bildschirm sichtbar sind. Ein anderes Verfahren der Objekt
auswahl ist die Zuordnung eines Objektnamens zu jedem Objekt
in einer Szene. Um ein Objekt durch Auswahl zu aktivieren,
gibt der Benutzer einfach den Namen des Objekts, das er aus
wählen möchte, ein. Dieses Verfahren hat keine geometrische
Entsprechung.
Eine andere üblicherweise in interaktiven Systemen, wie
beispielsweise dem HyperCardTM-Programm von Apple Computer
Inc., benutzte Technik gestattet es dem Benutzer, ein recht
winklig begrenztes Gebiet auf dem Bildschirm mit einem be
stimmten Objekt, wie beispielsweise einem Schaltknopf oder
Feld zu identifizieren. Wenn eine Auswahl getroffen wird,
sieht das HyperCard-Programm nach, an welcher Stelle sich
der Cursor befindet und sucht gleichzeitig nach dem Objekt
(wie beispielsweise einem Schaltknopf oder einem Feld), das
an dieser Stelle ein Begrenzungsrechteck aufweist. Wenn kein
Begrenzungsrechteck den Ort des Cursors einschließt, wird
kein Objekt ausgewählt. Wenn andererseits ein das Objekt
einschließendes Begrenzungsrechteck existiert, wird das ent
sprechende Objekt ausgewählt. Sämtliche o. g. Techniken ge
statten keine exakte Objektauswahl bei beliebig komplexen
Begrenzungen und können schwierig anzuwenden sein, wenn ver
sucht wird, Objektbegrenzungen präzise zu identifizieren.
Einzelheitenpuffer (item buffer) werden im allgemeinen
benutzt, um Bildsynthesealgorithmen, wie beispielsweise das
Ray-Tracing oder das Radiosity-Verfahren, zu beschleunigen.
Sie können außerdem benutzt werden, um dreidimensionale
Oberflächengebiete einzelner Objekte bei der Anwendung in
interaktiven Zeichen- und Beleuchtungs-Systemen zu identifi
zieren, welche zweidimensionale Abbildungen manipulieren.
Bei der Berechnung von Radiosity-Formfaktoren wird üblicher
weise ein Einheitshalbwürfel-Algorithmus benutzt, um die Be
rechnung zu beschleunigen. In diesem Algorithmus werden fünf
Seitenflächen eines Würfels als Einzelheitenpuffer darge
stellt, welche Objekt-Kennzeichen bzw. -Tags enthalten.
Durch Zählen der Anzahl der gekennzeichneten Pixeln der Sei
tenflächen-Abbildung wird der Formfaktor für ein bestimmtes
Polygon, gesehen vom Scheitelpunkt eines anderen Polygons,
berechnet. Ein solches Systems wurde von Michael F. Cohen
und Donald P. Greenberg in "The Hemi-Cube: A Radiosity
Solution for Complex Environments", Computer Graphics, #19,
Vol. 3, Juli 1985, Seiten 31-40 beschrieben.
Das Ray-Tracing kann durch Raster-Konvertieren eines
"Objekt-Tag"-Bildes in einen Einzelheitenpuffer beschleunigt
werden. Dabei wird für jedes Pixel angenommen, daß der dem
Pixel entsprechende Kamerastrahl das Objekt schneidet, des
sen Tag in dem Pixel ist. Durch Benutzen eines Einzelheiten
puffers vermeidet der Algorithmus die Ausführung irgendeines
primären Strahl-Objekt-Schnittlinientests. Auf diese Weise
wird die Berechnung beim Ray-Tracing effizienter. Ein sol
ches System wurde von Hank Weghorst, Gary Hooper und Donald
P. Greenberg in "Improved Computational Methods for Ray
Tracing", ACM Transactions an Graphics, Vol. 3, Nr. 1, Janu
ar 1984, Seiten 52-69, beschrieben.
In "Direct WYSIWYG Painting and Texturing an 3D Shapes"
von Pat Hanrahan und Paul Haeberli, Computer Graphics, Vol.
24, Nr. 4, August 1990, Seiten 215-223, wird ein einzelnes
dreidimensionales Objekt in einen "ID-Puffer" gebracht, wel
cher die u-v-Oberflächenwerte der sichtbaren Oberfläche in
dem Pixel speichert. Wenn auf das Bild gezeichnet (paint)
wird, werden die Oberflächenposition und die Normalenvekto
ren der Oberfläche durch Überprüfen des Objekt-ID-Puffers
bestimmt; dann wird das Ergebnis benutzt, um die Pixel so zu
schattieren, wie die Textur-Speicherabbildungen modifiziert
werden. Dieses Verfahren gestattet es dem Benutzer, auf ein
Bild in zwei Dimensionen zu zeichnen, und erlaubt die Modi
fikation der Objektgeometrie oder Beleuchtung im dreidimen
sionalen Raum. Die sich ergebende Modifikation wird im drei
dimensionalen Raum und dann als zweidimensionale Bildschirm
pixel berechnet, welche selektiv in den Puffer des sichtba
ren Schirms geschrieben werden.
Aus dem US-Patent 4,985,848 ist die parallele Verarbei
tung mehrerer Ebenen von Bilddaten bekannt, wobei die Ebenen
die drei Primärfarben Rot, Grün und Blau und zusätzlich eine
monochrome Overlay-Ebene umfassen. Die Overlay-Ebene gestat
tet die zusätzliche Einblendung von Textdaten über die Farb
bilder.
Aufgabe der Erfindung ist es, ein Verfahren zum Unter
stützen der Identifikation von Objekten bei einer interakti
ven Benutzerauswahl von Objekten aus einer zeitlichen Se
quenz von Bildern zu schaffen, das eine exakte Objektauswahl
bei beliebig komplexen Umgrenzungen der Objekte ermöglicht.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren
mit den Merkmalen des Patentanspruchs 1 gelöst.
Bei einer bevorzugten Ausführungsform des erfindungsge
mäßen Verfahrens werden die Pixel innerhalb eines ausgewähl
ten sichtbaren Gebiets zumindest eines das sichtbare Gebiet
enthaltenden Einzelbilds aus einer Folge von in einem Speicher
gespeicherter und auf einem interaktiven Display an
zeigbarer Einzelbilder bezeichnet (labelled), so daß ein Be
nutzer nachfolgend das ausgewählte sichtbare Gebiet auf ei
ner pixelgenauen, einzelbildgenauen Grundlage auswählen
kann. Um das ausgewählte sichtbare Gebiet innerhalb eines
Einzelbildes zu bezeichnen, wird die Szene innerhalb des
Einzelbildes segmentiert, um das ausgewählte sichtbare Ge
biet zu identifizieren; dann wird jedes Pixel innerhalb des
ausgewählten sichtbaren Gebiets mit einem speziellen Ge
bietskennzeichner für das ausgewählte sichtbare Gebiet be
zeichnet und die die Gebietskennzeichner enthaltenden Pixel
in einen Einzelheitenpuffer abgebildet. Dann wird der Ein
zelheitenpuffer komprimiert und innerhalb eines gekennzeich
neten (labelled) Speicherabschnitts gespeichert, der mit dem
gespeicherten Einzelbild verknüpft ist, von welchem der Ein
zelheitenpuffer abgeleitet wurde. Wenn ein Benutzer nachfol
gend ein Pixel innerhalb irgendeines Einzelbildes der Folge
von Einzelbildern auswählt, wird das Pixel innerhalb des dem
Pixel in dem ausgewählten Einzelbild zugeordneten gekenn
zeichneten Speicherbereichs dekomprimiert, um den Gebiets
kennzeichner für das ausgewählte Pixel zu bestimmen. Dieser
Gebietskennzeichner wird dann für eine Reihe von Zwecken be
nutzt, wie beispielsweise zum Identifizieren eines Gebiets
innerhalb des Einzelbildes, das dem ausgewählten Pixel ent
spricht, oder um einige auf das ausgewählte Pixel bezogene
Aktivitäten auszuführen.
Vorteilhafte Weiterbildungen des erfindungsgemäßen Ver
fahrens sind in den Unteransprüchen gekennzeichnet.
Im folgenden wird die Erfindung anhand eines in der
Zeichnung dargestellten Ausführungsbeispiels näher erläu
tert. In der Zeichnung zeigen:
Fig. 1 eine Blockdarstellung eines in Verbindung mit
dem bevorzugten Ausführungsbeispiel der Erfin
dung benutzten Computers;
Fig. 2a ein Einzelbild einer Videospur;
Fig. 2b ein Einzelbild einer zur Videospur gemäß Fig.
2a korrespondierenden Treffer-Testspur;
Fig. 3a einen Satz von Videospuren und Tonspuren;
Fig. 3b die gleichen Mehrspur-Daten wie in Fig. 3b zu
züglich einer Treffer-Testspur;
Fig. 4a die erforderlichen Inhalte des Benutzerdaten
abschnitts einer Treffer-Testspur gemäß dem
bevorzugten Ausführungsbeispiel der Erfindung;
Fig. 4b der wählbare Inhalt des Benutzerdatenab
schnitts der Treffer-Testspur gemäß Fig. 4a;
Fig. 5 ein Ablaufdiagramm, das die interaktive Wie
dergabe einer Filmszenenfolge unter Benutzung
der erfindungsgemäßen Treffer-Testspuren dar
stellt; und
Fig. 6 ein Ablaufdiagramm, das die erfindungsgemäße
Erzeugung von Treffer-Testspuren für Mehrspur-
Filme darstellt.
Der Personalcomputer wird ein zunehmend effektiveres
Werkzeug zum Präsentieren von Multimedia-Arbeiten. Viele
Verfahren zum Präsentieren und Benutzen von Multimedia-In
formationen in solchen Computern werden durch Software aus
geführt, obwohl Hardware-Produkte zur Ausführung der glei
chen Funktionen ebenfalls entwickelt werden könnten, wenn
auch mit viel größeren Kosten. Für das bevorzugte Ausfüh
rungsbeispiel könnte auch eine Hardware zum Implementieren
der Erfindung entwickelt werden. Aber Software-Techniken,
die in Verbindung mit dem Computersystem 10 gemäß Fig. 1
arbeiten, werden hierbei bevorzugt benutzt, um die Erfindung
am effektivsten zu implementieren.
Der Computer 10, wie beispielsweise ein Apple-Macintosh-
Computer, weist eine CPU 12, eine Ein/Ausgabe-Einheit 14,
einen Speicher 16, ein Zeigergerät 18 und eine Anzeige 20
auf. Vorzugsweise ist die CPU 12 leistungsfähig genug, um
eine Daten-Kompression/Dekompression durch Software bei aus
reichenden Geschwindigkeiten auszuführen, wie dies bei
spielsweise mit einem Motorola-68020-Mikroprozessor bei einer
Taktrate von mindestens 16 MHz möglich ist. Aber es kön
nen auch andere Prozessoren geringerer Leistungsfähigkeit,
die bei niedrigeren Taktraten arbeiten, mit einer akzepta
blen Leistung benutzt werden, wenn zusätzliche Daten-Kom
pressions/Dekompressions-Hardware in das Computersystem 10
eingebunden wird. Die Ein/Ausgabe-Einheit 14 verbindet die
CPU 12 mit Zusatzgeräten, wie beispielsweise Lautsprechern,
und zusätzlichen Datenquellen und Speichern, wie bespiels
weise einem Festplattenspeichergerät, einem CD-ROM oder ei
nem Netzwerk großer Bandbreite. Selbst mit hocheffektiven
Kompressionstechniken sind noch beträchtliche Zusatzspeicher
für die erfindungsgemäßen Audio-, Video- und Treffer-Test-
Spuren erforderlich. Der Speicher 16 enthält üblicherweise
einige Massenspeicherarten ebenso wie RAM, obwohl andere
Speicherarten mit schnellem Zugriff ebenso benutzt werden
können. Das Zeigergerät 18 kann beispielsweise eine Maus,
ein Trackball oder ein Stift sein. Die Anzeige 20 ist vor
zugsweise eine Anzeige mit einer ausreichenden Auflösung, um
die Videoinformationen deutlich anzuzeigen.
Die in Multimedia-Arbeiten benutzten Videodaten werden
üblicherweise aus einer Serie von Einzelbildern sichtbarer
Informationen gebildet, die für eine Wiedergabe durch den
Computer 10 sequentiell miteinander verkettet werden. Diese
Videodaten werden typischerweise in einem Zusatzspeicherge
rät als eine Videospur gemeinsam mit anderen Arten ihnen zu
geordneter temporärer Daten, wie beispielsweise einer Ton
spur, gespeichert. Fig. 2a veranschaulicht ein Einzelbild 30
einer Videospur, bestehend aus einer Anzahl von unterschied
lichen Objekten 32, die einem Betrachter auf der Anzeige 20
erscheinen. Die Videospur kann entweder als synthetisches
oder durch den Computer erzeugtes Bildwerk zuvor berechnet
werden oder als eine Videofolge aus analogen Videodaten di
gitalisiert werden. Diese Videobildsequenz kann entweder in
einem komprimierten oder unkomprimierten Format vorliegen.
Unter "Videoeinzelbild" wird im folgenden irgendein analoges
Einzelbild oder irgendein digitalisiertes Einzelbild verstanden,
das mit einem Scanner oder einer Kamera aufgenommen
oder mit Hilfe eines Zeichen- oder Darstellungsprogramms ge
schaffen wurde.
In Fig. 2b ist ein "Einzelheiten-Puffer" (item buffer)
genanntes Einzelbild 34 einer Abbildung dargestellt, welches
als komprimierter Einzelbild-Datensatz in einer dem Vi
deoeinzelbild 30 gemäß Fig. 2a entsprechenden Treffer-Test
spur gespeichert ist. Im Gegensatz zu dem Einzelbild 30 der
Videospur ist das zur Treffer-Testspur korrespondierende
Einzelbild 34 für einen Benutzer auf der Anzeige 20 nicht
sichtbar. Vielmehr ist die Treffer-Testspur - wie unten nä
her ausgeführt wird - eine der Videospur entsprechende zu
sätzliche Datenspur, welche die Anordnung von Objekten bzw.
benutzerdefinierten Gebieten innerhalb der Videospur auf ei
ner Pixel- und Einzelbildbasis identifiziert (im Speicher
abbildet). Obwohl Fig. 2b jedes der numerierten Objekte 36
im Einzelbild 34 entsprechend einem identisch geformten Ob
jekt 32 im Einzelbild 30 darstellt, können in der Treffer-
Testspur Objekte 36 erzeugt werden, welche irgendeinem ab
strakten, durch den Benutzer definierten, sichtbaren oder
unsichtbaren Gebiet in dem Einzelbild 30 entsprechen. Wenn
beispielsweise das Einzelbild 30 einen Raum mit einigen Ge
mälden, einer offenen Tür und einer Statue darstellt, kann
es wünschenswert sein, ein Objekt 36 der Treffer-Testspur
jedem der Gemälde, der Statue und dem abstrakten offenen Ge
biet der Tür zuzuordnen. Unabhängig von den durch den Benut
zer ausgewählten Objekten oder Gebieten ist die erfindungs
gemäße zusätzliche Treffer-Testspur höchst nützlich für das
sogenannte "Objekt-Picking", bei dem der Benutzer des Compu
ters 10 ein Objekt auf der Anzeige 20 mit Hilfe des Zeiger
geräts 18 in irgendeinem Einzelbild einer sich bewegenden
Bildsequenz auswählen kann, wobei er das System veranlaßt,
eine Aktivität auf der Grundlage des ausgewählten Objekts zu
initiieren. Die initiierte Aktivität kann eine von vielen
unterschiedlichen Aktivitäten, wie beispielsweise die Wie
dergabe einer getrennten Multimedia-Arbeit oder das Ausfüh
ren einer Subroutine sein. Wie unten näher ausgeführt wird,
ist die Objektauswahl sehr präzise, da die Treffer-Testdaten
den sichtbaren Objekten auf Pixel- und Einzelbild-Basis ent
sprechen.
Die Erfindung ist ideal geeignet für eine Verwendung in
einem Computer 10 zur Bearbeitung von Multimedia-Computer
programmen, wie beispielsweise einem Programm zum Manipulie
ren verschiedener Formen von Medien, die als eine Serie von
zueinander in Beziehung stehenden zeitlichen Spuren von Da
ten (wie beispielsweise Video, Ton, usw.) dargestellt sind,
wobei jede dieser
Spuren um eine feste Zeitdifferenz gegenüber den anderen
Spuren verschiebbar ist. Ein Satz solcher Spuren soll hier als
ein Mehrspur-Film bezeichnet werden. Fig. 3a zeigt eine Dar
stellung eines schmalen Mehrspur-Films, welcher aus einem er
sten Satz Video- und Tonspuren 40 und einem zweiten Satz Video-
und Tonspuren 42 besteht. In jedem Fall ist die zeitliche Dauer
der Videospur gleich der der Tonspur. Der zweite Satz Video-
und Tonspuren hat eine kürzere Dauer als der erste Satz und be
ginnt mit einer festen Zeitverzögerung nach dem Start des er
sten Satzes. In Fig. 3b ist der gleiche Satz von Mehrspur-Film-
Daten dargestellt; darüberhinaus gibt es hier außerdem eine in
dem Film gespeicherte Treffer-Testspur 44. In diesem Fall ent
spricht die Treffer-Testspur dem ersten Satz Video- und Tonspu
ren. Sie hat die gleiche Dauer wie der erste Satz, enthält die
gleiche Anzahl von Einzelbildern wie die Videospur des ersten
Satzes und identifiziert die Lage von Objekten in der Bildfolge
der Videospur des ersten Satzes.
Es sei angemerkt, daß die Videospur und die ihr entspre
chende Treffer-Testspur im allgemeinsten Fall eine Folge von
beweglichen Bildern sind. Es ist jedoch auch möglich, die er
findungsgemäße Technik auf nur eine einzige Abbildung anzuwen
den; in diesem Fall enthält jede Spur nur ein Einzelbild.
Außerdem sei angemerkt, daß die Treffer-Testspur nicht mit den
gleichen Kompressionstechniken wie die Videospur komprimiert
und nicht mit genau der gleichen Auflösung wie die Videospur
gespeichert zu werden braucht. Die Treffer-Testspur wird vor
zugsweise mit Hilfe einer verlustlosen Daten- oder Bildkompres
sionstechnik komprimiert, die nicht mit der der Videospur über
einzustimmen braucht. Zusätzlich ist es sinnvoll, eine dazwi
schen abgetastete bzw. mit einem gröberen Raster abgetastete
Version der Treffer-Testspur (beispielsweise eine Unterabta
stung in der Größenordnung von 2 : 1 oder 4 : 1) zu verwenden, wenn
die Videospur hoch komprimiert ist. In einem solchen Falle wird
bei der Wiedergabe der nächste erreichbare Objektkennzeichnungswert
der grob gerasterten Version der Treffer-Testspur als
Objektkennzeichner benutzt. Obwohl dieses alternative Ausfüh
rungsbeispiel nicht den pixelgenauen Vorteil der Treffer-Test
spur mit der vollen Auflösung hat, gestattet er noch dem Benut
zer, die meisten Objekte in der Szene mit einem akzeptablen
Präzisionsniveau auszuwählen.
Bei dem bevorzugten Ausführungsbeispiel der Erfindung hat
jede beliebige Spur des Mehrspur-Films optional, einen zugeord
neten Satz von zusätzlichen Treffer-Testspur-Informationen.
Diese zusätzlichen Informationen werden üblicherweise gemeinsam
mit der korrespondierenden Spur des Mehrspur-Films als ein Satz
von Kennzeichnungs-(Tag-), Größen- und Datenfeldern gespei
chert, die verwendet werden, um die Manipulation der in der
Treffer-Testspur enthaltenen zeitlichen Daten zu erleichtern.
Da diese Felder benutzer- oder anwendungsdefiniert sind, werden
sie hier als "Benutzerdaten" bezeichnet. Diese Benutzerdaten
sind statisch, d. h. sie verändern sich im Verlauf der Zeit
nicht. Die Organisation und Inhalte der Benutzerdaten für eine
Treffer-Testspur 50 sind in Fig. 4a dargestellt. Der Treffer-
Test-Tag 52 ist ein Kennzeichner, der die Spur als eine Tref
fer-Testspur kennzeichnet. Im gegenwärtig bevorzugten Ausfüh
rungsbeispiel der Erfindung wird das vier Zeichen lange Tag-
Feld durch die Zeichen "HIT_" repräsentiert, wobei "_" ein
Leerzeichen darstellt. Die Treffer-Testspur wird mit diesem
Tag-Feld markiert, um die Treffer-Testspur von den Videodaten
zu unterscheiden. Folglich ist der Computer 10 beim Interpre
tieren der Spurdaten in der Lage, nur die Treffer-Testspur zu
benutzen, um in der Videoszene liegende Objekte zu identifizie
ren. Das nächste Feld in der Treffer-Testspur 50 ist die Größe
des Datenfelds 54, welche die Anzahl der Informationsbytes im
Datenfeld anzeigt.
Die in der Treffer-Testspur 50 enthaltenen verbleibenden
Informationsabschnitte befinden sich innerhalb des Datenfelds,
welches vorzugsweise aus einem Videospur-Kennzeichner 56, einem
Kompressionsformat 58, der Pixel-Bittiefe 60 und den Treffer-
Testdaten 62 besteht. Der Videospur-Kennzeichner 56 beschreibt
die mit der Treffer-Testspur 50 korrespondierende Videospur in
einem Mehrspur-Film. Die Verwendung eines Videospur-Kennzeich
ners 56 informiert den Computer 10, welche Videospur in Verbin
dung mit der Treffer-Testspur benutzt wird. Solche Informatio
nen können wichtig sein, wenn es mehrere Treffer-Testspuren
gibt, welche sich auf die gleiche Videospur beziehen. Das Kom
pressionsformat 58 zeigt das zur Kompression der Treffer-Test
daten 60 benutzte Format an.
Wie bereits gesagt, benutzt das bevorzugte Ausführungsbei
spiel die verlustlose Datencodierung für die Treffer-Testdaten
62, obwohl eine Mehrzahl von verschiedenen Kompressionsformaten
sowohl für die Videospur als auch für die Treffer-Testdaten 62
benutzt werden können. Es gibt eine Mehrzahl von anwendbaren
Verfahren zur verlustlosten Codierung, einschließlich der be
kannten Lauflängen-Codierung oder der Huffmann-Codierung. Durch
Anzeigen des Kompressionsformats kann der Computer 10 sofort
bestimmen, wie die Treffer-Testdaten zu dekomprimieren sind.
Die Pixel-Bittiefe 60 zeigt die Pixel-Bittiefe an, bis zu wel
cher die komprimierten Daten zu dekomprimieren sind. Dieses
Merkmal gestattet die korrekte Interpretation der Wortlänge der
Treffer-Testdaten 62. Es sei angemerkt, daß in der Treffer-
Testspur 50 andere kompakte Beschreibungen der Objekte als Kom
pressionstechniken benutzt werden können. Beispielsweise kann
es wünschenswert sein, eine geometrische Beschreibung der Ob
jekte in der Treffer-Testspur 50 zu speichern. Diese Liste von
geometrischen Grundstrukturen für Treffer-Testgebiete würde in
gleicher Weise jedem Einzelbild der Original-Videospur entspre
chen.
Es sei außerdem angemerkt, daß die Treffer-Testspur 50
nicht alle oben beschriebenen Abschnitte zu enthalten braucht,
um voll arbeitsfähig zu sein. Anstelle der Anzeige des Kompres
sionsformats 58 oder der Pixel-Bittiefe 60 kann ein durch den
Computer 10 benutztes Standardkompressionsformat verwendet wer
den, welches diese Informationen automatisch zur Verfügung
stellt. Beispielsweise kann die Erfindung aus Kompressionforma
ten Nutzen ziehen, die durch ein Softwareprogramm, welches
Mehrspur-Filme manipuliert (einschließlich Kompression und De
kompression), angeboten werden, wodurch der Computer 10 automa
tisch weiß, wie verschiedene Datenarten in Übereinstimmung mit
verschiedenen Kompressionsformaten zu handhaben sind.
Zusätzlich zu den oben beschriebenen, innerhalb des Daten
felds der Treffer-Testspur 50 enthaltenen Informationsabschnit
ten gibt es weitere Informationsanteile, die darin enthalten
sein können. Zwei solcher Anteile werden im folgenden unter Be
zugnahme auf Fig. 4b beschrieben. Eine Tabelle 64 zum Zuordnen
von Zeichenkettennamen zu Objekten kann benutzt werden, um
ASCII-Zeichenkettennamen bestimmten Objekten in der entspre
chenden Video- oder Tonspur zuzuordnen. Beispielsweise kann es
wünschenswert sein, den Namen "Würfel" entsprechend allen in
einem Würfel enthaltenen Pixeln einer Videoabbildung in der
Treffer-Testspur zu speichern. Eine ähnliche Tabellenkonstruk
tion könnte eine Liste einer Serie von Nummern und zugeordneten
Namenszeichenketten enthalten, wie beispielsweise ((1, Würfel),
(2, Gemälde), (3, Stuhl), (4, Flag), usw.). Diese Namen können
dann weitergeleitet werden zu einer Schriftumgebung für eine
weitergehende Interpretation oder Benutzung. Eine Tabelle 66
zur Zuordnung von Objekten zu Ereignissen kann in ähnlicher
Weise benutzt werden, um Ereignisse bestimmten Objekten zuzu
ordnen. Beispielsweise kann es wünschenswert sein, das Ereignis
"Spiele Filmszene 3" stets dann zu initiieren, wenn ein Benut
zer mit Hilfe der Steuerung durch das Zeigergerät 18 den Cursor
auf der Anzeige 20 benutzt, um ein in einem bestimmten Objekt
enthaltenes Pixel auszuwählen. Eine ähnliche Tabellenkonstruk
tion würde eine Liste einer Serie von Nummern und ihnen zuge
ordneter Ereigniszeichenketten enthalten, wie beispielsweise
((1, "Spiele Film X"), (2, "Spiele Ton Y"), (3, "Gehe zum Bildschirm
10"), (4, "Spiele Film Z"), usw.). Auch diese Ereignisse
können dann weitergeleitet werden zu einer interpretierbaren
Schriftumgebung.
Obwohl näher anhand der Fig. 5 und 6 erörtert, soll
jetzt die Arbeitsweise eines Computers 10, der ein Treffer-
Testspuren als Teil eines Mehrspur-Films benutzendes Programm
abarbeitet, kurz beschrieben werden. Um zu bestimmen, wann auf
die Daten in der Treffer-Testspur zugegriffen werden soll, be
stimmt das Programm des Computers 10, wann ein Benutzer eine
Auswahl an einer bestimmten Position des Bildschirms der An
zeige 20 getroffen hat, wo der Cursor angezeigt wird. Das Pro
gramm bestimmt dann, welches Einzelbild der Videosequenz aktu
ell angezeigt wird. An dieser Stelle befragt das Programm jede
Spur des Mehrspur-Films, um zu ermitteln, welche Spur den Kenn
zeichner besitzt, der anzeigt, daß sie eine Treffer-Testspur
für die angezeigte bestimmte Videospur ist. Sobald die ge
eignete Treffer-Testspur bestimmt worden ist, wird auf das dem
aktuell angezeigten Video-Einzelbild entsprechende Einzelbild
in der Treffer-Testspur zugegriffen und dieses entsprechend dem
Kompressionsformat, in dem es gespeichert ist, dekomprimiert.
Während der Dekompression wird nur das Gebiet am oder in
der Umgebung des interessierenden Pixels dekomprimiert. Wenn
das exakte Pixel für die Objektauswahl identifiziert worden
ist, wird sein dekomprimierter Wert an das Programm als Kenn
zeichner des Objekts zurückgegeben. Der Objektkennzeichner kann
dann benutzt werden, um in eine Namenstabelle oder Ereignista
belle abzubilden (map), sofern dies gewünscht ist. Wenn mit
Hilfe des Objektkennzeichners in einer Namenstabelle abgebildet
worden ist, wird ein ASCII-Zeichenkettenname an das Programm
zurückgegeben. Wenn mit Hilfe des Objektkennzeichners in eine
Ereignistabelle abgebildet worden ist, wird das "Ereignis" an
das System zurückgegeben, welches das Auftreten verschiedener
Ereignisse auslösen kann, wie beispielsweise das Abspielen ei
nes Tons, die Anzeige einer Sequenz von Videoeinzelbildern oder
eine Abbildung auf dem Bildschirm der Anzeige 20. Wie oben er
wähnt, ist das auszulösende und durch das Programm zu behan
delnde Ereignis in Form von Daten in der Ereignistabelle ent
halten. Die Bedeutung solcher Ereignisse hängt von der Art der
vom interessierenden Programm benutzten interaktiven Umgebung
ab. Im bevorzugten Ausführungsbeispiel der Erfindung werden Er
eignisse durch eine Schriftsprache höheren Niveaus interpre
tiert.
Anhand von Fig. 5 wird im folgenden ein Ablaufdiagramm be
schrieben, das die interaktive Wiedergabe einer Filmsequenz un
ter Benutzung der erfindungsgemäßen Treffer-Testspuren dar
stellt. Wenn die Einzelbilder einer sich bewegenden Bildfolge
von einer Videospur durch den Computer 10 wiedergegeben werden
(Block 70), testet das Programm, ob ein Mausbetätigungsereignis
in dem Video-Einzelbild aufgetreten ist (Block 72). Wenn in ei
nem Video-Einzelbild ein Mausbetätigungsereignis aufgetreten
ist, wird das Video-Einzelbild X ebenso wie die Mausposition
(mx, my) zur Zeit des Mausbetätigungsereignisses im Speicher 16
aufgezeichnet (Block 74). Wenn kein Mausbetätigungsereignis
aufgetreten ist, kehrt das Programm zum Block 70 zurück, um mit
der Wiedergabe der Filmsequenz fortzufahren. Nach dem Speichern
des Video-Einzelbildes X und der Mausbetätigungsposition (mx,
my) fährt das Programm fort, die Benutzerdatenfelder sämtlicher
Spuren des Mehrspur-Films nach einer Spur zu durchsuchen, die
den Treffer-Testspur-Kennzeichner oder -Tag "HIT_" aufweist
(Block 76).
Wenn eine als Treffer-Testspur identifizierte Spur gefunden
worden ist (Block 78), durchsucht das Programm die Benutzerda
ten der Treffer-Testspur, um zu überprüfen, ob die identifi
zierte Treffer-Testspur sich auf die aktuelle, gerade ange
zeigte Videospur bezieht (Block 80). Wenn sich die Treffer-
Testspur auf die aktuelle Videospur bezieht, bestimmt dann das
Programm das Kompressionsformat Z (es sei denn, es gibt ein
Standardkompressionsformat) und die Bittiefe, bis zu welcher
die Daten dekomprimiert werden sollen (Block 82). Der nächste
Schritt des Verfahrens ist die Dekompression des geeigneten
Einzelbilds X (das dem Video-Einzelbild X in der Sequenz ent
spricht) der Treffer-Testspur mit Hilfe des Dekompressionsver
fahrens Z. Obwohl die auftretende Dekompression am gesamten Vi
deoeinzelbild X ausgeführt werden kann, wird vorzugsweise nur
das Gebiet um den durch den Benutzer in dem Video-Einzelbild X
ausgewählten exakten Pixelort (mx, my) dekomprimiert (Block
84). Man beachte, daß der Wert des Objektkennzeichners für das
ausgewählte Objekt unabhängig von der Lage des durch den Benut
zer ausgewählten Pixels innerhalb des Objekts gleichbleibt. Ob
wohl die Dekompression des gesamten Objekts sicher den geeigne
ten Objektkennzeichner erzeugen würde, führt die Dekompression
nur des Ortes des ausgewählten Pixels zum gleichen Ergebnis.
Der Wert des Objektkennzeichners der dekomprimierten Daten am
Ort des Pixels (mx, my) wird dann an das System zurückgegeben
(Block 86). Wie zuvor beschrieben, können komplexere optionelle
Versionen des o. g. Verfahrens die Treffer-Testdaten dekompri
mieren und den Objektkennzeichner benutzen, um in eine Tabelle
abzubilden, welche entweder einen ASCII-Namen oder ein vom Pro
gramm auszulösendes Ereignis rückzuführen.
Anhand von Fig. 6 wird im folgenden ein Ablaufdiagramm be
schrieben, das die Erzeugung von Treffer-Testspuren für Mehr
spur-Filme in Übereinstimmung mit dem bevorzugten Ausführungs
beispiel der Erfindung darstellt. Im Block 90 wird ein gerade
digitalisiertes Video-Einzelbild oder ein dargestelltes Anima
tionseinzelbild aus einer Sequenz sich bewegender Abbildungen
eingegeben. Dann sieht das Programm nach, ob das Eingabe-Ein
zelbild von einer dargestellten Animation oder von einem digi
talisierten Video herrührt (Block 92). Wenn das Eingabe-Einzel
bild von einer dargestellten Animation herrührt, wird ein Ein
zelbildpuffer für das Einzelbild erzeugt, wenn die Abbildung
aus der Sequenz dargestellt wird (Block 94). Wie zuvor disku
tiert, wird dieser Einzelbildpuffer, welcher später in die
Treffer-Testspur eingefügt wird, als eine Speicherabbildung
sämtlicher Objekte in der Szene benutzt, indem jedes innerhalb
des das Objekt definierenden Gebiets enthaltene Pixel mit einer
Einzelbildnummer oder einem Objektkennzeichner bezeichnet wird.
Man beachte, daß Pixel innerhalb des gleichen Objekts oder in
teressierenden Gebiets den gleichen Objektkennzeichner enthal
ten.
Wenn das Eingabe-Einzelbild von einem digitalisierten Video
herrührt, werden die Objekte in der in dem Video-Einzelbild
dargestellten Videoszene mit Hilfe von Mustererkennungstechni
ken oder über ein manuelles Nachzeichnen des Objekts segmen
tiert, um einen Einzelbildpuffer für diese Szene zu erzeugen
(Block 96). Obwohl Mustererkennungstechniken weniger arbeitsin
tensiv als das manuelle Objektnachzeichnen sind, kann die Ef
fektivität der Mustererkennung und somit der Objektkennzeich
nung in Abhängigkeit von den zu erkennenden Inhalten signifi
kant variieren. Zusätzlich hat das manuelle Objektnachzeichnen
den Vorteil, dem Benutzer das Spezifizieren von interessieren
den "unsichtbaren" Gebieten zusätzlich zu den interessierenden
sichtbaren Objekten zu ermöglichen. Unabhängig von der Art der
Eingabedaten wird jeder Einzelbildpuffer, sobald er geschaffen
wurde, mit Hilfe einer verlustlosen Kompression komprimiert
(Block 98). Im Block 100 sieht das Programm dann nach, ob die
dem Einzelbildpuffer entsprechende Videospur stärker als bis zu
einer vorgegebenen Grenze, wie beispielsweise 10 : 1 komprimiert
ist. Wie oben gesagt ist es bei starker Kompression der Video
spur sinnvoll, eine unterabgetastete oder gröber gerasterte
Version des Einzelbildpuffers zu verwenden, wie beispielsweise
eine Unterabtastung in der Größenordnung von 2 : 1 oder 4 : 1. Es
sei erneut angemerkt, daß bei Verwendung eines unterabgetaste
ten Einzelbildpuffers geringerer Auflösung bei der Wiedergabe
der nächstmögliche Objektkennzeichnungswert in der gröber ge
rasterten Version der Treffer-Testspur als Objektkennzeichner
benutzt wird.
Unabhängig von der Art des benutzten Einzelbildpuffers wer
den im Block 106 die Abbildungen in jedem Einzelbildpuffer als
komprimiertes Einzelbild in dem Treffer-Testdatenanteil der
Treffer-Testspur gespeichert. Das der Treffer-Testspur entspre
chende Videoeinzelbild wird dann in der Videospur gespeichert
(Block 108). Dieses Verfahren wird für jedes Einzelbild der Se
quenz von Abbildungen fortgesetzt, bis alle Einzelbilder der
Sequenz verarbeitet sind (Block 110); dann wird der Rest der
Benutzerdaten, wie beispielsweise der Treffer-Test-Tag 52, die
Größe des Datenfelds 54, der Videospurkennzeichner 56, das For
mat 58 der verlustlosen Kompression und die Pixel-Bittiefe 60,
in der Treffer-Testspur 50 gespeichert (Block 112).
Es sei angemerkt, daß die Erfindung Anwendungen bei Video
anzeige- und -manipulationstechnologien findet, wie beispiels
weise die oben beschriebenen Multimedia-Anwendungen, aber auch
auf anderen Gebieten anwendbar ist, wie beispielsweise bei Vi
deospielen, wenn eine pixelgenaue, einzelbildgenaue Objektaus
wahl wünschenswert ist.
Claims (17)
1. Verfahren zum Unterstützen der Identifikation von Ob
jekten (32) bei einer interaktiven Benutzerauswahl von Ob
jekten (32) aus einer zeitlichen Sequenz von auf einer An
zeigeeinrichtung (20) eines Computers (10) wiedergegebenen
Bildern,
wobei jedes Objekt (32) durch ein wenigstens ein Pixel aufweisendes Gebiet eines Einzelbildes (30) einer zeitlichen Folge von Einzelbildern definiert ist,
wobei die zeitliche Folge von Einzelbildern als eine von mehreren zeitlich parallelen Datenspuren (40, 42) in einem Speicher (16) gespeichert wird,
wobei jedes Objekt (32) durch ein wenigstens ein Pixel aufweisendes Gebiet eines Einzelbildes (30) einer zeitlichen Folge von Einzelbildern definiert ist,
wobei die zeitliche Folge von Einzelbildern als eine von mehreren zeitlich parallelen Datenspuren (40, 42) in einem Speicher (16) gespeichert wird,
- a) wobei eine zusätzliche zeitlich parallele Treffer-
Test-Datenspur (44) zum Unterstützen der Identifikation von
Objekten erzeugt und gespeichert wird (Fig. 6), indem
- 1. ein ein Objekt definierendes Gebiet eines Ein zelbildes (30) identifiziert wird und dem Gebiet ein eindeu tiger Gebietsidentifizierer zugeordnet wird,
- 2. jedem Pixel in dem identifizierten Gebiet der eindeutige Gebietsidentifizierer derart zugeordnet wird, daß auf den Gebietsidentifizierer mittels einer dem Pixelort entsprechenden Pixeladresse zugegriffen werden kann,
- 3. die den Pixeln zugeordneten Gebietsidentifi zierer in einem mit dem zugehörigen Objekt des Einzelbilds verbundenen Speicherbereich eines Treffer-Test-Einzelbildes (34) gespeichert werden,
- 4. die Schritte a1) bis a3) für jedes zu identi fizierende Gebiet eines Einzelbildes (30) und nachfolgend für jedes Einzelbild der zeitlichen Folge wiederholt werden, wobei die Treffer-Test-Einzelbilder (34) als Treffer-Test- Spur (44) in einem entsprechend gekennzeichneten Speicherbe reich gespeichert werden,
- b) wobei während einer Wiedergabe der zeitlich paralle len Datenspuren und einer Anzeige der Folge von Einzelbildern auf der Anzeigeeinrichtung (20) mit Hilfe einer Zeiger einrichtung (18) von einem Benutzer ein Pixelort in einem gerade angezeigten Einzelbild ausgewählt wird,
- c) sofern der ausgewählte Pixelort in dem ausgewählten Einzelbild in einem der in Schritt a) identifizierten Ge biete liegt, der gekennzeichnete Speicherbereich der Tref fer-Test-Spur (44) und darin das dem ausgewählten Einzelbild entsprechende Treffer-Test-Einzelbild (34) lokalisiert wer den, und
- d) aus dem lokalisierten Treffer-Test-Einzelbild (34) mit Hilfe des ausgewählten Pixelorts der zugehörige Gebiets identifizierer gewonnen und zur Verfügung gestellt wird, der das ausgewählte Objekt identifiziert.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß ferner in einem Schritt (e) der dem Pixelort entspre
chende Gebietsidentifizierer mit einer zusätzliche Informa
tionen über das ausgewählte Gebiet enthaltenden Tabelle (64,
66) verglichen wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet,
daß die zusätzlichen Informationen einen Namen für das aus
gewählte Gebiet enthalten.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekenn
zeichnet, daß die zusätzlichen Informationen eine dem ausge
wählten Gebiet zugeordnete und durch den Computer auszufüh
rende Aktivität spezifizieren.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, daß die Bilder Video-Einzelbilder (30) aus
einer Video-Einzelbildfolge sind und daß im Schritt (a) je
des zu identifizierende Gebiet (32) aus jedem Video-Einzel
bild mit Hilfe eines Mustererkenners identifiziert wird.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, daß die Bilder Video-Einzelbilder (30) aus
einer Video-Einzelbildfolge sind und daß im Schritt a) jedes
zu identifizierende Gebiet (32) aus jedem Video-Einzelbild
manuell identifiziert wird.
7. Verfahren nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, daß die Bilder dargestellte (rendered) Ein
zelbilder (30) aus einer dargestellten Einzelbildfolge sind
und daß der Schritt a) eine Darstellung der dargestellten
Einzelbilder enthält, um jedes zu kennzeichnende Gebiet (32)
aus jedem dargestellten Einzelbild zu identifizieren.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch
gekennzeichnet, daß die identifizierten Gebiete (32) sicht
baren Objekten und/oder abstrakten Gebieten innerhalb der
Bilder (30) entsprechen.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch
gekennzeichnet, daß im Schritt a)
das Gebiet (32) in einen dem Bild (30) entsprechenden Einzelheitenpuffer (item buffer) (34) abgebildet; und
der Gebietsidentifizierer jedem Pixel innerhalb des Ge biets zugeordnet wird, um so den Pixelorten innerhalb des Bildes (30) entsprechende gekennzeichnete Pixel innerhalb des Einzelheitenpuffers (34) zu bilden.
das Gebiet (32) in einen dem Bild (30) entsprechenden Einzelheitenpuffer (item buffer) (34) abgebildet; und
der Gebietsidentifizierer jedem Pixel innerhalb des Ge biets zugeordnet wird, um so den Pixelorten innerhalb des Bildes (30) entsprechende gekennzeichnete Pixel innerhalb des Einzelheitenpuffers (34) zu bilden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet,
daß im Schritt a3) folgende Schritte ausgeführt werden:
Komprimieren des Einzelheitenpuffers (34);
Speichern des komprimierten Einzelheitenpuffers (34) in einen gekennzeichneten Speicherbereich (50) des Speichers (16); und
Speichern eines Bildidentifizierers (56) gemeinsam mit dem komprimierten Einzelheitenpuffer (34) in dem gekenn zeichneten Speicherbereich (50) des Speichers (16), um den gekennzeichneten Speicherbereich des Speichers mit dem Bild zu verknüpfen.
Komprimieren des Einzelheitenpuffers (34);
Speichern des komprimierten Einzelheitenpuffers (34) in einen gekennzeichneten Speicherbereich (50) des Speichers (16); und
Speichern eines Bildidentifizierers (56) gemeinsam mit dem komprimierten Einzelheitenpuffer (34) in dem gekenn zeichneten Speicherbereich (50) des Speichers (16), um den gekennzeichneten Speicherbereich des Speichers mit dem Bild zu verknüpfen.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet,
daß die Bilder zur Speicherung in dem Speicher (16) kompri
miert werden und daß der Einzelheitenpuffer (34) mit Hilfe
eines verlustlosen Kompressionsverfahrens komprimiert wird.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet,
daß ein Einzelheitenpuffer (34) normaler Auflösung benutzt
Wird, wenn die Bilder mit einem Verhältnis gleich oder klei
ner einem vorgegebenen Grenzwert komprimiert werden, und daß
ein unterabgetasteter Einzelheitenpuffer (34) geringer Auf
lösung benutzt wird, wenn die Bilder mit einem Verhältnis
größer als der vorgegebene Grenzwert komprimiert werden.
13. Verfahren nach einem der Ansprüche 10 bis 12, da
durch gekennzeichnet, daß im Schritt a3) ferner ein Spei
cheridentifizierer (52) für den gekennzeichneten Speicherbe
reich (50) des Speichers gemeinsam mit dem Bildidentifizie
rer gespeichert wird, um den gekennzeichneten Speicherbe
reich (50) des Speichers für den Computer (10) von anderen
Abschnitten des Speichers (16) unterscheidbar zu machen.
14. Verfahren nach einem der Anspruche 10 bis 13, da
durch gekennzeichnet, daß im Schritt a3) ferner ein Kompres
sionsformatsanzeiger (58) gemeinsam mit dem Bildidentifi
zierer zum Anzeigen eines Kompressionsformats des kompri
mierten Einzelheitenpuffers (34) für den Computer (10) ge
speichert wird.
15. Verfahren nach einem der Ansprüche 10 bis 14, da
durch gekennzeichnet, daß im Schritt a3) ein Pixel-Bittie
fenanzeiger (60) mit dem Bildidentifizierer gespeichert
wird, um dem Computer beim Dekomprimieren des gekennzeichneten
Pixel eine Bittiefe für jedes gekennzeichnete Pixel an
zuzeigen.
16. Verfahren nach einem der Ansprüche 10 bis 15, da
durch gekennzeichnet, daß im Schritt a3) ferner eine Gebiet-
zu-Namen-Abbildungstabelle (64) gespeichert wird, wobei der
Bildidentifizierer einen Namen für das ausgewählte Gebiet
enthält, der dem Computer mitgeteilt wird, wenn das ausge
wählte Gebiet im Schritt d) für den Computer identifiziert
wird.
17. Verfahren nach einem der Ansprüche 10 bis 15, da
durch gekennzeichnet, daß im Schritt a3) eine Gebiet-zu-Er
eignis-Abbildungstabelle (66) gespeichert wird, wobei der
Bildidentifizierer ein dem ausgewählten Gebiet zugeordnetes
Ereignis enthält, das dem Computer mitgeteilt und von ihm
bearbeitet wird, wenn das ausgewählte Gebiet im Schritt (d)
für den Computer identifiziert wird.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79032791A | 1991-11-12 | 1991-11-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4225872A1 DE4225872A1 (de) | 1993-05-13 |
DE4225872C2 true DE4225872C2 (de) | 2001-10-11 |
Family
ID=25150337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4225872A Expired - Lifetime DE4225872C2 (de) | 1991-11-12 | 1992-08-05 | Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern |
Country Status (3)
Country | Link |
---|---|
US (6) | US6219048B1 (de) |
DE (1) | DE4225872C2 (de) |
FR (1) | FR2683648B1 (de) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5727141A (en) * | 1995-05-05 | 1998-03-10 | Apple Computer, Inc. | Method and apparatus for identifying user-selectable regions within multiple display frames |
US6496981B1 (en) * | 1997-09-19 | 2002-12-17 | Douglass A. Wistendahl | System for converting media content for interactive TV use |
EP0841610A3 (de) * | 1996-11-12 | 2000-01-26 | Adobe Systems, Inc. | Auswählbare Bereiche in interaktiven Filmen |
US6775417B2 (en) | 1997-10-02 | 2004-08-10 | S3 Graphics Co., Ltd. | Fixed-rate block-based image compression with inferred pixel values |
EP1044432A4 (de) * | 1997-12-05 | 2007-02-21 | Dynamic Digital Depth Res Pty | Verbesserte bildumwandlungs- und kodierungstechniken |
US7139970B2 (en) | 1998-04-10 | 2006-11-21 | Adobe Systems Incorporated | Assigning a hot spot in an electronic artwork |
US6612930B2 (en) | 1998-11-19 | 2003-09-02 | Nintendo Co., Ltd. | Video game apparatus and method with enhanced virtual camera control |
US6712703B2 (en) * | 1998-11-19 | 2004-03-30 | Nintendo Co., Ltd. | Video game apparatus and information storage medium for video game |
US6325717B1 (en) * | 1998-11-19 | 2001-12-04 | Nintendo Co., Ltd. | Video game apparatus and method with enhanced virtual camera control |
US6692357B2 (en) * | 1998-11-19 | 2004-02-17 | Nintendo Co., Ltd. | Video game apparatus and method with enhanced player object action control |
US6462754B1 (en) * | 1999-02-22 | 2002-10-08 | Siemens Corporate Research, Inc. | Method and apparatus for authoring and linking video documents |
US6621503B1 (en) * | 1999-04-02 | 2003-09-16 | Apple Computer, Inc. | Split edits |
US6892353B1 (en) * | 1999-04-02 | 2005-05-10 | Apple Computer, Inc. | Edit to tape |
KR100295610B1 (ko) * | 1999-11-09 | 2001-07-12 | 장영규 | 동영상 편집 시스템 및 이를 이용한 객체 정보 서비스 방법 |
US6642940B1 (en) * | 2000-03-03 | 2003-11-04 | Massachusetts Institute Of Technology | Management of properties for hyperlinked video |
DE10030868A1 (de) * | 2000-06-23 | 2002-01-10 | Realspace Gmbh | Verfahren, Computerprogrammprodukt, Computersystem, Netzwerkserver und Netzwerkclient zur Erzeugung einer Darstellung eines Objektes mit interaktiven Flächen in veränderlicher Ansicht |
US6636237B1 (en) * | 2000-07-31 | 2003-10-21 | James H. Murray | Method for creating and synchronizing links to objects in a video |
US6964023B2 (en) * | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
US7143353B2 (en) * | 2001-03-30 | 2006-11-28 | Koninklijke Philips Electronics, N.V. | Streaming video bookmarks |
JP3970102B2 (ja) * | 2001-06-28 | 2007-09-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US6931603B2 (en) * | 2001-11-29 | 2005-08-16 | International Business Machines Corporation | Method and system for appending information to graphical files stored in specific graphical file formats |
US20050075166A1 (en) * | 2002-05-14 | 2005-04-07 | Hemstreet Paul A. | Media program with interactive feature |
US7212217B1 (en) * | 2002-06-12 | 2007-05-01 | Candence Design Systems, Inc. | Methods and apparatus for generating pixel data for multi-layer source images |
US7190839B1 (en) | 2002-06-12 | 2007-03-13 | Cadence Design System, Inc. | Methods and apparatus for generating multi-level graphics data |
US7432939B1 (en) * | 2002-07-10 | 2008-10-07 | Apple Inc. | Method and apparatus for displaying pixel images for a graphical user interface |
US7082572B2 (en) * | 2002-12-30 | 2006-07-25 | The Board Of Trustees Of The Leland Stanford Junior University | Methods and apparatus for interactive map-based analysis of digital video content |
JP4712712B2 (ja) * | 2003-05-29 | 2011-06-29 | イーエイティー.ティーブイ、インコーポレイテッド | マルチメディア・コンテンツを提示するためのシステム |
US20050076253A1 (en) * | 2003-10-05 | 2005-04-07 | De-Jen Lu | Method of url-based power management and associated web browsing device |
JP3793201B2 (ja) * | 2004-01-28 | 2006-07-05 | 任天堂株式会社 | ゲーム装置およびゲームプログラム |
WO2006022734A1 (en) * | 2004-08-23 | 2006-03-02 | Sherpa Technologies, Llc | Selective displaying of item information in videos |
WO2006050135A1 (en) * | 2004-10-29 | 2006-05-11 | Eat.Tv, Inc. | System for enabling video-based interactive applications |
US7594177B2 (en) * | 2004-12-08 | 2009-09-22 | Microsoft Corporation | System and method for video browsing using a cluster index |
US8667540B2 (en) * | 2006-07-07 | 2014-03-04 | Apple Partners, Lp | Web-based video broadcasting system having multiple channels |
US20080011819A1 (en) * | 2006-07-11 | 2008-01-17 | Microsoft Corporation Microsoft Patent Group | Verification of hit testing |
US20090096927A1 (en) * | 2007-10-15 | 2009-04-16 | Camp Jr William O | System and method for video coding using variable compression and object motion tracking |
US9051380B2 (en) * | 2008-06-06 | 2015-06-09 | Grasslanz Technology Limited | MYB14 sequences and uses thereof for flavonoid biosynthesis |
US8354918B2 (en) * | 2008-08-29 | 2013-01-15 | Boyer Stephen W | Light, sound, and motion receiver devices |
MY151478A (en) * | 2009-08-10 | 2014-05-30 | Mimos Berhad | Object tracking system and method |
US8438199B1 (en) | 2009-09-10 | 2013-05-07 | Bentley Systems, Incorporated | System and method for identifying and highlighting a graphic element |
US8600171B2 (en) * | 2009-12-10 | 2013-12-03 | Canon Kabushiki Kaisha | Image labeling using parallel processing |
JP4858625B2 (ja) * | 2010-03-31 | 2012-01-18 | カシオ計算機株式会社 | 情報表示装置及びプログラム |
US20110295859A1 (en) * | 2010-05-27 | 2011-12-01 | Alcatel-Lucent Usa Inc. | Technique For Multi-Dimensionally Determining Strength Of An Item In A Weighted List Based On Tagging |
US20110296345A1 (en) * | 2010-05-27 | 2011-12-01 | Alcatel-Lucent Usa Inc. | Technique For Determining And Indicating Strength Of An Item In A Weighted List Based On Tagging |
GB2483282B (en) * | 2010-09-03 | 2017-09-13 | Advanced Risc Mach Ltd | Data compression and decompression using relative and absolute delta values |
US9792363B2 (en) * | 2011-02-01 | 2017-10-17 | Vdopia, INC. | Video display method |
CN102934458B (zh) * | 2011-02-04 | 2016-06-29 | 松下电器(美国)知识产权公司 | 兴趣度估计装置以及兴趣度估计方法 |
US8458588B1 (en) | 2011-02-25 | 2013-06-04 | Google Inc. | Determining content layout positions produced by a layout engine |
US20120290931A1 (en) * | 2011-05-13 | 2012-11-15 | Nokia Corporation | Apparatus and method for arranging supplementary information for media elements |
US8730264B1 (en) | 2011-09-26 | 2014-05-20 | Google Inc. | Determining when image elements intersect |
JP6032467B2 (ja) * | 2012-06-18 | 2016-11-30 | 株式会社日立製作所 | 時空間データ管理システム、時空間データ管理方法、及びそのプログラム |
CN103577322B (zh) * | 2012-08-08 | 2015-08-12 | 腾讯科技(深圳)有限公司 | 一种点击测试方法和装置 |
US10511649B2 (en) * | 2012-11-20 | 2019-12-17 | Pelco, Inc. | Method and apparatus for efficiently prioritizing elements in a video stream for low-bandwidth transmission |
WO2015017304A1 (en) * | 2013-07-30 | 2015-02-05 | Kodak Alaris Inc. | System and method for creating navigable views of ordered images |
KR20160024002A (ko) | 2014-08-21 | 2016-03-04 | 삼성전자주식회사 | 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치 |
US9733823B2 (en) | 2015-04-01 | 2017-08-15 | Microsoft Technology Licensing, Llc | View activation via hit testing in an asynchronous windowing system |
WO2018035133A1 (en) * | 2016-08-17 | 2018-02-22 | Vid Scale, Inc. | Secondary content insertion in 360-degree video |
CN109845277A (zh) * | 2016-10-26 | 2019-06-04 | 索尼公司 | 信息处理装置、信息处理系统、信息处理方法和程序 |
EP3811320A4 (de) * | 2018-06-20 | 2022-03-16 | Simbe Robotics, Inc. | Verfahren zur verwaltung von click-and-delivery-einkaufsereignissen |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4985848A (en) * | 1987-09-14 | 1991-01-15 | Visual Information Technologies, Inc. | High speed image processing system using separate data processor and address generator |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305131A (en) | 1979-02-05 | 1981-12-08 | Best Robert M | Dialog between TV movies and human viewers |
US4333152A (en) | 1979-02-05 | 1982-06-01 | Best Robert M | TV Movies that talk back |
JPS5995645A (ja) * | 1982-11-24 | 1984-06-01 | Toshiba Corp | 情報整理装置 |
US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
US4941111A (en) * | 1986-04-18 | 1990-07-10 | Advanced Micro Devices, Inc. | Video picking and clipping method and apparatus |
US4837842A (en) | 1986-09-19 | 1989-06-06 | Holt Arthur W | Character and pattern recognition machine and method |
US5021770A (en) * | 1987-07-15 | 1991-06-04 | Hitachi, Ltd. | Image display system and data input apparatus used therein |
US4847700A (en) | 1987-07-16 | 1989-07-11 | Actv, Inc. | Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals |
FR2628553B1 (fr) | 1988-03-08 | 1990-11-09 | Labo Electronique Physique | Systeme graphique video muni d'un curseur graphique |
JPH0229880A (ja) | 1988-07-20 | 1990-01-31 | Fujitsu Ltd | ビデオレート領域分離方式 |
US5174759A (en) * | 1988-08-04 | 1992-12-29 | Preston Frank S | TV animation interactively controlled by the viewer through input above a book page |
GB8822062D0 (en) | 1988-09-20 | 1988-10-19 | Quantel Ltd | Video processing |
US5155806A (en) * | 1989-03-15 | 1992-10-13 | Sun Microsystems, Inc. | Method and apparatus for displaying context sensitive help information on a display |
US5119474A (en) * | 1989-06-16 | 1992-06-02 | International Business Machines Corp. | Computer-based, audio/visual creation and presentation system and method |
CA2012796C (en) * | 1989-06-16 | 1996-05-14 | Bradley James Beitel | Trigger field display selection |
JPH03116474A (ja) * | 1989-09-28 | 1991-05-17 | Toppan Printing Co Ltd | カラオケ用cdiディスク |
US5208909A (en) * | 1989-10-23 | 1993-05-04 | International Business Machines Corporation | Pre-drawing pick detection in a graphics display system |
US5274753A (en) * | 1990-05-24 | 1993-12-28 | Apple Computer, Inc. | Apparatus for distinguishing information stored in a frame buffer |
US5237648A (en) * | 1990-06-08 | 1993-08-17 | Apple Computer, Inc. | Apparatus and method for editing a video recording by selecting and displaying video clips |
US5317680A (en) * | 1990-06-22 | 1994-05-31 | Broderbund Software, Inc. | Using regular graphic shapes to identify a pointer-selected graphic object |
EP0526064B1 (de) * | 1991-08-02 | 1997-09-10 | The Grass Valley Group, Inc. | Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial |
US5524193A (en) * | 1991-10-15 | 1996-06-04 | And Communications | Interactive multimedia annotation method and apparatus |
GB2261803B (en) | 1991-10-18 | 1995-10-11 | Quantel Ltd | An image processing system |
-
1992
- 1992-07-31 FR FR9209556A patent/FR2683648B1/fr not_active Expired - Lifetime
- 1992-08-05 DE DE4225872A patent/DE4225872C2/de not_active Expired - Lifetime
-
1994
- 1994-10-24 US US08/328,394 patent/US6219048B1/en not_active Expired - Lifetime
-
1998
- 1998-12-08 US US09/207,393 patent/US6295055B1/en not_active Expired - Lifetime
-
2001
- 2001-09-18 US US09/956,169 patent/US7043694B2/en not_active Expired - Fee Related
-
2003
- 2003-05-02 US US10/428,356 patent/US7281212B2/en not_active Expired - Fee Related
-
2006
- 2006-05-10 US US11/432,217 patent/US7549122B2/en not_active Expired - Fee Related
- 2006-07-31 US US11/496,867 patent/US20070019889A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4985848A (en) * | 1987-09-14 | 1991-01-15 | Visual Information Technologies, Inc. | High speed image processing system using separate data processor and address generator |
Non-Patent Citations (1)
Title |
---|
H. FRATER, M. SCHÜLLER: Das große WINDOWS 3 Buch, 3. geänderte Auflage, 1990, Data Becker ISBN 3-89011-287-0 "19. Das Zeichenprogramm Paintbrush" S. 486-514 * |
Also Published As
Publication number | Publication date |
---|---|
US6219048B1 (en) | 2001-04-17 |
US20040080525A1 (en) | 2004-04-29 |
DE4225872A1 (de) | 1993-05-13 |
FR2683648A1 (fr) | 1993-05-14 |
US20070019889A1 (en) | 2007-01-25 |
US20060230353A1 (en) | 2006-10-12 |
US20020054173A1 (en) | 2002-05-09 |
US7549122B2 (en) | 2009-06-16 |
US6295055B1 (en) | 2001-09-25 |
FR2683648B1 (fr) | 1996-12-13 |
US7043694B2 (en) | 2006-05-09 |
US7281212B2 (en) | 2007-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4225872C2 (de) | Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern | |
DE60022610T2 (de) | Verfahren zur Animationskodierung in einer Bilddatei | |
DE69820093T2 (de) | Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation | |
DE69636599T2 (de) | Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild | |
DE10296401B4 (de) | Verbund-Rendering von 3-D-Graphikobjekten | |
DE19708265B4 (de) | Verfahren zum Durchsuchen einer Dokument-Bilddatenbank und Dokumentbild-Durchstöberungssystem sowie Verfahren zum Extrahieren eines Merkmalsvektors aus einem elektronisch gespeicherten Bild | |
DE69531421T2 (de) | Darstellung des Inhalts eines einzigen Videobildes mit Anwendung von Rahmen | |
DE3335162C2 (de) | Vorrichtung und Verfahren für graphische Darstellungen mittels Computer | |
DE69534331T2 (de) | Verfahren und Vorrichtung zur Hervorhebung der Einzelheit einer Baumstruktur | |
DE69731045T2 (de) | Navigation und Interaktion in strukturierten Informationsräumen | |
DE69629447T2 (de) | Benutzerinteraktion bei Bildern mit strukturiertem Bildformat | |
DE60219048T2 (de) | Sektionsextrahierungswerkzeug für pdf-dokumente | |
DE69828974T2 (de) | Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung | |
DE60300788T2 (de) | Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung | |
DE3619420C2 (de) | ||
DE69732089T2 (de) | Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür | |
DE60122333T2 (de) | Verfahren und System zur kachelweisen Bildwiedergabe | |
DE19817584A1 (de) | Verfahren und System zur Objektsuche | |
DE112008003854T5 (de) | Raum-Zeit-Medienobjektlayouts | |
DE69816200T2 (de) | Bildverarbeitungsgerät zur Anzeige eines Katalogs von verschiedenen Datenarten auf verschiedene Weise | |
DE102010031429A1 (de) | Verfahren zum Bereitstellen eines Kombinations-Videos | |
WO2000054167A2 (de) | Such- und navigationseinrichtung für hypertext-dokumente | |
DE102010045744A1 (de) | Durchsuchen und Extrahieren digitaler Bilder aus digitalen Videodateien | |
DE60008201T2 (de) | Übersetzung von Daten mit elektronischen Bildern | |
DE60030401T2 (de) | Anzeigetechniken für dreidimensionale virtuelle Realität |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: APPLE INC., CUPERTINO, CALIF., US |
|
R071 | Expiry of right | ||
R071 | Expiry of right |