DE69828974T2 - Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung - Google Patents

Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung Download PDF

Info

Publication number
DE69828974T2
DE69828974T2 DE69828974T DE69828974T DE69828974T2 DE 69828974 T2 DE69828974 T2 DE 69828974T2 DE 69828974 T DE69828974 T DE 69828974T DE 69828974 T DE69828974 T DE 69828974T DE 69828974 T2 DE69828974 T2 DE 69828974T2
Authority
DE
Germany
Prior art keywords
animation
clip object
clip
computer
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69828974T
Other languages
English (en)
Other versions
DE69828974D1 (de
Inventor
Claude Cajolet
Rejean Gagne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avid Technology Inc
Original Assignee
Avid Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avid Technology Inc filed Critical Avid Technology Inc
Application granted granted Critical
Publication of DE69828974D1 publication Critical patent/DE69828974D1/de
Publication of DE69828974T2 publication Critical patent/DE69828974T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein System und auf ein Verfahren zum Bearbeiten oder Modifizieren von 3D-Animationen. Insbesondere bezieht sich die vorliegende Erfindung auf ein nichtlineares Bearbeitungssystem und -verfahren zum Bearbeiten und/oder Modifizieren von 3D-Animationen.
  • HINTERGRUND DER ERFINDUNG
  • Es sind nichtlineare Bearbeitungssysteme (NLE-Systeme) für Video-Systeme (2D-Systeme) und Audio-Systeme (gelegentlich als "1D-Systeme" bezeichnet) bekannt. NLE-Systeme für Video und/oder Audio umfassen Systeme, die von AVID, Quantel und anderen hergestellt werden. Nichtlineare Videobearbeitungssysteme ermöglichen, dass ein Anwender digitale oder digitalisierte Quellinformationen verbindet, anordnet und/oder modifiziert, um einen Endschnitt oder eine Endbearbeitung zum Rendern auf geeignete Speichermedien oder zur Ausgabe zu erzeugen. Die Systeme sind dahingehend nicht linear, dass die Quellen allgemein nicht darauf beschränkt sind, dass auf lineare Weise auf sie zugegriffen wird, sondern stattdessen einen wahlfreien Zugriff ermöglichen. Zum Beispiel kann auf die letzten drei Sekunden einer digitalen Zehn-Sekunden-Videoquelle zugegriffen werden, ohne dass auf die ersten sieben Sekunden zugegriffen wird, oder kann auf einzelne Rahmen in dem digitalen Video zugegriffen werden und/oder können diese wie gewünscht kombiniert werden. Nichtlineare Audiobearbeitungssysteme ermöglichen, dass ein Anwender leicht und effizient digitale oder digitalisierte Audioquellen manipuliert, um eine gewünschte Endausgabe zu erzeugen, die häufig als eine Endbearbeitung oder als ein End-"Schnitt" bezeichnet wird.
  • In der Praxis kann ein NLE-System für Video z. B. verwendet werden, um den Videoabschnitt einer Fernsehwerbung für ein neues Fahrzeugmodell zu konstruieren, indem ein digitalisiertes Quellvideo des neuen Fahrzeugs, das auf einer Landstraße fährt, ein digitales Quellvideo eines Fahrers in dem Fahrzeug und ein digitalisiertes Quellvideo des Fahrzeugs in einem Windtesttunnel mit Ingenieuren, die neben ihm stehen, verbunden werden. Ein NLE-System für Audio kann verwendet werden, um eine Audiotonspur für diese Werbung zu erzeugen, die eine Auswahl klassischer Musik in digitaler Form, gemischt mit einem Filmkommentar eines Sprechers, ebenfalls in digitaler Form, der die Merkmale des Fahrzeugs diskutiert, und verschiedenen Klangeffektquellen, die zu geeigneten Zeitpunkten ebenfalls gemischt werden, mit der Musik und den Sprachquellen umfasst. Daraufhin werden die Video- und Audioendbearbeitungen zu einer geeigneten Senke wie etwa einem VTR, einer RAID-Anordnung oder einem Monitor gerendert, um den fertigen Werbespot zu erhalten.
  • NLE-Editoren repräsentieren die verfügbaren Quellen (Video oder Audio) als Objekte in einer graphischen Anwenderschnittstelle (GUI), wobei die Objekte üblicherweise als Clips bezeichnet werden, die in Bezug auf eine Zeitlinie zur Bearbeitung positioniert und/oder manipuliert werden. Um die Endbearbeitung zu erhalten, können auf die Clips verschiedene Effekte wie etwa Ausblendungen, Überblendungen, Löschungen, Abmischungen usw. angewendet werden.
  • Bekannte Techniken zum Bearbeiten von 3D-Animationen umfassen das Rendern der 3D-Animation zu 2D-Medien (Video), die daraufhin in herkömmlicher Weise wie etwa mit der oben beschriebenen NLE bearbeitet werden. Die von der 3D-Animation gerenderten 2D-Medien werden wie irgendein anderes 2D-Quellmaterial wie etwa digitales Video behandelt und können wie vom Regisseur gewünscht mit diesem anderen Quellmaterial kombiniert werden.
  • Falls ein Regisseur eine Änderung an der 2D-Renderung der 3D-Animation fordert, um z. B. zu veranlassen, dass eine Person mit höherer Geschwindigkeit vor einem festen Hintergrund läuft, oder um zu veranlassen, dass die Inhalte der 3D-Animation in einer anderen Reihenfolge zusammengesetzt werden, muss der Regisseur einen Animationskünstler unterweisen, was gewünscht ist, woraufhin der Animationskünstler die gewünschten Animationswerkzeuge aufruft, um die Animation zu modifizieren und sie erneut zu 2D-Medien zu rendern. Dieses neue 2D-Material wird dann an den Regisseur geliefert, um das vorangehende Material zu ersetzten.
  • Adobe Systems Inc: Adobe After Effects 3.1, 'Feature Highlights', März 1997, offenbart ein Desktop-Werkzeug zum digitalen Zusammensetzen, zur 2D-Animation und für Spezialeffekte. Das Werkzeug trennt im Kontext der 2D-Animation die Elemente der Zeit und Bewegung in räumliche und zeitliche Komponenten und ermöglicht damit, dass die Form des Bewegungswegs unabhängig von der Zeitgebung entlang des Wegs bearbeitet wird. Demgegenüber betrifft die Erfindung die Modifikation von Animationsparametern von 3D-Animationsobjekten und ihre nachfolgende Renderung in Reaktion auf die Manipulation eines Clip-Objekts, das ein Animationselement auf einer graphischen Anzeige darstellt, was in dem Dokument nicht offenbart ist.
  • Obgleich diese Techniken in der Vergangenheit angemessene Ergebnisse geliefert haben, ist es erwünscht, ein Verfahren und ein System zum Bearbeiten und/oder Modifizieren von 3D-Animationen zu haben, das leichter zu verwenden und effizienter als Bearbeitungstechniken des Standes der Technik ist und für Regisseure, Bearbeiter und Künstler eine flexible kreative Umgebung schafft.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein neues System und ein neues Verfahren zum Bearbeiten und Modifizieren von 3D-Animationen zu schaffen.
  • Die vorliegende Erfindung schafft ein Verfahren und ein System zum Bearbeiten und Modifizieren von Animationsinformationen, das die Schranken zwischen einem Regisseur und dem Quellmaterial, mit dem er arbeitet, verringert oder beseitigt. Herkömmlich werden NLE-Systeme bei 2D-Video, das 2D-Renderungen von 3D-Animationen enthalten kann, zum Bearbeiten vorhandener Quellinformationen verwendet. (m Wesentlichen kann der Regisseur, der die Endbearbeitung erzeugt, lediglich Quellinformationen, die bereits erzeugt worden sind, auswählen, anordnen und Effekte auf sie anwenden. Falls zusätzliche Quellinformationen erforderlich sind, muss der Regisseur garantieren, dass diese zusätzlichen Informationen durch Filmen neuer Szenen usw. erzeugt werden, so dass es zwischen dem Regisseur und seiner Arbeit eine Schranke gibt. Die Erfinder haben bestimmt, dass eine NLE, die zum Bearbeiten von Quellmaterial aus 3D-Animationen verwendet wird, nicht derart beschränkt zu sein braucht und dass die bei diesen herkömmlichen Systemen erfahrene Schranke gemildert werden kann. Genauer haben die Erfinder ein System und ein Verfahren zum Bearbeiten und Modifizieren der 3D-Animationen erzeugt, das ermöglicht, dass ein NLE-System die 2D-Darstellungen, die der Regisseur behandelt, mit der 3D-Welt der Animationen integriert. Wie im Folgenden beschrieben wird, können der Regisseur oder ein anderer Anwender des NLE-Systems bei der vorliegenden Erfindung sowohl 2D-Renderungen von 3D-Animationen auf herkömmliche Weise bearbeiten und manipulieren als auch bei Bedarf diese 3D-Animationen bearbeiten, manipulieren und erneut rendern.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein computerimplementiertes nichtlineares Bearbeitungsverfahren geschaffen, wie es in Anspruch 1 definiert ist. Bevorzugte Merkmale des Verfahrens sind in den Ansprüchen 2 bis 9 definiert.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein computerimplementiertes nichtlineares Bearbeitungssystem geschaffen, wie es in Anspruch 10 definiert ist. Bevorzugte Merkmale des Systems sind in den Ansprüchen 11 bis 19 definiert. Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein Computerprogramm oder Computerprogrammprodukt geschaffen, das so beschaffen ist, dass es das in einem der Ansprüche 1 bis 9 definierte Verfahren ausführt.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Es werden nun bevorzugte Ausführungsformen der vorliegenden Erfindung lediglich beispielhaft mit Bezug auf die beigefügte Zeichnung beschrieben, in der:
  • 1 eine Darstellung eines NLE-Systems in Übereinstimmung mit der vorliegenden Erfindung zeigt;
  • 2 einen Blockschaltplan einer Datenstruktur des NLE-Systems aus 1 zeigt;
  • 3 eine graphische Anwenderschnittstelle des Systems aus 1 zeigt;
  • 4 eine vergrößerte schematische Ansicht des Zeitlinienbereichs aus 3 zeigt;
  • 5 einen Blockschaltplan eines Animationselements in Übereinstimmung mit der vorliegenden Erfindung zeigt; und
  • 6 ein Blockschaltplan einer Projektdatenstruktur ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • 1 zeigt ein Beispiel eines NLE-Systems 10 in Übereinstimmung mit einer Aus führungsform der vorliegenden Erfindung. Das System 10 enthält einen Computer, der z. B. ein Universalcomputersystem 11 wie etwa ein PC mit einem Intel-Pentium-Prozessor, der das Betriebssystem Microsoft Windows NT ausführt, oder ein Spezialcomputersystem sein kann und eine Reihe von Programmschritten ausführt, um ein NLE-gestütztes System zum Bearbeiten und Modifizieren von 3D-Animationen bereitzustellen. Das Computersystem 11 ist mit einer oder mit mehreren Anwendereingabevorrichtungen wie etwa mit einer Tastatur 12, einer Maus 13 oder irgendeiner anderen geeigneten Anwendereingabevorrichtung wie etwa einem Graphiktablett (nicht gezeigt) usw. verbunden. Obgleich das Computersystem 11 allgemein eine nicht flüchtige Speichervorrichtung enthält, kann ein zusätzlicher Datenspeicher zur Speicherung von Quellinformationen, unfertigen Bearbeitungen und Endbearbeitungen durch eine Speichervorrichtung wie etwa eine RAID-Anordnung 14, optische Plattenvorrichtungen (nicht gezeigt), digitale oder analoge Video- oder Audio-Bandaufnahmegeräte usw. bereitgestellt sein.
  • Wie für den Fachmann auf dem Gebiet offensichtlich ist, kann das Computersystem 11 direkt mit Speichervorrichtungen wie etwa einer RAID-Anordnung 14 und/oder über eine geeignete Kommunikationsverbindung wie etwa eine LAN-Netzverbindung 15, über das Internet usw. mit Speichervorrichtungen verbunden sein. Außerdem enthält das System 10 eine oder mehrere Ausgabevorrichtungen wie etwa einen hochaufgelösten Monitor 16, ein Klangsystem 18 usw. sowie dazugehörende E/A-Karten (nicht gezeigt). In der Ausführungsform aus 1 werden die im Folgenden weiter beschriebene graphische Anwenderschnittstelle (GUI) des NLE-Systems und die Ausgaben der erzeugten Bearbeitung jeweils entweder gleichzeitig oder abwechselnd auf dem Monitor 16 angezeigt, während vom Klangsystem 18 irgendeine zugeordnete Klangspur ausgegeben wird. Allerdings ist außerdem beabsichtigt, dass unter einigen Umständen mehr als ein Monitor 16 bereitgestellt sein kann, um zu ermöglichen, dass die Ausgabe auf mehr als einem Monitor angezeigt wird, während die GUI des NLE-Systems auf dem anderen angezeigt wird.
  • 2 ist ein Blockschaltplan der Datenbeziehungen 20 eines nichtlinearen Bearbeitungssystems (NLE-Systems) in Übereinstimmung mit der vorliegenden Erfindung. In der folgenden Diskussion wird eine durch das NLE-System 10 erzeugte Bearbeitung als ein Projekt 24 bezeichnet. Ein Projekt 24 umfasst eine Reihe von Elementen 28 wie etwa Video, Audio, Standbild, statische 3D-Informationen und/oder 3D-Animationen, die in dem Projekt 24 kombiniert und daraufhin gerendert, gemischt und/oder zusammengesetzt werden können, um die Endbearbeitung zu erzeugen. In der Figur sind drei Elemente 28 gezeigt: Das erste Element 28a können Audioinformationen sein, das zweite Element 28b können Informationen für ein Standbild sein und das dritte Element 28c können Informationen für eine dreidimensionale animierte Person sein. Wie in der Figur angegeben ist, kann das Projekt 24 mehr als drei Elemente 28 enthalten und z. B. mehrere Audio-, Video- und/oder 3D-Animationselemente, Standbilder und statische 3D-Objekte enthalten. Wie im Folgenden beschrieben wird, können die Elemente 28 des Projekts 24 ferner selbst Projekte sein. Wie im Folgenden ausführlicher diskutiert wird, kann ferner jedes Element 28 außerdem eine oder mehrere definierte Zuordnungen zu geeigneten Werkzeugen 32 besitzen. Außer den Elementen 28 enthält das Projekt 24 eine Bearbeitungsdatenstruktur 30, die die durch den Anwender mit dem System 10 definierten Wechselbeziehungen zwischen den Elementen 28 aufrechterhält, um die Endbearbeitung zu erzeugen, und die die Zuordnungen zwischen den Elementen 28 und den geeigneten Werkzeugen 32 aufrechterhält.
  • Das Projekt 24 kann Elemente 28 enthalten, die Quellinformationen von Speichervorrichtungen wie etwa von einer RAID-Anordnung 14, von digitalen Video- oder Audiobändern usw. nutzten, wobei das Projekt 24 selbst auf Speichervorrichtungen wie etwa einer RAID-Anordnung 14, auf über eine Netzverbindung 15 mit dem Computersystem 11 verbundenen Speichervorrichtungen usw. gespeichert werden kann.
  • Die Werkzeuge 32 können ein Animationsprogramm wie etwa das vom Anmelder der vorliegenden Erfindung verkaufte Produkt Softlmage|3D oder Komponenten davon, Zusammensetzungssysteme, eine oder mehrere Render-Maschinen wie etwa die in dem oben erwähnten Produkt Softlmage|3D enthaltene Render-Maschine "Mental Ray" usw. enthalten. Wie dem Fachmann auf dem Gebiet bekannt ist, hängt die Wahl der Render-Maschine von der gewünschten Qualität, Geschwindigkeit, Auflösung und weiteren zugehörigen Faktoren ab, wobei der Fachmann auf dem Gebiet die ähnlichen Betrachtungen versteht, die bei der Auswahl weiterer Werkzeuge 32 anzustellen sind. Wie oben erwähnt wurde, kann jedes Element 28 eine Zuordnung zu einem oder mehreren geeigneten Werkzeugen 32 haben. Zum Beispiel kann ein Element 28, das Animationsinformationen für eine animierte 3D-Person enthält, eine definierte Zuordnung zu der Animationskomponente des oben erwähnten Produkts Softlmage|3D haben, die ermöglicht, dass das System 10 bei Bedarf das Werkzeug 32 aufruft, um die Animationsinformationen zu modifizieren. Wie dem Fachmann auf dem Gebiet einfällt, können diese Zuordnungen auf eine Vielzahl von Arten definiert sein und z. B. gemäß Erweiterungen zu Dateinamen, die die Informationen speichern, definiert sein, gemäß Speicherplätzen definiert sein, d. h. ein Unterverzeichnis kann für Animationen vorgesehen sein, während ein anderes Unterverzeichnis für Standbilder vorgesehen ist, explizit für die Informationen durch den Anwender definiert sein usw.
  • Ein Anwender tritt mit dem NLE-System 10 über eine graphische Anwenderschnittstelle (GUI) 40 des NLE in Wechselwirkung, von der in 3 eine Ausführungsform gezeigt ist. Wie gezeigt ist, besteht die GUI 40 aus einem Bilderzeugungsbereich 44, aus einem Funktionsbereich 48 und aus einem NLE-Zeitlinienbereich 52. Der Bilderzeugungsbereich 44 kann ein Abschnitt eines Monitorbildschirms oder ein getrennter Monitor wie etwa ein hochaufgelöster Monitor sein, wobei der Bilderzeugungsbereich 44 die Inhalte von visuellen (Video-, Standbild-, Animations- usw.) Clips oder von Abschnitten dieser Clips, die visuelle Ausgabe der vollständigen momentanen Bearbeitung usw. anzeigen kann. Ähnlich kann das Klangsystem 18 die Inhalte von Audio- (Musik-, Erzählungs-, Klangeffekt- usw.) Clips oder von Abschnitten dieser Clips, die Audioausgabe der vollständigen momentanen Bearbeitung usw. ausgeben. Auf diese Weise kann ein Regisseur die Inhalte von Clips durchsehen, sie bei Bedarf beschneiden oder auf andere Weise bearbeiten (unten beschrieben) und die Ergebnisse betrachten.
  • Der Funktionsbereich 48 besteht z. B. aus Funktionsschaltflächen 60 und Funktionsmenüs 64, die einem besonderen Werkzeug 32, falls ein solches Werkzeug aktiv ist, oder dem System 10 zugeordnet sind. Es ist beabsichtigt, dass der Funktionsbereich 48 unter vielen Umständen, unter denen über eine zwischen dem Clip und dem Werkzeug 32 definierte Zuordnung auf ein Werkzeug 32 zugegriffen wird, um einen Clip zu modifizieren, aktualisiert wird, um wenigstens eine Untermenge der üblicherweise verwendeten Funktionen und Operatoren dieses Werkzeugs 32 anzuzeigen. Zum Beispiel können die Funktionen in einer Animationsanwendung die Bildabschattung, die Skalierung, vordefinierte Bewegungen und andere Effekte sowie die allgemeine Dateiwiedergewinnung und dergleichen enthalten.
  • Falls kein spezifisches Werkzeug 32 aufgerufen worden ist, zeigt der Funktionsbereich 48 Funktionen und Operatoren in Bezug auf das System 10 an, wobei dies einen wie in der Figur gezeigten Browser im Explorer-Stiel enthalten kann, der ermöglicht, dass ein Anwender interessierende Projekte wie etwa die veranschaulichten Szenen 7 bis 12 oder verfügbare mit dem System 10 zu bearbeitende Clips auswählt.
  • Der NLE-Zeitlinienbereich 52 ist in 4 schematisch gezeigt, wobei der Klarheit halber Thumbnails 84 weggelassen worden sind. Der NLE-Zeitlinienbereich 52 zeigt ein Projekt 24 für "Szene 8" aus 3 in graphischer Form in Bezug auf eine Zeitlinie 66 an, wobei die Zeit von links nach rechts fortschreitet. Die Elemente 28 werden als getrennte rechteckige Clips 68, jeder in einer Spur 72, angezeigt. Wie oben. für die Elemente 28 beschrieben wurde, können die Clips 68a, 68b und 68c Audoinformationen, Videoinformationen, Standbildinformationen (wie etwa eine Hintergrundszene) oder statische 3D-Informationen (wie etwa einen 3D-Szenenaufbau, durch den eine animierte Person läuft) und Informationen über ein animiertes 3D-Objekt wie etwa über eine animierte Person bzw. über ein anderes Modell umfassen. In der in den 3 und 4 gezeigten spezifischen Zeitlinie für das Projekt "Szene 8" repräsentiert der Clip 68a ein Element 28a eines Standbildhintergrunds, repräsentiert der Clip 68b ein Element 28b einer animierten 3D-Person, in diesem Fall eines Mannes, und repräsentiert der Clip 68c ein Element 28c einer Lichtquelle.
  • In diesem spezifischen Beispiel kann das Element 28a eine mit einem Malwerkzeug 32 definierte Zuordnung besitzen, um zu ermöglichen, dass ein Bearbeiter das Standbild modifiziert, und eine Zuordnung zu einem Render-Maschinen-Werkzeug 32 besitzen, so dass das Element 28a durch das Render-Maschinen-Werkzeug aufgenommen werden kann, falls es erforderlich wird, das Projekt im Ergebnis von in dem System 10 ausgeführten Änderungen an den Elementen 28 erneut zu rendern.
  • Jeder Clip 68 und das zu Grunde liegende Element 28, das ihm zugeordnet ist, haben bestimmte Merkmale gemeinsam. Jeder Clip 68 ist durch ein zweidimensionales rechteckiges Feld repräsentiert, wobei jeder in Bezug auf die Zeitlinie 66 einen Startpunkt 76 und einen Endpunkt 80 besitzt, die eine Dauer dazwischen definieren. Der Startpunkt 76, der Endpunkt 80 und die Dauer jedes Clips 68 werden auf geeignete Punkte in dem entsprechenden Element 28 abgebildet, die eine längere Gesamtdauer als die durch ihren entsprechenden Clip 68 spezifizierte Dauer sein kann. Wie in den Figuren gezeigt ist, in denen zwei Clips 68c in einer Spur gezeigt sind, kann jede Spur 72 mehr als einen Clip 68 oder mehr als ein Exemplar des gleichen Clips haben. Wenn zwei Exemplare eines Clips enthalten sind, können sie entweder wiederholt, sich überschneidend oder verschiedene Abschnitte der Gesamtdauer des dem Clip 68 zugeordneten Elements 28 sein.
  • Obgleich die Konzepte von NLE-Editoren für Video und Audio bekannt sind, verwendet die vorliegende Erfindung das NLE-Ereignismodell zum Bearbeiten und Modifizieren von 3D-Animationsinformationen, wobei sie effektiv eine zweckmäßige und effiziente 2D-Verbindung zu 3D-Informationen schafft.
  • Wie in 3 gezeigt ist, können jedem Clip 68 in einem derzeit bevorzugten Aspekt der Erfindung außerdem Thumbnails 84 zugeordnet sein, die vorzugsweise graphische Darstellungen oder Piktogramme sind, die den Inhalt des Clips repräsentieren, obgleich sie ebenfalls eine Textbeschreibung oder beides sein können. Wenn graphische Darstellungen oder Piktogramme verwendet werden, können diese Thumbnails die Änderung oder Entwicklung der zu Grunde liegenden Informationen während der Zeit, falls überhaupt, angeben. Zum Beispiel repräsentiert das Thumbnail 84a, das ein Piktogramm eines Hintergrunds zeigt, die Informationen im Element 28a. Die Informationen im Clip 28a ändern sich nicht während der Zeit, so dass ein einzelnes sich wiederholendes Thumbnail ausreicht, um die Informationen zu repräsentieren. Demgegenüber sind die Thumbnails 84b im Clip 68b sich ändernde Piktogramme, die den Zustand der Informationen im Element 28b repräsentieren, das einer 3D-Animation der Person "John" zugeordnet ist, die läuft, während die Animation fortschreitet. Der Clip 68c repräsentiert ein Element 28c, das in diesem Beispiel Informationen umfasst, die sich auf eine ins Rendern des Projekts aufzunehmende Lichtquelle beziehen, wobei der Clip 68c in diesem spezifischen Beispiel zweimal entlang der Zeitlinie 66 auftritt, so dass die Lichtquelle zwei getrennte Dauern hat. Dies hat die Wirkung, dass das Licht während einer ersten Dauer innerhalb der Bearbeitung "eingeschaltet" ist, d. h. in irgendeiner Renderung der Animation enthalten ist, während es für eine nachfolgende Dauer innerhalb der Bearbeitung "ausgeschaltet" ist, d. h. nicht in der Renderung der Animation enthalten ist, und daraufhin für eine weitere Dauer der Bearbeitung wieder "eingeschaltet" ist.
  • Um eine Bearbeitung zu erzeugen und/oder die Informationen in einem Element 28 zu modifizieren, modifiziert oder bearbeitet ein Anwender die entsprechenden Clips 68 in dem NLE-Zeitlinienbereich 52. Ein Anwender kann aus einer Liste verfügbarer Elemente, die in dem Browser des Funktionsbereichs 48 dargestellt sind, in eine Bearbeitung aufzunehmende Elemente auswählen. Der Anwender kann ein gewünschtes Element aus dieser Liste ziehen und es auf einer Spur 72 ablegen, wo es durch einen Clip 68 repräsentiert wird. Durch Skalieren des Clips 68 auf die gewünschte Länge kann ein Anwender die Dauer eines Clips 68 ändern. Wie für den Fachmann auf dem Gebiet selbstverständlich ist, kann dies auf eine Vielzahl von Arten einschließlich allgemein bekannter "Zieh"-Operationen, in denen ein Anwender mit einer Eingabevorrichtung wie etwa einer Maus 13 entweder auf den Start- oder auf den Endrand des Clips 68 klickt und den Rand an die gewünschte neue Position zieht, ausgeführt werden. Ähnlich kann ein Clip 68 unter Verwendung von Tastenkombinationen, einer Mausmanipulation oder mit anderen geeigneten Mitteln, wie sie dem Fachmann auf dem Gebiet einfallen, entlang seiner zugeordneten Spur 72 verschoben werden, um seinen Startpunkt 76 und seinen Endpunkt 80 in Bezug auf die Zeitlinie 66 zu ändern. Falls ein Clip verkürzt wird, wird die Dauer der Quellinformationen im entsprechenden Element 28a, das in dem Projekt verwendet wird, verringert. Falls ein Clip 68 in Bezug auf die Zeitlinie 66 nach links verschoben wird, werden die Quellinformationen im entsprechenden Element 28 früher als zuvor in dem Projekt verwendet.
  • Im Gegensatz zu Clips, die 2D- oder 1D-Informationen repräsentieren, repräsentiert der Clip 68b 3D-Animationsinformationen, wobei er über das NLE-System 10 entweder, falls angebracht, als eine 2D-Renderung der 3D-Animation oder, falls angebracht, als 3D-Informationen, die manipuliert und nachfolgend erneut gerendert werden können, auf verbesserte Weise manipuliert werden kann. Zum Beispiel kann der Clip 68b wie bei den Clips für 2D- oder 1D-Informationen verlängert werden, um seine Dauer zu erhöhen, wobei dies aber dazu führen kann, dass das Element 28b von 3D-Informationen erneut zu einer 2D-Darstellung gerendert wird. Genauer kann das Verlängern des Clips 68b, falls das Element 28b ein animiertes 3D-Modell einer zweifüßigen Person wie etwa "John" repräsentiert, die von links nach rechts läuft, je nach den Animationsparametern, die bei den Animationsinformationen im Element 28b enthalten sind, zu einer Verringerung der Geschwindigkeit, mit der die Person läuft, oder zu einer Zunahme der zurückgelegten Strecke führen.
  • Der Begriff "Animationsparameter", wie er hier verwendet wird, soll die verschiedenen Komponenten umfassen, die ein Animationselement definieren. Animationsparameter können entweder festgesetzt, d. h. über die NLE nicht direkt änderbar, oder modifizierbar, d. h., dass sie über die NLE modifiziert werden können, sein. Zum Beispiel zeigt 5 ein Animationselement 88 für eine animierte Figur, die in einer Richtung von links nach rechts läuft. Das Animationselement 88 enthält einen Skelettparameter 92, der die Definition einer Gelenkkettenhierarchie umfasst, und einen Parameter 96 einer biegsamen Einhüllenden oder Haut, der auf den Skelettparameter 92 angewendet wird. Sowohl der Skelettparameter 92 als auch der Parameter 96 der biegsamen Einhüllenden sind festgesetzt.
  • Wenn festgesetzte Parameter eine Modifikation durch einen Animator erfordern, ermöglicht die NLE, dass der Animator bei Bedarf das erforderliche Werkzeug 32 aufruft, wie es durch die Zuordnungen für das Element 88 spezifiziert ist. Falls der Animator z. B. die Gelenkkettenhierarchie des Skelettparameters 92 modifizieren möchte, kann von der NLE-Zeitlinie über ein geeignetes Anwendereingabeereignis wie etwa ein Doppelklicken auf den Clip ein Modellierungswerkzeug 32 aufgerufen werden und das Skelett wie gewünscht modifiziert werden. In diesem Fall kann der Funktionsbereich 48 aktualisiert werden, um wenigstens eine Untermenge der üblicherweise verwendeten Funktionen und Operatoren des Modellierungswerkzeugs 32 anzuzeigen.
  • Für eine wiederholbare Folge von Skelettgelenkverbindungen, die erforderlich sind, um eine ununterbrochen Laufbewegung für die durch das Element 88 repräsentierte animierte Figur zu erzeugen, kann ein festgesetzter Zyklusparameter 100 für wiederholtes Laufen definiert werden. Außerdem können ein Laufgeschwindigkeitsparameter 104, ein Startpositionsparameter 108 und ein Endpositionsparameter 112 definiert und als modifizierbarer Parameter, die den festgesetzten Parametern zugeordnet sind, eingestellt werden. In einigen Fällen werden Animationsparameter inhärent als vom festgesetzten oder modifizierbaren Typ eingestellt. Zum Beispiel können der Skelettparameter, der Parameter der biegsamen Einhüllenden und ähnliche Parameter inhärent als vom festgesetzten Typ eingestellt werden, da diese Parameter durch einen Regisseur/Anwender während der normalen Erzeugung einer Bearbeitung nicht modifiziert werden. Ähnlich können Parameter, die mit der Geschwindigkeit, mit der Position und mit ähnlichen Faktoren in Beziehung stehen, inhärent als vom modifizierbaren Typ eingestellt werden, da diese Parameter durch einen Regisseur/Anwender während der normalen Erzeugung einer Bearbeitung üblicherweise modifiziert werden. Auf jeden Fall ist jedem Parameter wenigstens ein geeignetes Werkzeug 32 zugeordnet, um die Modifikation des Parameters zu ermöglichen. Ferner kann jeder Parameter durch einen Anwender durch irgendeine geeignete Anwendereingabe auf Wunsch explizit als festgesetzt oder modifizierbar eingestellt werden.
  • In der NLE der vorliegenden Erfindung wird das Element 88 als ein Clip wie etwa ein Clip 68b repräsentiert, der auf verschiedene Weise modifiziert werden kann. Falls der Clip für das Element 88 verlängert wird, gibt dies z. B. an, dass die Dauer der Animation erhöht werden soll. Allerdings kann die dem Element 88 entsprechende Animation wenigstens auf zwei Arten verlängert werden. Zum Beispiel kann der Geschwindigkeitsparameter 104 verringert werden, während der Starpositionsparameter 108 und der Endpositionsparameter 112 konstant gehalten werden, mit dem Ergebnis, dass die Person in dem Clip die Strecke zwischen der Start- und der Endposition mit einem langsameren Gang läuft, d. h. die animierte Person die gleiche Strecke innerhalb der erhöhten Dauer des Clips zurücklegt. Alternativ kann der Geschwindigkeitsparameter 104 konstant gehalten werden, während die Position entweder der Startposition 108 oder der Endposition 112, entsprechend der das Ende des Clips geändert wird, bewegt wird, um die von der animierten Person zurückgelegte Strecke innerhalb der erhöhten Dauer des Clips zu erhöhen.
  • Falls die Dauer eines Clips verkürzt wird, können entsprechende Ergebnisse erhalten werden, wodurch der Geschwindigkeitsparameter 104 erhöht wird, so dass die animierte Person die gleiche Strecke zwischen der Start- und der Endposition innerhalb der verkürzten Dauer läuft, oder können die Start- oder die Endposition modifiziert werden, so dass die animierte Person eine kleinere Strecke in der verkürzten Dauer läuft.
  • Weiter ist beabsichtigt, dass die Animationselemente 28 Standardbedingungen haben können, die durch den Animator zur Modifikation der Dauer oder für andere Modifikationen definiert werden. Zum Beispiel kann die Standardbedingung in dem oben erwähnten Beispiel einer Person, die zwischen einer Start- und einer Endposition läuft, die Verlängerung über die Start- und Endposition hinaus sein, d. h. der Start des Laufens von einer Position vor der Startposition und/oder das Laufen zu einer Position über die Endposition hinaus. Wie es dem Fachmann auf dem Gebiet einfällt, können andere geeignete Standardbedingungen für Animationen definiert werden. Auf diese Weise kann eine Modifikation der Dauer oder eine andere Modifikation zu Modifikationen an der Animation auf eine durch den Animator definierte Weise führen, wie sie für die besondere Animation geeignet sind. Es ist klar, dass die Definition der Standardbedingungen auf irgendeine geeignete Weise einschließlich des Ausfüllens eines Standardbedingungs-Dialogfelds durch einen Animator als ein expliziter Schritt, wenn die Animationsinformationen definiert werden oder wenn die Animationsinformationen im System 10 erstmals verwendet werden, ausgeführt werden kann.
  • Die tatsächlichen Techniken, die verwendet werden, um anzugeben, welches Verfahren des Erhöhens oder des Verringerns der Dauer des Elements 88 erwünscht ist, sind nicht besonders beschränkt. Zum Beispiel kann das Auswählen des Clips, der das Element 88 repräsentiert, mit einer linken Maustaste dem Festhalten der Start- und Endposition und Ändern der Geschwindigkeit entsprechen, während das Auswählen desselben Clips mit der rechten Maustaste dem Aufrechterhalten der Geschwindigkeitskonstante und Modifizieren der Start- oder Endposition entsprechen kann. Weitere geeignete Verfahren zum Spezifizieren der Abbildung der Änderungen an einem Clip auf Parameter in dem entsprechenden Element sind für den Fachmann auf dem Gebiet klar.
  • Ein modifizierter Animationsclip kann in Übereinstimmung mit der gewünschten Modifikation an seinen Animationsparametern erneut gerendert werden müssen, um eine Folge von Animationsrahmen zu liefern. In den obigen Beispielen, in denen die Dauer eines Clips erhöht oder verringert wird, ändern sich die Anzahl und/oder der Inhalt der Rahmen in dem modifizierten Element, wobei er erneut gerendert werden muss, es sei denn, dass die Modifizierung auf das Verwerfen eines Abschnitts der Animation oder auf das Verwenden zusätzlicher Rahmen, die zuvor gerendert und gespeichert worden sind, beschränkt war. Das erneute Rendern der Animationen in Reaktion auf Modifikationen kann in Echtzeit ausgeführt oder bis zu einem ausgewählten Zeitpunkt, z. B. nachdem mehrere Modifikationen ausgeführt worden sind und es erwünscht ist, die Ergebnisse zu betrachten, verzögert sein. Das erneute Rendern kann durch eines oder mehrere Render-Maschinen-Werkzeuge 32 ausgeführt werden, die dem Element, das ein erneutes Rendern erfordert, zugeordnet sind.
  • Wie oben erwähnt wurde, können die festgesetzten Animationsparameter eines Elements außer durch Modifizieren der Länge oder Position eines Clips dadurch modifiziert werden, dass das Element wie etwa durch Doppelklicken auf es mit einer Maus geöffnet wird, um ein zugeordnetes Werkzeug 32 aufzurufen, um auf die festgesetzten Parameter zuzugreifen und/oder sie zu modifizieren. Ferner kön nen zu einem Clip neue festgesetzte oder modifizierbare Parameter hinzugefügt werden, indem z. B. Funktionen aus dem Funktionsbereich 48 auf einen Clip gezogen und auf ihm abgelegt werden. Zum Beispiel können verschiedene Effektfunktionen vorgesehen sein, um das Ergebnis der Animation zu modifizieren. Zum Beispiel kann auf eine Animation eine JITTER-Funktion angewendet werden, um zu den Bewegungen statistisches Rauschen hinzuzufügen, um die gerenderte Animation darin zu "Rütteln", oder kann auf die Animation eine CHARCOAL-Funktion angewendet werden, um der gerenderten Animation das Aussehen zu verleihen, dass sie als eine Holzkohleskizze gezeichnet worden ist. Die Effekte oder Funktionen können auf irgendeinen Clip oder auf ein gesamtes Projekt angewendet werden und somit einen Teil der mit der vorliegenden Erfindung erzeugten Endbearbeitung oder die gesamte Endbearbeitung beeinflussen.
  • Außer dem Modifizieren der Parameter irgendeines gegebenen Elements in einem Projekt kann ein Anwender außerdem die Beziehung zwischen den Elementen in einem Projekt modifizieren und Elemente innerhalb eines Projekts hinzufügen, entfernen oder ersetzen. Insbesondere kann eine Bearbeitung aus Geschwindigkeits- und Leistungsbetrachtungen heraus mit niederwertigen Elementen oder mit Elementen, die lediglich Platzhalter für noch nicht verfügbare Informationen sind, ausgeführt werden. Wenn die Informationen verfügbar werden oder eine Endbearbeitung auf einem anderen Qualitätsniveau erforderlich ist, können die verschiedenen Elemente in dem Projekt durch die gewünschten Elemente ersetzt werden, ohne dass irgendeine weitere Anstrengung von Seiten des Animators erforderlich ist. In diesem Fall kann der Anwender eines oder mehrere gewünschte Elemente aus einer Liste verfügbarer Elemente auswählen, die in dem Browser im Funktionsbereich 48 dargestellt sind, und das gewünschte Element auf den Clip, der den Platzhalter darstellt, oder auf das Element mit einer anderen Qualität in einer Spur 72 im NLE-Zeitlinienbereich 52 ziehen und es darauf ablegen. Wenn ein gewünschter Clip auf einem Clip abgelegt wird, der bereits in einer Spur 72 ist, ersetzt der gewünschte Clip den Clip, der bereits in der Spur ist, wobei die Startzeit, die Endzeit und die Dauer des gewünschten Clips auf jene des Clips eingestellt werden, der zuvor an der Stelle war. Außerdem werden irgendwelche Effekte oder Filter, die auf den Clip angewendet worden sind, der zuvor an der Stelle war, automatisch auf den gewünschten Clip angewendet.
  • Ferner ist die Beziehung oder geschichtete Anordnung von Elementen in einem Projekt anhand der 3 und 4 in einer vorliegenden Ausführungsform der Erfin dung durch die Reihenfolge bestimmt, in der die Spuren 72 innerhalb der NLE 40 angezeigt werden. Die Elemente werden von oben nach unten in der Reihenfolge zusammengesetzt, in der sie angezeigt werden, wobei das oberste Element somit eine erste zusammengesetzte Schicht bildet, während aufeinander folgende Spuren in der jeweiligen Reihenfolge als aufeinander folgende Schichten zusammengesetzt werden. Somit führt das Umordnen der Spuren 72 zu einer vergleichbaren Änderung der Reihenfolge, in der die Elemente zusammengesetzt werden. Es ist klar, dass auf Wunsch irgendwelche geeigneten Mittel zum Ordnen der Schichtung der Elemente wie etwa das explizite Zuweisen einer Schicht zu jedem Element ebenfalls verwendet werden können, wobei die Reihenfolge der Spuren 72 im NLE-Zeitlinienbereich 52 in diesen Fällen unabhängig von der Reihenfolge der Zusammensetzung ist.
  • Das Entfernen eines Elements aus einem Projekt wird einfach dadurch ausgeführt, dass es aus seiner Spur entnommen wird, wobei optional seine Spur entnommen wird, falls es das einzige Element in der Spur ist. Das Hinzufügen eines Elements umfasst das Ablegen eines Elements aus einer Liste verfügbarer Elemente oder aus einer anderen Spur auf einer vorhandenen Spur und/oder, soweit erforderlich, das Hinzufügen einer neuen Spur zur Aufnahme des Elements. Ähnlich kann das Ersetzen eines Elements dadurch ausgeführt werden, dass ein neues Element wie oben beschrieben auf einem vorhandenen Element in einer Spur abgelegt wird.
  • Ein Spezialfall eines Elements ist in der vorliegenden Erfindung eine Kamera. Im Wesentlichen ist eine Kamera ein Standpunkt, von dem aus eine Szene gerendert werden soll. Um zu ermöglichen, dass ein Regisseur zwischen verschiedenen Standpunkten schneidet, können für eine 3D-Animation mehrere Kameras definiert werden, wobei die Kameras Positionen haben können, die sich ändern, d. h. die Kamera folgt einem definierten Weg oder ist auf die Bewegung mit einem anderen Objekt beschränkt, d. h., die Kamera kann auf der Schulter einer animierten Person angebracht sein. Kameraelemente werden wie andere Elemente in dem NLE-System der vorliegenden Erfindung als Clips in Spuren dargestellt, wobei sie aber hauptsächlich durch Auswählen zwischen den verfügbaren Kameras manipuliert werden. In einigen Fällen kann eine Kamera einem animierten Weg folgen, wobei die Manipulation des Clips, der ein solches Kameraelement repräsentiert, verwendet werden kann, um die Geschwindigkeit der Kamera entlang des Wegs zu ändern. Wie bei anderen Elementen in der vorliegenden Erfindung kann das zugeordnete Werkzeug aus dem NLE-System heraus aufge rufen werden, falls der Regisseur ein Kameraelement in einer Weise ändern möchte, die die Verwendung eines Animationswerkzeugs erfordert, wie etwa den Weg ändern möchte, den eine Kamera befolgt, oder das Objekt ändern möchte, auf das sie beschränkt ist.
  • Die Erfinder glauben, dass einer der besonderen Vorteile der vorliegenden Erfindung die Verwendung einer NLE zum Manipulieren von 3D-Informationen aus einer 2D-Darstellung davon ist. Falls z. B. eine 3D-Animation eines Rockmusikkonzerts hergestellt werden soll, können die Animationskünstler ein Element erzeugt haben, das die Bühne repräsentiert (d. h. ein statisches 3D-Objekt); Elemente erzeugt haben, die jeweils die animierten 3D-Musiker repräsentieren (d. h. drei Gitarristen und einen Schlagzeuger); ein Element erzeugt haben, das einen Hintergrund repräsentiert (d. h. ein Standbild eines Himmels mit Wolken darin); und ein Element erzeugt haben, das ein animiertes 3D-Kleinluftschiff repräsentiert, das über der Bühne fliegt.
  • In dem NLE-System in Übereinstimmung mit der vorliegenden Erfindung kann jedem dieser Elemente eine Spur zugeordnet sein, wobei die Elemente für die Bearbeitung als Clips in Bezug auf die Zeitlinie angezeigt werden. Während die statischen Elemente der Animation wie etwa die Bühne nicht in großem Umfang innerhalb des NLE-Systems manipuliert werden, können die animierten Elemente auf Wunsch manipuliert werden. Zum Beispiel können die Animatoren die 3D-Animationen der Musiker definiert haben, so dass der Schlagzeuger auf der Bühne von der linken Seite läuft, sich an sein Schlagzeug setzt und zu trommeln beginnt. Ein erster Gitarrist rennt von der rechten Seite auf die Bühne, nimmt seine Gitarre und beginnt zu spielen. Ein zweiter Gitarrist springt von der linken Seite auf die Bühne, rennt zu seiner Gitarre, nimmt sie und beginnt zu spielen. Ein dritter Gitarrist rennt von der rechten Seite auf die Bühne, hält in der Mitte der Bühne an, verneigt sich zum Publikum, nimmt daraufhin seine Gitarre und beginnt zu spielen. Jeder Musiker wird durch die Animationskünstler als Modell eines animierten Zweibeiners definiert.
  • In diesem Beispiel kann der Regisseur unter Verwendung des NLE-Systems in Übereinstimmung mit der vorliegenden Erfindung dadurch ändern, wann die verschiedenen Ereignisse eintreten, d. h. wie lange, nachdem der Schlagzeuger zu spielen begonnen hat, der erste Gitarrist auf die Bühne läuft, dass er den Start der jeweiligen Clip-Elemente an verschiedenen Punkten auf der Zeitlinie positioniert oder erneut positioniert. Der Regisseur kann dadurch die Dauer von Ereignissen ändern, d. h. wie lange der Schlagzeuger braucht, um zu seinem Schlagzeug über die Bühne zu laufen, oder wie lange der dritte Gitarrist sich zum Publikum verneigt, dass er die Clips verlängert oder abkürzt, um die animierte Bewegung zu beschleunigen oder zu verzögern. Außerdem kann der Regisseur die Zusammensetzung der Musikermodelle auf der Bühne dadurch erneut anordnen, wobei er den Schlagzeuger aus dem Bühnenhintergrund in den Bühnenvordergrund bewegt usw., dass er die Spuren in dem NLE-System erneut ordnet. Außerdem kann der Regisseur verschiedene Kameras auswählen, von denen die Animation betrachtet wird, d. h. den Standpunkt zwischen einer Kamera, die auf das bewegte Kleinluftschiffobjekt beschränkt ist und eine Luftbildansicht der Bühne liefert, und einer Kamera, die eine Vorderansicht der Bühne zeigt, umschalten. Außerdem kann der Regisseur Lichtquellen ein- oder ausschalten oder auf andere Weise modifizieren.
  • Anders als in NLE-Systemen des Standes der Technik kann der Regisseur über 2D-Informationen, die in dem NLE-System angezeigt werden, in den obigen Beispielen tatsächlich die 3D-Informationen manipulieren, um die gewünschte 2D-Endrenderung der Animation zu erhalten. Wie für den Fachmann auf dem Gebiet klar ist, erfordern einige Manipulationen der in dem NLE-System angezeigten 2D-Informationen ein erneutes Rendern von Abschnitten der Animation. Zum Beispiel erfordert das Verzögern des Laufens des Schlagzeugers zu seinem Schlagzeug ein erneutes Rendern dieses Abschnitts der Animation des Schlagzeugers, um die zusätzlichen erforderlichen Rahmen hinzuzufügen. Wie außerdem klar ist, erfordert dies aber kein erneutes Rendern unbeeinflusster Abschnitte der Gesamtanimation, d. h., das Ändern der Geschwindigkeit, mit der der Schlagzeuger läuft, erfordert kein erneutes Rendern der Gitarristen, obwohl es ein erneutes Positionieren ihrer Clips in Bezug auf die Zeitlinie erfordern kann. Wie für den Fachmann auf dem Gebiet klar ist, erfordert die Auswahl einer Dauer eines Elements, die kleiner als die bereits gerenderte Gesamtdauer ist (d. h. das Auswählen von lediglich fünf Sekunden einer Acht-Sekunden-Animation), weder irgendein erneutes Rendern noch ein wesentliches erneutes Auswählen eines Teils des nicht genutzten gerenderten Abschnitts. Andere Manipulationen können ein erneutes Rendern z. B. zu einem anderen Standpunkt oder ein erneutes Zusammensetzen der gerenderten Elemente der Animation erfordern.
  • Wenn ein erneutes Rendern erforderlich ist, wird erwartet, dass eine Vielzahl von Techniken verfügbar sind, um dies auf anwenderfreundliche Weise zu behandeln.
  • Zum Beispiel kann zunächst ein begrenztes erneutes Rendern ausgeführt werden, um an den Clips in dem NLE-System aktualisierte Thumbnails zu erzeugen, um eine schnelle Rückkopplung zu dem Regisseur zu schaffen, wobei ein nachfolgendes vollständiges erneutes Rendern der Änderungen entweder automatisch oder wenn explizit ausgelöst im Hintergrund ausgeführt werden kann. Es ist beabsichtigt, dass dieser letztere Fall (das vollständige erneute Rendern nur dann, wenn es explizit ausgelöst wird) erwünscht sein kann, wenn der Regisseur mit einem Endschnitt experimentiert und kein vollständiges Rendern erforderlich ist, bis ein interessierender Schnitt hergestellt worden ist. Ferner können ein Drahtmodell oder erneute Renderungen mit niedriger Qualität ausgeführt werden, um dem Regisseur eine schnelle Rückkopplung zu geben, während vollständige erneute Renderungen mit der gewünschten Qualität nachfolgend ausgeführt werden können. Wenn ein Regisseur eine Änderung fordert, die ein Animationswerkzeug erfordert, wie etwa z. B. das Ändern des Wegs, auf dem das Kleinluftschiff über die Bühne fliegt, wird durch das NLE-System das richtige Werkzeug geöffnet, um zu ermöglichen, dass der Animator oder der Regisseur die gewünschten Änderungen vornimmt.
  • Für den Fachmann auf dem Gebiet ist klar, dass die vorliegende Erfindung einem Regisseur oder einem anderen Anwender eine vertraute Schnittstelle zum Erzeugen einer gewünschten Endbearbeitung bietet, wobei aber die durch die Schnittstelle ausgeführten Operationen direkt eher auf 3D-Animationsinformationen als auf ihre 2D-Renderungen abbilden können. Es wird angenommen, dass dies erhebliche Vorteile gegenüber herkömmlichen NLE-Systemen schafft, die lediglich 2D- oder 1 D-Informationen manipulieren.
  • 6 zeigt eine Darstellung einer Datenstruktur 200 für ein Projekt. Wie gezeigt ist, enthält jede Projektdatenstruktur 200 eine Projektbeschreibung 204, in diesem Beispiel "Rockkonzert", einen Zeiger 208 auf eine Menge von Projekteigenschaften, Daten 212, die die Anzahl der Elemente in dem Projekt repräsentieren, und einen Zeiger 216 auf diese Elemente 220.
  • Die Projekteigenschaften enthalten Informationen, die für das Projekt als Ganzes relevant sind, und können Gesamtprojektdauerinformationen 224 enthalten. Diese Dauerinformationen sind, soweit angemessen, in Sekunden, Mikrosekunden, als Anzahl von Rahmen usw. repräsentiert. Der Platz 228 der gerenderten Informationen (Video, Animationen, Audio usw.) und irgendwelche weiteren relevanten In formationen sind in diesen Eigenschaften ebenfalls vorhanden.
  • Jedes Element 220 zeigt auf eine geeignete Elementdatenstruktur 232. Jede Datenstruktur 232 enthält eine Typkennung 236, die den Typ des Elements, d. h. Audiodaten, Videodaten, Standbild, animiertes 3D-Objekt usw., identifiziert und eine Elementkennung 240, die dieses Element eindeutig identifiziert, d. h. "Lead-Gitarrist", "Schlagzeuger", den Titel der Audiospur "Sprung" usw.
  • Außerdem enthält jedes Element einen Offset 224, der den Start des Elements in Bezug auf den Start des Projekts angibt. Für animierte 3D-Objekte ist dieser Offset ebenso wie die Dauerinformationen 248 als eine Anzahl von Rahmen angegeben, während die Audioinformationen, soweit angemessen, als Zeit oder als eine Anzahl von Abtastwerten angegeben werden. Die Platzinformationen 252 geben an, wo sich die relevanten Informationen befinden, einschließlich der Modelldefinition und der Animationsparameter für ein 3D-Objekt, dem Speicherplatz für Audio- oder Videoinformationen usw. Soweit erforderlich, können außerdem zusätzliche Informationen 256 wie etwa eine bevorzugte Render-Maschine sowie weitere Zuordnungen aufrechterhalten werden.
  • Wie oben erwähnt wurde, ist außerdem beabsichtigt, dass Projekte selbst Elemente eines Projekts sein können. Das heißt, wie oben kann ein erstes Projekt erzeugt und bearbeitet werden und daraufhin als ein Element in ein größeres Projekt eingefügt werden. In dem größeren Projekt wird das erste Projekt als ein Clip dargestellt, der wie oben beschrieben in einer NLE erweitert werden kann, um die entsprechenden Parameter zu zeigen, und modifiziert werden kann oder innerhalb des größeren Produkts auf ähnliche Weise wie irgendein anderer Clip als ein einzelner Clip manipuliert werden kann. Zum Beispiel kann in dem oben erwähnten Beispiel der Animation eines Rockkonzerts der Lauf des dritten Gitarristen auf die Bühne ein Element, seine Verneigung vor dem Publikum ein zweites Element und sein Spielen seiner Gitarre ein drittes Element umfassen. Diese drei Elemente können zu einem einzigen Projekt kombiniert werden, das daraufhin in das Rockkonzertprojekt integriert wird. Falls erwünscht ist, die einzelnen Elemente der Aktionen des dritten Gitarristen zu modifizieren oder auf andere Weise zu manipulieren, wird das Projekt des dritten Gitarristen geöffnet, um auf die Spuren der einzelnen Elemente zuzugreifen. Wenn die gewünschten Modifizierungen ausgeführt worden sind, können die Spuren der Aktionen des dritten Gitarristen wieder zu einem Projekt reduziert werden, das in dem Gesamtprojekt des Rockkonzerts als ein einzelner Clip dargestellt wird. Dieser einzelne Clip kann auf Wunsch ebenfalls bearbeitet werden, um die Startzeit des Projekts des dritten Gitarristen zu ändern (d. h. zu ändern, wann er auf der Bühne läuft), oder auf andere Weise manipuliert werden.
  • Obgleich sich diese Diskussion auf die Modifizierung von 3D-Animationsinformationen konzentriert hat, ist klar, dass die vorliegende Erfindung auf irgendeine andere Art von Informationen angewendet werden kann, die als ein Element mit Parametern definiert werden können. Da jedes Element in einem Projekt unanhängig ist und unabhängig von anderen Elementen in dem Projekt modifiziert und bei Bedarf erneut gerendert werden kann, können eine Vielzahl von Elementen aus verschiedenen Informationsquellen innerhalb einer einzigen konsistenten Anwenderoberfläche gleichzeitig bearbeitet werden. Außerdem ist klar, dass die vorliegende Erfindung auf Wunsch zusammen mit 2D- oder 1 D-Informationen verwendet werden kann. Zum Beispiel kann für das oben gegebene Beispiel eines Rockkonzerts eine Audioklangspur bearbeitet werden und/oder Video (wie etwa tatsächlich gefilmte Massenszenen) in die Zusammensetzung des Endschnitts aufgenommen werden können.
  • Für den Fachmann auf dem Gebiet ist klar, dass das Vorstehende lediglich beispielhaft ist. An den beschriebenen Ausführungsformen können Modifikationen, Abwandlungen und Änderungen vorgenommen werden, ohne von dem ausschließlich in den Ansprüchen definierten Umfang der Erfindung abzuweichen.

Claims (35)

  1. Computerimplementiertes nichtlineares Bearbeitungsverfahren zum Erzeugen und Modifizieren einer Bearbeitung (24) von mehreren Animationselementen, wobei die Animationselemente Animationsparameter eines 3D-Animationsobjekts enthalten, wobei das Verfahren die folgenden Schritte umfasst: (a) Bereitstellen mehrerer Animationselemente (28), die eine Animationsfunktionalität reflektieren, mit zugeordneten Animationsparametern des 3D-Animationsobjekts; (b) Auswählen eines Animationselements (28) aus den mehreren Animationselementen; (c) Erzeugen wenigstens eines Clip-Objekts (68), das das ausgewählte Animationselement (28) repräsentiert, und Anordnen des wenigstens einen Clip-Objekts (68) in einer zugeordneten Spur (72) für eine graphische Anzeige relativ zu einer Zeitlinie (66), wobei das wenigstens eine Clip-Objekt (68) einen Startzeitpunkt und einen Endzeitpunkt, die eine Dauer definieren, besitzt; (d) Zusammensetzen des wenigstens einen Clip-Objekts (68) und wenigstens eines anderen Clip-Objekts, um so eine Sammlung geschichteter Spuren (72) zu bilden, um die Bearbeitung (24) zu erzeugen; und (e) in Reaktion auf eine Modifikation der Dauer eines der Clip-Objekte durch Ändern des Startzeitpunkts oder des Endzeitpunkts des Clip-Objekts (68), um eine neue Bearbeitung (24) zu erzeugen, Modifizieren wenigstens eines der Animationsparameter, die dem ausgewählten Animationselement zugeordnet sind, und erneutes Rendern des Animationselements entsprechend dem Modifikationsgrad; wobei die Animationsparameter mit dem 3D-Animationsobjekt in Beziehung stehen; und das Clip-Objekt (68) eine Folge von 2D-Animationsrahmen enthält.
  2. Verfahren nach Anspruch 1, bei dem ferner die Animationsparameter auf Audio oder Video oder Standbild bezogen sind.
  3. Verfahren nach Anspruch 1 oder 2, bei dem im Schritt (b) auch ein zweites Animationselement (28b), das von den 3D-Animationsinformationen verschiedene Informationen repräsentiert, ausgewählt wird und im Schritt (c) das zweite Element (28b) durch ein zweites Clip-Objekt (68) repräsentiert wird, wobei das zweite Element (28b) in der graphischen Anzeige ebenfalls relativ zu der Zeitlinie (66) positioniert wird und im Schritt (e) von einem Anwender ausgeführte Modifikationen an der Dauer des zweiten Clip-Objekts dazu verwendet werden, die neue Bearbeitung (24) des Schrittes (e) zu erzeugen.
  4. Verfahren nach einem vorhergehenden Anspruch, bei dem dann, wenn die Dauer des Clip-Objekts (68) durch einen Anwender modifiziert wird, die Modifikationen auf den wenigstens einen Animationsparameter im Schritt (e) angewendet werden, um mit einer geänderten Geschwindigkeit, die der Änderung der Dauer entspricht, fortzuschreiten.
  5. Verfahren nach einem vorhergehenden Anspruch, bei dem dann, wenn die Dauer des Clip-Objekts (68) durch einen Anwender modifiziert wird, die Modifikationen auf den wenigstens einen Animationsparameter im Schritt (e) angewendet werden, so dass im Schritt (e) die Animation neu zusammengesetzt wird, derart, dass der Startzeitpunkt und/oder der Endzeitpunkt in der Animation entsprechend der Modifikation der Dauer geändert wird.
  6. Verfahren nach einem vorhergehenden Anspruch, bei dem der Schritt des Modifizierens der 3D-Animation das Ändern der Anzahl der Rahmen in der Folge von Animationsrahmen, die in dem Clip (68) enthalten sind, und ferner die Unterschritte, bei denen ein erster und ein letzter Rahmen der Folge bestimmt werden, das Clip-Objekt relativ zu der Zeitlinie (66) neu positioniert wird und die Zwischenrahmen neu gerendert werden, umfasst.
  7. Verfahren nach einem vorhergehenden Anspruch, bei dem ein zweites Animationselement (28b), das 3D-Animationsinformationen repräsentiert, ausgewählt wird und ein erstes Animationselement (28a), das bereits durch ein erstes Clip-Objekt (68) in der graphischen Anzeige repräsentiert wird, ersetzt, wobei das zweite Animationselement (28b) in der graphischen Anzeige durch ein zweites Clip-Objekt (68) repräsentiert wird, das durch einen Anwender auf das erste Clip-Objekt (68) gesetzt wird, wobei das zweite Element (28b) in diesem Projekt das erste Element in der Weise ersetzt, dass die Position und die Größe des ersten Clip-Objekts (68) in Bezug auf die Zeitlinie (66) auf wenigstens einen Parameter des zweiten Elements (28b) angewendet werden, wobei bei der Ersetzung des ersten Elements (28a) auf die Animationsinformationen des zweiten Elements (28b) zugegriffen wird, um für die Bearbeitung (24) verwendet zu werden.
  8. Verfahren nach einem vorhergehenden Anspruch, bei dem das wenigstens eine Animationselement eine Zuordnung umfasst, um ein Werkzeug (32) zu definieren, um das Animationselement (28) zu modifizieren, und ein Anwender das Werkzeug (32) aufrufen kann, um die Animationsinformationen zu modifizieren, indem er das Clip-Objekt (68) in der graphischen Anzeige auswählt.
  9. Verfahren nach einem vorhergehenden Anspruch, bei dem ein Animationselement (28) aus der Zusammensetzung der Bearbeitung (24) dadurch entfernt wird, dass das Clip-Objekt (68) aus der graphischen Anzeige entfernt wird.
  10. Verfahren nach einem vorhergehenden Anspruch, bei dem Clip-Objekte (68) für jedes der mehreren Animationselemente (28) in der graphischen Anzeige in Spuren (72), die der Zeitlinie entsprechen, angeordnet sind.
  11. Verfahren nach Anspruch 10, das ferner den Schritt umfasst, bei dem jedes der mehreren Animationselemente (28) in Schichten zusammengesetzt wird, die entsprechend der Reihenfolge der Spur (72) geordnet sind, in der jedes Clip-Objekt (68), das jedem Animationselement (28) entspricht, positioniert ist.
  12. Verfahren nach einem vorhergehenden Anspruch, bei dem jedes Objekt wenigstens ein graphisches Element enthält, das die Inhalte des Animationselements (28) angibt, das das Clip-Objekt (68) repräsentiert.
  13. Verfahren nach Anspruch 12, bei dem das graphische Element ein Thumbnail (84) ist.
  14. Verfahren nach Anspruch 12, in dem mehrere graphische Elemente enthalten sind, wobei die mehreren graphischen Elemente die Änderungen an den durch das Clip-Objekt (68) repräsentierten Animationsinformationen über die durch die Größe des Clip-Objekts (68) repräsentierte Dauer angeben.
  15. Verfahren nach einem vorhergehenden Anspruch, bei dem jeder der Animationsparameter unabhängig modifizierbar ist.
  16. Verfahren nach einem vorhergehenden Anspruch, bei dem das Animationselement (28) Informationen bezüglich einer Lichtquelle umfasst.
  17. Verfahren nach einem vorhergehenden Anspruch, bei dem das Animationselement (28) statische 3D-Informationen umfasst.
  18. Computerimplementiertes nichtlineares Bearbeitungssystem (10) zum Erzeugen und Modifizieren einer Bearbeitung (24) mehrerer Animationselemente, wobei die Animationselemente Animationsparameter eines 3D-Animationsobjekts enthalten, wobei das System umfasst: eine Speichervorrichtung, um mehrere Animationselemente (28) mit zugeordneten modifizierbaren Animationsparametern des 3D-Animationsobjekts zu speichern; einen Computer (11), der mit der Speichervorrichtung verbunden ist, um auf die darin gespeicherten Animationselemente (28) zuzugreifen, um aus den mehreren Animationselementen (28) ein Animationselement (28) auszuwählen; wenigstens eine Ausgabevorrichtung (16), die mit dem Computer (11) verbunden ist, um eine graphische Anwenderschnittstelle, die eine Zeitlinie (66) enthält, anzuzeigen; Mittel, um das ausgewählte Animationselement (28) in einer zugeordneten Spur (7) anzuordnen, um so ein Clip-Objekt (68) für die graphische Anzeige relativ zu der Zeitlinie (66) zu bilden, wobei das Clip-Objekt (68) eine Folge von Animationsrahmen enthält und einen Startzeitpunkt sowie einen Endzeitpunkt, die eine Dauer definieren, besitzt; und ein Werkzeug (32), das jedem Animationselement (28) zugeordnet ist, um das Clip-Objekt mit wenigstens einem anderen Clip-Objekt (68) in einer Sammlung von Spuren (72) zusammenzusetzen, um die Bearbeitung (24) zu erzeugen; und Mittel, um in Reaktion auf die Modifizierung der Dauer eines der Clip-Objekte durch Ändern des Startzeitpunkts oder des Endzeitpunkts des Clip-Objekts (68), um eine neue Bearbeitung (24) zu erzeugen, wenigstens einen der Animationsparameter, der dem ausgewählten Animationselement zugeordnet ist, zu modifizieren und um die Animationselement-Modifikation entsprechend dem Modifikationsgrad erneut zu rendern; wobei die Animationsparameter auf das 3D-Animationsobjekt bezogen sind; und das Clip-Objekt (68) eine Folge von 2D-Animationsrahmen enthält.
  19. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach Anspruch 18, bei dem die wenigstens eine Anwendereingabevorrichtung (12) ferner eine Eingabe von einem Anwender empfängt, um die Auswahl entweder einer ersten Betriebsart, in der eine erneute Größenbestimmung des Clip-Objekts (68) den Computer (11) dazu veranlasst, die erneute Größenbestimmung auf den wenigstens einen Animationsparameter anzuwenden, damit die Animation der Animationsinformationen mit einer der geänderten Größe entsprechenden geänderten Geschwindigkeit ausgeführt wird, oder einer zweiten Betriebsart, in der die erneute Größenbestimmung des Clip-Objekts (68) den Computer (11) dazu veranlasst, die erneute Größenbestimmung auf den wenigstens einen Parameter anzuwenden, so dass eine Anfangsposition und/oder eine Endposition in der Animation der Animationsinformationen geändert werden, anzugeben.
  20. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach Anspruch 18 oder 19, bei dem die wenigstens eine Anwendereingabevorrichtung (12) ferner eine Eingabe von einem Anwender empfängt, um ein im Voraus definiertes Werkzeug (32) aufzurufen, um die 3D-Animationsinformationen zu modifizieren.
  21. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach einem der Ansprüche 18 bis 20, bei dem die wenigstens eine Anwendereingabevorrichtung (12, 13) ferner eine Eingabe von einem Anwender empfängt, um ein zweites Element (28b) auszuwählen, das 3D-Animationsinformationen repräsentiert, und um ein zweites Clip-Objekt (68), das durch den Computer (11) angezeigt wird und das zweite Element (28b) repräsentiert, auf einem ersten Clip-Objekt (68) in der graphischen Anwenderschnittstelle, die ein erstes Element (28a) repräsentiert, anzuordnen, wodurch das zweite Element (28b) das erste Element (28a) ersetzt und das erste Element (28a) aus der Bearbeitung (24) entfernt wird und wobei das erste Clip-Objekt (68) aus der graphischen Anzeige entfernt wird, wobei durch den Computer (11) die Position und die Größe des ersten Clip-Objekts (68) in Bezug auf die Zeitlinie (66) auf den wenigstens einen Parameter des zweiten Elements (28b) angewendet wird.
  22. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach einem der Ansprüche 18 bis 21, bei dem die wenigstens eine Anwendereingabevorrichtung (12, 13) eine Eingabe von einem Anwender empfängt, um eine Zuordnung für das Element (28) zu definieren, wobei die Zuordnung ein Werkzeug (32) definiert, um das Element (28) zu modifizieren.
  23. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach Anspruch 22, bei dem die wenigstens eine Anwendereingabevorrichtung (12, 13) ferner eine Eingabe von einem Anwender empfängt, um das Werkzeug (32) aufzurufen, um das Element (28) zu modifizieren.
  24. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach einem der Ansprüche 18 bis 23, bei dem die wenigstens eine Anwendereingabevorrichtung (12, 13) ferner eine Eingabe von einem Anwender empfängt, um ein Clip-Objekt (68) aus der graphischen Anzeige zu entfernen, wobei das durch das entfernte Clip-Objekt (68) repräsentierte Element (28) durch den Computer (11) aus der Renderung und/oder der Zusammensetzung der Bearbeitung (24) entfernt wird.
  25. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach einem der Ansprüche 18 bis 24, bei dem die wenigstens eine Anwendereingabevorrichtung (12, 13) ferner eine Eingabe von einem Anwender empfängt, um das wenigstens eine Clip-Objekt (68) für jedes des wenigstens einen Elements (28) in der graphischen Anzeige in Spuren (72) anzuordnen.
  26. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach einem der Ansprüche 18 bis 25, bei dem die Zusammensetzung jedes Elements (28) durch den Computer (11) in Schichten ausgeführt wird, die entsprechend der Reihenfolge der Spur (72), in der jedes Clip-Objekt (68) positioniert ist, geordnet sind.
  27. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach einem der Ansprüche 18 bis 26, bei dem die Animationsinformationen eine gerenderte 3D-Animation umfassen.
  28. Computerimplementiertes nichtlineares Bearbeitungssystem (10) nach einem der Ansprüche 18 bis 27, bei dem die Animationsinformationen Informationen umfassen, die erforderlich sind, um die 3D-Animation zu rendern, und der Computer (11) auf das wenigstens eine Element (28) entsprechend der Positionierung und der Größe des Clip-Objekts (68) zugreift, um die 3D-Animation in Übereinstimmung mit dem wenigstens einen Parameter zu rendern.
  29. System (10) nach einem der Ansprüche 18 bis 28, bei dem das Animationselement (28) eine Kamera mit variablem Winkel ist.
  30. System (10) nach einem der Ansprüche 18 bis 29, das ferner eine Bearbeitungsdatenstruktur umfasst, um die Beziehung zwischen dem Animationselement (28) und dem zugeordneten Werkzeug (32) aufrechtzuerhalten und zu koordinieren.
  31. System nach einem der Ansprüche 18 bis 30, bei dem das zugeordnete Werkzeug (32) ein Animationsprogramm, ein Zusammensetzungsprogramm oder eine Render-Maschine umfasst.
  32. System nach einem der Ansprüche 18 bis 31, bei dem die Animationsparameter unabhängig modifizierbar sind.
  33. System nach einem der Ansprüche 18 bis 32, bei dem die Bearbeitung eine visuelle 2D-Darstellung auf einer Anzeige umfasst.
  34. System nach einem der Ansprüche 18 bis 33, bei der die Bearbeitung in der Speichervorrichtung gespeichert wird.
  35. Computerprogramm oder Computerprogrammprodukt, das so beschaffen ist, dass es ein Verfahren nach einem der Ansprüche 1 bis 17 ausführt.
DE69828974T 1997-08-01 1998-05-20 Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung Expired - Fee Related DE69828974T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US5459097P 1997-08-01 1997-08-01
US54590P 1997-08-01
US49066 1998-03-27
US09/049,066 US6686918B1 (en) 1997-08-01 1998-03-27 Method and system for editing or modifying 3D animations in a non-linear editing environment
PCT/CA1998/000489 WO1999006959A1 (en) 1997-08-01 1998-05-20 Method and system for editing or modifying 3d animations in a non-linear editing environment

Publications (2)

Publication Number Publication Date
DE69828974D1 DE69828974D1 (de) 2005-03-17
DE69828974T2 true DE69828974T2 (de) 2006-01-19

Family

ID=26726834

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69828974T Expired - Fee Related DE69828974T2 (de) 1997-08-01 1998-05-20 Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung

Country Status (7)

Country Link
US (2) US6686918B1 (de)
EP (1) EP1000410B1 (de)
JP (2) JP2001512266A (de)
AU (1) AU7515698A (de)
CA (1) CA2298641C (de)
DE (1) DE69828974T2 (de)
WO (1) WO1999006959A1 (de)

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP624698A0 (en) * 1998-09-29 1998-10-22 Canon Kabushiki Kaisha Method and apparatus for multimedia editing
JP3924966B2 (ja) * 1998-11-24 2007-06-06 株式会社セガ ゲーム装置
US6947044B1 (en) * 1999-05-21 2005-09-20 Kulas Charles J Creation and playback of computer-generated productions using script-controlled rendering engines
AUPQ464099A0 (en) * 1999-12-14 2000-01-13 Canon Kabushiki Kaisha Emotive editing system
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US7136528B2 (en) * 2000-02-11 2006-11-14 Sony Corporation System and method for editing digital images
US7810037B1 (en) 2000-02-11 2010-10-05 Sony Corporation Online story collaboration
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US8407595B1 (en) 2000-02-11 2013-03-26 Sony Corporation Imaging service for automating the display of images
AU2001233865A1 (en) * 2000-02-16 2001-08-27 P C Multimedia Limited 3d image processing system and method
US20020008704A1 (en) * 2000-07-21 2002-01-24 Sheasby Michael C. Interactive behavioral authoring of deterministic animation
JP4785283B2 (ja) * 2000-07-31 2011-10-05 キヤノン株式会社 サーバコンピュータ、制御方法及びプログラム
US7444593B1 (en) * 2000-10-04 2008-10-28 Apple Inc. Disk space management and clip remainder during edit operations
US7786999B1 (en) * 2000-10-04 2010-08-31 Apple Inc. Edit display during rendering operations
US6904566B2 (en) * 2001-03-26 2005-06-07 Microsoft Corporation Methods, systems and media players for rendering different media types
US20020138593A1 (en) * 2001-03-26 2002-09-26 Novak Michael J. Methods and systems for retrieving, organizing, and playing media content
US7072908B2 (en) 2001-03-26 2006-07-04 Microsoft Corporation Methods and systems for synchronizing visualizations with audio streams
US7278102B2 (en) 2001-03-26 2007-10-02 Microsoft Corporation Methods, system and media players for rendering different media types
US6828971B2 (en) * 2001-04-12 2004-12-07 Matsushita Electric Industrial Co., Ltd. Animation data generation apparatus, animation data generation method, animated video generation apparatus, and animated video generation method
US6904561B1 (en) * 2001-07-19 2005-06-07 Microsoft Corp. Integrated timeline and logically-related list view
US20040205479A1 (en) * 2001-10-30 2004-10-14 Seaman Mark D. System and method for creating a multimedia presentation
US20030227453A1 (en) * 2002-04-09 2003-12-11 Klaus-Peter Beier Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
CA2490798A1 (en) * 2002-06-27 2004-01-08 James V. Wierowski Interactive video tour system editor
JP2004038746A (ja) * 2002-07-05 2004-02-05 Toshiba Corp 画像編集方法および画像編集システム
US7142250B1 (en) * 2003-04-05 2006-11-28 Apple Computer, Inc. Method and apparatus for synchronizing audio and video streams
US20040217987A1 (en) * 2003-05-01 2004-11-04 Solomo Aran Method and system for intercepting and processing data during GUI session
GB2404300A (en) * 2003-07-25 2005-01-26 Autodesk Inc Compositing and temporally editing clips of image data
US7774721B2 (en) * 2003-12-15 2010-08-10 Microsoft Corporation Intelligent backward resource navigation
US7614004B2 (en) * 2003-12-15 2009-11-03 Microsoft Corporation Intelligent forward resource navigation
US7962843B2 (en) * 2003-12-15 2011-06-14 Microsoft Corporation Browser session overview
US7739306B2 (en) * 2004-04-14 2010-06-15 Verisign, Inc. Method and apparatus for creating, assembling, and organizing compound media objects
US20050234838A1 (en) * 2004-04-14 2005-10-20 Manousos Nicholas H Method and apparatus for providing in place editing within static documents
US8250034B2 (en) * 2004-04-14 2012-08-21 Verisign, Inc. Method and apparatus to provide visual editing
US7598956B2 (en) * 2004-04-15 2009-10-06 Microsoft Corporation Blended object attribute keyframing model
US7561160B2 (en) * 2004-07-15 2009-07-14 Olympus Corporation Data editing program, data editing method, data editing apparatus and storage medium
US20060158459A1 (en) * 2004-07-20 2006-07-20 Ferguson Stuart H Systems and methods for creating user interfaces
US20060048056A1 (en) * 2004-08-30 2006-03-02 Chang-Shun Huang Motion menu generation method and system
US7769819B2 (en) * 2005-04-20 2010-08-03 Videoegg, Inc. Video editing with timeline representations
KR100716288B1 (ko) * 2005-06-17 2007-05-09 삼성전자주식회사 디스플레이장치 및 그 제어방법
US7624343B2 (en) * 2005-09-16 2009-11-24 Microsoft Corporation Performance optimization for text layout processing
US7546532B1 (en) * 2006-02-17 2009-06-09 Adobe Systems Incorporated Methods and apparatus for editing content
US7743318B2 (en) * 2006-02-27 2010-06-22 Microsoft Corporation Order independent batched updates on a text buffer
JP4771831B2 (ja) * 2006-03-02 2011-09-14 富士通株式会社 図形表示プログラム及び図形表示方法
US7669128B2 (en) * 2006-03-20 2010-02-23 Intension, Inc. Methods of enhancing media content narrative
US20080072166A1 (en) * 2006-09-14 2008-03-20 Reddy Venkateshwara N Graphical user interface for creating animation
US20080071831A1 (en) * 2006-09-14 2008-03-20 Reddy Venkateshwara N Creating animation based on a keyword search
US8813100B1 (en) 2007-01-07 2014-08-19 Apple Inc. Memory management
US7872652B2 (en) 2007-01-07 2011-01-18 Apple Inc. Application programming interfaces for synchronization
US7903115B2 (en) * 2007-01-07 2011-03-08 Apple Inc. Animations
US20080178087A1 (en) * 2007-01-19 2008-07-24 Microsoft Corporation In-Scene Editing of Image Sequences
KR100842733B1 (ko) * 2007-02-05 2008-07-01 삼성전자주식회사 터치스크린을 구비한 멀티미디어 재생장치의 사용자인터페이스 방법
US9177603B2 (en) 2007-03-19 2015-11-03 Intension, Inc. Method of assembling an enhanced media content narrative
WO2008128188A2 (en) * 2007-04-13 2008-10-23 Jeffrey Williams Systems and methods for interactive real estate viewing
US20090046097A1 (en) * 2007-08-09 2009-02-19 Scott Barrett Franklin Method of making animated video
EP2051173A3 (de) * 2007-09-27 2009-08-12 Magix Ag System und Methode zum dynamischen Einfügen von Inhalten aus dem Internet in ein Multimedia Projekt
US8253728B1 (en) * 2008-02-25 2012-08-28 Lucasfilm Entertainment Company Ltd. Reconstituting 3D scenes for retakes
US9098647B2 (en) * 2008-03-10 2015-08-04 Apple Inc. Dynamic viewing of a three dimensional space
US8089479B2 (en) 2008-04-11 2012-01-03 Apple Inc. Directing camera behavior in 3-D imaging system
US20090290773A1 (en) * 2008-05-21 2009-11-26 Varian Medical Systems, Inc. Apparatus and Method to Facilitate User-Modified Rendering of an Object Image
US9589381B2 (en) * 2008-06-12 2017-03-07 Microsoft Technology Licensing, Llc Copying of animation effects from a source object to at least one target object
US8674998B1 (en) * 2008-08-29 2014-03-18 Lucasfilm Entertainment Company Ltd. Snapshot keyframing
US20100110082A1 (en) * 2008-10-31 2010-05-06 John David Myrick Web-Based Real-Time Animation Visualization, Creation, And Distribution
US20100134499A1 (en) * 2008-12-03 2010-06-03 Nokia Corporation Stroke-based animation creation
US8639086B2 (en) * 2009-01-06 2014-01-28 Adobe Systems Incorporated Rendering of video based on overlaying of bitmapped images
US8427484B1 (en) * 2009-03-06 2013-04-23 Pixar Authored motion transitions
US8769421B2 (en) * 2009-04-30 2014-07-01 Apple Inc. Graphical user interface for a media-editing application with a segmented timeline
US20100318916A1 (en) * 2009-06-11 2010-12-16 David Wilkins System and method for generating multimedia presentations
US8773441B2 (en) * 2009-07-10 2014-07-08 Pixar System and method for conforming an animated camera to an editorial cut
US9930310B2 (en) 2009-09-09 2018-03-27 Apple Inc. Audio alteration techniques
US8392832B2 (en) * 2010-02-05 2013-03-05 Research In Motion Limited Display placeholders for rich media content
US9237294B2 (en) 2010-03-05 2016-01-12 Sony Corporation Apparatus and method for replacing a broadcasted advertisement based on both heuristic information and attempts in altering the playback of the advertisement
US8631047B2 (en) 2010-06-15 2014-01-14 Apple Inc. Editing 3D video
US8910046B2 (en) 2010-07-15 2014-12-09 Apple Inc. Media-editing application with anchored timeline
US8875025B2 (en) 2010-07-15 2014-10-28 Apple Inc. Media-editing application with media clips grouping capabilities
US8964052B1 (en) 2010-07-19 2015-02-24 Lucasfilm Entertainment Company, Ltd. Controlling a virtual camera
US8830226B2 (en) 2010-09-28 2014-09-09 Apple Inc. Systems, methods, and computer-readable media for integrating a three-dimensional asset with a three-dimensional model
US10095367B1 (en) * 2010-10-15 2018-10-09 Tivo Solutions Inc. Time-based metadata management system for digital media
US9832528B2 (en) 2010-10-21 2017-11-28 Sony Corporation System and method for merging network-based content with broadcasted programming content
US9099161B2 (en) 2011-01-28 2015-08-04 Apple Inc. Media-editing application with multiple resolution modes
US8621355B2 (en) * 2011-02-02 2013-12-31 Apple Inc. Automatic synchronization of media clips
US8966367B2 (en) 2011-02-16 2015-02-24 Apple Inc. Anchor override for a media-editing application with an anchored timeline
US8839110B2 (en) 2011-02-16 2014-09-16 Apple Inc. Rate conform operation for a media-editing application
US9026909B2 (en) 2011-02-16 2015-05-05 Apple Inc. Keyword list view
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US9412414B2 (en) * 2011-02-16 2016-08-09 Apple Inc. Spatial conform operation for a media-editing application
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US9001128B2 (en) 2011-05-06 2015-04-07 Danglesnort, Llc Efficient method of producing an animated sequence of images
US9030477B2 (en) * 2011-06-24 2015-05-12 Lucasfilm Entertainment Company Ltd. Editable character action user interfaces
US8913065B2 (en) * 2011-08-05 2014-12-16 Jeffrey McCartney Computer system for animating 3D models using offset transforms
US8907957B2 (en) 2011-08-30 2014-12-09 Apple Inc. Automatic animation generation
US8819567B2 (en) 2011-09-13 2014-08-26 Apple Inc. Defining and editing user interface behaviors
US9164576B2 (en) 2011-09-13 2015-10-20 Apple Inc. Conformance protocol for heterogeneous abstractions for defining user interface behaviors
US9536564B2 (en) 2011-09-20 2017-01-03 Apple Inc. Role-facilitated editing operations
EP2592599B1 (de) * 2011-11-14 2018-07-11 Microsoft Technology Licensing, LLC Animationserzeugung und Verwaltung in Präsentationsanwendungsprogrammen
US9183658B2 (en) 2011-11-14 2015-11-10 Microsoft Technology Licensing, Llc Animation creation and management in presentation application programs
US9003287B2 (en) * 2011-11-18 2015-04-07 Lucasfilm Entertainment Company Ltd. Interaction between 3D animation and corresponding script
US9508176B2 (en) 2011-11-18 2016-11-29 Lucasfilm Entertainment Company Ltd. Path and speed based character control
US9014544B2 (en) 2012-12-19 2015-04-21 Apple Inc. User interface for retiming in a media authoring tool
US9558578B1 (en) 2012-12-27 2017-01-31 Lucasfilm Entertainment Company Ltd. Animation environment
US9734615B1 (en) * 2013-03-14 2017-08-15 Lucasfilm Entertainment Company Ltd. Adaptive temporal sampling
US12008697B2 (en) 2014-06-10 2024-06-11 Ripple, Inc. Of Delaware Dynamic location based digital element
US10026226B1 (en) * 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
US9619940B1 (en) 2014-06-10 2017-04-11 Ripple Inc Spatial filtering trace location
US9646418B1 (en) 2014-06-10 2017-05-09 Ripple Inc Biasing a rendering location of an augmented reality object
US10930038B2 (en) 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US9787958B2 (en) 2014-09-17 2017-10-10 Pointcloud Media, LLC Tri-surface image projection system and method
US9898861B2 (en) 2014-11-24 2018-02-20 Pointcloud Media Llc Systems and methods for projecting planar and 3D images through water or liquid onto a surface
KR101726844B1 (ko) * 2015-03-25 2017-04-13 네이버 주식회사 만화 데이터 생성 시스템 및 방법
US9729863B2 (en) * 2015-08-04 2017-08-08 Pixar Generating content based on shot aggregation
US10068376B2 (en) * 2016-01-11 2018-09-04 Microsoft Technology Licensing, Llc Updating mixed reality thumbnails
US10607386B2 (en) 2016-06-12 2020-03-31 Apple Inc. Customized avatars and associated framework
US10861210B2 (en) 2017-05-16 2020-12-08 Apple Inc. Techniques for providing audio and video effects
US10424100B2 (en) 2017-11-21 2019-09-24 Microsoft Technology Licensing, Llc Animating three-dimensional models using preset combinations of animation features
USD904425S1 (en) 2018-10-08 2020-12-08 Facebook, Inc. Display screen with a graphical user interface
US10623917B1 (en) * 2018-10-08 2020-04-14 Facebook, Inc. Collaborative digital story system
USD904426S1 (en) 2018-10-08 2020-12-08 Facebook, Inc. Display screen with a graphical user interface
US10776907B2 (en) * 2018-10-24 2020-09-15 Adobe Inc. Dynamic image resolution adjustment for rendering changes to graphical content
CN111105482B (zh) * 2019-12-24 2023-04-25 上海莉莉丝科技股份有限公司 动画制作系统、方法及计算机可读存储介质
US11967011B2 (en) * 2022-03-01 2024-04-23 Adobe Inc. Providing and utilizing a one-dimensional layer motion element to generate and manage digital animations
US12051143B2 (en) 2022-03-01 2024-07-30 Adobe Inc. Dynamic path animation of animation layers and digital design objects
US12033257B1 (en) * 2022-03-25 2024-07-09 Mindshow Inc. Systems and methods configured to facilitate animation generation
CN115546357B (zh) * 2022-11-24 2023-02-28 成都华栖云科技有限公司 一种html5网页动画的精准定位动画帧方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5261041A (en) * 1990-12-28 1993-11-09 Apple Computer, Inc. Computer controlled animation system based on definitional animated objects and methods of manipulating same
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5594856A (en) * 1994-08-25 1997-01-14 Girard; Michael Computer user interface for step-driven character animation
US5826102A (en) * 1994-12-22 1998-10-20 Bell Atlantic Network Services, Inc. Network arrangement for development delivery and presentation of multimedia applications using timelines to integrate multimedia objects and program objects
US5838938A (en) * 1995-02-15 1998-11-17 Sony Electronics, Inc. Multimedia user interface employing components of color to indicate the values of variables
US6064393A (en) * 1995-08-04 2000-05-16 Microsoft Corporation Method for measuring the fidelity of warped image layer approximations in a real-time graphics rendering pipeline
US6016150A (en) * 1995-08-04 2000-01-18 Microsoft Corporation Sprite compositor and method for performing lighting and shading operations using a compositor to combine factored image layers
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
WO1997035280A2 (en) * 1996-03-15 1997-09-25 Zapa Digital Arts Ltd. System for producing animation sequence according to character behaviour characteristics
US5801717A (en) * 1996-04-25 1998-09-01 Microsoft Corporation Method and system in display device interface for managing surface memory
US6008816A (en) * 1996-04-25 1999-12-28 Microsoft Corporation Method and system for managing color specification using attachable palettes and palettes that refer to other palettes
US5844569A (en) * 1996-04-25 1998-12-01 Microsoft Corporation Display device interface including support for generalized flipping of surfaces
DE69732663T2 (de) 1996-06-04 2005-12-29 Adobe Systems, Inc., San Jose Verfahren zur erzeugung und änderung von 3d modellen und korrelation von solchen modellen mit 2d bildern
US5781188A (en) 1996-06-27 1998-07-14 Softimage Indicating activeness of clips and applying effects to clips and tracks in a timeline of a multimedia work
GB2317292B (en) 1996-09-12 2000-04-19 Discreet Logic Inc Processing image data
US6948128B2 (en) * 1996-12-20 2005-09-20 Avid Technology, Inc. Nonlinear editing system and method of constructing an edit therein
US5963215A (en) * 1997-03-26 1999-10-05 Intel Corporation Three-dimensional browsing of multiple video sources
US20010043219A1 (en) * 1997-04-07 2001-11-22 John S. Robotham Integrating live/recorded sources into a three-dimensional environment for media productions
US6058397A (en) * 1997-04-08 2000-05-02 Mitsubishi Electric Information Technology Center America, Inc. 3D virtual environment creation management and delivery system
US5930797A (en) * 1997-04-15 1999-07-27 Avid Technology, Inc. Method and system for representing hierarchical time-based data structures and to extract information therefrom
US5920495A (en) * 1997-05-14 1999-07-06 Cirrus Logic, Inc. Programmable four-tap texture filter
US6011562A (en) 1997-08-01 2000-01-04 Avid Technology Inc. Method and system employing an NLE to create and modify 3D animations by mixing and compositing animation data
US6243706B1 (en) 1998-07-24 2001-06-05 Avid Technology, Inc. System and method for managing the creation and production of computer generated works

Also Published As

Publication number Publication date
JP2008251027A (ja) 2008-10-16
JP4204636B2 (ja) 2009-01-07
US20040100482A1 (en) 2004-05-27
CA2298641C (en) 2006-08-01
CA2298641A1 (en) 1999-02-11
WO1999006959A1 (en) 1999-02-11
EP1000410B1 (de) 2005-02-09
US6686918B1 (en) 2004-02-03
EP1000410A1 (de) 2000-05-17
AU7515698A (en) 1999-02-22
US7336264B2 (en) 2008-02-26
JP2001512266A (ja) 2001-08-21
DE69828974D1 (de) 2005-03-17

Similar Documents

Publication Publication Date Title
DE69828974T2 (de) Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung
DE69320516T2 (de) Methode und Gerät zum Editieren von Video
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
DE69701566T2 (de) Medieneditiersystem und verfahren mit verbesserter effektsteuerung
DE69902262T2 (de) Animationssystem und verfahren zum definieren und anwenden von regelbasierten gruppen von objekten
DE69424084T2 (de) Verfahren und Vorrichtung zum Anzeigen von verfügbarem Editierquellenmaterial
DE69131065T2 (de) Computergesteuertes Anzeige-Gerät
DE69837366T2 (de) Verfahren und Vorrichtung zur Anzeige des bewegten Objektes auf einem Hintergrund Bild
DE60022610T2 (de) Verfahren zur Animationskodierung in einer Bilddatei
DE69835570T2 (de) Digitales Videoschnittsystem und -verfahren
DE69835553T2 (de) Nichtlineares digitales Multimediakompositionsverfahren und -system ohne Timeline
DE19944746B4 (de) Editierungssystem und Editierungsverfahren
DE69832611T2 (de) Computergrafiksystem
US5982350A (en) Compositer interface for arranging the components of special effects for a motion picture production
DE69836790T2 (de) Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür
DE69833808T2 (de) Interaktive Zeitspannenanzeige
DE69718652T2 (de) Zeitbasiertes medienverarbeitungssystem und -verfahren
US20020023103A1 (en) System and method for accessing and manipulating time-based data using meta-clip objects
DE102019005516A1 (de) Videoinpainting mittels verlässlichkeitsgewichteter Bewegungsschätzung
DE69229136T2 (de) Ein Animationsanzeigeprozessor
EP2172032B1 (de) Verfahren zur bearbeitung eines räumlichen bildes
DE69720221T2 (de) Graphische benutzerschnittstelle für plan- und schnittsystem für sich bewegende videobilder für einen rechner
DE69830766T2 (de) Verfahren und Vorrichtung zum Bestimmen des Anwendungsumfangs geschichteter synthetischer graphischer Filter
DE69934174T2 (de) Verfahren und Vorrichtung zur digitalen Bildbearbeitung
DE69622338T2 (de) Verfahren und system zum einbetten von teilen eines dokuments und zum synchronisieren einer vielzahl der ansichten dieser teile

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee