DE10045117A1 - Frei spezifizierbare Geometrie- und Klangsteuerung - Google Patents

Frei spezifizierbare Geometrie- und Klangsteuerung

Info

Publication number
DE10045117A1
DE10045117A1 DE10045117A DE10045117A DE10045117A1 DE 10045117 A1 DE10045117 A1 DE 10045117A1 DE 10045117 A DE10045117 A DE 10045117A DE 10045117 A DE10045117 A DE 10045117A DE 10045117 A1 DE10045117 A1 DE 10045117A1
Authority
DE
Germany
Prior art keywords
control data
sound
control
movement
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10045117A
Other languages
English (en)
Other versions
DE10045117C2 (de
Inventor
Bernd Von Prittwitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Civile "galileo 2011" Mc Ste
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE10045117A priority Critical patent/DE10045117C2/de
Priority to PCT/EP2001/009356 priority patent/WO2002023323A2/de
Priority to AU2002212137A priority patent/AU2002212137A1/en
Priority to EP01980243A priority patent/EP1319207A2/de
Priority to DE20121798U priority patent/DE20121798U1/de
Publication of DE10045117A1 publication Critical patent/DE10045117A1/de
Application granted granted Critical
Publication of DE10045117C2 publication Critical patent/DE10045117C2/de
Priority to US10/386,693 priority patent/US7199301B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/315User input interfaces for electrophonic musical instruments for joystick-like proportional control of musical input; Videogame input devices used for musical input or control, e.g. gamepad, joysticks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Electrophonic Musical Instruments (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Zur Echtzeit-Geometriesteuerung eines Gelenk-Objekts wird ein parametrisiertes Bewegungsmuster (4) sowie ein Oberflächenmuster (5) für das Gelenkobjekt definiert. Mittels eines Eingabegeräts (2) werden Ansteuerdaten (11) in die Echtzeit-Geometrie- und Klangsteuerung eingegeben. Schließlich werden Skelett-Änderungsdaten auf Grundlage der Ansteuerdaten (11) als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters (4) berechnet (7). Die Skelett-Änderungsdaten geben dabei translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wieder. Schließlich wird die Oberfläche des virtuellen Gelenk-Objekts auf Grundlage der Skelett-Änderungsdaten und des wenigstens einen Oberflächenmusters (5) berechnet (9). Durch zyklische Wiederholung dieser Schritte wird eine Echtzeit-Geometriesteuerung des Objekts abhängig von den Ansteuerdaten erhalten.

Description

Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Echtzeit- Geometriesteuerung eines Gelenk-Objekts, auf ein Verfahren zur frei spezifizierbaren Geometrie- und Klangsteuerung, auf ein Computersoftware-Produkt zur Ausführung eines solchen Verfahrens sowie auf ein System zur Echtzeit-Geometriesteuerung von Objekten.
Der technologische Hintergrund der vorliegenden Erfindung ist die Echtzeit- Ansteuerung von virtuellen Objekten zur Erzeugung von Bewegungs-, Oberflächen-, Klang- und Beleuchtungseffekten. Eine solche Möglichkeit hat sich in letzter Zeit dadurch ergeben, daß Eingabegeräte für Computer bekannt wurden, die die gleichzeitige Eingabe von Ansteuerdaten mehrerer, voneinander unabhängiger Freiheitsgrade ermöglichen. Die dadurch geschaffenen Möglichkeiten übersteigen beiweitem diejenigen, die beispielsweise bei der Verwendung einer sogenannten Maus bestehen, die sich lediglich zweidimensional über eine Ebene bewegen kann. Zwar ist es auch bekannt, eine Maus beispielsweise mit zusätzlichen Schaltern zu versehen, indessen haben diese Schalter den Nachteil, daß sie nicht die Eingabe von Analogdaten ermöglichen, sondern vielmehr auf Binärdaten (Ein/Aus) beschränkt sind. Die vorliegende Erfindung bezieht sich aber insbesondere auf Eingabegeräte, die Ansteuerdaten von verschiedenen voneinander unabhängigen Freiheitsgraden erzeugen können, und dies jeweils durch Analogsignale. Jedes dieser Analogsignale kann somit als Parameterwert einer Ansteuerung verwendet werden.
Aus dem Stand der Technik sind verschiedene Eingabegeräte dieser Art bekannt. Beispielsweise ist aus der US-5,757,360 ein eiförmiges Eingabegerät für Computer bekannt, das durch die Hand des Benutzers frei im Raum bewegt werden kann und dessen Bewegung sowie Beschleunigungen erfaßt und drahtlos zu dem Computer übertragt. Dabei wird ein spezifischer analoger Bewegungsablauf in Form eines Bewegungsmusters identifiziert, woraus Bewegungsbefehle abgeleitet und eine animierte Grafikdarstellung gegeben werden. Die Bewegungsmuster werden mittels eines Mustererkennungsalgorithmus erkannt. Zusätzlich werden generelle Steuerbefehle erzeugt. Dadurch besteht also der Nachteil, daß diese Technologie insofern nicht frei spezifizierbar ist, als Bewegungsabläufe, die durch Eingabegerät analog vollzogen werden, nur in korrespondierende Bewegungsabläufe einer animierten Grafikdarstellung umgesetzt werden können.
Kraft-Momenten-Sensoren als von Hand betätigbare Eingabegeräte sind beispielsweise aus der DE 36 11 336 C2, DE 37 64 287 sowie der EP 0 979 990 A2 bekannt. Aus der zuletzt genannten Druckschrift ist es weiterhin bekannt, einen derartigen Kraft- Momenten-Sensor zum Steuern eines realen oder virtuellen Misch- bzw. Steuerpults zu verwenden, so beispielsweise zum Steuern des Entwickelns von neuartigen Farb-, Licht- und Tonkompositionen. Hierbei kann wiederum in vorteilhafter Weise die intuitive räumliche Steuerung in den drei translatorischen sowie in den drei rotatorischen Richtungen auf ein stufenloses räumliches Mischen oder Steuern einer großen Anzahl von Parametern übertragen werden.
Aus den von dem oben genannten Stand stellt sich die vorliegende Erfindung zur Aufgabe, die Echtzeit-Geometriesteuerung eines Objekts zu vereinfachen. Diese Aufgabe wird erfindungsgemäß durch die Merkmale der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken der Erfindung in besonders vorteilhafter Weise weiter. Zentraler Aspekt der vorliegenden Erfindung ist es also, daß Muster für die Bewegung, Oberflächengestaltung, Klangerzeugung und/oder Beleuchtung vorab abgespeichert werden. Diese vorab abgespeicherten Muster können dann abhängig von den Ansteuerdaten als Parameterwerte zur Erzeugung von Bewegungs-, Oberflächen-, Klang- bzw. Beleuchtungseffekten abgerufen werden. Das Hinterlegen der jeweiligen Muster kann dabei standardisiert erfolgen, so daß aufbauend auf eine solche Echtzeit-Geometriesteuerung eine Änderung der Bewegungsmuster, Oberflächengestaltung, Klangerzeugung und/oder Beleuchtungseffekte durch modulartiges Austauschen der jeweiligen Muster an einer entsprechenden Schnittstelle der Echtzeit-Geometriesteuerung mit verhältnismäßig geringem Aufwand erfolgen kann.
Gemäß der vorliegenden Erfindung ist es somit erstmals möglich, auf eine vollständige Neuprogrammierung eines Echtzeit-Bewegungsablaufes oder dergleichen zu verzichten; vielmehr können bekannte Bewegungsmuster über eine standardisierte Schnittstelle entsprechend parametrisiert an die Echtzeit-Geometriesteuerung angebunden werden.
Erfindungsgemäß ist also ein Verfahren zur Echtzeit-Geometriesteuerung eines Gelenk- Objekts bekannt. Dabei wird zunächst wenigstens ein parametrisiertes Bewegungsmuster zu wenigstens einem Oberflächenmuster für das Objekt definiert. Wenn nunmehr mittels eines Eingabegeräts Ansteuerdaten in die Echtzeit- Geometriesteuerung eingegeben werden, berechnet diese Skelett-Änderungsdaten auf Grundlage der Ansteuerdaten als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters. Dabei geben die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wieder. Schließlich wird die Oberfläche des (virtuellen) Gelenk- Objekts auf Grundlage der Skelett-Änderungsdaten und des wenigstens einen Oberflächenmusters berechnet. In dem nunmehr die zuletzt genannten Schritte zügig wiederholt werden, wird eine Echtzeit-Geometriesteuerung des Objekts abhängig von den Ansteuerdaten erhalten.
Durch Austausch bzw. erneute Definition eines parametrisierten Bewegungsmusters und/oder Oberflächenmusters kann also mit sehr geringem Aufwand eine Geometriesteuerung eines neuartigen Gelenk-Objekts erzielt werden.
Weiterhin können Klangsignale durch Verknüpfung vorab abgelegter digitaler parametrisierter Klangmuster, wie beispielsweise Tondateien gemäß dem sogenannten Midi-Standard mit den Ansteuerdaten als Parameterwerte erzeugt werden.
Die Ansteuerdaten von wenigstens sechs unabhängigen Freiheitsgraden können gleichzeitig eingegeben und in Echtzeit verarbeitet werden.
Die Ansteuerdaten von drei translatorischen und drei rotatorischen Freiheitsgraden können dabei verwendet werden.
Erfindungsgemäß können darüber hinaus insbesondere zeitliche Ableitungen der Ansteuerdaten ermittelt und verarbeitet werden. Die Steuerung ermittelt also die zeitliche Veränderung der Ansteuerdaten selbst, so daß im Gegensatz beispielsweise zur bereits genannten US-A-5,757,360 kein eigener Beschleunigungssensor erforderlich ist. Die Beschleunigung kann vielmehr durch zeitliche Auswertung der Entwicklung der Ansteuerdaten durch die Geometriesteuerung selbst ermittelt werden.
Die Zuordnung der Ansteuerdaten bzw. deren zeitliche Ableitungen als Parameterwerte für die Bewegungs-, Oberflächen- bzw. Klangmuster können frei spezifizierbar sein.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Verfahren zur frei spezifizierbaren Geometrie- und Klangsteuerung vorgesehen. Für eine Bewegungs-, Oberflächen- und/oder Klangerzeugung ist dabei wenigstens ein vordefiniertes parametrisiertes Bewegungs-, Oberflächen- und/oder Klangmuster hinterlegt. Ansteuerdaten verschiedener Freiheitsgrade von einem Eingabegerät werden ausgewertet und als Parameterwerte zur Erzeugung von Bewegungs-, Oberflächen- und/oder Klangdaten mit Hilfe des/der hinterlegten Muster/s verwendet. Die Zuordnung der Ansteuerdaten jeweils eines Freiheitsgrades zu einem bestimmten Bewegungs-, Oberflächen- und/oder Klangmuster ist dabei durch den Benutzer frei wählbar.
Zusätzlich können gegebenenfalls zeitliche Ableitungen der Ansteuerdaten einem bestimmten Bewegungs-, Oberflächen- und/oder Klangmuster zugeordnet werden.
Die Kopplungsparameter der Zuordnung, wie beispielsweise die Dämpfung und die Verstärkung können dabei ebenfalls durch den Benutzer frei einstellbar sein.
Gemäß einem noch weiteren Aspekt der vorliegenden Erfindung ist ein Computersoftware-Produkt vorgesehen, das im in einen Speicher einer Recheneinheit geladenen Zustand ein Verfahren nach einem der vorhergehenden Ansprüche ausführt.
Gemäß einen noch weiteren Aspekt der vorliegenden Erfindung ist ein System zur Echtzeit-Geometriesteuerung von Objekten vorgesehen, das einen Speicher aufweist, in dem wenigstens ein parametrisiertes Bewegungsmuster und wenigstens ein Oberflächenmuster des Objekts abgelegt sind. Weiterhin weist das System ein Eingabegerät zur Eingabe von Ansteuerdaten für die Echtzeit-Geometriesteuerung auf. Ein Bewegungsgenerator ist vorgesehen, um Skelett-Änderungsdaten auf Grundlage der Ansteuerdaten als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters zu berechnen. Die Skelett-Änderungsdaten geben dabei translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wieder. Schließlich ist ein Oberflächengenerator vorgesehen, der die Oberfläche des virtuellen Gelenkobjekts auf Grundlage der Skelett-Änderungsdaten und des Oberflächenmusters berechnet.
Weiterhin kann ein Klanggenerator zur Erzeugung von Klangsignalen durch Verknüpfung digitaler parametrisierter Klangmuster mit Ansteuerdaten als Parameterwerte vorgesehen sein.
Das Eingabegerät kann zur gleichzeitigen Eingabe von Ansteuerdaten von wenigstens sechs unabhängigen Freiheitsgraden ausgelegt sein.
Das Eingabegerät kann insbesondere zur Eingabe von Ansteuerdaten von drei translatorischen und drei rotatorischen Freiheitsgraden ausgelegt sein.
Es kann weiterhin eine Einheit zur Ermittlung und Verarbeitung von zeitlichen Ableitungen der Ansteuerdaten vorgesehen sein.
Weiterhin kann eine Einheit zur wahlfreien Zuordnung der Ansteuerdaten bzw. derer Ableitungen als Parameterwerte für die Skelett- und Oberflächendaten bzw. Klangsignale vorgesehen sein.
Gemäß einem noch weiteren Aspekt der vorliegenden Erfindung ist ein System zur frei spezifizierbaren Geometrie- und Klangsteuerung vorgesehen. Das System weist dabei einen Speicher auf, in dem für eine Bewegungs-, Oberflächen-, Beleuchtungs- und/oder Klangerzeugung wenigstens ein vordefiniertes parametrisiertes Bewegungs-, Oberflächen-, Beleuchtungs- und/oder Klangmuster hinterlegt ist. Das System weist weiterhin eine Recheneinheit zur Auswertung von Ansteuerdaten verschiedener Freiheitsgrade von einem Eingabegerät als Parameterwerte zur Erzeugung von Bewegungs-, Oberflächen- und/oder Klangdaten mit Hilfe des/der hinterlegten Muster/s auf. Schließlich ist eine Einstelleinheit vorgesehen, um eine frei wählbare Zuordnung von Ansteuerdaten jeweils eines Freiheitsgrads zu einem bestimmten Bewegungs-, Oberflächen- und/oder Klangmuster zu ermöglichen.
Die Einstelleinheit kann dabei weiterhin die Zuordnung von zeitlichen Ableitungen der Ansteuerdaten zu einem bestimmten Bewegungs-, Oberflächen- und/oder Klangmuster ermöglichen.
Die Einstelleinheit kann dabei darüber hinaus eine frei wählbare Einstellung von Kopplungsparametern der Zuordnung, wie beispielsweise der zeitlichen Dämpfung und der Verstärkung ermöglichen.
Weitere Eigenschaften, Merkmale und Vorteile der vorliegenden Erfindung werden aus der nunmehr folgenden Beschreibung eines Ausführungsbeispiels und bezugnehmend auf die Figuren der beigelegten Zeichnungen näher ersichtlich.
Fig. 1 zeigt eine schematische Darstellung einer frei spezifizierbaren Geometriesteuerung gemäß der vorliegenden Erfindung,
Fig. 2 zeigt eine Detailansicht von Fig. 1, aus der insbesondere die verschiedenen Elemente der frei spezifizierbaren Geometrie- und Klangsteuerung näher ersichtlich sind, und
Fig. 3 zeigt eine schematische Flußbilddarstellung des Ablaufs gemäß der vorliegenden Erfindung.
Bezugnehmend auf Fig. 1 soll nunmehr zuerst die vorliegende Erfindung schematisch erläutert werden. Die Mensch/Maschinenschnittstelle ist ein Eingabegerät 2 und insbesondere ein sogenanntes 3D-Eingabegerät, das beispielsweise Ansteuerdaten 11 in sechs voneinander unabhängigen Freiheitsgraden erzeugen kann, wenn es entsprechend durch einen Benutzer manipuliert wird. Diese Freiheitsgrade umfassen beispielsweise drei translatorische Freiheitsgrade, die im folgenden x, y, z bezeichnet werden, sowie drei rotatorische Freiheitsgrade, die im folgenden als a, b, c bezeichnet werden.
Selbstverständlich können beispielsweise mit Tastensteuerungen oder Schaltern verhältnismäßig einfach noch weitere Freiheitsgrade hinzugefügt werden. Dabei ist anzumerken, daß Schalter bzw. Tasten in der Regel binäre Ansteuersignale (Ein/Aus oder dergleichen) erzeugen, wohingegen die oben genannten drei translatorischen Freiheitsgrade x, y, z bzw. rotatorischen Freiheitsgrade a, b, c jeweils analoge Ansteuersignale ergeben können, die dann beispielsweise in 256 Stufen als digitale Signale zur weiteren Verarbeitung umgesetzt werden können.
Dadurch, daß die translatorischen und drei rotatorischen Freiheitsgrade x, y, z, a, b, c "Analogsignale" bzw. in 256 Stufen aufgelöste digitale Signale sind, kann gemäß der vorliegenden Erfindung auch die zeitliche Veränderung dieser Ansteuersignale 11 durch die weiter unten dann näher beschriebene frei spezifizierbare Geometrie- und Klangsteuerung 1 ausgewertet werden. Insbesondere ist es also möglich, die Geschwindigkeit, Beschleunigung, etc. der Freiheitsgrade x, y, z, a, b, c, . . . zu erfassen und gegebenenfalls als weitere Freiheitsgrade unabhängig von dem Absolutwert der jeweiligen Ansteuersignale 11 zu verwerten. Dabei sind seitens des Eingabegeräts keine weiteren Sensoren (Beschleunigungssensoren etc.) notwendig.
Während also eingabeseitig die Ansteuersignale 11 von dem Eingabegerät 2 der frei spezifizierbaren Geometrie- und Klangsteuerung 1 gemäß der vorliegenden Erfindung zugeführt werden, gibt diese abhängig von diesen Ansteuersignalen 11 Animationssignale 10 aus, mit Hilfe derer eine 3D-Animation 21 beispielsweise auf dem Bildschirm eines Computer erzeugt werden kann. Diese 3D-Animation 21 kann folgendes umfassen:
  • - wenigstens einen bewegten Gelenkkörper,
  • - ansteuerbare Oberflächenmuster des Gelenkkörpers und/oder der Umgebung,
  • - ansteuerbare Klangmuster und
  • - ansteuerbare Beleuchtungsmuster für den/die Gelenkkörper und/oder die Umgebung.
Dabei ist darauf hinzuweisen, daß die Erzeugung dieser Animation 21 bezüglich der Ansteuersignale 11 in Echtzeit ausgeführt wird. Es ist also im Gegensatz zu manchen bekannten Beispielen des Standes der Technik normalerweise nicht notwendig, Klang- oder Bewegungssequenzen vorab abzuspeichern, um sie dann sozusagen auf Knopfdruck auszulösen.
Großer Vorteil der vorliegenden Erfindung ist es, daß für eine neue zu erzeugende Animation 21 nicht eine vollständig neue Programmierung erfolgen muß, wie es gemäß dem Stand der Technik der Fall ist. Vielmehr können vordefinierte Bewegungsmuster 3, Oberflächenmuster 4, Klangmuster 5 und Beleuchtungsmuster 19 schnittstellenartig mit der frei spezifizierbaren Geometrie- und Klangsteuerung 1 verbunden werden. Durch Austausch bzw. Neuspezifikation wenigstens eines der genannten Muster kann in einfacher Weise eine völlig neuartige Animation 21 erzeugt werden. Der Programmieraufwand zur Erstellung einer neuen Animation 21 wird somit deutlich verringert.
Im übrigen ist anzumerken, daß hinsichtlich der Bewegungsmuster beispielsweise von verschiedenen Tieren oder aber auch von Menschen bereits sehr viel Know-how besteht, so daß gemäß der vorliegenden Erfindung in einfacher Weise auf dieses bestehende Know-how zurückgegriffen werden kann, indem diese bekannten Bewegungsmuster modulartig und standardisiert (siehe weiter unten) an die Schnittstelle der frei spezifizierbaren Geometrie- und Klangsteuerung 1 "angedockt" werden.
Es ist anzumerken, daß das 3D-Eingabegerät 2 nur ein Beispiel für ein Eingabegerät zur Erzeugung von Ansteuersignalen 11 darstellt. Grundsätzlich ist jede andere Art von Eingabegerät ebenfalls geeignet, wobei indessen das 3D-Eingabegerät 2 den großen Vorteil aufweist, daß die Eingabe von Ansteuersignalen 11 von unterschiedlichen Freiheitsgraden in besonders intuitiver Weise erfolgen kann. Hinsichtlich der konkreten Ausführungsformen von solchen 3D-Eingabegeräten 2 wird auf den Beschreibungseinleitung zitierten Stand der Technik verwiesen. Derartige Produkte sind bspw. von der Firma Logicad3d im Handel erhältlich.
Bezugnehmend auf Fig. 2 soll nunmehr im Detail der Aufbau der erfindungsgemäßen frei spezifizierbaren Geometrie- und Klangsteuerung 1 erläutert werden. Die grau unterlegten Pfeile 11 und 10 zeigen die in Echtzeit ablaufende Ein- bzw. Ausgabe von Signalen von bzw. zu der frei spezifizierbaren Geometrie- und Klangsteuerung 1, nämlich die Ansteuersignale 11 (x, y, z, a, b, c, . . .) von dem Eingabegerät 2 sowie die Animations-Ausgabedaten 10.
Wie aus Fig. 2 ersichtlich werden die Ansteuersignale 11 einem Freispezifizierungsmodul 6 zugeführt. Die eine Funktion des Freispezifizierungsmoduls 6 ist es, aus den Absolutwerten der eingegebenen "Analogdaten" x, y, z, a, b, c, . . . zeitliche Ableitungen (Geschwindigkeit) dieser Werte bzw. auch Ableitungen höherer Ordnung (Beschleunigung) zu ermitteln. Somit kann ohne zusätzlichen Sensor (Beschleunigungssensor) beispielsweise die Geschwindigkeit und die Beschleunigung bezüglich der genannten "Analogdaten" unter den Ansteuersignalen 11 ermittelt werden.
Die zweite wichtige Funktion des Freispezifizierungsmoduls 6 ist es, die Ansteuersignale 11 der verschiedenen Freiheitsgrade der Klangerzeugung, der Beleuchtungserzeugung, der Oberflächenerzeugung sowie der Bewegungserzeugung zuzuordnen. Es kann also beispielsweise für den Benutzer eine Maske bei der Initialisierung der erfindungsgemäßen Geometrie- und Klangsteuerung 1 vorgesehen sein, die dem Benutzer den Zugriff auf das Freispezifizierungsmodul 6 derart ermöglicht, daß der Benutzer je einen Freiheitsgrad der Ansteuersignale 11 einem von Bewegungserzeugung, Oberflächenerzeugung, Beleuchtungserzeugung bzw. Klangerzeugung zuordnen kann.
Darüber hinaus kann der Benutzer mittels dieses Freispezifizierungsmoduls 6 Kopplungsparameter der Zuordnung wie beispielsweise die Dämpfung und Verstärkung frei einstellen. Die einstellbaren Kopplungsparameter legen also die zeitliche Kopplung sowie die Verstärkung der Veränderung des entsprechenden Musters abhängig von dem zugewiesenen Ansteuersignal und somit das Signalantwortverhalten des Systems fest. Abhängig von der Spezifizierung durch den Benutzer ordnet also das Freispezifizierungsmodul 6 Kopplungsparameter der Zuordnung wie beispielsweise die Dämpfung und Verstärkung frei einstellbar zu. Wenn bspw. die Kopplungsparameter bezüglich eines Bewegungsmusters verändert werden, kann von einer dynamischen auf eine hinkende Gehbewegung stufenlos umgestellt werden. Als weiteres Beispiel können dadurch verschiedene Stimmungen oder Emotionen, ausgedrückt durch ein Gesicht eingestellt werden. Der Benutzer kann dadurch bspw. stufenlos zwischen der Gehbewegung eines jungen Sportlers und der eines alten Mannes wählen, so daß in einfacher Weise verschiedene Charaktere und/oder Stimmungen gewählt werden können.
Im Sinne einer höherwertigen Zuordnung ist es auch möglich, anstelle der Einstellung einzelner Kopplungsparameter lediglich im Zuge der Spezifizierung den Charakter (alt etc.) und/oder die Stimmung (lustig/traurig etc.) anzuwählen, wobei das Freispezifizierungsmodul 6 dann automatisch die einzelnen Kopplungsparameter (bspw. für den Gang, das Gesicht etc.) einstellt. Anstelle einer Einzeleinstellung ermöglicht diese höherwertige (verknüpften) Zuordnung also eine Charakter- und/ oder Stimmungswahl. Die Stimmungswahl kann Einfluß auf verschiedene Muster haben, so daß bspw. gleichzeitig die Klangerzeugung, die Beleuchtung und der Gang als Bewegung verändert werden. Es können also durch eine Aktion des Benutzers sowohl mehrere Kopplungsparameter eines Musters wie auch mehrere Kopplungsparameter verschiedener Muster (Bewegung, Oberfläche, Klang, Beleuchtung) automatisch verändert werden.
Somit können Choreographien erstellt werden, die eine Echtzeit-Ansteuerung einer Charakter-Figur und des Hintergrunds verwenden.
Abhängig von der Spezifizierung durch den Benutzer ordnet genauer gesagt das Freispezifizierungsmodul 6 die entsprechenden Ansteuersignale 11 als Akkustik- Ansteuersignale 12 einem Akkustikgenerator 21, als Beleuchtungs-Ansteuersignale 18 einem Beleuchtungsgenerator 8, als Bewegungs-Ansteuersignale 17 einem Bewegungsgenerator 7 und/ oder als Oberflächen-Ansteuersignale 15 einem Oberflächengenerator 9 zu.
Der Akkustikgenerator 21 verknüpft dabei die ihm zugeordneten Akkustik(Klang)- Ansteuerdaten 12 mit wenigstens einem parametrisierten vordefinierten Klangmuster 3. Das Produkt dieser Verknüpfung sind Klang-Animationsansteuerdaten 13, die einen Teil der Animations-Ansteuerdaten 10 darstellen. Die vordefinierten Klangmuster können bspw. parametrisierte digitale Klangdateien sein.
In entsprechender Weise verknüpft der Beleuchtungsgenerator 8 die ihm zugewiesenen Beleuchtungs-Ansteuerdaten 18 mit wenigstens einem vordefinierten parametrisierten Beleuchtungsmuster 19 zur Erzeugung von Beleuchtungs-Animationsdaten 20. Das Beleuchtungsmuster 19 kann dabei ein Objekt und/oder seine Umgebung betreffen.
Der Bewegungsgenerator verknüpft die ihm zugewiesenen Bewegungs-Ansteuerdaten 17 mit wenigstens einem vordefinierten parametrisierten Bewegungsmuster 4 zur Erzeugung von Bewegungs-Animationsdaten 16. Somit können also verschiedene Bewegungsmuster wie z. B. Gehen in verschiedenen Richtungen, Bücken, Springen etc. in Echtzeit angesteuert werden.
Der Oberflächengenerator 9 verknüpft die ihm zugewiesenen Oberflächen- Ansteuerdaten 15, die durch den Bewegungsgenerator 7 erzeugen Bewegungs- Animationsdaten 16 sowie Daten von wenigstens einem vorgegebenen parametrisierten Oberflächenmuster 5 zur Erzeugung von Oberflächen-Animationsdaten 14. Somit kann bspw. eine Farbänderung bestimmter Flächen eines bewegten Objekts und/oder seiner Umgebung angesteuert werden.
Wie bereits ausgeführt sind die vordefinierten Klangmuster 3, Beleuchtungsmuster 19, Bewegungsmuster 4 und Oberflächenmuster 5 jeweils parametrisiert, so daß die entsprechenden zugeordneten Ansteuerdaten durch den Akkustikgenerator 21, den Beleuchtungsgenerator 8, den Bewegungsgenerator 7 bzw. den Oberflächengenerator 9 als Parameterwerte verwendet werden können, um eine Echtzeitsteuerung der entsprechenden Muster abhängig von den Ansteuersignalen 11 auszuführen, wobei sich die Echtzeit-Ansteuerung der entsprechenden Muster in der entsprechenden Veränderung der erzeugten Animationsdaten 13, 20, 14 und 16 niederschlägt, die insgesamt zu den Animations-Ansteuerdaten 10 zusammengefaßt werden.
Der Benutzer kann also durch entsprechende Manipulation des Eingabegeräts 2 und der entsprechenden Zuordnung durch das Freispezifizierungsmodul 6 (die durch den Benutzer selbst oder aber vorab eingestellt wurde) in Echtzeit die Klangmuster 3, die Beleuchtungsmuster 19, die Bewegungsmuster 4 sowie die Oberflächenmuster (Geometrien, Texturen, etc.) 5 ansteuern. Dabei kann er einerseits vordefinierte Muster auslösen, wozu beispielsweise ein reiner Schalter am Eingabegerät 2 verwendet werden kann. Andererseits kann er unter Verwendung der "Analogansteuersignale" x, y, z, a, b, c eine echte Echtzeitsteuerung der genannten Muster ausführen.
Die Funktion der Generatoren soll dabei anhand des Bewegungsgenerators 7 im Detail erläutert werden:
Es wird vorausgesetzt, daß im Zuge der Animation ein Gelenkkörper in Echtzeit angesteuert werden soll. Der Bewegungsgenerator 7 berechnet also in diesem Fall laufend abhängig von den Bewegungs-Ansteuerdaten 17 die neue Position und Orientierung der Gelenke des Gelenkkörpers.
Ein Bewegungsmuster 4 wird also beispielsweise wie folgt definiert: Zuerst werden Skelettdaten definiert, die die Art und Lage der Gelenke des Gelenkkörpers beschreiben. Neben der Position (Lage) der Gelenke wird also auch die Art (Freiheitsgrade, etc.) definiert. Für jedes Gelenk kann beispielsweise folgender String definiert werden:
{Name, Position, Freiheitsgrad, maximale Amplitude, Dämpfung, . . .}
Ein Bewegungsablauf besteht also dann aus einer Liste oder einer Funktion, die festlegen, welches der definierten Gelenke sich abhängig von den Ansteuerdaten als Parametern wann und wie bewegt. Ein Bewegungsablauf kann somit beispielsweise durch eine Liste der "abzuarbeitenden" Gelenke bestehen. Pro Zyklus wird also durch Abarbeiten der Liste oder einer Funktion berechnet, welche neue Position und/oder Orientierung der Gelenke sich aus den Einzelbeiträgen der verschiedenen Gelenke abhängig von den Ansteuerdaten als Parameterwerte ergibt.
Zu einem Zeitpunkt t berechnet sich also die Position definiert durch die Koordinaten x, y, z sowie die Orientierung definiert durch die Winkelkoordinaten a, b, c eines Gelenks wie folgt:
Diese Gleichung (1) wird also für jedes der in den Skelettdaten definierten Gelenke berechnet. Die neue Position und Orientierung eines Gelenks zum Zeitpunkt t berechnet sich somit aus der Position aus dem vorherigen Zyklus t-1 zuzüglich der neuen ansteuerdatenabhängigen Beiträge Δxj, Δyj, Δzj, Δaj, Δbj, Δcj. Jedes Gelenk j liefert somit einen Positions- und Orientierungsänderungsbeitrag für jedes Gelenk, sich selbst eingeschlossen.
Es sei angemerkt, daß die Großbuchstaben sich auf die Positionen und Orientierungen der Gelenke beziehen, wohingegen die Kleinbuchstaben sich auf die jeweiligen Ansteuersignale in diesem Freiheitsgrad beziehen.
Die Beiträge eines jeden Gelenks j zur Verschiebung der Position bzw. Orientierung eines jeden anderen Gelenks sowie desselben Gelenks werden nach der folgenden Formel berechnet:
Die Funktion fj(x, y, z, a, b, c, , , , , , , . . .) stellt dabei die Repräsentation dar, wie ein bestimmter Bewegungsablauf, z. B. der Gang eines Menschen standardisiert wiedergegeben werden kann.
Bezugnehmend auf das Flußdiagramm von Fig. 3 soll nun schließlich nochmals der Ablauf gemäß der vorliegenden Erfindung erläutert werden. Die Schritte S9, S10 und S11 beziehen sich dabei auf einen Einstellungs- und Zuweisungsvorgang in dem Freispezifizierungsmodul 6. Dieser Vorgang kann entweder durch den Benutzer oder aber auch vorab festgelegt sein. Nach dem Start im Schritt S9 kann also der Benutzer und/oder ein Programmierer durch das Freispezifizierungsmodul 6 die einzelnen Ansteuersignale 11 der verschiedenen Freiheitsgrade in verschiedenen Muster Klang, Bewegung, Oberflächen und/oder Beleuchtung zuweisen. In einem Schritt S11 können dann die Kopplungsparameter zwischen den Ansteuersignalen und den tatsächlich in Echtzeit ausgeführten Änderungen der entsprechenden Muster eingestellt werden. Diese Kopplungsparameter können beispielsweise die Dämpfung und die Verstärkung betreffen.
Bei dem Start einer eigentlichen Echtzeitanimation im Schritt S1 werden dann in einem Schritt S2 die Ansteuerdaten von dem Eingabegerät 2 in die frei spezifizierbare Geometrie- und Klangsteuerung ausgegeben. In einem Schritt S3 werden dann die Ansteuerdaten ausgewertet, wobei beispielsweise die verschiedenen zeitlichen Ableitungen der "Analogsteuersignale" ermittelt werden. Schließlich wird in einem Schritt S4 eine Zuweisung der Ansteuerdaten der verschiedenen Freiheitsgrade zu den bereits genannten Mustern Klang S5, Bewegung S6, Oberfläche S7 und/oder Beleuchtung S8 ausgeführt.
Hinsichtlich des Beleuchtungsmusters S8 ist anzumerken, daß sowohl die Beleuchtungssituation für ein animiertes Gelenkobjekt selbst wie aber auch die Beleuchtung des Hintergrunds bzw. verschiedener Szenen in Echtzeit durch entsprechende Zuordnung und Eingabe von Ansteuersignalen 11 verändert werden kann.

Claims (20)

1. Verfahren zur Echtzeit-Geometriesteuerung eines Gelenk-Objekts, aufweisend die folgenden Schritte:
  • a) Definition wenigstens eines parametrisierten Bewegungsmusters (4),
  • b) Definition wenigstens eines Oberflächenmusters (5) für das Objekt,
  • c) Eingabe von Ansteuerdaten (11) mittels eines Eingabegeräts (2),
  • d) Berechnung (7) von Skelett-Änderungsdaten auf Grundlage der Ansteuerdaten (11) als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters (4), wobei die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wiedergeben,
  • e) Berechnung (9) der Oberfläche des virtuellen Gelenk-Objekts auf Grundlage der Skelett-Änderungsdaten und des wenigstens einen Oberflächenmusters (5), wobei die Schritte c), d) und e) zyklisch wiederholt werden, um eine Echtzeit- Geometriesteuerung des Objekts abhängig von den Ansteuerdaten (11) zu erhalten.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß weiterhin Klangsignale (13) durch Verknüpfung (8) vorab abgelegter digitaler parametrisierter Klangmuster (3) mit den Ansteuerdaten (11) als Parameterwerte erzeugt werden.
3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, daß Ansteuerdaten (11) von wenigstens sechs unabhängigen Freiheitsgraden gleichzeitig eingegeben und in Echtzeit verarbeitet werden können.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass Ansteuerdaten (11) von drei translatorischen und drei rotatorischen Freiheitsgraden eingegeben werden können.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zeitliche Ableitungen der Ansteuerdaten (11) ermittelt und verarbeitet werden.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zuordnung (6) der Ansteuerdaten bzw. derer Ableitungen als Parameterwerte für die Bewegungs-, Oberflächen- bzw. Klangmuster frei spezifiziert werden kann.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß weiterhin parametrisierte Beleuchtungsmuster hinterlegt werden, die zur Erzeugung von Beleuchtungseffekten mittels entsprechender Verknüpfung mit Anteuerdaten als Parametern verwendet werden.
8. Verfahren zur frei spezifizierbaren Geometrie- und Klangsteuerung,
wobei für eine Bewegungs-, Oberflächen- und/oder Klangerzeugung wenigstens ein vordefiniertes parametrisiertes Bewegungs-, Oberflächen- und/oder Klangmuster (3, 4, 5) hinterlegt ist, wobei Ansteuerdaten (11) verschiedener Freiheitsgrade von einem Eingabegerät (2) ausgewertet werden und als Parameterwerte zur Erzeugung (7, 8, 9) von Bewegungs-, Oberflächen- und/oder Klangdaten mit Hilfe des/der hinterlegten Muster verwendet werden,
wobei die Zuordnung (6) von Ansteuerdaten jeweils eines Freiheitsgrads zu einem bestimmten Bewegungs-, Oberflächen- und/oder Klangmuster (3, 4, 5) frei wählbar ist.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass weiterhin zeitliche Ableitungen der Ansteuerdaten (11) einem bestimmten Bewegungs-, Oberflächen- und/oder Klangmuster zugeordnet (6) werden können.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass Kopplungsparameter der Zuordnung wie z. B. Dämpfung und Verstärkung frei wählbar sind.
11. Computersoftware-Produkt, dadurch gekennzeichnet, dass es im in einen Speicher einer Recheneinheit geladenen Zustand ein Verfahren nach einem der vorhergehenden Ansprüche ausführt.
12. System zur Echtzeit-Geometriesteuerung von Objekten, mit
  • - einem Speicher, in dem abgelegt sind:
  • - wenigstens ein parametrisiertes Bewegungsmusters (4), und
  • - wenigstens ein Oberflächenmuster (5) eines Objekts,
  • - einem Eingabegerät (2) zur Eingabe von Ansteuerdaten (11) für die Echtzeit- Geometriesteuerung,
  • - einem Bewegungsgenerator (7) zur Berechnung von Skelett-Änderungsdaten auf Grundlage der Ansteuerdaten (11) als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters, wobei die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke wiedergeben, und
  • - einem Oberflächengenerator (9) zur Berechnung der Oberfläche des virtuellen Gelenk-Objekts auf Grundlage der Skelett-Änderungsdaten und des Oberflächenmusters (5).
13. System nach Anspruch 12, gekennzeichnet durch einen Klanggenerator (8) zur Erzeugung von Klangsignalen durch Verknüpfung wenigstens eines digitalen parametrisierten Klangmusters (3) mit Ansteuerdaten (11) als Parameterwerte.
14. Verfahren nach einem der Ansprüche 12 oder 13, dadurch gekennzeichnet, daß das Eingabegerät (2) zur gleichzeitigen Eingabe von Ansteuerdaten (11) von wenigstens sechs unabhängigen Freiheitsgraden ausgelegt ist.
15. System nach Anspruch 14, dadurch gekennzeichnet, daß das Eingabegerät (2) zur Eingabe von Ansteuerdaten (11) von drei translatorischen und drei rotatorischen Freiheitsgraden ausgelegt ist.
16. System nach einem der Ansprüche 12 bis 15, dadurch durch eine Einheit (6) zur Ermittlung und Verarbeitung von zeitliche Ableitungen der Ansteuerdaten (11).
17. System einem der Ansprüche 12 bis 16, gekennzeichnet durch eine Einheit (6) zur wahlfreien Zuordnung der Ansteuerdaten bzw. derer Ableitungen als Parameterwerte für die Skelett- und Oberflächendaten bzw. Klangsignale.
18. System zur frei spezifizierbaren Geometrie- und Klangsteuerung,
aufweisend einen Speicher (3, 4, 5), in dem für eine Bewegungs-, Oberflächen-, Beleuchtungs- und/oder Klangerzeugung wenigstens ein vordefiniertes parametrisiertes Bewegungs-, Oberflächen-, Beleuchtungs- und/oder Klangmuster (3, 4, 5) hinterlegt ist, sowie eine Recheneinheit (1) zur Auswertung von Ansteuerdaten verschiedener Freiheitsgrade von einem Eingabegerät (2) als Parameterwerte zur Erzeugung von Bewegungs-, Oberflächen-, Beleuchtungs- und/oder Klangdaten mit Hilfe des/der hinterlegten Muster (3, 4, 5),
weiterhin aufweisend eine Einstelleinheit (6) zur frei wählbaren Zuordnung von Ansteuerdaten jeweils eines Freiheitsgrads zu einem bestimmten Bewegungs-, Oberflächen-, Beleuchtungs- und/oder Klangmuster (3, 4, 5).
19. System nach Anspruch 18, dadurch gekennzeichnet, daß die Einstelleinheit (6) weiterhin die Zuordnung von zeitliche Ableitungen der Ansteuerdaten zu einem bestimmten Bewegungs-, Oberflächen-, Beleuchtungs- und/oder Klangmuster ermöglicht.
20. System nach Anspruch 18 oder 19, dadurch gekennzeichnet, daß die Einstelleinheit (6) eine frei wählbare Einstellung von Kopplungsparameter der Zuordnung wie z. B. Dämpfung und Verstärkung ermöglicht.
DE10045117A 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung Expired - Lifetime DE10045117C2 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE10045117A DE10045117C2 (de) 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung
PCT/EP2001/009356 WO2002023323A2 (de) 2000-09-13 2001-08-13 Frei spezifizierbare echtzeit-steuerung
AU2002212137A AU2002212137A1 (en) 2000-09-13 2001-08-13 Freely specifiable real-time control
EP01980243A EP1319207A2 (de) 2000-09-13 2001-08-13 Frei spezifizierbare echtzeit-steuerung
DE20121798U DE20121798U1 (de) 2000-09-13 2001-08-13 System zur frei spezifizierbaren Echtzeit-Steuerung
US10/386,693 US7199301B2 (en) 2000-09-13 2003-03-13 Freely specifiable real-time control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10045117A DE10045117C2 (de) 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung

Publications (2)

Publication Number Publication Date
DE10045117A1 true DE10045117A1 (de) 2002-03-28
DE10045117C2 DE10045117C2 (de) 2002-12-12

Family

ID=7655959

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10045117A Expired - Lifetime DE10045117C2 (de) 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung

Country Status (5)

Country Link
US (1) US7199301B2 (de)
EP (1) EP1319207A2 (de)
AU (1) AU2002212137A1 (de)
DE (1) DE10045117C2 (de)
WO (1) WO2002023323A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049863A1 (de) * 2006-10-23 2008-05-08 Siemens Ag Zeitnavigator bei medizinischen bewegten Bildern
DE102006010151A8 (de) * 2005-05-25 2012-02-09 Lite-On Technology Corp. Verfahren und Vorrichtung zum Mischen von Musik

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7339589B2 (en) * 2002-10-24 2008-03-04 Sony Computer Entertainment America Inc. System and method for video choreography
US6999093B1 (en) * 2003-01-08 2006-02-14 Microsoft Corporation Dynamic time-of-day sky box lighting
US20080024434A1 (en) * 2004-03-30 2008-01-31 Fumio Isozaki Sound Information Output Device, Sound Information Output Method, and Sound Information Output Program
US20090181769A1 (en) * 2004-10-01 2009-07-16 Alfred Thomas System and method for 3d image manipulation in gaming machines
WO2006039324A2 (en) * 2004-10-01 2006-04-13 Wms Gaming Inc. System and method for 3d reel effects
US7874900B2 (en) * 2004-10-01 2011-01-25 Wms Gaming Inc. Displaying 3D characters in gaming machines
DE102004059051A1 (de) * 2004-12-07 2006-06-08 Deutsche Telekom Ag Verfahren und modellbasiertes Audio- und Videosystem zur Darstellung einer virtuellen Figur
US7855715B1 (en) * 2005-07-27 2010-12-21 James Harrison Bowen Switch with depth and lateral articulation detection using optical beam
US9666031B2 (en) * 2006-06-12 2017-05-30 Bally Gaming, Inc. Wagering machines having three dimensional game segments
DE08713892T1 (de) 2007-01-22 2010-02-11 Bell Helicopter Textron, Inc., Fort Worth System und verfahren zur durchführung von mehreren simultanen, unabhängigen simulationen in einer bewegungserfassungsumgebung
EP2126778A4 (de) * 2007-01-22 2013-01-09 Bell Helicopter Textron Inc System und verfahren zur steuerung einer virtuellen realität durch einen darsteller in der virtuellen realität
US8599194B2 (en) * 2007-01-22 2013-12-03 Textron Innovations Inc. System and method for the interactive display of data in a motion capture environment
DE08733207T1 (de) * 2007-04-17 2011-04-21 Bell Helicopter Textron Inc., Fort Worth Kollaboratives vr-system unter verwendung mehrerer bewegungsaufnahmesysteme und mehrerer interaktiver klienten
WO2009052032A1 (en) * 2007-10-19 2009-04-23 Sony Computer Entertainment America Inc. Scheme for providing audio effects for a musical instrument and for controlling images with same
GB0901858D0 (en) * 2009-02-05 2009-03-11 Schoegler Benjaman W Data input device and sound generating device
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
JP5434638B2 (ja) * 2010-01-29 2014-03-05 ソニー株式会社 情報処理装置および情報処理方法
US8620661B2 (en) * 2010-03-02 2013-12-31 Momilani Ramstrum System for controlling digital effects in live performances with vocal improvisation
US9092135B2 (en) * 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality
US9122321B2 (en) 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US9519640B2 (en) 2012-05-04 2016-12-13 Microsoft Technology Licensing, Llc Intelligent translations in personal see through display
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US9236039B2 (en) * 2013-03-04 2016-01-12 Empire Technology Development Llc Virtual instrument playing scheme
RU2584645C1 (ru) * 2015-05-15 2016-05-20 Мария Петровна Кибардина Способ диагностики артикуляции речевых расстройств
WO2018189854A1 (ja) * 2017-04-13 2018-10-18 ローランド株式会社 電子楽器本体装置及び電子楽器システム
FR3075428B1 (fr) * 2017-12-15 2020-02-28 Enhancia Bague et module d'interface
US11073920B1 (en) 2020-10-20 2021-07-27 Cirque Corporation Multi-touch input system
CN112720504B (zh) * 2021-01-20 2023-03-28 清华大学 从rgbd视频中学习手与物体交互运动控制方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0805418A2 (de) * 1996-04-25 1997-11-05 Matsushita Electric Industrial Co., Ltd. Rechnergrafikanimationsverfahren
DE29804023U1 (de) * 1998-02-27 1998-07-30 Schoetzau Claus Halbkugelförmiges Gerät zur Echzeitsteuerung von Synthesizern bzw. "Midi"-Klangerzeugern über Drucktasten
WO1999006962A1 (en) * 1997-08-04 1999-02-11 Pixar Animation Studios Realistic surface simulation in computer animation
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
US6097374A (en) * 1997-03-06 2000-08-01 Howard; Robert Bruce Wrist-pendent wireless optical keyboard

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4600919A (en) * 1982-08-03 1986-07-15 New York Institute Of Technology Three dimensional animation
DE3611337A1 (de) 1986-04-04 1987-10-22 Deutsche Forsch Luft Raumfahrt In einer kunststoffkugel untergebrachte, opto-elektronische anordnung
DE3611336A1 (de) 1986-04-04 1987-10-15 Deutsche Forsch Luft Raumfahrt Kraft-drehmoment-fuehler
GB9011183D0 (en) * 1990-05-18 1990-07-04 British Aerospace Control devices
DE69130549T2 (de) * 1990-06-11 1999-05-27 Hitachi Ltd Vorrichtung zur Erzeugung eines Objektbewegungsweges
US5630017A (en) * 1991-02-19 1997-05-13 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
US6011212A (en) * 1995-10-16 2000-01-04 Harmonix Music Systems, Inc. Real-time music creation
US6583783B1 (en) 1998-08-10 2003-06-24 Deutsches Zentrum Fur Luft- Und Raumfahrt E.V. Process for performing operations using a 3D input device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
EP0805418A2 (de) * 1996-04-25 1997-11-05 Matsushita Electric Industrial Co., Ltd. Rechnergrafikanimationsverfahren
US6097374A (en) * 1997-03-06 2000-08-01 Howard; Robert Bruce Wrist-pendent wireless optical keyboard
WO1999006962A1 (en) * 1997-08-04 1999-02-11 Pixar Animation Studios Realistic surface simulation in computer animation
DE29804023U1 (de) * 1998-02-27 1998-07-30 Schoetzau Claus Halbkugelförmiges Gerät zur Echzeitsteuerung von Synthesizern bzw. "Midi"-Klangerzeugern über Drucktasten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOHNO, Izumi et al.: Systematic Approach for Creating Animated Character Interfaces, in: Proc. 2000 IEEE int. Conf. on Multimedia and Expo, 30.7.-2.8.2000, S. 231-234 *
WILHELMS, Jane: Toward Automatic Motion Control, in: IEEE Computer Graphics & Applications, April 1987, S. 11-22 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006010151A8 (de) * 2005-05-25 2012-02-09 Lite-On Technology Corp. Verfahren und Vorrichtung zum Mischen von Musik
DE102006049863A1 (de) * 2006-10-23 2008-05-08 Siemens Ag Zeitnavigator bei medizinischen bewegten Bildern
DE102006049863B4 (de) * 2006-10-23 2015-09-10 Siemens Aktiengesellschaft Navigator bei medizinischen bewegten Bildern

Also Published As

Publication number Publication date
WO2002023323A3 (de) 2003-03-13
EP1319207A2 (de) 2003-06-18
AU2002212137A1 (en) 2002-03-26
DE10045117C2 (de) 2002-12-12
WO2002023323A2 (de) 2002-03-21
US7199301B2 (en) 2007-04-03
US20040080507A1 (en) 2004-04-29

Similar Documents

Publication Publication Date Title
DE10045117C2 (de) Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung
DE69818210T2 (de) Vorrichtung und Verfahren zur Erzeugung von Ton und Bild auf Basis von einer Aufführungsdatei.
DE60302063T2 (de) Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur
DE69735269T2 (de) Steuerverfahren zum schrittbetrieb eines roboters
DE69433061T2 (de) Netzwerk der virtuellen realität
DE60131797T2 (de) Spielsystem und entsprechendes computerlesbares Aufzeichungsmedium
EP1428110B1 (de) 3d-eingabegerät mit integriertem touchscreen
DE69632033T2 (de) Verfahren und vorrichtung zur steuerung der bewegung eines virtuellen körpers
DE102018200011A1 (de) Testsystem und Verfahren zum Testen einer Steuerung eines zumindest teilweise autonom fahrenden Fahrzeugs in einer virtuellen Umgebung
DE19935889A1 (de) Unterhaltungsvorrichtung und Bereitstellungsmedium
EP2068214B1 (de) Grafische Programmerstellung durch Ableiten des Prozesssteuerungsablaufes aus der Zuordnung dynamischer Grafikobjekte
DE4001493A1 (de) Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten
DE60108564T2 (de) Dreidimensionale Bildverarbeitungseinheit
DE60024514T2 (de) Aufzeichnungsmedium, Verfahren und Einrichtung zur Bildverarbeitung mit integrierten Daten zur Formmodellierung
DE10047187B4 (de) Vorrichtung zum Steuern eines Robots mit einem Rechensystem
DE102015102459B4 (de) Verfahren und Vorrichtung zur Ansteuerung eines Simulators
EP3904984B1 (de) Verfahren für eine immersive mensch-maschine-interaktion
EP2642359A1 (de) Entwicklungseinrichtung und Verfahren zum Erstellen eines Steuergeräteprogramms
DE112017006946B4 (de) Maschinenklangsteuerungsvorrichtung, maschinenklangsteuerungsverfahren und maschinenklangsteuerungsprogramm
AT525369B1 (de) Testumfeld für urbane Mensch-Maschine Interaktion
DE102019207090A1 (de) Verfahren zum Bereitstellen einer Objektverfolgungsfunktion
AT17054U1 (de) Verfahren zum Bereitstellen eines elektronischen dreidimensionalen Gebäude- oder Wohnungsplans, sowie Verfahren und System zur Visualisierung von Gebäude- und Wohnungsplänen
DE102019130032B4 (de) Verfahren, Computerprogrammprodukt und System zum Erzeugen eines Bilddatensatzes für eine computerimplementierte Simulation
DE4109386C2 (de) Verfahren zur Parametrierung und Inbetriebnahme eines prädiktiven Reglers
CH718507A2 (de) Verfahren zum Bereitstellen eines elektronischen dreidimensionalen Gebäude-oder Wohnungsplans, sowie Verfahren und System zur Visualisierung von Gebäude-und Wohnungsplänen.

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8172 Supplementary division/partition in:

Ref document number: 10066093

Country of ref document: DE

Q171 Divided out to:

Ref document number: 10066093

Country of ref document: DE

AH Division in

Ref document number: 10066093

Country of ref document: DE

D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: 3DCONNEXION GMBH, 82229 SEEFELD, DE

8381 Inventor (new situation)

Inventor name: PRITTWITZ, BERND VON, 82229 SEEFELD, DE

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

R081 Change of applicant/patentee

Owner name: SOCIETE CIVILE "GALILEO 2011", MC

Free format text: FORMER OWNER: 3DCONNEXION GMBH, 82229 SEEFELD, DE

Effective date: 20111220

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111014

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111220

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111220

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111014

R071 Expiry of right