DE69418630T2 - Dynamischer Bildprozessor - Google Patents

Dynamischer Bildprozessor

Info

Publication number
DE69418630T2
DE69418630T2 DE69418630T DE69418630T DE69418630T2 DE 69418630 T2 DE69418630 T2 DE 69418630T2 DE 69418630 T DE69418630 T DE 69418630T DE 69418630 T DE69418630 T DE 69418630T DE 69418630 T2 DE69418630 T2 DE 69418630T2
Authority
DE
Germany
Prior art keywords
individual object
motion
velocity vector
dynamic image
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69418630T
Other languages
English (en)
Other versions
DE69418630D1 (de
Inventor
Hajime Enomoto
Isao Miyamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of DE69418630D1 publication Critical patent/DE69418630D1/de
Publication of DE69418630T2 publication Critical patent/DE69418630T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)
  • Color Television Systems (AREA)
  • Studio Devices (AREA)

Description

    HINTERGRUND DER ERFINDUNG 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft einen dynamischen Bildprozessor zum temporären Analysieren der Bewegung von jedem individuellen Objekt, das in einem gegebenen dynamischen Bild enthalten ist, zum Extrahieren von Bewegungsdaten für das individuelle Objekt, Speichern der Daten und/oder Zeichnen der Bewegung des individuellen Objektes in dem dynamischen Bild gemäß den gespeicherten Bewegungsdaten.
  • 2. Beschreibung der verwandten Technik
  • Ein Farbbild, das auf eine x-y-Ebene gezeichnet ist, kann in einem dreidimensionalen Vektorfeld verarbeitet werden, wobei eine Achse z verwendet wird, die zu der x-y- Ebene orthogonal ist. Diese Technik ist in den japanischen Patentanmeldungen JP-A-63 299 594, JP-A-1 213 761, JP-A-2 208 781, JP-A-3 267 879, JP-A-4 287 180 offenbart. Bei diesen Offenbarungen wird ein Rand (einschließlich einer Position, an der sich der Farbton verändert) von einem Farbbild demgemäß extrahiert, daß dann, wenn das Farbbild ein stehendes Bild (d. h., ein statisches Bild) ist, Divergenz- und Rotationsprozesse, die an Farbbildsignalen ausgeführt werden, im wesentlichen einen Wert von Null vorsehen und daß diese Prozesse an Positionen, wo sich der Farbton des Bildes plötzlich verändert, große Werte vorsehen.
  • Um die Bewegung eines dynamischen Bildes zu detektieren, wird nach Stand der Technik ein Zielpunkt auf jedem individuellen Objekt in dem Bild selektiert, werden Punkte, die mit dem Zielpunkt korrelieren, gemäß den Positionen des Punktes zu verschiedener Zeitlage gesucht und Bewegungsvektoren gemäß Distanzvektoren für die korrelierten Punkte berechnet.
  • Die Verarbeitung von dynamischen Bildern nach Stand der Technik umfaßt komplizierte Schritte, um die korrelierten Punkte zu finden. Ferner ist es oft mühsam, grundlegende Parameter angemessen zu extrahieren, die zum Ausdrücken der Bewegung des dynamischen Bildes erforderlich sind. Da nämlich zu viele korrelierte Punkte auf jedem individuellen Objekt in einem dynamischen Bild gefunden werden müssen, schließt der Stand der Technik eine große Anzahl von Prozessen ein, um die Bewegung des dynamischen Bildes zu detektieren. Eine typische Offenbarung nach Stand der Technik dieser Art verkörpert der Beitrag "Shape and Motion of Nonridid Bodies" von S. Chen und M. Penna in COMPUTER VISION, GRAPHICS AND IMAGE PROCESSING, Bd. 36, Nr. 2-3, November - Dezember 1986, Seiten 175-207, Duluth, MA, USA.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Angesichts der obenbeschriebenen Probleme, die nach Stand der Technik vorhanden sind, ist es die Hauptaufgabe der vorliegenden Erfindung, einen dynamischen Bildprozessor vorzusehen, der das leichte Erfassen der Bewegung des individuellen Objektes in einem dynamischen Bild zuläßt, indem die Bewegung in eine starre Bewegung und eine nichtstarre deformierbare Bewegung unterteilt wird. Im folgenden wird solch eine nichtstarre deformierbare Bewegung als weiche deformierbare Bewegung bezeichnet.
  • Ein weiteres Ziel der vorliegenden Erfindung ist es, einen dynamischen Bildprozessor vorzusehen, der das leichte Erfassen von Bewegungsgeschwindigkeitsvektoren zuläßt, die grundlegende Parameter hinsichtlich des individuellen Objektes sind, und ein angemessenes Zeichnen des dynamischen Bildes gemäß diesen Bewegungsgeschwindigkeitsvektoren gestattet.
  • Noch ein weiteres Ziel der vorliegenden Erfindung ist es, einen dynamischen Bildprozessor vorzusehen, der die Rotationsbewegung des individuellen Objektes um eine planare Achse bewältigen kann.
  • Um diese Ziele zu erreichen, enthält der dynamische Bildprozessor gemäß der vorliegenden Erfindung, der vorgesehen ist zum temporären Analysieren der Bewegung von jedem individuellen Objekt, das in einem gegebenen dynamischen Bild enthalten ist, zum Extrahieren von Bewegungsdaten für das individuelle Objekt, Speichern der Bewegungsdaten und/oder Zeichnen der Bewegung des individuellen Objektes in dem dynamischen Bild gemäß den gespeicherten Bewegungsdaten, eine Bewegungsgeschwindigkeitsvektorextraktionseinheit zum Extrahieren eines Geschwindigkeitsvektors aus der Bewegung des individuellen Objektes. In diesem Fall enthält die Einheit:
  • eine Extraktionseinheit von Geschwindigkeitsvektoren der starren Bewegung, zum Vorsehen von Geschwindigkeitsvektordaten für die starre Bewegung des individuellen Objektes wie etwa eine Translation, Skalierung, wie z. B. eine Vergrößerung und Verkleinerung, und. Rotation um eine planare senkrechte Achse; und
  • eine Extraktionseinheit von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung (Extraktionseinheit von Geschwindigkeitsvektoren der nichtstarren deformierbaren Bewegung) zum Vorsehen von Geschwindigkeitsvektordaten für die weiche deformierbare Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung.
  • Die Extraktionseinheit von Geschwindigkeitsvektoren der starren Bewegung führt eine affine Transformation an dem individuellen Objekt aus, um die Bewegungsgeschwindigkeitsvektordaten für die Translation, Skalierung und Rotation um die planare senkrechte Achse des individuellen Objektes vorzusehen.
  • Die Extraktionseinheit von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung berechnet die Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung gemäß einem Vektorverfahren, um die Geschwindigkeitsvektordaten der weichen deformierbaren Bewegung vorzusehen.
  • Die Extraktionseinheit von Geschwindigkeitsvektoren der starren Bewegung sieht vorzugsweise die Bewegungsgeschwin digkeitsvektordaten für die Translation, Skalierung und Rotation um eine planare senkrechte Achse des individuellen Objektes vor, indem der effektive Bewegungsgeschwindigkeitsvektor (Vi) von jedem Zielpunkt (Pi) auf dem individuellen Objekt als Funktion eines Translationsgeschwindigkeitsvektors (Vp), eines Skalierungsparameters (s), einer Winkelgeschwindigkeit (ω) der Rotation um die planare senkrechte Achse und ein Distanzvektor (γi) zwischen dem Punkt (Pi) und einer temporären Mitte (C'), die für die Skalierung und Rotation um die planare senkrechte Achse temporär festgelegt wird, berechnet werden;
  • wobei eine Geschwindigkeitskomponente längs einer Kraftlinie und eine Geschwindigkeitskomponente längs einer Tangentenlinie an jedem von wenigstens vier Punkten (P1, P2, P3 und P4), die den Zielpunkten (Pi; i = 1, 2, 3 und 4) entsprechen, auf einem Segment gemessen werden, welches das individuelle Objekt bildet; und
  • der Translationsgeschwindigkeitsvektor (Vp), der Skalierungsparameter (s) und die Winkelgeschwindigkeit (ω) der Rotation um die planare senkrechte Achse gemäß den Geschwindigkeitskomponenten längs der Kraftlinie und der Tangentenlinie berechnet werden.
  • Ferner berechnet die Extraktionseinheit von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung die Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung durch vektorielles Verarbeiten einer Konturenlinie auf der Basis der Form des individuellen Objektes und/oder einer auf die Struktur erweiterten Konturenlinie auf der Basis von Veränderungen der Helligkeit und des Farbtons, interpoliert sie unbestimmte Punkte auf der Konturenlinie und/oder der auf die Struktur erweiterten Konturenlinie und findet Geschwindigkeitsvektoren zwischen den entsprechenden Punkten.
  • Vorzugsweise enthält der dynamische Bildprozessor gemäß der vorliegenden Erfindung eine Bewegungsgeschwindigkeits vektorzeicheneinheit zum Zeichnen des individuellen Objektes gemäß einem Bewegungsgeschwindigkeitsvektor, der die Bewegung des individuellen Objektes darstellt.
  • Vorzugsweise umfaßt die Einheit:
  • eine Zeicheneinheit für Geschwindigkeitsvektoren der starren Bewegung, bei der Geschwindigkeitsvektordaten für die starre Bewegung des individuellen Objektes wie etwa für die Translation, Skalierung, wie z. B. die Vergrößerung und Verkleinerung, und Rotation um eine planare senkrechte Achse verwendet werden; und
  • eine Zeicheneinheit für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung (Zeicheneinheit für Geschwindigkeitsvektoren der nichtstarren deformierbaren Bewegung), bei der Geschwindigkeitsvektordaten für die weiche deformierbare Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung verwendet werden.
  • Die Zeicheneinheit für Geschwindigkeitsvektoren der starren Bewegung und die Zeicheneinheit für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung wiederholen den jeweiligen Prozeß.
  • Die Zeicheneinheit für Geschwindigkeitsvektoren der starren Bewegung zeichnet vorzugsweise die starre Bewegung des individuellen Objektes gemäß einem Translationsgeschwindigkeitsvektor (Vp), einem Skalierungsparameter (s) und einer Winkelgeschwindigkeit (ω) der Rotation um die planare senkrechte Achse.
  • Ferner zeichnet die Zeicheneinheit für Geschwindigkeitsvektoren der starren Bewegung die starre Bewegung des individuellen Objektes gemäß Daten, die für jeden Zielpunkt (Pi) zu einer Abtastzeitlage erhalten werden.
  • Weiterhin zeichnet die Zeicheneinheit für Geschwindigkeitsvektoren der starren Bewegung die starre Bewegung, welche die Rotation um die planare Achse des individuellen Objektes einschließt, gemäß dem Translationsgeschwindig keitsvektor (Vp) von jedem Punkt auf dem individuellen Objekt, wenn der Vektor (Vp) im voraus gegeben ist.
  • Die starre Bewegung eines individuellen Objektes kann umfassen: (i) die Translation, bei der das individuelle Objekt insgesamt ohne Rotation versetzt wird; (ii) die Skalierung, bei der das individuelle Objekt vergrößert oder verkleinert wird; und (iii) die Rotation um eine Achse, die zu der Ebene des individuellen Objektes senkrecht ist. Die Parameter für diese Bewegungen sind jeweilig vorgesehen. Falls ein Translationsgeschwindigkeitsvektor an jedem Koordinatenpunkt auf dem individuellen Objekt extrahierbar ist, kann die Bewegung des individuellen Objektes (iv) die starre Rotation um eine planare Achse einschließen.
  • Die Extraktionseinheit von Geschwindigkeitsvektoren der starren Bewegung führt eine affine Transformation aus, um Translationsgeschwindigkeitsvektordaten, Skalierungsgeschwindigkeitsvektordaten und Geschwindigkeitsvektordaten der Rotation um die planare senkrechte Achse vorzusehen. Falls erforderlich, sieht sie Geschwindigkeitsvektordaten der Rotation um die planare Achse gemäß den drei oben erwähnten Datenelementen ((i), (ii) und (iii)) vor.
  • Die weiche deformierbare Bewegung des individuellen Objektes wird verarbeitet, nachdem die Komponenten der starren Bewegung bezüglich der Translation, Skalierung, Rotation um die planare senkrechte Achse und, falls erforderlich, bezüglich der Rotation um die planare Achse entfernt sind.
  • Die weiche deformierbare Bewegung wird verarbeitet, indem Korrelationen zwischen Punkten auf Rändern von zeitlich verschiedenen Bildern des individuellen Objektes geprüft werden und indem Bewegungsgeschwindigkeitsvektoren ähnlich wie nach Stand der Technik extrahiert werden.
  • Die extrahierten Parameter werden zum Beispiel in einer Speichereinheit gespeichert. Die Parameter werden aus der Speichereinheit ausgelesen, wenn es erforderlich ist, und verwendet, um das Bild zu zeichnen. Das Zeichnen erfolgt in zwei separaten Schritten, d. h., durch Zeichnen der starren Bewegung und Zeichnen der weichen deformierbaren Bewegung. Diese Art von Zeichnungsprozeß wird jeweilig durch die Zeicheneinheit für Geschwindigkeitsvektoren der starren Bewegung und die Zeicheneinheit für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung ausgeführt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die obige Aufgabe und Merkmale der vorliegenden Erfindung gehen aus der folgenden Beschreibung der bevorzugten Ausführungsformen unter Bezugnahme auf die beiliegenden Zeichnungen deutlicher hervor, in denen:
  • Fig. 1 ein schematisches Blockdiagramm ist, das Teile eines dynamischen Bildprozessors zeigt, der die vorliegende Erfindung verkörpert;
  • Fig. 2 ein Diagramm zum Erläutern einer Technik zum Extrahieren von Parametern zur Translation gemäß der vorliegenden Erfindung ist;
  • Fig. 3 ein Diagramm zum Erläutern einer Technik zum Extrahieren von Parametern zur Skalierung gemäß der vorliegenden Erfindung ist;
  • Fig. 4 ein Diagramm zum Erläutern einer Technik zum Extrahieren von Parametern zur Rotation um eine planare senkrechte Achse gemäß der vorliegenden Erfindung ist;
  • Fig. 5 ein Diagramm zum Erläutern einer Veränderung von Rändern eines individuellen Objektes zu der Zeit t und zu der Zeit t+τ ist;
  • Fig. 6 ein Diagramm zum Erläutern einer Möglichkeit zum Erhalten von Vektoren v1 bis v4 an vier Punkten gemäß der vorliegenden Erfindung ist;
  • Fig. 7 ein Diagramm ist, das ein erstes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist;
  • Fig. 8 ein Diagramm ist, das ein zweites Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist;
  • Fig. 9 ein Diagramm ist, das ein drittes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist;
  • Fig. 10 ein Diagramm ist, das ein viertes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist;
  • Fig. 11 ein Diagramm ist, das ein fünftes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist;
  • Fig. 12 ein Diagramm ist, das ein sechstes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist;
  • Fig. 13 ein Diagramm ist, das ein siebtes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist;
  • Fig. 14 ein Diagramm ist, das ein Beispiel zeigt, worauf eine Gleichung (2) (im folgenden beschrieben) nicht angewendet werden kann;
  • Fig. 15(a) ein Teil eines Flußdiagramms zum Erläutern eines typischen Prozesses zum Bestimmen von Bewegungsparametern gemäß der vorliegenden Erfindung ist;
  • Fig. 15(b) der verbleibende Teil eines Flußdiagramms zum Erläutern eines typischen Prozesses zum Bestimmen von Bewegungsparametern gemäß der vorliegenden Erfindung ist;
  • Fig. 16 schematische Ansichten zum Erläutern der Rotation eines Bildes auf einem Bildschirm darstellt;
  • Fig. 17 eine schematische Ansicht zum Erläutern der Rotation eines Bildes um eine planare Achse ist;
  • Fig. 18 eine schematische Ansicht zum Erläutern eines Vektors v(ξ) für die Rotation um eine planare Achse ist;
  • Fig. 19 eine schematische Ansicht zum Erläutern einer ersten Bedingung ist, bei der eine Hervorhebungslinie erzeugt wird;
  • Fig. 20 eine schematische Ansicht zum Erläutern einer zweiten Bedingung ist, bei der eine Hervorhebungslinie erzeugt wird;
  • Fig. 21 eine schematische Ansicht zum Erläutern einer Bedingung ist, bei der die Rotation um eine planare Achse bei einem Parallelepiped erzeugt wird;
  • Fig. 22(a) eine grafische Darstellung zum Erläutern einer Veränderung eines Helligkeitswertes ist, wenn das Parallelepiped von Fig. 22 um eine planare Achse rotiert wird;
  • Fig. 22(b) eine grafische Darstellung zum Erläutern einer Veränderung eines Helligkeitswertes ist, wenn ein individuelles Objekt, wie es in Fig. 20 oder Fig. 21 gezeigt ist, um eine planare Achse rotiert wird;
  • Fig. 23 Ansichten zum Erläutern einer Bewegung von jeder Hervorhebungslinie sind, wenn ein Sphäroid um eine planare senkrechte Achse rotiert wird;
  • Fig. 24 ein Diagramm zum Erläutern eines Bildzeichenprozesses gemäß der vorliegenden Erfindung ist; und
  • Fig. 25 ein Diagramm zum Erläutern der positionellen Beziehung auf Grund der Reflexion und Brechung ist.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Fig. 1 ist ein Blockdiagramm, das Teile eines dynamischen Bildprozessors, der die vorliegende Erfindung verkörpert, sowie diesbezügliche Bilder zeigt. In der Figur ist Bezugszeichen 100 ein dynamisches Bild, das zu verarbeiten ist, ist 200 ein dynamischer Bildprozessor und ist 300 ein resultierendes dynamisches Bild (gezeichnetes dynamisches Bild).
  • Der dynamische Bildprozessor 200 wird durch ein Datenverarbeitungssystem realisiert. Der dynamische Bildprozessor 200 umfaßt im wesentlichen:
  • (i) eine Bewegungsgeschwindigkeitsvektorextraktionseinheit 210 zum Analysieren des Bildes 100 und Extrahieren von Parametern;
  • (ii) eine Bewegungsgeschwindigkeitsvektorzeicheneinheit 220 zum Zeichnen des resultierenden dynamischen Bildes 300 gemäß den Parametern;
  • und (iii) die extrahierten Parameter 230.
  • Die Bewegungsgeschwindigkeitsvektorextraktionseinheit 210 gemäß der vorliegenden Erfindung hat eine Extraktionseinheit 1 von Geschwindigkeitsvektoren der starren Bewegung zum Extrahieren eines Bewegungsgeschwindigkeitsvektors für die starre Bewegung von jedem von individuellen Objekten in dem dynamischen Bild, unter der Annahme, daß das individuelle Objekt starr ist, und eine Extraktionseinheit 2 von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung zum Extrahieren eines Bewegungsgeschwindigkeitsvektors für die weiche deformierbare Bewegung des individuellen Objektes, die nicht erfaßt werden kann, unter der Annahme, daß die Bewegung des individuellen Objektes starr ist.
  • Die Bewegungsgeschwindigkeitsvektorzeicheneinheit 220 hat eine Zeicheneinheit 3 für Geschwindigkeitsvektoren der starren Bewegung zum Zeichnen der starren Bewegung des individuellen Objektes gemäß den Parametern, und eine Zeicheneinheit 4 für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung zum Zeichnen der weichen deformierbaren Bewegung des individuellen Objektes.
  • Die starre Bewegung eines individuellen Objektes kann enthalten:
  • (i) die Translation, bei der das individuelle Objekt insgesamt ohne Rotation versetzt wird;
  • (ii) die Skalierung, bei der das individuelle Objekt vergrößert oder verkleinert wird;
  • und (iii) die Rotation um eine Achse (z), die zu der Ebene des individuellen Objektes senkrecht ist. Die Parameter werden jeweilig für diese Bewegungen vorgesehen. Falls ein Translationsgeschwindigkeitsvektor an jedem Koordinatenpunkt auf dem individuellen Objekt extrahierbar ist, kann die Bewegung des individuellen Objektes (iv) die starre Rotation um eine planare Achse (eine Achse in der x-y-Ebene) einschließen.
  • Die Extraktionseinheit 1 von Geschwindigkeitsvektoren der starren Bewegung in Fig. 1 führt eine affine Transforma tion aus, um Translationsgeschwindigkeitsvektordaten, Skalierungsgeschwindigkeitsvektordaten und Geschwindigkeitsvektordaten einer Rotation um die planare senkrechte Achse vorzusehen. Falls erforderlich, sieht sie Geschwindigkeitsvektordaten der Rotation um die planare Achse gemäß den oben erwähnten drei Datenelementen ((i), (ii) und (iii)) vor.
  • Die weiche deformierbare Bewegung des individuellen Objektes wird verarbeitet, nachdem die Komponenten der starren Bewegung bezüglich der Translation, der Skalierung, der Rotation um die planare senkrechte Achse und, falls erforderlich, der Rotation um die planare Achse entfernt sind.
  • Die weiche deformierbare Bewegung wird verarbeitet, indem der Zusammenhang zwischen Punkten auf Rändern von zeitlich verschiedenen Bildern des individuellen Objektes geprüft wird und indem Bewegungsgeschwindigkeitsvektoren ähnlich wie nach Stand der Technik extrahiert werden.
  • Die extrahierten Parameter 230 werden zum Beispiel in einer Speichereinheit gespeichert. Die Parameter werden bei Bedarf aus der Speichereinheit ausgelesen und zum Zeichnen des Bildes verwendet. Das Zeichnen erfolgt in zwei separaten Schritten, d. h., durch Zeichnen der starren Bewegung und zeichnen der weichen deformierbaren Bewegung. Diese Art von Zeichenprozeß wird durch die Zeicheneinheit 3 für Geschwindigkeitsvektoren der starren Bewegung bzw. durch die Zeicheneinheit 4 für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung von Fig. 1 ausgeführt. Die Parameter müssen verändert werden, es sei denn, daß das resultierende dynamische Bild zufriedenstellend ist, indem ein Korrekturprozeß in der Bewegungsgeschwindigkeitsvektorextraktionseinheit 210 wiederholt wird.
  • Zuerst wird das Extrahieren von Parametern entsprechend der starren Bewegung erläutert.
  • Fig. 2 erläutert die Extraktion von Parametern bezüglich der Translation. In der Figur wird ein individuelles Objekt 5-1 mit einer Geschwindigkeit Vp' translatorisch zu einer Position bewegt, an der das individuelle Objekt durch 6-1 gekennzeichnet ist. Die Koordinaten zu der Zeit t eines optionalen Punktes Pi auf dem individuellen Objekt 5-1 (im folgenden wird dieser Punkt als Pi(t) bezeichnet) sind wie folgt:
  • Koordinatenvektor von Pi(t) =
  • Die Koordinaten des Punktes zu der Zeit t+τ (im folgenden wird dieser Punkt als Pi(t+τ) bezeichnet) sind wie folgt:
  • Koordinatenvektor von Pi(t+τ) =
  • Der Translationsgeschwindigkeitsvektor (im folgenden wird Vp' als Translationsgeschwindigkeitsvektor definiert) ist wie folgt:
  • Die Bewegung des individuellen Objektes 5-1 zu der Position des individuellen Objektes 6-1 während des Zeitraumes τ wird wie folgt ausgedrückt:
  • Pi(t+τ) = Pi(t) + Vp' · τ
  • Dementsprechend kann die Bewegung von dem individuellen Objekt 5-1 zu dem individuellen Objekt 6-1 definiert und gezeichnet werden, falls der Translationsgeschwindigkeitsvektor Vp' gegeben ist.
  • Fig. 3 erläutert das Extrahieren von Parametern bezüglich der Skalierung. In der Figur hat ein individuelles Objekt 5-2 eine Skalierungsmitte Cs, um die herum das individuelle Objekt 5-2 um das 1/2fache in ein individuelles Objekt 6-2 verkleinert wird. Im allgemeinen ist die Position der Skalierungsmitte Cs im voraus nicht klar. Es wird deshalb angenommen, daß das individuelle Objekt 5-2 um eine temporäre Skalierungsmitte Cs' herum um das 1/2fache verkleinert wird, und dann wird die Differenz zwischen der Skalierungsmitte Cs und der temporären Skalierungsmitte Cs' korrigiert. In der Figur bezeichnet Bezugszeichen 6-2' ein individuelles Objekt, das aus dem individuellen Objekt 5-2 resultiert, das um die temporäre Mitte Cs' herum verkleinert wurde.
  • Ein Punkt Pi auf dem individuellen Objekt 5-2 wird in einer Periode ab der Zeit t bis zu der Zeit t+τ mit einer skalaren Skalierungsgeschwindigkeit s zu einem Punkt auf dem individuellen Objekt 6-2' verschoben, welches die temporäre Mitte Cs' hat. Dann gilt folgendes:
  • Pi'(t+τ) = (1 + s·τ) · Pi(t)
  • Das individuelle Objekt 6-2' wird mit der temporären Skalierungsmitte Cs' statt mit der tatsächlichen Skalierungsmitte Cs erhalten. Demzufolge muß der Punkt Pi'(t+τ) translatorisch zu dem Punkt Pi(t+τ) bewegt werden. Falls ein Bewegungsgeschwindigkeitsvektor für die Translation Vp" ist, gilt folgendes:
  • Vp" = Ds(t+τ) - Ds(t) = s · τ · Ds(t)
  • Wenn der Punkt Pi auf dem individuellen Objekt 5-2 zu einem Punkt auf dem individuellen Objekt 6-2, das die Skalierungsmitte Cs hat, verschoben wird, gilt demnach folgendes:
  • Pi(t+τ) = Pi'(t+τ) + Vp"
  • = (1 + s· τ)Pi(t) + s · τ · Ds(t)
  • Falls "1" in (1 + s · τ) durch einen optionalen Wert E ersetzt wird, ergibt sich (E + s · τ). Dann gilt folgendes:
  • Pi(t+τ) = (E + s · τ)Pi(t) + s · τ · Ds(t)
  • Der Bewegungsgeschwindigkeitsvektor Vp" für die Skalierung entspricht dem Bewegungsgeschwindigkeitsvektor Vp' für die Translation, so daß er kollektiv mit einem effektiven Geschwindigkeitsvektor V für den Translationsgeschwindigkeitsvektor Vp ausgedrückt wird. Ein Parameter, der für die Skalierung benötigt wird, ist die Skalierungsgeschwindigkeit s, die extrahiert und gespeichert wird.
  • Fig. 4 erläutert das Extrahieren von Parametern für eine Rotation um eine planar-senkrechte Achse. In der Figur wird ein individuelles Objekt 5-3 um 90 Grad entgegengesetzt dem Uhrzeigersinn um eine Rotationsmitte Cr in ein individuelles Objekt 6-3 rotiert. Im allgemeinen ist die Position der Rotationsmitte Cr unbekannt. Demzufolge wird eine temporäre Rotationsmitte Cr' festgelegt, wie es im oberen Teil von Fig. 4 gezeigt ist, und das individuelle Objekt 5-2 wird um 90 Grad um die temporäre Rotationsmitte Cr' rotiert. Dann wird die Differenz zwischen der Rotationsmitte Cr und der temporären Rotationsmitte Cr' korrigiert. Bezugszeichen 6-3' ist ein resultierendes individuelles Objekt, bei dem das individuelle Objekt 5-3 um die temporäre Rotationsmitte Cr' gedreht wurde.
  • Ein Punkt Pi auf dem individuellen Objekt 5-3 wird um die temporäre Mitte Cr' bis zu einem Punkt auf dem individuellen Objekt 6-3' in einer Periode ab der Zeit t bis zu der Zeit t+τ mit einer skalaren Winkelgeschwindigkeit ω um die planare senkrechte Achse rotiert. Dann verläuft die Rotation Ω · τ in der Periode τ wie folgt:
  • Der Punkt Pi(t) wird auf den Punkt Pi'(t+τ) rotiert.
  • Pi'(t+τ) = (1 + Ω · τ) · Pi(t)
  • Das individuelle Objekt 6-3' wird um die temporäre Rotationsmitte Cr' statt um die wahre Rotationsmitte Cr herum erhalten. Demzufolge muß Pi'(t+τ) translatorisch zu Pi(t+τ) bewegt werden. Ein Bewegungsgeschwindigkeitsvektor Vp''' für die Translation ist wie folgt gegeben:
  • Vp''' = Dr(t+τ) - Dr(t) = Ω · τ · Dr(t)
  • Wenn der Punkt Pi auf dem individuellen Objekt 5-3 um die Rotationsmitte Cr auf einen Punkt auf dem individuellen Objekt 6-3 zwischen der Zeit t und der Zeit t+τ rotiert wird, wird der resultierende Punkt wie folgt erhalten:
  • Pi(t+τ) = Pi'(t+τ) + Vp'''
  • = (1 + Ω · τ)Pi(t) + Ω · τ · Dr(t)
  • Wenn "1" in (1 + Ω · τ) durch einen optionalen Wert E ersetzt wird, gilt folgendes:
  • Pi(t+τ) = (E + Ω · τ)Pi(t) + Ω · τ · Dr(t)
  • E und Ω werden mit den folgenden Matrixdarstellungen dargestellt:
  • Der Bewegungsgeschwindigkeitsvektor Vp''' für die Rotation entspricht dem Bewegungsgeschwindigkeitsvektor Vp' für die Translation, so daß er kollektiv mit dem effektiven Geschwindigkeitsvektor V für den Translationsgeschwindigkeitsvektor Vp ausgedrückt wird. Ein Parameter, der für die Rotation um die planare senkrechte Achse erforderlich ist, ist eine Winkelgeschwindigkeit ω, die extrahiert und gespeichert wird.
  • Die Translation, Skalierung und Rotation um die planare senkrechte Achse werden wie folgt integriert:
  • Pi(t+τ) = (E + s · τ + Ω · τ)Pi(t)
  • + Vp' · τ
  • + s · τ · Ds(t)
  • + Ω · τ · Dr(t))
  • Die dritten und vierten Terme können jeweils in den Translationsgeschwindigkeitsvektor Vp integriert werden, indem der Abstand zwischen der Skalierungsmitte Cs und der temporären Skalierungsmitte Cs' oder der Abstand zwischen der Rotationsmitte Cr und der temporären Rotationsmitte Cr' mit dem Parameter s oder Ω multipliziert wird, falls diese Abstände bestimmt werden.
  • Pi(t+τ) wird wie folgt ausgedrückt:
  • Pi(t+τ) = Pi(t) + Vp' · τ
  • + s · τ(Pi(t) + Ds(t))
  • + Ω · τ(Pi(t) + Dr(t))
  • wobei Pi(t) + Ds(t) ein Abstandsvektor von der Skalierungsmitte Cs bis zu dem Punkt Pi(t) ist und Pi(t) + Dr(t) ein Abstandsvektor von der Rotationsmitte Cr bis zu dem Punkt Pi(t) ist.
  • Wenn der Abstandsvektor von der Skalierungsmitte Cs bis zu dem Punkt Pi(t) γs ist und der Abstandsvektor von der Rotationsmitte Cr bis zu dem Punkt Pi(t) γr ist, wird der effektive Bewegungsgeschwindigkeitsvektor V für den Punkt Pi, der bewegt wird, wie es in Fig. 2 bis 4 gezeigt ist, wie folgt ausgedrückt, falls die Zeitdifferenz τ klein ist:
  • V = 1/τ(Pi(t+τ) - Pi(t))
  • = 1/τ(τ · Vp' + s · τ · γs + Ω · τ · γr)
  • = Vp' + s · γs + Ω · γr ... (1)
  • Falls der Abstandsvektor V für den Punkt Pi(t), der sich zwischen der Zeit t und der Zeit t+τ zu dem Punkt Pi(t+τ) bewegt, meßbar ist, ergibt sich kein Problem. Selbst wenn zwischen den Punkten keine Beziehung bekannt ist, ist die Bewegung auf unten beschriebene Weise berechenbar, unter der Annahme, daß die oben erwähnte positionelle Veränderung starr ist und keine weiche Deformation (nichtstarre Deformation) einschließt.
  • Fig. 5 verdeutlicht, daß ein Rand eines individuellen Objektes zu der Zeit t in einen Rand eines individuellen Objektes zu der Zeit t+τ verändert wird.
  • In der Figur entsprechen die Bezugszeichen Pi(t) und Pi(t+τ) jenen von Fig. 3. Bezugszeichen 7 ist der Rand des individuellen Objektes zu der Zeit t, 8 ist der Rand des individuellen Objektes zu der Zeit t+τ, 9 ist eine Tangentenlinie, die den Punkt Pi(t) auf dem Rand 7 durchläuft, 10 ist eine Linie, die zu der Tangentenlinie 9 parallel ist und den Punkt Pi(t+τ) durchläuft, 11 ist eine Kraftlinie (eine normale Linie), die den Punkt Pi(t) auf dem Rand 7 durchläuft, g ist ein Einheitsvektor längs der Kraftlinie, t ist ein Einheitsvektor längs der Tangentenlinie, und v ist der effektive Bewegungsgeschwindigkeitsvektor gemäß der Gleichung (1). Bezugszeichen v ist ein Abstand zwischen den Rändern 7 und 8 in der Richtung des Einheitsvektors g längs der Kraftlinie. Der Abstand v entspricht einem Bewegungsgeschwindigkeitsvektor, wenn sich der Punkt Pi(t) zu einem Punkt "a" auf dem Rand 8 in einer Zeiteinheitsperiode bewegt. Der Abstand v ist auf einem dynamischen Bild meßbar. Ein Bezugszeichen θ kennzeichnet einen Schnittwinkel der Ränder 7 und 8.
  • Es ist unbekannt, daß sich der Punkt Pi(t) zu dem Punkt Pi(t+τ) auf dem Rand 8 bewegt hat. Es kann jedoch bekannt sein, daß der Punkt Pi(t) den Punkt a auf dem Rand 8 in der Richtung der Kraftlinie des Randes 7 erreicht hat.
  • In Fig. 5 kann ein Wert zwischen den Punkten a und b erhalten werden, indem eine Tangentenkomponente (V·h) des effektiven Bewegungsgeschwindigkeitsvektors V mit tanθ multipliziert wird, und ein Wert zwischen dem Punkt Pi(t) und dem Punkt b entspricht einer normalen Komponente (V·g) des Vektors V.
  • Demzufolge gilt folgendes:
  • v = (V·g) + (V·h)tanθ ... (2)
  • In den Zeichnungen (1) und (2) sind acht unbekannte Zahlen enthalten, d. h., Vpx', Vpy', s, ω, γsx, γsy, γrx und γry. Diese unbekannten Zahlen werden bestimmt, indem v1 bis v4 bei vier Punkten auf dem Rand 7 gemessen werden und die gemessenen Werte in die Gleichungen (1) und (2) in den Richtungen x und y eingesetzt werden.
  • Fig. 6 zeigt eine Möglichkeit: zum Erhalten von v1 bis v4 bei vier Punkten. In der Figur entsprechen die Bezugszeichen 7, 8 und θ denen von Fig. 5.
  • Der effektive Bewegungsgeschwindigkeitsvektor V wird erhalten, wie oben beschrieben, indem ein Abstandsvektor bestimmt wird, mit dem sich ein Zielpunkt Pi(t) zu einem anderen Zielpunkt Pi(t+τ) während eines Zeitraumes ab der Zeit t bis zu der Zeit t+τ bewegt hat. Jedoch ist es nicht immer leicht zu bestätigen, ob der erstere Zielpunkt Pi(t) tatsächlich dem letzteren Zielpunkt Pi(t+τ) entspricht oder nicht.
  • Um diese Schwierigkeit zu bewältigen, ist es vorzuziehen, eine Konturenlinie (Rand) für jedes individuelle Objekt, das zu verarbeiten ist, zu extrahieren. Ferner ist es hinsichtlich der vier Punkte P1, P2, P3 und P4 von den Zielpunkten Pi(i = 1, 2, 3 und 4) vorzuziehen, charakteristische Punkte zu selektieren, die für den Rand charakteri stisch sind, z. B., wenigstens einen Schnittpunkt und/oder wenigstens einen Wendepunkt des oben erwähnten Randes.
  • Im allgemeinen wird diese Randart durch einen Rand vorgesehen, der die Form des individuellen Objektes definiert. Ferner kann unter Verwendung von Veränderungen der Helligkeit und des Farbtons eines gewissen Zielpunktes auf dem individuellen Objekt eine auf die Struktur erweiterte Konturenlinie innerhalb der Form des individuellen Objektes erhalten werden. Alternativ kann unter Verwendung von reflektiertem Licht, welches durch das individuelle Objekt reflektiert wird, wenn Licht auf das individuelle Objekt eingestrahlt wird, die auf die Struktur erweiterte Konturenlinie auf ähnliche Weise erhalten werden. Solch eine auf die Struktur erweiterte Konturenlinie kann als äquivalent mit dem Rand angesehen werden, der die Form des individuellen Objektes definiert. Falls der Rand, der die Form des individuellen Objektes definiert, und die auf die Struktur erweiterte Konturenlinie als selbe Randart behandelt werden, wird es möglich, eine größere Anzahl der charakteristischen Punkte effektiv zu nutzen.
  • Sobald die vier Punkte P1, P2, P3 und P4 selektiert sind, können im allgemeinen acht unbekannte Zahlen bezüglich der Gleichung (1) unter Verwendung von Simultangleichungen bestimmt werden. In diesem Fall ist es erforderlich, daß diese Simultangleichungen voneinander unabhängig sind.
  • Zum Beispiel wird ein Prozeß zum Selektieren der vier Punkte P1, P2, P3 und P4 durch die folgenden Abläufe ausgeführt, um zu gewährleisten, daß die Simultangleichungen voneinander unabhängig sind.
  • Zuerst wird ein gewisser Punkt P1 auf einer Konturenlinie (einschließlich einer auf die Struktur erweiterten Konturenlinie) selektiert.
  • Zweitens wird ein anderer Punkt P2 auf einer Konturenlinie selektiert. Dabei wird geprüft, ob der zweite Punkt P2 von dem ersten Punkt P1 unabhängig ist oder nicht. Im Prin zip wird die Selektion des zweiten Punktes P2 wiederholt ausgeführt, indem der zweite Punkt P2 auf der Konturenlinie bewegt wird, bis ein adäquater Punkt P2 gefunden wird.
  • Nachdem die zwei unabhängigen Punkte P1, P2 erfolgreich selektiert sind, wird drittens ein weiterer anderer Punkt P3 auf einer Konturenlinie selektiert. Auch in diesem Fall wird geprüft, ob der dritte Punkt P3 von den ersten und zweiten Punkten P1, P2 unabhängig ist oder nicht.
  • Schließlich wird ähnlich wie bei den obengenannten drei Abläufen ein vierter Punkt P4 selektiert. Daher können alle vier Punkte P1, P2, P3 und P4 unter der Bedingung selektiert werden, daß die vier Punkte voneinander unabhängig sind.
  • Jedoch wird selbst in dem Fall, wenn solch ein Selektionsprozeß genutzt wird, ein Rangwert, der einen Unabhängigkeitsgrad der Simultangleichungen angibt, gemäß einigen Bedingungen, die durch das individuelle Objekt gegeben sind, manchmal kleiner als acht ("8"). Die im folgenden beschriebenen Fig. 7 bis 13 zeigen typische Beispiele, bei denen ein Rangwert kleiner als "8" ist.
  • Fig. 7 ist ein Diagramm, das ein erstes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist.
  • In dieser Figur bewegt sich ein Rand L1 einfach durch Paralleltranslation in die rechte Richtung, und daher wird ein Rand L2 gebildet. In diesem Fall beträgt ein Rangwert zwei ("2"), wie aus der Figur ersichtlich ist, und ist somit kleiner als "8". Selbst wenn Simultangleichungen aufgestellt werden, indem die vier Punkte P1, P2, P3 und P4 auf dem Rand L1 selektiert werden, können deshalb nur zwei unbekannte Zahlen bestimmt werden, d. h., die oben erwähnten Vpx' und ω (ω = 0).
  • Fig. 8 ist ein Diagramm, das ein zweites Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist.
  • In der Figur verschiebt sich ein Rand L1 bei der Rotation in die rechte Richtung, und somit wird ein Rand L2 gebildet. Auch in diesem Fall beträgt ein Rangwert "2", wie aus der Figur ersichtlich ist. Selbst wenn Simultangleichungen aufgestellt werden, indem die vier Punkte P1, P2, P3 und P4 auf dem Rand L1 selektiert werden, können deshalb nur zwei unbekannte Zahlen, d. h., die Beziehung zwischen Vp, Cr und Cs, und ω (ω ≠ 0) bestimmt werden.
  • Fig. 9 ist ein Diagramm, das ein drittes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist.
  • In der Figur wird ein Rand L1 durch Paralleltranslation in die rechte Richtung bewegt, und daher wird ein Rand L2 gebildet. Jedoch können dann, wie in der Figur gezeigt, wenn der Rand L2 gemäß jedem Punkt Pi(i = 1, 2, 3 und 4) auf dem Rand L1 in normaler Richtung betrachtet wird, keine Punkte auf dem Rand L2 gefunden werden, die jeweilig den Punkten P1, P2 auf dem Rand L1 entsprechen. Deshalb kann kein Wert eines Abstandes v bestimmt werden, der in der Gleichung (2) gezeigt ist. In diesem Fall kann die Gleichung (2) nur hinsichtlich der Punkte P3, P4 auf dem Rand L1 aufgestellt werden, und deshalb ist ein Rangwert "2".
  • Fig. 10 ist ein Diagramm, das ein viertes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist.
  • In der Figur wird ein Rand L1 durch Paralleltranslation in die rechte Richtung bewegt, und daher wird ein Rand L2 gebildet. Jedoch ist zwischen dem Funkt P1 und dem Punkt P2 ein Wendepunkt vorhanden, wie in der Figur gezeigt, und deshalb beträgt ein Rangwert "4". In diesem Fall können nur vier unbekannte Zahlen bestimmt werden, d. h., Vpx', γsx, γsy und ω (ω = 0).
  • Fig. 11 ist ein Diagramm, das ein fünftes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist.
  • In der Figur wird ein Rand L1, der einen gekrümmten Abschnitt hat, in schräger Richtung bewegt. Ein Rangwert beträgt "6", wie aus der Figur zu erkennen ist. In diesem Fall können nur sechs unbekannte Zahlen bestimmt werden, d. h., Vpx', Vpy', s, Csx, Csy und ω (ω = 0).
  • Fig. 12 ist ein Diagramm, das ein sechstes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist.
  • In der Figur ist jeder Rand L1 und L2 in der Form eines konzentrischen Kreises gezeigt. Ferner wird in der Figur der Kreis, der dem Rand L2 entspricht, gebildet, wenn der Kreis, der dem Rand L1 entspricht, mit gewissen Winkeln rotiert wird. In diesem Fall beträgt ein Rangwert "7", wie aus der Figur hervorgeht. Deshalb können alle unbekannten Zahlen, außer ω, bestimmt werden.
  • Fig. 13 ist ein Diagramm, das ein siebtes Beispiel zeigt, bei dem ein Rangwert kleiner als "8" ist.
  • In Fig. 13 werden die Zielpunkte ähnlich wie in Fig. 10 auf eine Weise selektiert, bei der ein Wendepunkt zwischen den Zielpunkten angeordnet ist. Wie aus der Figur hervorgeht, beträgt ein Rangwert "4". In diesem Fall können nur vier unbekannte Zahlen bestimmt werden, d. h., Vpx', Vpy', γsx und γsy.
  • Fig. 14 ist ein Diagramm, das ein Beispiel zeigt, worauf eine Gleichung (2) nicht angewendet werden kann.
  • In dem Fall, wenn ein Rangwert kleiner als "8" ist, können nicht alle acht unbekannten Zahlen bestimmt werden, wie es oben beschrieben wurde. Weiterhin kann bei einem Beispiel, das in Fig. 14 gezeigt ist, die Beziehung per se, die aus der Gleichung (2) abzuleiten ist, nicht aufgestellt werden.
  • In der Figur wird ein Rand L1 rotiert und demzufolge ein Rand L2 gebildet. Da eine Position, wo ein Zielpunkt Pi(t) auf dem Rand L1 selektiert wird, nicht adäquat ist kann in diesem Fall die in Fig. 5 gezeigte Beziehung nicht aufgestellt werden.
  • Genauer gesagt, ein Segment muß sich von dem Zielpunkt Pi(t) in die normale Richtung erstrecken und erreicht einen Punkt "a" auf dem Rand L2. Dabei wird ein Abstand v zwischen dem Zielpunkt Pi(t) und dem Punkt "a" gemessen. Ein Wert des Abstandes v kann gewöhnlich durch die Gleichung (2) dargestellt werden.
  • In diesem Fall existiert jedoch ein Wendepunkt zwischen dem Zielpunkt Pi(t) und dem Punkt "a". Auf Grund solch eines Wendepunktes wird eine Annahme, die zum Aufstellen der Gleichung (2) erforderlich ist, ungültig. Deshalb ist in Fig. 14 die Gleichung (2) per se nicht anwendbar. Selbst wenn eine Lösung von Simultangleichungen erhalten wird, wird diese Lösung demzufolge ziemlich unerwünscht sein.
  • Ein Prozeß zum Selektieren der vier Zielpunkte P1, P2, P3 und P4 muß sorgfältig ausgeführt werden, wie es unter Bezugnahme auf die Fig. 7 bis 14 eingehend beschrieben wurde. Falls herausgefunden worden ist, daß die so selektierten Punkte P1, P2, P3 und P4 nicht adäquat sind, wird es notwendig, wieder andere Zielpunkte P1, P2, P3 und P4 zu selektieren.
  • Fig. 15(a) ist ein Teil eines Flußdiagramms zum Erläutern eines typischen Prozesses zum Bestimmen von Bewegungsparametern gemäß der vorliegenden Erfindung; Fig. 15(b) ist der verbleibende Teil desselben Flußdiagramms zum Erläutern dieses Prozesses.
  • Im folgenden wird der Prozeß zum Bestimmen von Bewegungsparametern unter Bezugnahme auf die Schritte SP1 bis SP16 in den Fig. 15(a) und 15(b) erläutert.
  • Zuerst wird bei Schritt SP1 von Fig. 15(a) ein dynamisches Bild, das zu verarbeiten ist, d. h., ein individuelles Objekt, aufgezeichnet.
  • Als nächstes wird bei Schritt SP2 eine Abtastoperation bezüglich solch eines individuellen Objektes in einer vorbestimmten Abtastzeit ausgeführt, z. B. Zeit t und Zeit t+τ.
  • Ferner wird bei Schritt SP3 hinsichtlich des individuellen Objektes eine Vielzahl von Rändern (einschließlich auf die Struktur erweiterte Konturenlinien) extrahiert.
  • Bei Schritt SP4 werden auf jedem der Ränder charakteristische Punkte extrahiert, z. B. wenigstens ein Schnittpunkt und/oder wenigstens ein Wendepunkt.
  • Bei Schritt SP5 wird geprüft, ob charakteristische Punkte auf dem betreffenden Rand vorhanden sind oder nicht.
  • Falls bestätigt wird, daß einige charakteristische Punkte auf dem Rand vorhanden sind, wird bei Schritt SP6 die Korrelation bezüglich dieser charakteristischen Punkte zwischen der aneinandergrenzenden Abtastzeit geprüft. Und zwar wird eine Entsprechungsbeziehung zwischen einigen charakteristischen Punkten auf dem Rand zu der Zeit t und anderen charakteristischen Punkten auf dem Rand zu der Zeit t+τ bestätigt.
  • Falls im Gegensatz dazu bestätigt wird, daß auf dem Rand keine vier charakteristischen Punkte vorhanden sind, werden bei Schritt SP7 bei einem adäquaten Verfahren vier Zielpunkte selektiert und extrahiert.
  • Bei Schritt SP8 wird die Korrelation bezüglich der Bewegung der so extrahierten Punkte (der selektierten Punkte) geprüft. Und zwar wird die Entsprechungsbeziehung zwischen den so extrahierten Punkten zu der Zeit t und den so extrahierten Punkten zu der Zeit t+τ bestätigt.
  • Ferner wird bei Schritt SP9 von Fig. 15(b) die Entsprechungsbeziehung zwischen den selektierten Punkten (Zielpunkte P1, P2, P3 und P4) zu der Zeit t und den selektierten Punkten zu der Zeit t+τ in eine Liste geschrieben. Und zwar wird eine Korrelationsliste bezüglich der Bewegung dieser selektierten Punkte aufgestellt.
  • Bei Schritt SP10 wird hinsichtlich des individuellen Objektes ein Prozeß zum Unterscheiden einer Anzahl von Bewegungsparametern ausgeführt. Diese Bewegungsparameter enthalten Daten bezüglich der Translation, der Skalierung und der Rotation um eine planare senkrechte Achse.
  • Bei Schritt SP11 wird das gesamte individuelle Objekt in einer gewissen selektierten Zeit T geprüft. Ferner wird für jeden Zielpunkt oder jede Gruppe von Zielpunkten geprüft, ob die Bewegungsparameter normal sind oder nicht.
  • Falls ein abnormer Abschnitt gefunden wird, wo die Bewegungsparameter anders als die Parameter in den anderen Abschnitten des gesamten dynamischen Bildes erscheinen, wird dieser abnorme Abschnitt von dem gesamten dynamischen Bild abgetrennt (Schritt SP12).
  • Ferner werden bei Schritt SP13 von Fig. 15(a) hinsichtlich des so abgetrennten Abschnittes vier Zielpunkte P1, P2, P3 und P4 verändert. Anschließend kehrt der Prozeß zu Schritt SP4 zurück, und die obigen Schritte SP4 bis SP11 werden erneut ausgeführt.
  • Falls im Gegensatz dazu bestätigt wird, daß kein abnormer Abschnitt vorhanden ist, werden bei Schritt SP14 alle Bewegungsparameter bestimmt.
  • Bei Schritt SP15 wird eine Entsprechungsbeziehung zwischen den Zielpunkten P1, P2, P3 und P4 zu jeder Abtastzeit aufgestellt. Ferner wird eine Korrelationsliste bezüglich der Bewegungsparameter für jeden Zielpunkt aufgestellt.
  • Schließlich wird bei Schritt SP16 das zu verarbeitende dynamische Bild (das individuelle Objekt) auf der Basis der Bewegungsparameter und der Form des dynamischen Bildes unterschieden und gezeichnet.
  • Bei der obigen Erläuterung sind die in Fig. 5 und 6 gezeigten Ränder bekannt. Gewöhnlich sind sie jedoch unbekannt. Um die Ränder zu extrahieren, sind die folgenden offenbarten Verfahren anwendbar:
  • (a) Japanische Patentveröffentlichung (Kokai) Nr. JP- A-63-299594 (A Color Image Transmitting and Processing System)
  • (b) Japanische Patentveröffentlichung (Kokai) Nr. JP- A-1-213761 (A Color Image Edge Detecting, Transmitting, and Processing System)
  • (c) Japanische Patentveröffentlichung (Kokai) Nr. JP- A-2-208781 (A Color Image Drawing Workstation)
  • (d) Japanische Patentveröffentlichung (Kokai) Nr. JP- A-3-267879 (A Scalar Data Processing System)
  • (e) Japanische Patentveröffentlichung (Kokai) Nr. JP- A-4-287180 (A Color Image Edge Detecting System).
  • Diese Verfahren berücksichtigen die Helligkeits- und Farbtonkomponenten eines Bildes, finden einen Rand gemäß Punkten, wo sich die Helligkeitskomponenten verändern, und führen Divergenz- und Rotationsoperationen an den Farbtonkomponenten aus. Positionen, wo diese Operationen große Werte vorsehen, entsprechen einem Fand. Der Rand wird sicher extrahiert. Die obigen Verfahren beruhen auf den Tatsachen, daß eine Position, wo sich die Farbe des Bildes verändert, einer Position gleich ist, wo die Operationen große Werte vorsehen, und daß eine Position, wo sich die Helligkeit des Bildes verändert, einer schattierten Kurve entspricht. Gemäß diesen Tatsachen wird eine auf die Struktur erweiterte Konturenlinie in jedem individuellen Objekt in dem Bild extrahiert. Die Ränder (Konturenlinien) und auf die Struktur erweiterten Konturenlinien werden als Ränder von Fig. 5 und 6 verwendet, um den obigen Prozeß auszuführen.
  • Ein Prinzip des Verfahrens zur Verwendung einer Farbtonkomponente wird erläutert. Ein Farbbild kann in Helligkeits- und Farbtonkomponenten unterteilt werden, und die Farbtonkomponente wird gewöhnlich mit Vektorsignalen I und Q dargestellt. Gemäß einem NTSC-Fernsehübertragungssystem werden die Vektorsignale mit einem Vektor W wie folgt dargestellt:
  • Auf diese Weise wird die Farbtonkomponente mit dem Vektor W dargestellt. Der Vektor W kann wie folgt ausgedrückt werden:
  • Durch Anwenden des Helmholtzschen Lehrsatzes gilt folgendes:
  • W = grad φ + rot (A·k))
  • wobei φ das skalare Potential wie etwa die Helligkeit ist und A·k das Vektorpotential mit einem Einheitsvektor k in der Richtung einer Achse z ist, die zu der Ebene von Fig. 1 orthogonal ist.
  • φx = ∂φ/∂x
  • φy = ∂φ/∂y
  • Ax = ∂A/∂x
  • Ay = ∂A/∂y
  • Hierbei kann div W bezüglich des Vektors W folgendermaßen berechnet werden:
  • div W = div·grad φ + div·rot (A·k)
  • = div·grad φ
  • Dann wird folgendes erhalten:
  • ξx + ηx = φxx + φyy ... (3)
  • Hinsichtlich des Vektors W kann rot W wie folgt berechnet werden:
  • rot W = rot·rot (A·k)
  • Dann wird folgendes erhalten:
  • ξy - ηx = Axx + Ayy ... (4)
  • Dabei ist:
  • ξx = ∂ξ/∂x
  • ξy = ∂ξ/∂y
  • ηx = ∂η/∂x
  • ηy = ∂η/∂y
  • φxx = ∂²φ/∂x²
  • φyy = ∂²φ/∂y²
  • Axx = ∂²A/∂x²
  • Ayy = ∂²A/∂y²
  • Die linke Seite von jeder der Gleichungen (3) und (4) ist meßbar. Durch Lösen der Gleichungen (3) und (4) können φ und A erhalten werden.
  • φ ist eine Lamellenkomponente und ein Potential und wird als lineares Segment in bezug auf Hintergrundscheiben ausgedrückt, die verschiedene Farben haben. A ist ein Potential, das eine Wirbelkomponente darstellt, und wird als gekrümmtes Segment in bezug auf dieselben Hintergrundscheiben ausgedrückt.
  • Durch das Übertragen der Lamellen-, Wirbel- und Helligkeitskomponenten kann daher eine Empfangseinheit ein Originalfarbbild reproduzieren.
  • Simulationen, die mit einem GIRL-Referenzfarbbild gemäß der Society of Motion Picture and Television Engineers (SMPTE) der USA ausgeführt wurden, ergeben, daß die Energie von A nur 2,25% derer von φ beträgt, so daß die Wirbelkomponente, die A entspricht, weggelassen oder mit einer sehr kleinen Datenmenge übertragen werden kann, um Originalfarbbilder ohne Verschlechterung von deren Qualität zu reproduzieren.
  • Die auf die Struktur erweiterte Konturenlinie ist ein Segment wie etwa eine Farbgrenze, die entsprechend Farbtonkomponenten und Farbveränderungspunkten virtuell erhalten wird.
  • Für jeden Zielpunkt auf einem individuellen Objekt werden zu der Zeit t die folgenden Daten erhalten:
  • (Koordinatenwert x), (Koordinatenwert y), (Helligkeitswert) und (Farbtonvektorwert).
  • Ähnlich werden die folgenden Daten zu der Zeit t+τ für den Zielpunkt erhalten:
  • (Koordinatenwert x'), (Koordinatenwert y'), (Helligkeitswert) und (Farbtonvektorwert).
  • Hierbei können der Helligkeitswert und der Farbtonvektorwert von den Daten zu der Zeit t kopiert werden, falls die Helligkeit und der Farbton unverändert sind.
  • Von den Zielpunkten, die jeweils die obige Datenstruktur haben, werden jene, die Farbtonvektorveränderungspositionen entsprechen, verbunden, um eine Konturenlinie und eine auf die Struktur erweiterte Konturenlinie vorzusehen. Die Ränder 7 und 8, die in Fig. 5 und 6 gezeigt sind, sind die Konturenlinie und die auf die Struktur erweiterte Konturenlinie.
  • In einem individuellen Objekt kann eine Vielzahl von auf die Struktur erweiterten Konturenlinien vorhanden sein. Viele Zielpunkte können auf den auf die Struktur erweiterten Konturenlinien festgelegt werden, und jeder der Zielpunkte kann einen Translationsgeschwindigkeitsvektor Vp' vorsehen. Falls die Form eines individuellen Objektes bekannt ist, werden die Zielpunkte verwendet, um jeden Koordinatenpunkt in dem individuellen Objekt mit einem Translationsgeschwindigkeitsvektor Vp' zu versehen.
  • Falls der Translationsgeschwindigkeitsvektor Vp' für jeden von vielen Koordinatenpunkten auf einem individuellen Objekt erhalten werden kann, ist der folgende weiterreichende Prozeß ausführbar.
  • Bei einem herkömmlichen Bildverarbeitungsverfahren werden gewöhnlich zweidimensionale individuelle Objekte verarbeitet. Es ist erforderlich, dreidimensionale individuelle Objekte zu verarbeiten. In diesem Fall ist es notwendig, eine Rotation um eine planare Achse zu bewältigen (eine Achse, die in einer x-y-Ebene vorhanden ist).
  • Fig. 16 erläutert die Rotation eines Bildes, das auf einem Bildschirm gezeichnet wurde. Ein dreidimensionales individuelles Objekt wird um eine optionale Achse rotiert, wie es durch 12 gekennzeichnet ist. Die Rotation ist die Summe aus einer Rotation 13 um eine planare senkrechte Achse und aus der Rotation 14 um eine planare Achse. Die Extraktion von Parametern für die Rotation um die planare Achse wird erläutert.
  • Ein Bewegungsgeschwindigkeitsvektor Vp' wird für jeden Hauptkoordinatenpunkt auf dem individuellen Objekt erhalten, wie oben erwähnt. Nachdem der Bewegungsgeschwindigkeitsvektor Vp' von jedem Zielpunkt gemäß einer auf die Struktur erweiterten Konturenlinie erhalten wurde, werden die Bewegungsgeschwindigkeitsvektoren Vp' von anderen Koordinatenpunkten durch Interpolation erhalten. Falls erforderlich, können die erhaltenen Werte korrigiert und geglättet werden.
  • Solch ein Prozeß wird durch die folgenden Schritte ausgeführt:
  • (A) Der Bewegungsgeschwindigkeitsvektor Vp' von jedem Koordinatenpunkt wird erhalten.
  • (B) Eine Konturenlinie von jedem individuellen Objekt wird zu jedem Zeitpunkt erhalten, und ein Durchschnitt der Bewegungsgeschwindigkeitsvektoren Vp' an Koordinatenpunkten auf der Konturenlinie wird erhalten.
  • (C) Gemäß dem Bewegungsgeschwindigkeitsvektor Vp' von jedem Koordinatenpunkt werden div Vp' und rot Vp' berechnet.
  • (D) Wie in Fig. 17 gezeigt, wird die Richtung eines Bewegungsvektors für die Rotation um die planare Achse als festgelegt. Dann ist der Bewegungsgeschwindigkeitsvektor in der Richtung ξ als V (ξ) gegeben. rot Vp' ist wie folgt gegeben:
  • rot Vp' = ∂V(ξ)/∂η
  • In der Nähe eines Punktes, wo rot Vp' null ist, ist der Bewegungsvektor für die Rotation um die planare Achse in der Richtung ξ, und nur dessen Wert verändert sich. (Die Richtung eines Bewegungsvektors zur Translation ist feststehend. Zusätzlich ist dessen Wert in dem individuellen Objekt feststehend.)
  • Der Bewegungsgeschwindigkeitsvektor Vp' wird für den Punkt erhalten, wie oben erwähnt, wo der Wert von rot Vp' null ist. Danach wird der folgende Prozeß ausgeführt:
  • (E) Ein durchschnittlicher Vp', von dem angenommen wird, daß er durch die Translation bewirkt wird, wird von dem erhaltenen Geschwindigkeitsvektor Vp' subtrahiert, und gemäß einem Resultat der Subtraktion wird sequentiell ein Abstand von der Rotationsachse bis zu der Oberfläche des individuellen Objektes in der Richtung einer Achse z erhalten.
  • (F) div Vp' ist wie folgt gegeben:
  • div Vp' = ∂v(ξ)/∂ξ
  • Der Punkt, wo der Wert von div Vp' null ist, entspricht einem Punkt R, der in Fig. 18 gezeigt ist, falls das individuelle Objekt eine konvexe Querschnittsform hat. In Fig. 18 ist Bezugszeichen 15 eine äußere Farm, die erhalten wird, indem das individuelle Objekt mit einer Ebene zerschnitten wird, die zu der Achse z (nicht gezeigt) orthogonal ist, ist q ein Punkt auf einer Rotationsmittelachse und ist Zmax ein Abstand zwischen den Punkten q und R. Bezugszeichen V(ξ)max ist ein Bewegungsgeschwindigkeitsvektor an dem Punkt R. Falls Zmax erhalten wird, gilt folgendes:
  • v(ξmax) = ωq·Zmax
  • Demzufolge wird die Rotationswinkelgeschwindigkeit ωq erhalten. In der Praxis wird der Prozeß (E) und (F) wiederholt, um die Genauigkeit zu erhöhen.
  • Auf diese Weise werden die Parameter ωq und Zmax erhalten. Danach wird die Extraktionseinheit 2 von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung aktiviert.
  • In Fig. 18 werden der Bewegungsgeschwindigkeitsvektor V(ξ) an einem Punkt S auf der Oberfläche des individuellen Objektes und die Rotationswinkelgeschwindigkeit ωq erhalten, und dann wird ein Abstand zwischen den Punkten q und S in Fig. 18 wie folgt ausgedrückt:
  • V(ξ) = ωq· sinθ = Z·ωq
  • Daher kann ein Abstand Z erhalten werden, der dem Punkt S entspricht. Der Abstand Z kann für jeden Punkt auf der äußeren Form 15 des individuellen Objektes erhalten werden, um dadurch die dreidimensionale Form des individuellen Objektes zu bestimmen. Durch das Zeichnen einer Linie, auf der div Vp' null ist, und einer Linie, auf der rot Vp' null ist, wird konkret die dreidimensionale Form des individuellen Objektes vorgesehen. Ein Punkt, an dem gilt:
  • div Vp' = 0 und rot Vp' = 0
  • entspricht einer Spitze, die dieser Seite auf der Achse z des individuellen Objektes am nächsten ist.
  • Wenn das individuelle Objekt um eine planare Achse rotiert, wird ein Teil des Objektes, der auf dem Bildschirm sichtbar ist, allmählich hinter dem Bildschirm versteckt, und die Rückseite des Objektes, die unsichtbar gewesen ist, wird auf dem Bildschirm allmählich sichtbar.
  • Die sichtbaren Formen des individuellen Objektes zu verschiedenen Zeitpunkten werden als Oberflächen- und Rückseitenbilder des Objektes gespeichert und zur dynamischen Bildverarbeitung verwendet.
  • Wie es oben in den Fig. 16 bis 18 beschrieben wurde, wird es möglich, ein Segment zu extrahieren, das erhalten wird, indem Punkte miteinander verbunden werden, wo jeder Wert von div Vp' null ist, und auch erhalten wird, indem Punkte miteinander verbunden werden, wo jeder Wert von rot Vp' null ist. Ferner wird es möglich, einen Punkt zu extrahieren, wo der Wert von div Vp' null ist und der Wert von rot Vp' null ist. Weiterhin wird es möglich, den Bewegungsgeschwindigkeitsvektor zu bestimmen, wenn das individuelle Objekt um die planare Achse rotiert wird.
  • Zusätzlich zu dem oben erwähnten Fall wird es durch Ausnutzung von Veränderungen von reflektiertem Licht, das durch das individuelle Objekt reflektiert wird, wenn Licht aus einer Richtung auf das individuelle Objekt eingestrahlt wird, auch möglich, den Bewegungsgeschwindigkeitsvektor zu bestimmen, wenn das individuelle Objekt um die planare Achse rotiert wird. Ähnlich wird es durch Ausnutzung einer Hervorhebungslinie, die gebildet wird, indem eine Vielzahl von Punkten miteinander verbunden wird, an denen eine Intensität des reflektierten Lichtes jeweils maximal wird, auch möglich, den oben erwähnten Bewegungsgeschwindigkeitsvektor zu bestimmen.
  • Fig. 19 ist eine schematische Ansicht zum Erläutern einer ersten Bedingung, bei der eine Hervorhebungslinie erzeugt wird.
  • In der Figur ist die Richtung einer Sichtlinie dieselbe wie die Richtung einer Lichtquelle, d. h., die Richtung, aus der Licht auf das individuelle Objekt eingestrahlt wird.
  • Wie aus Fig. 19 hervorgeht, wird ein Abstand Z zwischen einem Punkt q und einem Punkt S in der Richtung der Sichtlinie wie folgt ausgedrückt:
  • Z = rcosθ
  • Daher wird ein Gradient der Oberfläche des individuellen Objektes am Punkt S hinsichtlich der Richtung einer Achse x wie folgt ausgedrückt:
  • dZ/dθ = (dr/dθ)cosθ - rsinθ
  • Damit das reflektierte Licht am Punkt S im Vergleich zu dem reflektierten Licht an anderen Punkten maximal werden kann, ist es erforderlich, daß eine Tangentenebene am Punkt S zu der Richtung längs des Abstandes Z rechtwinklig ist.
  • Demzufolge wird die folgende Bedingung erhalten:
  • dZ/dθ = 0
  • Nach dieser Bedingung gilt die folgende Beziehung:
  • dZ/dθ = (dr/dθ)cosθ - rsinθ = 0 ... (5)
  • Deshalb wird die folgende Gleichung erhalten:
  • (dr/dθ) = tanθ
  • Das reflektierte Licht wird an einer Reihe von Punkten maximal, wo diese Gleichung für jeden Punkt erfüllt wird.
  • Demzufolge erscheint die Reihe von Punkten als Hervorhebungslinie.
  • Fig. 20 ist eine schematische Ansicht zum Erläutern einer zweiten Bedingung, bei der eine Hervorhebungslinie erzeugt wird.
  • Die Bezugszeichen in Fig. 20 entsprechen jenen von Fig. 19.
  • In der Figur unterscheidet sich die Richtung der Sichtlinie von der Richtung der Lichtquelle durch einen Winkel Ω'. Hierbei ist die Richtung der Lichtquelle als Richtung einer Achse z' definiert.
  • In diesem Fall ist ein Wert eines Abstandes Z' (in Fig. 20 nicht gezeigt) zwischen einem Punkt q und einem Punkt S in der Richtung der Sichtlinie (Richtung einer Achse z') durch eine Vektorsumme aus einem Wert eines Abstandes in der Richtung einer Achse z und einem Wert eines Abstandes in der Richtung einer Achse x gegeben.
  • Daher wird ein Abstand Z' zwischen einem Punkt q und einem Punkt S in der Richtung der Sichtlinie wie folgt ausgedrückt:
  • Z = Zcos(Ω'/2) + xsin(Ω'/2)
  • Deshalb ist eine Hervorhebungslinie durch eine Reihe von Punkten gegeben, wo die folgende Gleichung für jeden Punkt erfüllt wird:
  • dr/dθ = rtan(θ - (Ω'/2)) ... (6)
  • Fig. 21 ist eine schematische Ansicht zum Erläutern einer Bedingung, bei der die Rotation um eine planare Achse in einem Parallelepiped erzeugt wird.
  • In der Figur hat das individuelle Objekt eine Form eines Parallelepipeds. In diesem Fall wird, wie in einer grafischen Darstellung von Fig. 22(a) gezeigt, ein Helligkeitswert in dem reflektierten Licht von dem Parallelepiped in Form einer gestrichelten Linie oder in abgestufter Form (stufenweise) verändert, wenn sich der Winkel θ ändert, wenn solch ein Parallelepiped um eine planare Achse rotiert wird.
  • Andererseits wird angenommen, daß das individuelle Objekt solch eine Form hat, daß ein Querschnitt von ihm durch das Bezugszeichen 15 in Fig. 19 oder Fig. 20 bezeichnet wird und um eine planare Achse rotiert wird. In diesem Fall wird, wie in einer grafischen Darstellung von Fig. 22(b) gezeigt, der Helligkeitswert in dem reflektierten Licht in Form einer sanft gekrümmten Linie verändert, wenn sich der Winkel θ ändert, wenn das individuelle Objekt um eine planare Achse rotiert wird.
  • Als Hervorhebungslinie, die typischerweise durch die obigen Gleichungen (5) und (6) dargestellt wird, kann eine Hervorhebungslinie in vertikaler Richtung sowie eine Hervorhebungslinie in horizontaler Richtung angesehen werden, wie es oben beschrieben wurde.
  • Gemäß einer Bewegung einer gegebenen Art von einem individuellen Objekt bewegen sich Hervorhebungslinien in horizontaler Richtung und vertikaler Richtung wie folgt.
  • (1) In dem Fall, wenn die Bewegung des individuellen Objektes eine Translation betrifft, bewegt sich jede Hervorhebungslinie translatorisch.
  • (2) In dem Fall, wenn die Bewegung des individuellen Objektes eine Skalierung betrifft, wird eine Länge eines Segmentes, das jede Hervorhebungslinie definiert, vergrößert oder verkleinert.
  • (3) In dem Fall, wenn die Bewegung des individuellen Objektes eine Rotation um eine planare senkrechte Achse betrifft, bewegen sich Hervorhebungslinien in horizontaler Richtung bzw. vertikaler Richtung, wenn sich der Winkel θ in der Form in einem horizontalen Querschnitt des individuellen Objektes ändert und in der Form in einem vertikalen Querschnitt von ihm ändert. In diesem Fall sei erwähnt, daß sich ein Schnittpunkt der zwei Arten von Hervorhebungslinien nicht bewegt.
  • Fig. 23 sind Ansichten zum Erläutern einer Bewegung von jeder Hervorhebungslinie, wenn ein Sphäroid um eine planare senkrechte Achse rotiert wird.
  • In der Figur ist eine Vielzahl von Linien, von denen jede eine Zone mit gleichem Helligkeitswert in dem individuellen Objekt bezeichnet, in Form von Konturenlinien dargestellt. Ferner zeigt der linke Teil von Fig. 23 die Bewegung von Hervorhebungslinien in horizontaler Richtung und vertikaler Richtung, wenn das individuelle Objekt mit dem linken Auge beobachtet wird. Andererseits zeigt der rechte Teil von Fig. 23 die Bewegung der zwei Arten von Hervorhebungslinien, wenn das individuelle Objekt mit dem rechten Auge beobachtet wird.
  • Wenn das individuelle Objekt, das ein Sphäroid hat, um eine planare senkrechte Achse rotiert wird, rotieren alle Konturenlinien auf genau dieselbe Weise, in der die Rotation des individuellen Objektes erfolgt, wie in Fig. 23 gezeigt. Jedoch bewegen sich die Hervorhebungslinien, wie im unteren Teil von Fig. 23 gezeigt, mit der Rotation des individuellen Objektes. In diesem Fall ist ein Schnittpunkt der zwei Arten von Hervorhebungslinien im rechten Teil und im linken Teil von Fig. 23 jeweils feststehend.
  • Wie oben beschrieben, wird es durch Prüfen der Bewegung der Hervorhebungslinien möglich, die Form (d. h., die dreidimensionale Form) des individuellen Objektes leicht zu erkennen. Da sich der Schnittpunkt der Hervorhebungslinien nicht bewegt, kann ferner solch ein Schnittpunkt als einer der oben erwähnten Zielpunkte Pi genutzt werden.
  • Besonders in dem Fall, wenn die Bewegung des individuellen Objektes eine Translation betrifft, kann eine Entsprechungsbeziehung zwischen einem Schnittpunkt der Hervorhebungslinien zu der Zeit t und einem Schnittpunkt der Hervorhebungslinien zu der Zeit t+τ geprüft werden. Daher kann ohne weiteres ein Translationsgeschwindigkeitsvektor erhalten werden.
  • Wenn das individuelle Objekt ferner um eine planare Achse rotiert, verändert sich ein Bewegungsgeschwindigkeitsvektor V(ξ) auf einem Punkt (vorbestimmter Punkt) auf der Oberfläche des individuellen Objektes in Sinuswellenform, wenn sich solch ein Punkt längs der Richtung einer Achse z (Tiefenrichtung) mit der Rotation des individuellen Objektes bewegt. Unter Verwendung des obigen Punktes kann deshalb die dreidimensionale Form des individuellen Objektes leicht erkannt werden. Zum Beispiel ist es bei dem individuellen Objekt, wie es in Fig. 21 gezeigt ist, möglich, Veränderungen des Bewegungsgeschwindigkeitsvektors V(ξ) an jedem der gezeigten Eckpunkte d1 bis d7 zu nutzen.
  • Die Bewegungsgeschwindigkeitsvektorzeicheneinheit 220 verwendet die Parameter, die durch die Bewegungsgeschwindigkeitsvektorextraktionseinheit 210 vorgesehen werden.
  • Die Zeicheneinheit 3 für Geschwindigkeitsvektoren der starren Bewegung führt den folgenden Prozeß aus. Sie legt jeden Zielpunkt auf dem individuellen Objekt fest und erzeugt Konturenlinien und auf die Struktur erweiterte Konturenlinien. Die folgenden Daten sind für jeden der Zielpunkte gegeben:
  • (Koordinatenwert x), (Koordinatenwert y), (Helligkeitswert) und (Farbtonvektorwert).
  • Gemäß diesen Daten werden der Helligkeitswert und der Farbtonwert von jedem Punkt berechnet. Die Helligkeits- und Farbtonwerte auf der Konturenlinie und der auf die Struktur erweiterten Konturenlinie werden durch Interpolation vorgesehen. Die Helligkeits- und Farbtonwerte von jedem Koordinatenpunkt in einem Bereich zwischen der Konturenlinie und der auf die Struktur erweiterten Konturenlinie werden durch Interpolation vorgesehen.
  • Auf diese Weise wird ein stehendes Bild (statisches Bild) zu der Zeit t erhalten, wobei das individuelle Objekt als starrer Körper angesehen wird. Dann werden die Parameter für die starre Bewegung auf Hauptkoordinatenpunkte angewen det, um das Erzeugen eines stehenden Bildes zu der Zeit t+τ zu starten, wobei das individuelle Objekt als starrer Körper behandelt wird. Dieser Prozeß beginnt auch mit dem Erzeugen einer Konturenlinie und einer auf die Struktur erweiterten Konturenlinie.
  • Die Zeicheneinheit 4 für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung nutzt einen Punkt auf dem Bild zu der Zeit t als Startpunkt, um einen Punkt auf dem Bild zu der Zeit t+τ festzulegen. Da der Bewegungsgeschwindigkeitsvektor von dem Startpunkt bis zu dem Zeitpunkt t+τ gegeben ist, wird der Punkt, der durch den Bewegungsgeschwindigkeitsvektor bestimmt ist, als Punkt auf dem Bild zu der Zeit t+τ festgelegt.
  • Fig. 24 erläutert den Zeichenprozeß. Die linke Hälfte der Figur entspricht dem Prozeß zum Zeichnen eines stehenden Bildes, und die rechte Hälfte der Figur entspricht dem Prozeß zum Unterstützen des Zeichenprozesses des stehenden Bildes, wenn ein dynamisches Bild gezeichnet wird. Ein Subfenster, das in einem unteren rechten Teil der Figur gezeigt ist, wird verwendet, um die starre Bewegung von jedem individuellen Objekt zu zeichnen. Das Bild eines individuellen Objektes zu der Zeit t+τ wird in dem Subfenster erzeugt und auf das Bild zu der Zeit t kopiert.
  • Nun werden Bezugszeichen in der Figur erläutert.
  • (a) NICHTS
  • Dies kennzeichnet einen Ausgangszustand in einem Strukturnetz.
  • (b) KOMPONENTE
  • Dies kennzeichnet einen gezeichneten Zustand in einem Elementnetz oder einen Zustand, daß ein Referenzelementbild, das in einer Datenbank gespeichert ist, auf einem Elementkanevas angezeigt wird. Das Elementbild wird gemäß einer Funktion ERHALTEN angezeigt.
  • (c) POSITIONIERTE KOMPONENTEN
  • Dies kennzeichnet einen Zustand, daß das Elementbild, das auf dem Elementkanevas angezeigt wird, auf einem Strukturkanevas angeordnet wird. Das Bild wird mit einem Basiskontext gemäß einer Funktion SETZEN versehen (einschließlich KOPIEREN, SKALIEREN, ROTIEREN und BEWEGEN), die durch ein Subnetz definiert ist, und auf dem Strukturkanevas angeordnet. Das KOPIEREN, SKALIEREN und ROTIEREN wird auf Grund der Definition einer Matrix gleichzeitig ausgeführt.
  • (d) REFLEKTIERTE KOMPONENTEN
  • Dies ist ein Zustand, um Erscheinungen auszudrücken, die auftreten, wenn Licht auf die Oberfläche des Objektes auf Grund der Stärke, des Einfallswinkels, der Reflexion und der Brechung des Lichtes trifft. Die Erscheinungen werden mit den Prozessen REFLEKTIEREN und BRECHEN ausgedrückt, die in dem Subnetz definiert sind, und treten gleichzeitig auf.
  • (e) SCHATTIERTE KOMPONENTEN
  • Dies ist ein Zustand, um eine schattierte Polygonform zu definieren, die auf Licht und Beleuchtung nach Instruktion eines Nutzers zurückzuführen ist. Da die Schattierung mehr von Umgebungen als von der Reflexion und Brechung abhängt, wird die Schattierung nach dem Reflexions- und Brechungsprozeß ausgeführt. Die Schattierung wird gemäß einer Funktion SCHATTIEREN ausgeführt.
  • (f) VERFEINERTE KOMPONENTEN
  • Dies ist ein Zustand, um eine Unvereinbarkeit mit Umgebungen wie etwa Hervorhebungslinien auf den Elementbildern, die durch das Strukturnetz verarbeitet werden, zu korrigieren. Diese Korrektur erfolgt gemäß einer Funktion VERFEI- NERN.
  • (g) INTEGRIERTES BILD
  • Dies ist ein Zustand bei einem fertiggestellten Bild. Bilder und Kontexte werden gemäß einer Funktion INTEGRIEREN in einem integriert.
  • (h) POSITIONIERTE KOMPONENTE
  • Dies kennzeichnet einen Zustand, daß Elementbilddaten von der Einheit des stehenden Bildes übertragen worden sind. Die selektierten und übertragenen Elementbilder werden gemäß KONKRET DARSTELLEN bewegt, vergrößert oder verkleinert und rotiert.
  • (i) ALS BEISPIEL ANGEFÜHRTE KOMPONENTE
  • Ein Zustand zu jedem Hauptzeitpunkt wird bestimmt, wenn die Elementbilder gemäß KONKRET DARSTELLEN bewegt, vergrößert oder verkleinert und rotiert werden.
  • (j) ALS BEISPIEL ANGEFÜHRTE KOMPONENTE IM ZEITSEGMENT
  • Die Daten, die für die Hauptzeitpunkte bei der ALS BEI- SPIEL ANGEFÜHRTEN KOMPONENTE festgelegt wurden, werden gemäß einem zeitlichen Ablauf sequentiell angeordnet. In der bestimmten Folge der Hauptzeitpunkte wird jedes Segment zwischen den Hauptzeitpunkten interpoliert.
  • (k) ALS BEISPIEL ANGEFÜHRTE KOMPONENTE IN DER ZEIT
  • Die interpolierten Daten der Segmente werden kombiniert, um Elementbilder zu allen Zeitpunkten zu bestimmen. Die Einheit des dynamischen Bildes und die Einheit des stehenden Bildes des Strukturnetzes tauschen die folgenden Parameter aus, um ein dynamisches Bild zu erzeugen.
  • (l) SELEKTIEREN
  • Die selektierten Elementbilddaten und Parameter werden von der Einheit des stehenden Bildes zu der Einheit des dynamischen Bildes übertragen. Die Elementbilder, die bei POSITIONIERTE KOMPONENTEN der Einheit des stehenden Bildes kombiniert wurden, werden wieder zerlegt und zu der dynamischen Bildeinheit übertragen, um die Bewegung von jedem der Elementbilder zu überwachen.
  • (m) ÜBERTRAGEN
  • Die Elementbilddaten und Parameter, die für jeden Zeitpunkt durch die Einheit des dynamischen Bildes des Strukturnetzes erzeugt wurden, werden zu der Einheit des stehenden Bildes zurückgesendet. Die Einheit des stehenden Bildes führt einen Reflexionsprozeß, einen Brechungsprozeß, einen Schattierungsprozeß und eine Bewegung von Hervorhebungslinien auf den Elementbildern aus, um interpolierte Bilder für alle Zeitpunkte fertigzustellen.
  • Unter der Annahme, daß Hauptfaktoren zum Erzeugen eines Bildmodells, welches das Gefühl eines Materials und der realen Existenz vermittelt, Licht, Beleuchtung, Schatten, Helligkeit oder Dunkelheit und Material sind, wird das Bild eines Objektes gemäß Erscheinungen wie etwa Reflexion und Brechung, die auftreten, wenn Licht das Objekt bestrahlt, ohne weiteres gestaltet, ohne ein Strahlverfolgungsverfahren einzusetzen. Das Modell wird mit hoher Geschwindigkeit unter Verwendung eines Elementnetzes, das durch eine deskriptive Sprache eines Parallelausführungsbildzeichensystems definiert ist, und eines Strukturnetzes, das aus dem Elementnetz heraus erweitert wird, verarbeitet.
  • Das Verfahren, bei dem das Strukturnetz genutzt wird, kann gemäß "A Language Processing System with an Object Network" realisiert werden, das in der japanischen ungeprüften Patentveröffentlichung (Kokai) Nr. 5-233690 von diesem Anmelder offenbart ist.
  • Das Strukturnetz versieht Elementbilder, die durch das Elementnetz bereitgestellt werden, mit Kontext und dem Gefühl von Material und realer Existenz. Das Strukturnetz führt auch einen dynamischen Bildprozeß aus. Das Strukturnetz führt diesen Prozeß für einen Nutzer ohne Programm aus. Ein dynamisches Bild zu einem gegebenen Hauptzeitpunkt wird als stehendes Bild betrachtet, das gezeichnet wird. Die Daten des stehenden Bildes werden zu der Einheit des dynamischen Bildes übertragen, die ein dynamisches Bild erzeugt. Das Strukturnetz definiert automatisch die positionelle Beziehung der Elementbilder und zeichnet die stehenden und dynamischen Bilder. Das Strukturnetz kann die Integration einer Vielzahl von stehenden Bildern, das Zeichnen von stehenden Bildern und das Zeichnen von dynamischen Bildern gleichzeitig ausführen.
  • Das Elementnetz zeichnet Elementbilder, die nicht von Umgebungen abhängen. Andererseits verarbeitet das Strukturnetz hauptsächlich die umgebungsabhängigen Dinge wie etwa Licht, Lichtquellen, Reflexion, Brechung und Material eines Objektes. Das Strukturnetz führt solch einen Prozeß unter Bezugnahme auf das Elementnetz aus, falls erforderlich.
  • Das Strukturnetz des stehenden Bildes definiert positionelle Beziehungen zwischen den gezeichneten Elementbildern auf dem Strukturkanevas. Das Strukturnetz des stehenden Bildes versieht die Elementbilder mit den positionellen Beziehungen und Kontext und verarbeitet gemäß der Beziehung zwischen den Elementbildern die Reflexion, Brechung und Schattierung. Jede substantivische Objektklasse ist durch einen Knoten gekennzeichnet. Die Knoten sind durch Richtungszweige miteinander verbunden. Diese Zweige sind Funktionen und verbale Objekte. Die VERFEINERTEN KOMPONENTEN, die in Fig. 24 gezeigt sind, sind ein substantivisches Objekt, während VERFEINERN ein verbales Objekt ist.
  • Licht wird durch eine Grenzfläche eines Mediums gemäß einem Reflexionsgesetz reflektiert und gemäß einem Brechungsgesetz gebrochen. Wenn Licht die Grenzfläche des Mediums erreicht, wird ein Teil des Lichtes hin zu der Atmosphäre reflektiert, und der Rest wird gebrochen, um die Grenzfläche zu passieren und in das Medium einzutreten.
  • Fig. 25 erläutert die positionelle Beziehung zwischen der Reflexion und der Brechung. Ein transparentes Objekt, hat eine Dicke c. Wenn ein Betrachtungspunkt um x' verschoben wird, sieht die Oberfläche des transparenten Objektes einen primären Reflexionspunkt A vor, und der Boden des transparenten Objektes sieht einen sekundären Reflexionspunkt B vor. Dann gilt folgendes:
  • α = b'x'/(2b + a)
  • β = cx' tanγ'
  • wobei a' ein Abstand zwischen einem ursprünglichen Betrachtungspunkt und einem Objekt ist, b' ein Abstand zwischen dem Objekt und dem transparenten Objekt ist, c die Dicke des transparenten Objektes ist, x' die Länge der Verschiebung des Betrachtungspunktes ist und i und γ' Winkel sind, die im folgenden beschrieben werden.
  • Nachdem die relative Position des reflektierten Bildes definiert ist, werden Hauptpunktdaten zu der Position verschoben, um einen Reflexionsgrad (der von dem Material abhängt) bezüglich eines Einfallswinkels zu finden. Die Helligkeit und der Farbton des Hauptpunktes werden berechnet, und die Helmholtzsche Interpolation wird ausgeführt, um das reflektierte Bild des Objektes zu erzeugen.
  • Der Einfallswinkel und der Reflexionsgrad des transparenten Objektes sind wie folgt gegeben:
  • Wenn Licht diagonal auf einer Grenzfläche einfällt, wird reflektiertes Licht in eine Polarisation "s" und eine Polarisation "p" in Abhängigkeit von der Polarisation des einfallenden Lichtes geteilt.
  • Reflexion an Position A =
  • · (Einfallend an Position A)
  • = (γ's) · (Einfallend an Position A)
  • Reflexion an Position A =
  • · (Einfallend an Position A)
  • = (γ'p) · (Einfallend an Position A)
  • wobei na ein Brechungsindex auf der Einfallsseite ist, nb ein Brechungsindex auf der Brechungsseite ist, i ein Einfallswinkel ist und γ' ein Brechungswinkel ist.
  • Jeder Reflexionsgrad ist wie folgt:
  • Rs = rs ², Rp = rp ²
  • Normales Licht enthält die Polarisationen "s" und "p" in demselben Maße. Dann ist ein Reflexionsgrad R folgendermaßen:
  • R = (Rs + Rp)/2
  • Ein reflektiertes Objekt wird gemäß den Helligkeits- und Farbtondaten von jedem Hauptpunkt gebildet, der durch einen Nutzer unter Berücksichtigung eines Reflexionsgrades eingegeben wird, oder es wird gemäß einem Reflexionsgrad gebildet, der durch das System gemäß der obigen Beziehung automatisch berechnet wird.
  • Die Schattierung wird wie folgt ausgeführt:
  • Entsprechend einem Betrachtungspunkt der Schattierung können Lichtquellen in zwei Arten klassifiziert werden. Eine ist eine kohärente Lichtquelle oder eine Punktlichtquelle ohne Größe. In diesem Fall ist die Grenze eines Schattens klar. Der Schatten ist nämlich ein vollständiger Schatten, der kein direktes Licht von der Lichtquelle empfängt. Eine andere ist eine lineare Lichtquelle oder eine Oberflächenlichtquelle mit einer Länge oder einem Bereich. Diese Art Lichtquelle sieht einen Schatten vor, der ausgehend von einem dichten Schatten allmählich schwächer wird und keine klare Grenze hat. In diesem Fall besteht der Schatten aus einem vollständigen Schatten und einem Halbschatten. Der Halbschatten wird gebildet, wenn direktes Licht von der Lichtquelle teilweise blockiert wird.
  • Wenn eine Person ein Bild schattiert, kann sie einen Hauptpunkt zur Schattierung gemäß einem charakteristischen Hauptpunkt des Bildes festlegen, und gemäß dem Hauptpunkt schattieren und Konturen zeichnen. Ähnlich legt ein Farbbildverarbeitungs- und Zeichensystem einen Hauptpunkt in einem gegebenen Bild fest, spezifiziert es einen Abstand zum Verschieben des Punktes und zeichnet es gemäß dem Hauptpunkt die Kontur eines schattierten Polygons. Entsprechend der Anzahl von spezifizierten Hauptpunkten wird eine Lichtquelle bestimmt. Die Größe eines Umgebungslichtes, das zum Herstellen des schattierten Polygons verwendet wird, bestimmt den vollständigen Schatten. Die hergestellten Schatten werden integriert.
  • Um das schattierte Polygon zu bilden, werden Bilder gemäß einer Kombination aus Schneiden, Skalieren und Translation verändert.
  • Bei der dynamischen Bildverarbeitung, die in der rechten Hälfte von Fig. 24 gezeigt ist, empfängt die POSITIO- NIERTE KOMPONENTE ein selektiertes individuelles Objekt. Die ALS BEISPIEL ANGEFÜHRTE KOMPONENTE spezifiziert jeden Zielpunkt auf dem individuellen Objekt.
  • Die ALS BEISPIEL ANGEFÜHRTE KOMPONENTE IM ZEITSEGMENT verbindet die Zielpunkte in zeitlicher Folge miteinander. Die ALS BEISPIEL ANGEFÜHRTE KOMPONENTE IN DER ZEIT glättet die verbundenen Daten und überträgt die Daten zu der Verarbeitungsseite des stehenden Bildes.
  • Falls ein resultierendes Bild, das in Fig. 24 gezeichnet wird, unbefriedigend ist, wird eine Ausgabe der Zeicheneinheit 4 für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung zu der Bewegungsgeschwindigkeitsvektorextraktionseinheit 210 zurückgeführt, um den Korrekturprozeß zu wiederholen.
  • Wie oben erläutert, verbessert die vorliegende Erfindung die Verfahren zum Extrahieren von Rändern von einem Farbbild, die in den vorhergehenden Anmeldungen offenbart sind. Die vorliegende Erfindung extrahiert Parameter für die starre Bewegung von jedem Zielpunkt auf einem individuellen Objekt sowie für die weiche deformierbare Bewegung des Zielpunktes. Die Parameter werden verwendet, um ein dynamisches Bild zu analysieren und/oder zu zeichnen. Die vorliegende Erfindung vereinfacht einen Prozeß zum Bestätigen von entsprechenden Punkten zwischen Bildern vor und nach einer Bewegung sowie einen Prozeß zum Zeichnen der Bilder außeror dentlich. Die vorliegende Erfindung bewältigt auch die Rotation um eine planare Achse.

Claims (21)

1. Dynamischer Bildprozessor zum temporären Analysieren der Bewegung von jedem individuellen Objekt, das in einem gegebenen dynamischen Bild enthalten ist, zum Extrahieren von Bewegungsdaten für das individuelle Objekt, Speichern der Bewegungsdaten und/oder Zeichnen der Bewegung des individuellen Objektes in dem dynamischen Bild gemäß den gespeicherten Bewegungsdaten, mit einer Bewegungsgeschwindigkeitsvektorextraktionseinheit (210) zum Extrahieren eines Geschwindigkeitsvektors aus der Bewegung des individuellen Objektes, welche Einheit (210) umfaßt:
eine Extraktionseinheit (1) von Geschwindigkeitsvektoren der starren Bewegung, zum Vorsehen von Geschwindigkeitsvektordaten für die starre Bewegung des individuellen Objektes wie etwa eine Translation, Skalierung, wie z. B. eine Vergrößerung und Verkleinerung, und Rotation um eine planare senkrechte (engl: in-plane perpendicular) Achse; und
eine Extraktionseinheit (2) von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung, zum Vorsehen von Geschwindigkeitsvektordaten für die weiche deformierbare Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung,
welche Extraktionseinheit (1) von Geschwindigkeitsvektoren der starren Bewegung eine affine Transformation an dem individuellen Objekt ausführt, um die Bewegungsgeschwindigkeitsvektordaten für die Translation, Skalierung und Rotation um die planare senkrechte Achse des individuellen Objektes vorzusehen, und welche Extraktionseinheit (2) von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung die Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung gemäß einem Vektorverfahren berechnet, um die Geschwindigkeitsvektordaten der weichen deformierbaren Bewegung vorzusehen.
2. Dynamischer Bildprozessor nach Anspruch 1, bei dem:
die Extraktionseinheit (1) von Geschwindigkeitsvektoren der starren Bewegung die Bewegungsgeschwindigkeitsvektordaten für die Translation, Skalierung und Rotation um eine planare senkrechte Achse des individuellen Objektes vorsieht, indem der effektive Bewegungsgeschwindigkeitsvektor von jedem Zielpunkt auf dem individuellen Objekt als Funktion eines Translationsgeschwindigkeitsvektors, eines Skalierungsparameters, einer Winkelgeschwindigkeit der Rotation um die planare senkrechte Achse und ein Distanzvektor zwischen dem Zielpunkt und einer temporären Mitte, die für die Skalierung und die Rotation um die planare senkrechte Achse temporär festgelegt wird, berechnet werden;
eine Geschwindigkeitskomponente längs einer Kraftlinie und eine Geschwindigkeitskomponente längs einer Tangentenlinie an jedem von wenigstens vier Punkten, die den Zielpunkten entsprechen, auf einem Segment gemessen werden, welches das individuelle Objekt bildet; und
der Translationsgeschwindigkeitsvektor, der Skalierungsparameter und die Winkelgeschwindigkeit der Rotation um die planare senkrechte Achse gemäß den Geschwindigkeitskomponenten längs der Kraftlinie und der Tangentenlinie berechnet werden.
3. Dynamischer Bildprozessor nach Anspruch 1, bei dem die Extraktionseinheit (2) von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung die Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung berechnet, indem eine Konturenlinie auf der Basis der Form des individuellen Objektes und/oder eine auf die Struktur erweiterte Konturenlinie auf der Basis von Veränderungen der Helligkeit und des Farbtons vektoriell verarbeitet wird, unbestimmte Punkte auf der Konturenlinie und/oder der auf die Struktur erweiterten Konturenlinie interpoliert und Geschwindigkeitsvektoren zwischen den entsprechenden Punkten findet.
4. Dynamischer Bildprozessor nach Anspruch 2, bei dem die Zielpunkte, die durch die Extraktionseinheit (1) von Geschwindigkeitsvektoren der starren Bewegung verwendet werden, auf einer Konturenlinie auf der Basis der Form des individuellen Objektes und/oder einer auf die Struktur erweiterten Konturenlinie auf der Basis von Veränderungen der Helligkeit und des Farbtons festgelegt werden und die vier Punkte unter den Punkten sind, die auf der Konturenlinie und/oder der auf die Struktur erweiterten Konturenlinie festgelegt werden.
5. Dynamischer Bildprozessor nach Anspruch 2, bei dem wenigstens ein Schnittpunkt und/oder wenigstens ein Wendepunkt auf einer Konturenlinie und/oder einer auf die Struktur erweiterten Konturenlinie als die vier Punkte selektiert werden, die auf der Konturenlinie festgelegt werden, die auf der Basis eines Segmentes gegeben ist, welches die Form des individuellen Objektes definiert, und/oder die auf der auf die Struktur erweiterten Konturenlinie festgelegt werden, die auf der Basis von Veränderungen der Helligkeit und des Farbtons gegeben ist.
6. Dynamischer Bildprozessor nach Anspruch 5, bei dem einige Punkte außer dem Schnittpunkt und/oder dem Wendepunkt auf einer Konturenlinie und/oder einer auf die Struktur erweiterten Konturenlinie als die vier Punkt selektiert werden.
7. Dynamischer Bildprozessor nach Anspruch 2, bei dem der Prozessor dafür ausgelegt ist, um zu prüfen, ob ein Rangwert in bezug auf Simultangleichungen, die durch Selektieren der vier Punkte aufgestellt werden, kleiner als "8" ist oder nicht, und die vier Punkte, durch die der Rangwert "8" betragen kann, wieder zu selektieren, in dem Fall, wenn der zuvor selektierte Wert kleiner als "8" ist.
8. Dynamischer Bildprozessor nach Anspruch 4, bei dem ein Geschwindigkeitsvektor, welcher der Bewegung des individuellen Objektes entspricht, bestimmt wird, indem jeder Zielpunkt zu Abtastzeitpunkten verarbeitet wird, wenn sich das Bild außerordentlich verändert, und jeder Raum zwischen Abtastzeitpunkten gemäß den Daten der Zielpunkte, die zu den Abtastzeitpunkten abgetastet werden, interpoliert wird.
9. Dynamischer Bildprozessor nach Anspruch 1, bei dem:
die Extraktionseinheit (1) von Geschwindigkeitsvektoren der starren Bewegung eine Divergenzoperation und eine Rotationsoperation gemäß dem Translationsgeschwindigkeitsvektor eines Punktes ausführt, der auf dem individuellen Objekt spezifiziert ist, falls der Translationsgeschwindigkeitsvektor gegeben ist, um Geschwindigkeitsvektordaten der starren Bewegung zur Rotation um eine planare Achse vorzusehen; und
die Extraktionseinheit (2) von Geschwindigkeitsvektoren der weichen deformierbaren Bewegung Geschwindigkeitsvektordaten der weichen deformierbaren Bewegung für das individuelle Objekt vorsieht, indem die Komponenten der starren Bewegung, welche die Komponenten der Translation, der Skalierung, der Rotation um die planare senkrechte Achse und der Rotation um die planare (engl: in-plane) Achse enthalten, subtrahiert werden.
10. Dynamischer Bildprozessor nach Anspruch 9, bei dem eine Extraktionseinheit (1) von Geschwindigkeitsvektoren der starren Bewegung operativ ist, um reflektiertes Licht zu prüfen, das durch das individuelle Objekt reflektiert wird, wenn Licht auf das individuelle Objekt eingestrahlt wird, und um eine Hervorhebungslinie zu erhalten, die gebildet wird, indem eine Vielzahl von Punkten zusammen verbunden wird, an denen eine Intensität des reflektierten Lichtes jeweils maximal wird, und um die Geschwindigkeitsvektordaten der starren Bewegung vorzusehen, die der Rotation um die planare Achse entsprechen, wenn das individuelle Objekt um die planare Achse rotiert wird.
11. Dynamischer Bildprozessor zum temporären Analysieren der Bewegung von jedem individuellen Objekt, das in einem gegebenen dynamischen Bild enthalten ist, zum Extrahieren von Bewegungsdaten für das individuelle Objekt, Speichern der Bewegungsdaten und/oder Zeichnen der Bewegung des individuellen Objektes in dem dynamischen Bild gemäß den gespeicherten Bewegungsdaten, mit einer Bewegungsgeschwindigkeitsvektorzeicheneinheit (220) zum Zeichnen des individuellen Objektes gemäß einem Bewegungsgeschwindigkeitsvektor, der die Bewegung des individuellen Objektes darstellt, welche Einheit (220) umfaßt:
eine Zeicheneinheit (3) für Geschwindigkeitsvektoren der starren Bewegung, die Positions-, Helligkeits- und Farbtonwerte für eine Vielzahl von Zielpunkten des individuellen Objektes und Geschwindigkeitsvektordaten für die starre Bewegung, wie etwa die Translation, die Skalierung, wie z. B. Vergrößerung und Verkleinerung, und die Rotation um eine planare senkrechte Achse an der Vielzahl von Zielpunkten des individuellen Objektes verwendet, um durch Interpolation Helligkeits- und Farbtondaten an jedem Koordinatenpunkt des individuellen Objektes zu erzeugen, um dadurch ein stehendes Objektbild zu einer Vielzahl von Abtastzeitpunkten (t, t+τ) zu erhalten; und
eine Zeicheneinheit (4) für Geschwindigkeitsvektoren der weichen deformierbaren Bewegung, die Geschwindigkeitsvektordaten für die weiche deformierbare Bewegung des individuellen Objektes nach Subtrahieren der Komponenten der starren Bewegung verwendet, um die Vielzahl von stehenden Bildern gemäß einem Zeitablauf sequentiell anzuordnen und die Positions-, Helligkeits- und Farbtonwerte für die Vielzahl von Zielpunkten des individuellen Objektes zu allen Zeitpunkten zu interpolieren, und die zeitinterpolierten Bilddaten wieder räumlich interpoliert, um interpolierte Bilder für alle Zeitpunkte fertigzustellen.
12. Dynamischer Bildprozessor nach Anspruch 11, bei dem die Zeicheneinheit (3) für Geschwindigkeitsvektoren der starren Bewegung die starre Bewegung des individuellen Objektes gemäß einem Translationsgeschwindigkeitsvektor, einem Skalierungsparameter und einer Winkelgeschwindigkeit der Rotation um die planare senkrechte Achse zeichnet.
13. Dynamischer Bildprozessor nach Anspruch 12, bei dem die Zeicheneinheit (3) für Geschwindigkeitsvektoren der starren Bewegung die starre Bewegung des individuellen Objektes gemäß Daten zeichnet, die für jeden Zielpunkt zu Abtastzeitpunkten erhalten werden.
14. Dynamischer Bildprozessor nach Anspruch 11, bei dem die Zeicheneinheit (3) für Geschwindigkeitsvektoren der starren Bewegung die starre Bewegung, welche eine Rotation um eine planare Achse des individuellen Objektes einschließt, gemäß dem Translationsgeschwindigkeitsvektor von jedem Punkt auf dem individuellen Objekt zeichnet, wenn der Translationsgeschwindigkeitsvektor im voraus gegeben ist.
15. Dynamischer Bildprozessor nach Anspruch 13, bei dem die Bewegungsgeschwindigkeitsvektorzeicheneinheit (220) ein Segment, welches die Zielpunkte verbindet, gemäß Daten zeichnet, die für die Zielpunkte zu Abtastzeitpunkten erhalten werden, einen Bereich festlegt und Helligkeitsdaten und/oder Farbtondaten in dem Bereich durch Interpolation bestimmt.
16. Dynamischer Bildprozessor nach Anspruch 11, bei dem die Bewegungsgeschwindigkeitsvektorzeicheneinheit (220) das individuelle Objekt in einem Subfenster zeichnet, das auf einem Anzeigebildschirm angeordnet ist.
17. Dynamischer Bildprozessor nach Anspruch 11, bei dem die Bewegungsgeschwindigkeitsvektorzeicheneinheit (220) eine Funktion zum Versehen des gezeichneten individuellen Objektes mit einem reflektierten Bild, einem gebrochenen Bild oder einem schattierten Bild hat.
18. Dynamischer Bildprozessor nach Anspruch 11, bei dem die Bewegungsgeschwindigkeitsvektorzeicheneinheit (220) eine Funktion zum Interpolieren der Bewegung des individuellen Objektes zwischen Abtastzeitpunkten hat, um sich sanft bewegende kontinuierliche Bilder vorzusehen.
19. Dynamischer Bildprozessor nach Anspruch 11, bei dem die Zeicheneinheit (3) für Geschwindigkeitsvektoren der starren Bewegung einen Translationsgeschwindigkeitsvektor Vp(x, y) an den Koordinaten (x, y) von jedem Zielpunkt auf dem individuellen Objekt findet, ein Segment bestimmt, das den folgenden Bedingungen genügt:
div Vp(x, y) = 0 oder
rot Vp(x, y) = 0, und
Geschwindigkeitsvektordaten der starren Bewegung für die Rotation um die planare Achse gemäß den Translationsgeschwindigkeitsvektoren auf dem Segment findet.
20. Dynamischer Bildprozessor nach Anspruch 19, bei dem die Zeicheneinheit (3) für Geschwindigkeitsvektoren der starren Bewegung ein Segment bestimmt, das den folgenden Bedingungen genügt:
div Vp(x, y) = 0 oder
rot Vp(x, y) = 0,
Geschwindigkeitsvektordaten der starren Bewegung für die Rotation um die planare Achse erhält und gemäß den Daten einen Abstand von der planaren Achse bis zu der Oberfläche des individuellen Objektes in der Tiefenrichtung mißt.
21. Dynamischer Bildprozessor nach Anspruch 11, bei dem eine Zeicheneinheit (3) für Geschwindigkeitsvektoren der starren Bewegung operativ ist, um reflektiertes Licht zu prüfen, das durch das individuelle Objekt reflektiert wird, wenn Licht auf das individuelle Objekt eingestrahlt wird, und eine Hervorhebungslinie zu erhalten, die gebildet wird, indem eine Vielzahl von Punkten zusammen verbunden wird, an denen eine Intensität des reflektierten Lichtes jeweils maximal wird, und einen Abstand von der planaren Achse bis zu der Oberfläche des individuellen Objektes in der Tiefenrichtung zu messen, wenn das individuelle Objekt um die planare Achse rotiert wird.
DE69418630T 1993-02-26 1994-02-24 Dynamischer Bildprozessor Expired - Fee Related DE69418630T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP3835893 1993-02-26
JP30620093A JP2938739B2 (ja) 1993-02-26 1993-12-07 動画像処理装置

Publications (2)

Publication Number Publication Date
DE69418630D1 DE69418630D1 (de) 1999-07-01
DE69418630T2 true DE69418630T2 (de) 1999-09-30

Family

ID=26377595

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69418630T Expired - Fee Related DE69418630T2 (de) 1993-02-26 1994-02-24 Dynamischer Bildprozessor

Country Status (5)

Country Link
US (1) US5719947A (de)
EP (1) EP0613097B1 (de)
JP (1) JP2938739B2 (de)
CA (1) CA2116511C (de)
DE (1) DE69418630T2 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3979504B2 (ja) * 1994-03-04 2007-09-19 富士通株式会社 コモン・プラットフォーム機能による対話的情報処理装置
KR100219072B1 (ko) * 1996-04-02 1999-09-01 김영환 중심축 변환을 이용한 폰트 및 그 폰트 서체의 변형 및 라스터라이징 방식
JP3348833B2 (ja) * 1998-07-10 2002-11-20 富士通株式会社 動画像合成装置
US6580812B1 (en) * 1998-12-21 2003-06-17 Xerox Corporation Methods and systems for automatically adding motion lines representing motion to a still image
US6993157B1 (en) 1999-05-18 2006-01-31 Sanyo Electric Co., Ltd. Dynamic image processing method and device and medium
US6816632B1 (en) * 2000-02-17 2004-11-09 Wake Forest University Health Sciences Geometric motion analysis
US7127118B2 (en) * 2001-09-28 2006-10-24 Gregory Michael Burke System and method for compressing image files while preserving visually significant aspects
US7653219B2 (en) * 2002-01-22 2010-01-26 Photoinaphoto.Com System and method for image attribute recording an analysis for biometric applications
FR2897680B1 (fr) * 2006-02-17 2008-12-05 Commissariat Energie Atomique Dispositif de capture de mouvement et procede associe
US8026931B2 (en) * 2006-03-16 2011-09-27 Microsoft Corporation Digital video effects
US8159605B2 (en) * 2007-07-13 2012-04-17 Fujitsu Limited Frame interpolating apparatus and method
JP5960642B2 (ja) * 2013-05-17 2016-08-02 国立大学法人 東京大学 3次元情報取得方法及び3次元情報取得装置
EP3428268B1 (de) * 2016-03-09 2021-12-22 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und informationsverarbeitungssystem
KR20200055424A (ko) 2018-11-13 2020-05-21 삼성전기주식회사 인쇄회로기판
CN114598849B (zh) * 2022-05-06 2022-07-15 青岛亨通建设有限公司 一种基于物联网的建筑施工安全监控系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63299594A (ja) * 1987-05-29 1988-12-07 Fujitsu Ltd カラ−画像伝送処理方式
JPH0634227B2 (ja) * 1988-02-22 1994-05-02 富士通株式会社 カラー画像のエッジ検出方式
JP2507578B2 (ja) * 1989-02-09 1996-06-12 富士通株式会社 カラ―描画ワ―クステ―ション
JP3072766B2 (ja) * 1990-03-16 2000-08-07 富士通株式会社 スカラー・データ処理方式
JP2585874B2 (ja) * 1991-03-18 1997-02-26 富士通株式会社 カラー画像のエッジ検出方式
JP2801459B2 (ja) * 1992-02-21 1998-09-21 富士通株式会社 オブジェクトネットワークによる言語処理システム

Also Published As

Publication number Publication date
EP0613097A2 (de) 1994-08-31
JPH06309462A (ja) 1994-11-04
DE69418630D1 (de) 1999-07-01
US5719947A (en) 1998-02-17
JP2938739B2 (ja) 1999-08-25
CA2116511A1 (en) 1994-08-27
CA2116511C (en) 2000-02-08
EP0613097B1 (de) 1998-05-26
EP0613097A3 (de) 1995-02-22

Similar Documents

Publication Publication Date Title
DE69623642T2 (de) Vektorkorrelationssystem zum automatischen auffinden von mustern in einem bild
DE69418630T2 (de) Dynamischer Bildprozessor
DE68927471T2 (de) Verfahren zur Schattierung eines graphischen Bildes
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE69732663T2 (de) Verfahren zur erzeugung und änderung von 3d modellen und korrelation von solchen modellen mit 2d bildern
DE69924700T2 (de) Verfahren zur Darstellung von durch Oberflächenelemente repräsentierten grafischen Objekten
DE69916450T2 (de) Verfahren zum suchen von bildern, basierend auf einer invarianten indizierung der bilder
DE3689851T2 (de) Verfahren und Gerät zur gekrümmten Oberflächenerzeugung.
DE69919497T2 (de) Verfahren und Gerät zur Volumendarstellung mit mehreren Tiefenpuffern
DE69232403T2 (de) Dreidimensionales Modellverarbeitungsverfahren und -gerät
DE3689271T2 (de) Verfahren zur Bildanzeige.
DE69601880T2 (de) Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio
DE69521739T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE69811849T2 (de) Verfahren und gerät zur interpolation von attributen bei 3d-grafiken
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
DE3686233T2 (de) Videosignalverarbeitung.
DE60027529T2 (de) Bilderzeugungssystem für dokumente
DE69332286T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Farbbildern
DE69226512T2 (de) Verfahren zur Bildverarbeitung
DE69329572T2 (de) Bilderzeugungsgerät
DE69818888T2 (de) Gerät und Verfahren zur Bildverarbeitung
DE69802802T2 (de) Verfahren und vorrichtung zum ändern der farbe eines bildes
DE10043460C2 (de) Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation
DE102017009276A1 (de) Erzeugen eines dreidimensionalen modells aus einem gescannten gegenstand
DE102007018077A1 (de) Dreidimensionales (3D) Modellieren von Koronararterien

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee