DE69935437T2 - Visuelle vorrichtung - Google Patents

Visuelle vorrichtung Download PDF

Info

Publication number
DE69935437T2
DE69935437T2 DE69935437T DE69935437T DE69935437T2 DE 69935437 T2 DE69935437 T2 DE 69935437T2 DE 69935437 T DE69935437 T DE 69935437T DE 69935437 T DE69935437 T DE 69935437T DE 69935437 T2 DE69935437 T2 DE 69935437T2
Authority
DE
Germany
Prior art keywords
image
edge information
objects
pixel value
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69935437T
Other languages
English (en)
Other versions
DE69935437D1 (de
Inventor
Yoshiaki Ecchandes Inc. Gamagori-shi AJIOKA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ecchandes Inc
Original Assignee
Ecchandes Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ecchandes Inc filed Critical Ecchandes Inc
Application granted granted Critical
Publication of DE69935437D1 publication Critical patent/DE69935437D1/de
Publication of DE69935437T2 publication Critical patent/DE69935437T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine visuelle Vorrichtung zum Zählen einiger Objekte in einem Bild und deren Umwandlungsmittel, welche die Anzahl an bewegten und unbewegten Objekten in dem Bild zählen kann, das aus beliebigen Bereichen an Wellenlängen, wie etwa aus drei Primärfarben, sichtbaren Farben, Infrarotstrahlen, UV-Strahlen, usw., besteht.
  • Hintergrund der Erfindung
  • Viele digitale Vorrichtungen, welche Videokameras und Digitalkameras verwenden, sind zum Zählen der Anzahl an Objekten in einem Bild entwickelt worden. Diese Kameras müssen jedoch ein Bild inklusive der Objekte aufnehmen. Ein Beispiel ist die Vorrichtung zum Zählen der Zellen in einem von einem Mikroskop aufgenommenen Bild. Da die Chromosomen der Zellen lila gefärbt sind, kann die Vorrichtung die Anzahl der Zellen zählen, wobei die lila Bereiche, die größer als die normale Größe sind, aus dem Bild segmentiert und zu einem Klumpen gemacht werden. In jenen Fällen, in denen das Lilafärben der Chromosomen Probleme bereitet und diese nicht lila gefärbt werden können, ist es jedoch schwierig für diese Vorrichtung, die Anzahl der Zellen zu zählen, da die Zellen im Allgemeinen transparent sind und die Farbinformationen nicht gut genug zur Bildung eines Klumpen einer gesamten Zelle sind. Selbst wenn die Vorrichtung einen Kern und einige Mitochondrien eines erweiterten Zellbilds erfassen kann, kann diese Art und Weise nicht immer eingesetzt werden und viele Vorrichtungen berechnen Kanten- bzw. Randinformationen anhand der Kontur der durch Brechung und Reflektion des Lichts erscheinenden Zellen. Obwohl die Kanteninformationen theoretisch die gesamte Zelle zu einem Klumpen machen sollten, ergänzen die Vorrichtungen die Kanteninformationen durch die Form und die Größe der Zelle, da die Kanteninformationen oft tatsächlich unvollständig sind. Die Vorrichtungen müssen auch aufwändige Bildverarbeitung, wie Auffüllen, durchführen, um die gesamte Zelle zu einem Klumpen zu machen, unter Verwendung der Kanteninformationen, wo die Kanteninformationen kontinuierlich sein müssen. Da die Vorrichtungen den optischen Fluss und so weiter berechnen müssen, um die sich bewegenden Zellen von allen Zellen auszuwählen, sind die Vorrichtungen ferner zu teuer, um Informationen exakt zu berechnen. Demgegenüber verlieren billige Vorrichtungen zu viel Zeit.
  • Allgemein gesprochen haben Objekte bestimmte Farben, mit Ausnahme einiger Objekte wie Zellen. Beispielsweise die Rückseite einer Kaulquappe ist annähernd dunkelbraun, ein Apfel ist fast rot, gelb und grün, ein Pferd ist fast schwarz, braun oder grau und eine Krähe ist fast schwarz. Selbst wenn die Vorrichtungen in einem Bild typische Farbinformationen erfassen, um die Anzahl dieser Objekte zu zählen, ist es jedoch sehr schwierig für die Vorrichtungen die Zahl zu zählen, da die Farbinformationen von der Helligkeit des Sonnenlichts und der Beleuchtung sowie von der Leistung einer Kamera abhängen. Ein weiterer Grund ist die Schwierigkeit der Klassifizierung der Objekte als Ziele oder Ähnliches, wenn die Objekte ähnliche Farben beim Aufnehmen eines Bilds aufweisen. Ein allgemeiner Weg ist die Zählung der Anzahl an Objekten nach der Segmentierung der Ziele vom Hintergrund unter Verwendung der Informationen betreffend deren Form und Größe, wenn Farbinformationen zur Selektierung von Zielen und zur Verringerung der rechentechnischen Komplexität verwendet werden. Wenn eine visuelle Vorrichtung Änderungen der Farbinformationen als Bewegung eines Objekts ansieht, werden Beleuchtung und Kameraleistung selten zum Problem, aber es wird schwieriger für die Vorrichtung, die Form der Objekte exakt zu reproduzieren. Ferner entsteht durch das Auszeichnen eines umgebenen Bereichs für die Kanteninformationen das Problem, dass die Vorrichtung einen Objektbereich festlegen muss. Die visuelle, Änderungen der Farbinformationen verwendende Vorrichtung wurde noch nicht im Detail erforscht.
  • In Anbetracht dieser Tatsachen zählt eine visuelle Vorrichtung die Anzahl der Objekte trotz deren Eigenschaften und der das Bild aufnehmenden Umgebung, wenn sie Informationen, wie die Änderung von Farbinformationen, als Bewegung des Objekts ansieht, Kanteninformationen aus der Bewegung erzeugt, die die Kanteninformationen verwendenden Objekte auswählt und einige Objektbereiche zu einem Klumpen macht. Außerdem kann erwartet werden, dass die visuelle Vorrichtung sogar die Anzahl an unbewegten Objekten zählt, wenn sie Kanteninformationen aus den Farbinformationen erzeugen kann und zwar in solchen Fällen, in denen die Objekte vibrieren, die Kamera vibriert oder ein aufgenommenes Bild vibriert.
  • Es wird angenommen, dass die vorliegende, vorherige visuelle Vorrichtung dazu imstande ist, die Anzahl der durch eine Kamera aufgenommenen Objekte zu zählen. Wenn die Objekte stillstehen, kann die visuelle Vorrichtung deren Anzahl immer zählen. Wenn sich diese jedoch bewegen, kann sie lediglich deren Anzahl zählen, während diese durch die Kamera aufgenommen werden. Wenn alle Positionen stillstehen und bewegte Objekte im voraus spezifiziert werden, wie Zellen in einem Laborgefäß, dann ergeben sich keine Probleme. In einem Fall aber, in dem die visuelle Vorrichtung Menschen oder Tiere zählt, die sich in einem Raum oder im Freien bewegen, kann sie nur für begrenzte Ziele verwendet werden, wenn die Kamera fest angebracht ist, da die Kamera nicht den gesamten Raum oder den gesamten Bereich im Freien erfassen kann und ein Bild der Menschen und der Tiere in Abhängigkeit vom Abstand zur Kamera klein oder groß wird. Ferner wird eine erschwerte rechentechnische Komplexität für die visuelle Vorrichtung zur Erfassung des Objekts gewünscht, da sie Menschen und Tiere von den Inneneinrichtungsgegenständen im Raum unterscheiden muss.
  • In Anbetracht dieser Tatsachen erfasst die visuelle Vorrichtung problemlos nicht nur derartige Objekte wie Menschen und Tiere, sondern zählt auch die Anzahl der sich wie diese bewegenden Objekte, deren Position nicht im voraus spezifiziert werden kann, wenn eine bewegliche Kamera die Objekte im Raum und im Freien erfassen und lediglich ein Bild mit diesen aufnehmen kann und wenn die visuelle Vorrichtung die Vergrößerung der Kamera einstellen kann, so dass deren Größe im Bild für diese geeignet ist. Selbstverständlich kann erwartet werden, dass die visuelle Vorrichtung die Anzahl an Objekten, wie Menschen und Tiere, von anderen unbewegten Objekten unterscheiden kann, selbst wenn sich diese während des Schlafens nur selten bewegen.
  • In der vorliegenden Erfindung zählt die visuelle Vorrichtung in einem Animationsbild bei hoher Geschwindigkeit basierend auf den, von entweder den bewegten Objekten oder allen Objekten erzeugten, Kanteninformationen die Anzahl an bewegten Objekten und allen Objekten, welche dadurch selektiert werden. Die visuelle Vorrichtung berechnet ebenfalls die Rate (Anteil) der bewegten Objekte und der unbewegten Objekte im Bild bei hoher Geschwindigkeit, indem die Anzahl dieser Objekte gezählt wird. Außerdem zählt die visuelle Vorrichtung die Anzahl der bewegten Objekte und der unbewegten Objekte bei hoher Geschwindigkeit, indem festgestellt wird, ob diese von einer beweglichen Kamera aufgenommen werden können.
  • US-A-5.163.133 offenbart ein Computersystem, in dem ein Datenübertragungsbus, ein Befehlsbus und ein Ausgabebus parallel mit einer Vielzahl an berechneten Einheiten verbunden sind, wobei jeder einen arithmetischen Prozessor, einen lokalen Speicher und einen Programmspeicher umfasst. Daher wird eine parallele Verarbeitungsanordnung eingesetzt, in der vom arithmetischen Prozessor über den Datenbus empfangene Daten auf der Basis der über den Befehlsbus empfangenen Parameter transformiert werden können und an den Ausgabebus ausgegeben werden können.
  • In einem Artikel von P. Kahn, „Integrating moving edge information along a 2D trajectory in densely sampled imagery", 702–709, Proceedings of the Conference on Computer Vision and Pattern Recognition, IEEE Comp. Soc. Press (eds.), Ann Arbar, (5.–9. Juni 1988) wird die Bahn einer beweglichen Kante in einer vollständigen Abtastbilddarstellung analysiert. Insbesondere die temporäre Persistenz und kontinuierliche Kantenbewegung der beweglichen Kante werden erläutert und diese Faktoren sind für die Objekterkennung von großer Bedeutung.
  • Zusammenfassung der Erfindung
  • Gemäß eines ersten Aspekts der vorliegenden Erfindung wird eine visuelle Vorrichtung bereitgestellt, die in der Form eines Gitters angeordnete Matrix- Betätigungseinheiten in einer Datenverarbeitungsanordnung umfasst, welche die Mittel zur Detektion von Position und Größe der Objektbereiche bereitstellt, worin jede der Matrix-Betätigungseinheiten Folgendes umfasst:
    ein Mittel zur Initialisierung der Matrix-Betätigungseinheit;
    ein Mittel zum Beenden der Verarbeitung, wenn nicht mehr ein Roh-Kanteninformationsbild zur Eingabe vorhanden ist;
    ein Mittel zur Eingabe eines Bereichspixelwerts zum Kennzeichnen eines Elements eines Bilds mit Kennziffern für Breite, Höhe und Bereich im Roh-Kanteninformationsbild;
    ein Mittel zur Umwandlung des Bereichspixelwerts im Roh-Kanteninformationsbild in einen Bereichspixelwert in einem Redundanz-Informationsbild;
    ein Mittel zur Umwandlung eines Transferwerts, welcher ein Vektor ist, der die Übersetzung eines Bereichspixelwerts, der vom Redundanz-Informationsbild abgeleitet ist, in einen Bereichspixelwert in einem Transferwertbild beschreibt, indem der Transferwert auf irgendeinen der Bereichspixelwerte, die an den Bereichspixelwert angrenzen, angewendet wird;
    ein Mittel zum Transfer des Bereichspixelwerts im Redundanz-Informationsbild zu einer Transferposition, die durch den Bereichspixelwert im Transferwertbild angewiesen ist;
    ein Mittel zur Aktualisierung des Bereichspixelwerts im Redundanz-Informationsbild durch Addition der von ihren ursprünglichen Positionen in dem Redundanz-Informationsbild transferierten Bereichspixelwerte; und ein Mittel zur Ausgabe des Bereichspixelwerts im Redundanz-Informationsbild.
  • In einem zweiten Aspekt wird vorzugsweise eine visuelle Vorrichtung bereitgestellt, die in eine Vorrichtung für bewegte Objekte in einem Animationsbild eingebaut werden kann, umfassend:
    ein Mittel zur Erfassung eines Rahmenbilds des Animationsbilds;
    ein Mittel zum Speichern des Rahmenbilds als ein digitales Bild, wobei jeweils eins nach dem anderen gespeichert wird;
    ein Mittel zur Erzeugung eines Bewegungs-Objekt-Roh-Kanteninformationsbilds aus dem digitalen Bild;
    ein Mittel zur Erzeugung eines durch ein Bewegungs-Objekt gebildetes Roh-Kanteninformationsbilds aus dem Bewegungs-Objekt-Roh-Kanteninformationsbild unter Verwendung des digitalen Bilds;
    die visuelle Vorrichtung nach Anspruch 1 zur Detektion der Position und der Größe von Bewegungs-Objekt-Bereichen, die durch das aus dem Bewegungs-Objekt gebildete Roh-Kanteninformationsbild unterschieden werden;
    ein Mittel zum Zählen einer Bewegungs-Objekt-Flächen-Anzahl; und
    ein Mittel zum Halten der Bewegungs-Objekt-Flächen-Anzahl.
  • Wenn das Bild aus analogen Signalen besteht, erzeugt das Mittel zur Erfassung des Rahmenbilds das digitale Bild, indem das Rahmenbild in digitale Signale umgewandelt wird. Wenn das Animationsbild aus digitalen Signalen besteht, expandiert das Mittel diese, wenn es in einem komprimierten Zustand vorliegt. Ansonsten wird es durch das Mittel lediglich eingegeben. Da das Mittel irgendein Rahmenbild im Animationsbild auswählt, erzeugt das Mittel das digitale Bild aus dem gewählten Rahmenbild 1. Das Mittel zum Speichern des Rahmenbilds als digitales Bild speichert einzeln alle Pixel in dem Rahmenbild in einem Speicher, wobei die zweidimensionale topologische Beziehung überbleibt. Das Mittel zur Erzeugen des Bewegungs-Objekt-Roh-Kanteninformationsbilds aus dem digitalen Bild erzeugt Kanteninformationen des bewegten Objekts für jedes Pixel im digitalen Bild. Das Mittel zur Erzeugung des Bewegungs-Objekt-Roh-Kanteninformationsbilds aus dem Bewegungs-Objekt-Roh-Kanteninformationsbild durch Verwendung des digitalen Bilds bildet die Kanteninformationen des bewegten Objekts zu genaueren und deutlicheren Kanteninformationen unter Verwendung des digitalen Bilds aus. Im Mittel zur Detektion von Position und Größe der Bewegungs-Objektflächen, welche durch das aus dem Bewegungs-Objekt gebildete Kanteninformationsbild unterschieden werden, stellt ein Pixel den Schwerpunkt der Kanteninformationen an der Grenze der Bewegungs-Objektflächen und die Anzahl an Kanteninformationen an der Grenze der Bewegungs-Objektflächen dar. Das Mittel zum Zählen der Anzahl an Bewegungs-Objektflächen zählt die Anzahl der die Bewegungs-Objektflächen darstellenden Pixel. Das Mittel zum Halten der Anzahl an Bewegungs-Objektflächen gibt die Anzahl an die Bewegungs-Objektflächen darstellenden Pixel in einem von einem Ausgabeplatz gewünschten Ausdruck, wie etwa die Komplementärzahl 2, Gleitkomma und so weiter, aus. Jedes der Mittel kann parallel ausgeführt werden. In dem Mittel zur Erzeugung des Bewegungs-Objekt-Roh-Kanteninformationsbilds, dem Mittel zur Erzeugung des aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds bzw. dem Mittel zur Detektion von Position und Größe der Bewegungs-Objektflächen kann jedes Pixel ihrer Bilder ebenfalls parallel abgeleitet werden. Ferner werden all diese Mittel durch lokale Verarbeitung ausgeführt. Die visuelle Vorrichtung kann daher die Anzahl an Bewegungs-Objektflächen schnell, ohne von Form und Größe der bewegten Objekte abhängig zu sein, berechnen. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die Kanteninformationen selten von Beleuchtung und so weiter beeinflusst werden, verglichen mit dem Falle des Detektierens der Bewegungs-Objektflächen durch Klassifizierung der Farbinformationen und die Kanteninformationen werden ferner durch Verwendung von Brechung und Reflektion erzeugt, ohne dass die Einfärbung der bewegten Objekte, selbst wenn diese transparent sind, notwendig ist. Dadurch werden viele Probleme betreffend des Zählens der bewegten Objekte gut gelöst. Vorzugsweise umfasst die Vorrichtung des zweiten Aspekts Mittel zum Trennen der Bewegungs-Objektflächen vom Hintergrund unter Verwendung von aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds. Das Mittel zum Trennen der Bewegungs-Objektflächen vom Hintergrund unter Verwendung des aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds kann die Pixel innerhalb des Hintergrunds und die Pixel innerhalb der Bewegungs-Objektflächen klassifizieren, welche durch die Kanteninformationen der bewegten Objekte in einige verschiedene Gruppen unterschieden werden. Im Mittel zur Detektion von Position und Größe der Bewegungs-Objektflächen stellt dann ein Pixel den Schwerpunkt der Bewegungs-Objektflächen und die Anzahl an Pixeln innerhalb der Bewegungs-Objektflächen dar. Jedes der Mittel kann parallel ausgeführt werden. In dem Mittel zur Erzeugung des Bewegungs-Objekt-Roh-Kanteninformationsbilds, dem Mittel zur Erzeugung des aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds, dem Mittel zum Trennen der Bewegungs-Objektflächen vom Hintergrund bzw. dem Mittel zur Detektion von Position und Größe der Bewegungs-Objektflächen kann jeder Pixel ihrer Bilder ebenfalls parallel abgeleitet werden. Ferner werden all diese Mittel durch lokale Verarbeitung ausgeführt. Die visuelle Vorrichtung kann daher die Anzahl an Bewegungs-Objektflächen schnell, ohne von Form und Größe der bewegten Objekte abhängig zu sein, berechnen. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die Kanteninformationen selten von Beleuchtung und so weiter beeinflusst werden, verglichen mit dem Falle des Detektierens der Bewegungs-Objektflächen durch Klassifizierung der Farbinformationen und die Kanteninformationen werden ferner durch Verwendung von Brechung und Reflektion erzeugt, ohne dass die Einfärbung der bewegten Objekte, selbst wenn diese transparent sind, notwendig ist. Dadurch werden viele Probleme betreffend des Zählens der bewegten Objekte sehr gut gelöst.
  • Vorzugsweise wird eine Gesamt-Objektflächenanzahl für alle Objekte anstelle der bewegten Objekte gezählt, indem Mittel zum Bewegen des digitalen Bilds vorhanden sind. Im zweiten Aspekt der Erfindung, wenn das Animationsbild aus analogen Signalen besteht, kann das Mittel zur Erfassung des Rahmenbilds das digitale Bild durch Umwandeln des Rahmenbilds in digitale Signale erstellen. Wenn das Animationsbild aus digitalen Signalen besteht, dehnt das Mittel dieses aus, wenn es in komprimiertem Zustand vorliegt. Ansonsten gibt das Mittel dieses lediglich ein. Da das Mittel irgendein Rahmenbild in dem Animationsbild auswählt, erstellt das Mittel das digitale Bild aus dem ausgewählten digitalen Rahmenbild 1. Das Mittel zum Speichern des Rahmenbilds als digitales Bild speichert einzeln alle Pixel im Rahmenbild in einem Speicher, wobei eine zweidimensionale Beziehung überbleibt. Das Mittel zur Erzeugung der Gesamt-Objektflächen-Roh-Kanteninformationsbild aus dem vibrierenden Bild erzeugt das vibrierende Bild durch vertikale, horizontale und voneinander unabhängige Vibration des gesamten digitalen Bilds. Alle Objekte im vibrierenden Bild sind daher so erkennbar, als würden sie sich bewegen. Das Mittel zur Erzeugung des Gesamt-Objekt-Roh-Kanteninformationsbilds aus dem vibrierenden Bild erzeugt die Kanteninformationen für alle Objekte und jeden ihrer Pixel im vibrierenden Bild. Das Mittel zur Erzeugung des aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbilds aus dem Gesamt-Objekt-Roh-Kanteninformationsbild unter Verwendung des digitalen Bilds bildet die Kanteninformationen aller Objekte in exakten und deutlichen Kanteninformationen unter Verwendung des digitalen Bilds aus. In dem Mittel zur Detektion von Position und Größe der Gesamt-Objektflächen, welche durch das aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbild unterschieden werden, stellt ein Pixel den Schwerpunkt der Kanteninformationen an der Grenze der Bewegungs-Objektflächen und die Anzahl an Kanteninformationen an der Grenze der Bewegungs-Objektflächen dar. Das Mittel zum Zählen der Anzahl an Bewegungs-Objektflächen zählt die Anzahl der die Bewegungs-Objektflächen darstellenden Pixel. Das Mittel zum Halten der Anzahl an Bewegungs-Objektflächen gibt die Anzahl an die Bewegungs-Objektflächen darstellenden Pixel in einem von einem Ausgabeplatz gewünschten Ausdruck, wie etwa die Komplementärzahl 2, Gleitkomma und so weiter, aus. Jedes der Mittel kann parallel ausgeführt werden. In dem Mittel zur Erzeugung des Bewegungs-Objekt-Roh-Kanteninformationsbilds, dem Mittel zur Erzeugung des aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds bzw. dem Mittel zur Detektion von Position und Größe der Bewegungs-Objektflächen kann jedes Pixel ihrer Bilder ebenfalls parallel abgeleitet werden. Ferner werden all diese Mittel durch lokale Verarbeitung ausgeführt. Die visuelle Vorrichtung kann daher die Anzahl an Bewegungs-Objektflächen schnell, ohne von Form und Größe der bewegten Objekte abhängig zu sein, berechnen. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die Kanteninformationen selten von Beleuchtung und so weiter beeinflusst werden, verglichen mit dem Falle des Detektierens der Bewegungs-Objektflächen durch Klassifizierung der Farbinformationen und die Kanteninformationen werden ferner durch Verwendung von Brechung und Reflektion erzeugt, ohne dass die Einfärbung der bewegten Objekte, selbst wenn diese transparent sind, notwendig ist. Dadurch werden viele Probleme betreffend des Zählens der bewegten Objekte gut gelöst.
  • Ferner kann eine derartige Erfindung das Mittel zur Erzeugung des Bewegungs-Objekt-Roh-Kanteninformationsbilds vom digitalen Bild und das Mittel zur Erzeugung des Gesamt-Objekt-Roh-Kanteninformationsbilds vom vibrierenden Bild, das Mittel zur Erzeugung des aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbild aus dem Bewegungs-Objekt-Roh-Kanteninformationsbild unter Verwendung des digitalen Bilds und das Mittel zur Erzeugung des aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbilds aus dem Gesamt-Objekt-Roh-Kanteninformationsbilds unter Verwendung des digitalen Bildes, das Mittel zur Detektion von Position und Größe der Bewegungs-Objektflächen, welche von den aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds unterschieden werden, und das Mittel zur Detektion von Position und Größe der Gesamt-Objektflächen, welche vom aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbild unterschieden werden, das Mittel zum Zählen der Bewegungs-Objektflächenanzahl und das Mittel zum Zählen der Gesamt-Objektflächenanzahl und ferner das Mittel zum Halten der Bewegungs-Objektflächenanzahl und das Mittel zum Halten der Gesamt-Objektflächenanzahl zwischen der in Anspruch 1 beschriebenen visuellen Vorrichtung und der in Anspruch 3 beschriebenen visuellen Vorrichtung aufteilen. Diese Mittel können geteilt werden, wann immer die Menge an Hardware begrenzt ist. Selbstverständlich benötigt die vorliegende Erfindung umso weniger Zeit zum Zählen der Anzahlen, desto weniger Mittel die vorliegende Erfindung teilt. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die Kanteninformationen selten durch Beleuchtung und so weiter beeinflusst werden, verglichen mit dem Fall des Detektierens der Bewegungs-Objektbereiche und den Gesamt-Objektvereichen durch Klassifizieren der Farbinformationen und die Kanteninformationen werden ferner unter Verwendung der Brechung und der Reflektion erzeugt, ohne dass dabei alle Objekte eingefärbt werden, selbst wenn diese transparent sind. Dadurch werden viele Probleme beruhend auf dem Zählen der bewegten Objekte und aller Objekte gut gelöst.
  • Ferner kann das Mittel zum Trennen der Gesamt-Objektflächen vom Hintergrund unter Verwendung des aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbilds die Pixel innerhalb des Hintergrunds und die Pixel innerhalb der Gesamt-Objektflächen, welche durch die Kanteninformationen aller Objekte unterschieden werden, in einige unterschiedliche Gruppen klassifizieren. In dem Mittel zur Detektion von Position und Größe der Gesamt-Objektflächen stellt dann ein Pixel den Schwerpunkt der Gesamt-Objektflächen und die Anzahl der Pixel innerhalb der Gesamt-Objektflächen dar. Jedes der Mittel kann parallel ausgeführt werden. In dem Mittel zur Erzeugung des Gesamt-Objekt-Roh-Kanteninformationsbilds, dem Mittel zur Erzeugung des aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbilds, dem Mittel zum Trennen der Gesamt-Objektflächen bzw. dem Mittel zur Detektion von Position und Größe der Gesamt-Objektflächen kann jeder Pixel ihrer Bilder parallel abgeleitet werden. Ferner werden all diese Mittel durch lokale Verarbeitung ausgeführt. Die visuelle Vorrichtung kann daher die Gesamt-Objektflächenanzahln schnell, ohne von Form und Größe aller Objekte abhängig zu sein, zählen. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die durch die Kanteninformationen vom Hintergrund getrennten Gesamt-Objektflächen selten von der Beleuchtung und so weiter beeinflusst werden, verglichen mit dem Falle des Detektierens der Gesamt-Objektflächen durch Klassifizierung der Farbinformationen und die Kanteninformationen werden ferner unter Verwendung von Brechung und Reflektion erzeugt, ohne dass die Objekte eingefärbt werden, selbst wenn diese transparent sind. Dadurch werden viele Probleme des Zählens aller Objekte gut gelöst.
  • Eine derartige Anordnung kann außerdem das Mittel zur Erzeugung des Bewegungs-Objekt-Roh-Kanteninformationsbilds vom digitalen Bild und das Mittel zur Erzeugung des Gesamt-Objekt-Roh-Kanteninformationsbilds aus dem vibrierenden Bild, das Mittel zur Erzeugung des aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds aus dem Bewegungs-Objekt-Roh-Kanteninformationsbild unter Verwendung des digitalen Bilds und das Mittel zur Erzeugung des aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbilds aus dem Gesamt-Objekt-Roh-Kanteninformationsbild unter Verwendung des digitalen Bilds, das Mittel zum Trennen der Bewegungs-Objektflächen vom Hintergrund unter Verwendung des aus dem Bewegungs-Objekt ausgebildeten Kantenbilds und das Mittel zum Trennen der Gesamt-Objektflächen vom Hintergrund unter Verwendung der aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbilds, das Mittel zur Detektion von Position und Größe der Bewegungs-Objektflächen, welche durch das aus dem Bewegungs-Objekt ausgebildete Kanteninformationsbild und das Mittel zur Detektion von Position und Größe der Gesamt-Objektflächen, welche von dem aus dem Gesamt-Objekt ausgebildeten Kanteninformationsbild unterschieden werden, das Mittel zum Zählen der Bewegungs-Objektflächenanzahl und das Mittel zum Zählen der Gesamt-Objektflächenanzahl sowie ferner das Mittel zum Halten der Bewegungs-Objektflächenanzahl und das Mittel zum Halten der Gesamt-Objektflächenanzahl zwischen der in Anspruch 2 beschriebenen visuellen Vorrichtung und der in Anspruch 3 beschriebenen visuellen Vorrichtung teilen. Diese Mittel können geteilt werden, wann immer die Menge an Hardware begrenzt ist. Selbstverständlich benötigt die vorliegende Erfindung umso weniger Zeit zum Zählen der Anzahlen, desto weniger Mittel die vorliegende Erfindung teilt. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die durch die Kanteninformationen vom Hintergrund getrennten Bewegungs-Objektflächen und Gesamt-Objektflächen selten durch die Beleuchtung und so weiter beeinflusst werden, verglichen mit dem Fall des Detektierens der Bewegungs-Objektflächen und der Gesamt-Objektflächen durch Klassifizierung der Farbinformationen, und die Kanteninformationen ferner werden durch die Verwendung von Brechung und Reflektion erzeugt, ohne dass dabei alle Objekte, auch wenn sie transparent sind, eingefärbt werden. Dadurch werden viele Probleme hinsichtlich des Zählens der bewegten Objekte und aller Objekte gut gelöst.
  • In jedem Fall kann die Vorrichtung eine Funktion zum Halten der Bewegungs-Objektflächenanzahl und einer Nichtbewegungs-Objektflächenanzahl, welche durch Subtraktion der Bewegungs-Objektflächenanzahl von der Gesamt-Objektflächenanzahl hergeleitet wird, oder eine Funktion zum Halten der Rate der Bewegungs-Objekte und der Rate der unbewegten Objekte, welche durch Ausschluss der bewegten Objekte von allen Objekten insgesamt hergeleitet wird, aufweisen. In dem vorherigen Fall kann die vorliegende Erfindung die Nichtbewegungs-Objektflächenanzahl durch Subtraktion der Bewegungs-Objektflächenanzahl von der Gesamt-Objektflächenanzahl im Mittel zum Halten der Gesamt-Objektflächenanzahl herleiten. Das Mittel zum Halten der Gesamt-Objektflächenanzahl kann dann die Nichtbewegungs-Objektflächenanzahl anstelle der Gesamt-Objektflächenanzahl, wenn benötigt, ausgeben. In dem letztgenannten Fall kann die vorliegende Erfindung die Rate der bewegten Objekte durch Dividieren der Bewegungs-Objektflächenanzahl von der Gesamt-Objektflächenanzahl im Mittel zum Halten der Bewegungs-Objektflächenanzahl herleiten. Das Mittel zum Halten der Gesamt-Objektflächenanzahl kann dann die Rate der Bewegungs-Objektflächen anstelle der Rate der Gesamt-Objektflächen, wenn benötigt, ausgeben. Da die Nichtbewegungs-Objektflächenanzahl durch die Subtraktion der Bewegungs-Objektflächenanzahl von der Gesamt-Objektflächenanzahl im Mittel zum Halten der Gesamt-Objektflächenanzahl hergeleitet wird, kann die vorliegende Erfindung außerdem die Rate der unbewegten Objekte durch Dividieren der Nichtbewegungs-Objektflächenanzahl von der Gesamt-Objektflächenanzahl herleiten. Das Mittel zum Halten der Gesamt-Objektflächenanzahl kann dann, wenn nötig, die Rate der Nichtbewegungs-Objektflächen anstelle der Rate der Gesamt-Objektflächen ausgeben.
  • Hierbei ist darauf hinzuweisen, dass die bewegten Objekte in den Rahmenbildern durch das von einer Videokamera aufgenommene Animationsbild so zu sehen sind, als würden sie sich bewegen. Daher können die bewegten Objekte in den unbewegten Bildern so zu sehen sein, als würden sie sich bewegen, indem die von einer Digitalkamera und einem Scanner zu verschiedenen Zeiten oder an verschiedenen Orten erzeugten, unbewegten Bilder fortgesetzt werden. Durch die Verwendung der Digitalkamera und des Scanners anstelle der Videokamera kann die vorliegende Erfindung die Aufnahmeintervalle der unbewegten Bilder problemlos ändern, in dem die Bewegungs-Objektflächenanzahln der bewegten Objekte gezählt werden, deren Geschwindigkeit gering ist. In einem Fall, in dem die Verwendung der Videokamera nicht immer erwünscht ist, kann die visuelle Vorrichtung mit großer Genauigkeit, beispielsweise in einem Falle des Zählens der Anzahl aller Zellen in einem Laborgefäß, kostengünstig durchgeführt werden, da die vorliegende Erfindung die eine hohe Auflösung aufweisende Digitalkamera statt der Videokamera verwenden kann. Dadurch werden viele auf dem Zählen der bewegten Objekte und aller Objekte basierenden Probleme gut gelöst.
  • Gemäß eines dritten Aspekts der Erfindung wird eine Vorrichtung zur Analyse der Objekte in einem von einer beweglichen Kamera aufgenommenen Animationsbild bereitgestellt, umfassend:
    ein Mittel zur Erfassung eines Rahmenbilds des Animationsbilds;
    ein Mittel zur Speicherung des Rahmenbilds als ein digitales Bild, wobei jeweils eins nach dem anderen gespeichert wird;
    ein Mittel zur Erzeugung eines Objekt-Roh-Kanteninformationsbilds aus dem digitalen Bild;
    die visuelle Vorrichtung nach einem ersten Aspekt der Erfindung zur Detektion der Position und der Größe der Objektbereiche, welche durch das Objekt-Roh-Kanteninformationsbild unterschieden werden;
    ein Mittel zur Umwandlung der Richtungs- und der Vergrößerungsinformationen der beweglichen Kamera auf die Position der Kamera in einem umgebenden Koordinatensystem, worin das umgebende Koordinatensystem ein dreidimensionales Polarkoordinatensystem ist;
    ein Mittel zur Umwandlung der Position und der Größe der Objektflächen in die Position im umgebenden Koordinatensystem;
    ein Mittel zum Auswählen einer der Positionen im umgebenden Koordinatensystem für die Objektflächen;
    ein Mittel zur Eingabe eines Steuerbefehls von einem Außenteil;
    ein Mittel zur Erzeugung eines Schwingungsbefehls, um die bewegliche Kamera in Schwingung zu versetzen;
    ein Mittel zur Steuerung der Position einer vorgegebenen, umgebenden Koordinate, wo sich die bewegliche Kamera zu bewegen hat; und
    ein Mittel zur Erzeugung eines Kamerabefehls zur Steuerung der beweglichen Kamera.
  • Die visuelle Vorrichtung kann die Richtung und die Vergrößerung der beweglichen Kamera ändern, da die Größe der willkürlichen Objekte in dem von der beweglichen Kamera aufgenommenen Animationsbild spezifiziert ist. Eine gesamte Sequenz eines Vorgangs, der die Kanteninformationen der willkürlichen Objekte vom Animationsbild erzeugt und die Kanteninformationen degeneriert, wird durch lokale Verarbeitung erstellt. Die visuelle Vorrichtung kann daher das Animationsbild schnell aufnehmen, in dem die Größe der willkürlichen Objekte spezifiziert ist, ohne von Form und Größe der willkürlichen Objekte abhängig zu sein. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die Kanteninformationen selten durch Beleuchtung und so weiter beeinflusst werden, verglichen mit dem Falle des Detektierens von Bereichen der willkürlichen Objekte durch Klassifizierung der Farbinformationen. Dadurch werden viele Probleme des Zählens der willkürlichen Objekte gut gelöst.
  • Eine derartige Vorrichtung umfasst vorzugsweise Mittel zur Erzeugung des aus dem Objekt ausgebildeten Kanteninformationsbilds aus dem Objekt-Roh-Kanteninformationsbild unter Verwendung des digitalen Bilds, Mittel zur Segmentierung der Objektflächen vom Hintergrund unter Verwendung des aus dem Objekt ausgebildeten Kanteninformationsbilds, Mittel zur Normierung der Objektbereiche, Mittel zum Halten eines Objekt-normierten Bilds, Mittel zur Erkennung eines Objekt-normierten Bilds, Mittel zum Halten eines Erkennungsergebnisses, Mittel zur Erzeugung eines durch die Umgebungskoordinate dargestellten Umgebungsplans, Mittel zum Halten des Umgebungsplans, Mittel zum Andeuten der Position der Objekte im Umgebungsplan, Mittel zum Zählen einer Objektanzahl, Mittel zum Halten der Objektanzahl und Mittel zur Ausführung der geometrischen Analyse für das aus einem Objekt ausgebildete Kanteninformationsbild. Das Merkmal der vorliegenden Erfindung wird wie folgt beschrieben: Zuerst wird eine gesamte Sequenz der Vorgänge, welche die Kanteninformationen des Objekts aus dem Animationsbild erzeugt und die vom Hintergrund getrennten Objektbereiche unter Verwendung der Kanteninformationen normiert, durch lokale Verarbeitung erstellt. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die visuelle Vorrichtung das Objekt-normierte Bild schnell, ohne von Form und Größe der Objekte abhängig zu sein, erzeugen kann. Daher werden viele auf der Extraktion und Normierung der Objekte basierende Probleme gut gelöst. Zweitens wird eine gesamte Sequenz der Vorgänge, welche die Kanteninformationen der Objekte aus dem Animationsbild erstellt und die vom Hintergrund getrennten Objekte unter Verwendung der Kanteninformationen normiert, durch lokale Verarbeitung realisiert. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, da die visuelle Vorrichtung das Objekt-normierte Bild schnell, ohne von Form und Größe der Objekte abhängig zu sein, erzeugen kann. Das Objekt-normierte Bild umfasst außerdem nicht den Hintergrund. Die visuelle Vorrichtung kann für viele Anwendungen eingesetzt werden, da ein Verfahren zur Erkennung des Objekt-normierten Bilds selten durch den Hintergrund und ferner durch die Position und die Größe der Objektflächen beeinflusst wird, verglichen mit dem Falle des Erkennens der vom Hintergrund umgebenen Objektflächen. Daher werden viele auf dem Erkennen der Objekte beruhenden Probleme gut gelöst. Drittens kann die visuelle Vorrichtung den Umgebungsplan erstellen, welcher ein Satz an Umgebungsdaten ist, wobei jeder einen Typ an Objekten darstellt und die Position in der Umgebungskoordinate aus einem Erkennungsresultat des Objekt-normierten Bilds und der Richtung und der Vergrößerung der beweglichen Kamera besteht. Die visuelle Vorrichtung kann für viele Anwendungen verwendet werden, indem die Verteilung und Bewegungssituation jedes Objekttyps aufgenommen wird, da der Umgebungsplan die Umgebungsdaten für eine spezifische Periode umfasst. Dadurch werden viele Probleme des Aufnehmens der Objekte gut gelöst. Viertens kann die vorliegende Erfindung die Position einiger der Objekte, die noch nicht erfasst wurden, im Umgebungsplan herleiten. Außerdem kann die vorliegende Erfindung reale Positionen der Objekte innerhalb eines von der beweglichen Kamera aufgenommenen Bereichs andeuten. Die visuelle Vorrichtung kann somit in vielen Anwendungen verwendet werden. Dadurch werden viele Probleme hinsichtlich des Herausfindens der Objekte gut gelöst. Fünftens kann die visuelle Vorrichtung für viele Anwendungen eingesetzt werden, da die vorliegende Erfindung die Anzahl einiger der Objekte zählen kann, deren Typ einige spezifische Objekte darstellt, die das spezifische Erkennungsergebnis, nach der Extraktion derselben, darstellen. Dadurch werden viele Probleme beruhend auf dem Zählen der Objekte gut gelöst. Sechstens kann das Mittel zur Erkennung des Objekt-normierten Bilds das Objekt-normierte Bild schneller und genauer erkennen, da der Typ des Objekts im Objekt-normierten Bild durch Analyse der Rohform angedeutet werden, welche durch die von den Objekten erzeugten Kanteninformationen dargestellt wird. In einem Fall, in dem die Objekte im Objekt-normierten Bild nicht die Erkennungsziele sind, kann der Umgebungsplan außerdem vor der Erstellung der Erkennungsergebnisse durch das mittel zur Erkennung des Objekt-normierten Bilds erzeugt werden. Die visuelle Vorrichtung kann somit für viele Anwendungen verwendet werden. Dadurch werden viele Probleme basierend auf dem Erkennen, Ermitteln und Zählen der Objekte gut gelöst.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm einer visuellen Vorrichtung, weiche die Objektanzahl aus einem Rahmenbild berechnet.
  • 2 ist ein Blockdiagramm einer visuellen Vorrichtung, welche die Objektanzahl aus einem Rahmenbild unter Verwendung eines Figur-/Grundtrennmittels berechnet.
  • 3 ist ein Blockdiagramm einer visuellen Vorrichtung, welche eine Gesamt-Objektanzahl aus einem Rahmenbild berechnet.
  • 4 ist ein Blockdiagramm einer visuellen Vorrichtung, welche eine Gesamt-Objektanzahl aus einem Rahmenbild unter Verwendung eines Figur-/Grundtrennmittels berechnet.
  • 5 ist ein Blockdiagramm einer visuellen Vorrichtung, die die Rate der bewegten und unbewegten Objekte berechnet.
  • 6 ist ein Blockdiagramm einer visuellen Vorrichtung, welche, eine bewegliche Kamera steuert.
  • 7 ist ein Blockdiagramm einer visuellen Vorrichtung, welche ein normiertes Bild eines Objekts erzeugt.
  • 8 ist ein Blockdiagramm einer visuellen Vorrichtung, welche ein Erkennungsergebnis der Objekte ausgibt.
  • 9 ist ein Blockdiagramm einer visuellen Vorrichtung, welche einen Umgebungsplan erzeugt.
  • 10 ist ein Blockdiagramm einer visuellen Vorrichtung, welche eine bewegliche Kamera unter Verwendung eines Umgebungsplans steuert.
  • 11 ist ein Blockdiagramm einer visuellen Vorrichtung, welche eine ausgewählte Objektanzahl berechnet.
  • 12 ist ein Blockdiagramm einer visuellen Vorrichtung, welche durch geometrische Analyse beschleunigt wird.
  • 13 ist ein Blockdiagramm von Matrix-Betätigungseinheiten, welche in Form eines Gitters angeordnet sind.
  • 14 ist ein Flussdiagramm, welches einen Algorithmus eines Bildspeichermittels in dieser Ausführungsform zeigt.
  • 15 ist ein Flussdiagramm, welches einen Algorithmus eines Bildvibrationsmittels in dieser Ausführungsform zeigt.
  • 16 ist ein Flussdiagramm, welches einen Algorithmus eines Kanteninformations-Erzeugungsmittels in dieser Ausführungsform darstellt.
  • 17 ist eine erklärende Ansicht zur Ausbildung von Roh-Kanteninformationen zu Kanteninformationen unter Verwendung eines digitalen Bilds.
  • 18 ist ein Flussdiagramm, welches einen Algorithmus eines Kanteninformations-Erzeugungsmittels in dieser Ausführungsform darstellt.
  • 19 ist eine erklärende Ansicht zur Ausbildung von Roh-Kanteninformationen mit niedriger Auflösung aus einem digitalen Bild mit niedriger Auflösung zu einer ausgebildeten Kanteninformationsform.
  • 20 ist eine erklärende Ansicht zur Ausbildung der ausgebildeten Kanteninformationen nach dem Schneiden einer Fläche einer Roh-Kanteninformation mit niedriger Auflösung, die aus einem digitalen Bild mit niedriger Auflösung erzeugt wurde.
  • 21 ist eine erklärende Ansicht zur Detektion von Position und Größe der Objekte in einem Kanteninformationsbild.
  • 22 ist ein Flussdiagramm, welches einen Algorithmus eines Positions-/Größendetektionsmittels in dieser Ausführungsform zeigt.
  • 23 ist eine erklärende Ansicht zur Detektion von Position und Größe der Objekte in einem Objekt-normierten Bild.
  • 24 ist eine erklärende Ansicht zur Normierung einer segmentierten Objektfläche in einem digitalen Bild.
  • 25 ist ein Flussdiagramm zur Darstellung eines Algorithmus eines Flächennormierungsmittels in dieser Ausführungsform.
  • 26 ist ein Flussdiagramm, welches einen Algorithmus eines Normierungsbild-Haltemittels in dieser Ausführungsform zeigt.
  • 27 ist eine erklärende Ansicht zur Durchführung des Mustervergleichs für ein normalisiertes Bild aus einem Musterbild.
  • 28 ist ein Flussdiagramm zur Darstellung eines Algorithmus des Mustervergleichs, einschließlich eines Bilderkennungsmittels in dieser Ausführungsform.
  • 29 ist eine erklärende Ansicht, welche einen Zustand darstellt, in dem die dreieckigen Kanteninformationen einen Innenbereich des Dreiecks und einen Außenbereich des Dreiecks trennen.
  • 30 ist ein Flussdiagramm, welches einen Algorithmus eines Figur-/Grundtrennmittels in dieser Ausführungsform darstellt.
  • 31 ist eine erklärende Ansicht zur Darstellung eines Zustands, in dem strichlierten-Dreieck-Kanteninformationen einen Innenbereich eines strichlierten Dreiecks und einen Außenbereich eines strichlierten Dreiecks trennen.
  • 32 ist eine erklärende Ansicht zur Darstellung eines Zustands, in dem Kanteninformation von zwei gestapelten Dreiecken zwei Dreiecksbereiche und einen Hintergrundbereich trennt.
  • 33 ist eine erklärende Ansicht zur Darstellung, in der eine Strich-Kanteninformation zwei kreisförmige Bereiche und einen Hintergrundbereich in einem Fall trennt, in dem zwei kreisförmige Objekte überlappend vorliegen.
  • 34 ist ein Blockdiagramm einer Innenarchitektur einer Matrix-Betätigungseinheit bzw. Matrix-Betätigungseinheit.
  • 35 ist ein Blockdiagramm eines Steuermittels.
  • 36 ist eine erklärende Ansicht, welche einige Eingabe- und Ausgabesignale einer Markierungsdekodiervorrichtung zeigt.
  • 37 ist eine erklärende Ansicht, welche einige Eingabe- und Ausgabesignale einer Markierungskodiervorrichtung darstellt.
  • 38 ist ein Flussdiagramm zur Darstellung eines Algorithmus, wobei ein Prozessor Daten to einigen angrenzenden Matrix-Betätigungseinheiten über ein Steuermittel sendet.
  • 39 ist ein Flussdiagramm, welches einen Algorithmus zeigt, wobei ein Steuermittel Daten von einigen angrenzenden Matrix-Betätigungseinheiten empfängt.
  • 40 ist ein Flussdiagramm, welches einen Algorithmus zeigt, wobei ein Prozessor Daten von einem oberen Eingabedatenregister empfängt.
  • Detaillierte Beschreibung
  • Unten stehend werden diese Ausführungsformen der zwölf, in den 1 bis 12 dargestellten, visuellen Vorrichtungen beschrieben. Diese Ausführungsformen werden durch die Verwendung eines Bilderfassungsmittels 11 (siehe 1), welches das von einer Videokamera empfangene Rahmenbild 1 in das geeignete Format und die geeignete Größe des digitalen Bilds 111 umwandelt, eines Bildspeichermittels 12 (siehe 1), welches ein digitales Bild 111 für eine bestimmte Periode speichert, eines Bildvibrationsmittels 13 (siehe 3), welches das digitale Bild 111 durch die Verwendung digitaler Schaltkreise vibriert (also das digitale Bild 111 bewegt), eines Kanteninformations-Erzeugungsmittels 14 (siehe 1 bis 3), welches Roh-Kanteninformationen 112 der bewegten Objekte 2 oder unbewegten Objekte 3 aus zwei digitalen Bildern 111 erzeugt, eines Kanteninformations-Ausbildungsmittels 15 (siehe 1), welches Roh-Kanteninformationen 112 zu exakter und deutlicher ausgebildete Kanteninformationen 114 ausbildet, eines Figur-/Grundtrennmittels 16 (siehe 2), welches die durch die ausgebildeten Kanteninformationen 114 unterschiedenen Flächen trennt, eines Positions-/Größendetektionsmittels 17 (siehe 1 und 2), welches die Position und die Größe jeder durch die ausgebildeten Kanteninformationen 114 getrennten oder unterschiedenen Fläche detektiert, eines Pixelzählmittels 18 (siehe 1), welches die Anzahl an Flächen, deren Größe geeignet ist, unter Verwendung ihrer Positionen zählt, eines Pixelanzahl-Haltemittels 19 (siehe 1 und 5), welches die Anzahl an Flächen oder die Rate der Anzahl an Flächen der bewegten Objekte 2 und der unbewegten Objekte 2 ausgibt, und so weiter realisiert. Unter Bezug auf die Zeichnungen werden im Folgenden nur deren Mittel erläutert.
  • Wie in 1 zu sehen, gibt ein Bewegungs-Objektzählteil 101 ein Rahmenbild 1 eines von einer Videokamera aufgenommenen Animationsbilds in das Bilderfassungsmittel 11 ein und leitet die Daten wiederum zum Bildspeichermittel 12, zum Kanteninformations-Erzeugungsmittel 14, zum Kanteninformations-Ausbildungsmittel 15, zum Positions-/Größendetektionsmittel 17, zum Pixelzählmittel 18 und zum Pixelanzahl-Haltemittel 19 weiter, gefolgt von der Ausgabe der Anzahl an bewegten Objekten 2 in dem Rahmenbild 1. Hier ist darauf hinzuweisen, dass das Rahmenbild 1 eines der unbewegten Bilder sein kann, welche fortlaufend von einer Digitalkamera aufgenommen werden.
  • Angenommen, das Bilderfassungsmittel 11 gibt ein Rahmenbild 1 eines von einer Videokamera aufgenommenes Animationsbild ein. In einem Fall, dass das Animationsbild aus analogen Signalen besteht, konvertiert das Mittel das Rahmenbild 1 in ein digitales Bild 111, wandelt die analogen in digitale Signale durch eine A/D-Wandlungsfunktion einer allgemeinen Erfassungs-Platine um. Wenn das Mittel die Spannung eines CCD-Elements direkt eingeben kann, kann es die Spannung in geeignete Bits an digitalen Signalen durch die A/D-Wandlungsfunktion umwandeln. In einem Fall, in dem das Animationsbild aus digitalen Signalen besteht, dehnt das Mittel dieses demgegenüber aus, wenn es komprimiert war. Ansonsten gibt es das Mittel lediglich als Eingangssignal ein. Da das Mittel irgendein Rahmenbild 1 in dem Animationsbild auswählt, erstellt das Mittel ein digitales Bild 111 aus dem ausgewählten Rahmenbild 1. Da das umgewandelte Rahmenbild 111 jede mit einem geeigneten Format übereinstimmende Größe aufweist, wandelt das Bilderfassungsmittel 11 das Format zu einem anderen möglichen Format um, um die Bilddaten jedem einzelnen Pixel zuzuordnen, unterscheidet den vom Bewegungs-Objektzählteil 101 gewünschten Größenbereich und gibt den Bereich als digitales Bild 111 aus. Wenn das Bilderfassungsmittel 11 alle Pixel des digitalen Bilds 111 parallel ausgeben kann, kann die Kommunikation vom Bilderfassungsmittel 11 zum Bildspeichermittel 12 jeden einzelnen Pixel parallel ausführen.
  • Angenommen, das Bildspeichermittel 12 gibt das digitale Bild 111 aus dem Bilderfassungsmittel 11 ein. Das Bildspeichermittel 12 speichert das digitale Bild 111 für eine bestimmte Periode, entsprechend der Zeitzerlegungsfähigkeit des Bewegungs-Objektzählteils 101 oder den rechentechnischen Leistungen jedes Mittels. Kurz gesagt, jedes der folgenden Mittel kann dasselbe digitale Bild 111 bei verschiedenen Takten als Eingangssignal eingeben, da das Bildspeichermittel 12 sein gespeichertes Bild nicht ändert, selbst wenn ein anderes digitales Bild 111 in dieser Periode eingegeben wird. Da das Bildspeichermittel 12 keine Bildverarbeitung für das digitale Bild 111 ausführt, behält ferner das Bildspeichermittel die zweidimensionale topologische Beziehung für jedes Pixel des digitalen Bilds 111 bei. Wenn das Bildspeichermittel 12 alle Pixel des digitalen Bilds 111 parallel ausgeben kann, kann die Kommunikation vom Bildspeichermittel 12 zum Kanteninformations-Erzeugungsmittel 14 jedes einzelne Pixel parallel ausführen.
  • Angenommen, das Kanteninformations-Erzeugungsmittel 14 gibt das digitale Bild 111 aus dem Bildspeichermittel 12 ein. Das Kanteninformations-Erzeugungsmittel 14 erzeugt ein Roh-Kanteninformationsbild 113 des bewegten Objekts 2 durch Vergleichen desselbigen mit dem zuvor eingegebenen digitalen Bild 111. Da das Kanteninformations-Erzeugungsmittel 14 das Roh-Kantenbild 113 durch Ausführen angrenzender Verarbeitung jedes einzelnen Pixels erzeugen kann, ist das Mittel zur parallelen Verarbeitung geeignet. Wenn das Kanteninformations-Erzeugungsmittel 14 alle Pixel des Roh-Kanteninformationsbilds 113 parallel ausgeben kann, kann die Kommunikation vom Kanteninformations-Erzeugungsmittel 14 zum Kanteninformations-Ausbildungsmittel 15 parallel jedes einzelne Pixel ausführen.
  • Angenommen, das Kanteninformations-Ausbildungsmittel 15 gibt das Roh-Kanteninformationsbild 113 aus dem Kanteninformations-Erzeugungsmittel 14 ein. Das Kanteninformations-Ausbildungsmittel 15 erzeugt, unter Bezug auf das digitale Bild 111, das in dem Bildspeichermittel 12 gespeichert ist, ein exakter und deutlicher ausgebildetes Kanteninformationsbild 115 des bewegten Objekts 2 als das Roh-Kanteninformationsbild 113. Da das Kanteninformations-Ausbildungsmittel 15 das ausgebildete Kanteninformationsbild 115 durch Ausführen angrenzender Verarbeitung jedes einzelnen Pixels erzeugen kann, ist das Mittel zur parallelen Verarbeitung geeignet. Wenn das Kanteninformations-Ausbildungsmittel 15 alle Pixel des ausgebildeten Kanteninformationsbilds 115 parallel ausgeben kann, kann die Kommunikation vom Kanteninformations-Ausbildungsmittel 15 zum Positions-/Größendetektionsmittel 17 parallel jeden einzelnen Pixel ausführen.
  • Angenommen, das Positions-/Größendetektionsmittel 17 gibt das ausgebildete Kanteninformationsbild 115 vom Kanteninformations-Ausbildungsmittel 15 ein. Das Positions-/Größendetektionsmittel 17 detektiert Position und Größe einer Fläche eines bewegten Objekts 2, welches durch die ausgebildeten Kanteninformationen 114 aufgezeigt wird. Da das Positions-/Größendetektionsmittel 17 ein Redundanz-Informationsbild 132 zur Anzeige eines detektierten Ergebnisses der Position und der Größe der Fläche des bewegten Objekts 2 durch Ausführen angrenzender Verarbeitung jedes einzelnen Pixels erzeugt, ist das Mittel zur parallelen Verarbeitung geeignet. Wenn das Positions-/Größendetektionsmittel 17 alle Pixel des Redundanz-Informationsbilds 132 parallel ausgeben kann, kann die Kommunikation vom Positions-/Größendetektionsmittel 17 zum Pixelzählmittel 18 parallel jeden einzelnen Pixel ausführen.
  • Angenommen, das Pixelzählmittel 18 gibt das Redundanzinformationsbild 132 vom Positions-/Größendetektionsmittel 17 als Eingangssignal ein. Das Pixelzählmittel 18 zählt die Anzahl der an der Position der Fläche des bewegten Objekts 2 auftretenden Pixel, deren Größe geeignet ist. Serielle Verarbeitung ist für diesen Vorgang besser geeignet als parallele Verarbeitung. Daher wird jedes Pixel des Redundanz-Informationsbilds 132 in einem Linearspeicher gespeichert. Die Anzahl der an der Position der Fläche des bewegten Objekts 2 auftretenden Pixel wird aus dem Pixelzählmittel 18 an das Pixelanzahl-Haltemittel 19 ausgegeben.
  • Angenommen, das Pixelanzahl-Haltemittel 19 gibt die Anzahl an Pixeln aus dem Pixelzählmittel 18 ein. Das Pixelanzahl-Haltemittel 19 wandelt dessen Ausdruck in den von einem Ausgabeplatz gewünschten Ausdruck um, wie etwa eine Komplementärzahl von 2, ein Gleitkomma und so weiter, und gibt diese für die gewünschte Periode aus. Kurz gesagt, das Bewegungs-Objektzählteil 101 kann die Bewegungs-Objektanzahl ausgeben.
  • Da jedes oben beschriebene Mittel parallel Berechnungen durchführen kann, wenn es durch eine unabhängige Hardware ausgeführt wird, kann das Bewegungs-Objektzählmittel 101 in Echtzeit arbeiten. Daher sind diese Mittel für einen Fall geeignet, in dem die visuelle Vorrichtung die Anzahl an sich schnell bewegenden Objekten zählen oder viele Animationsbilder in einer kurzen Zeit verarbeiten muss. Wenn einige der Mittel durch eine auf einem Prozessor laufende Software ausgeführt werden, kann die visuelle Vorrichtung ebenfalls kostengünstiger werden, wobei deren rechentechnische Leistung abnimmt. Diese visuelle Vorrichtung ist dann für die Verwendung geeignet, da es mehr als einige Minuten benötigt, bis die Vorrichtung die Berechnung vollendet hat.
  • Im Folgenden wird erörtert, dass das Positions-/Größendetektionsmittel 17 Position und Größe einer Fläche eines bewegten Objekts 2 durch Verwendung eines ausgebildeten Kanteninformationsbilds 115, welches vom Kanteninformations-Ausbildungsmittel 15 erzeugt wird, detektiert. Die Anzahl der an der Position der Fläche des bewegten Objekts 2 auftretenden Pixel kann sich von der Anzahl an bewegten Objekten 2 unterscheiden, entsprechend der Dichte der bewegten Objekte 2. Dies bewirkt vor allem, dass die ausgebildete Kanteninformation 114 nicht immer die Kanten des bewegten Objekts 2 genau darstellt und das Positions-/Größendetektionsmittel nicht die bewegten Objekte 2 aus den ausgebildeten Kanteninformationen 114 unterscheidet. Das Positions-/Größendetektionsmittel 17 kann dann einen Fehler machen, dass die Zusammensetzung der ausgebildeten Kanteninformationen 114, welche aus einigen verschiedenen bewegten Objekten 2 erzeugt werden, ein Objekt darstellt, welches nicht existiert, wenn die Dichte der bewegten Objekte 114 hoch ist. Damit dieses Problem gelöst werden kann, sollte das Positions-/Größendetektionsmittel 17 einfach das bewegte Objekt 2 von den ausgebildeten Kanteninformationen 114 unterscheiden können, aber die herkömmliche geometrische Analyse benötigt aufgrund der globalen Verarbeitung mehr rechentechnische Komplexität. Außerdem nimmt die rechentechnische Zeit explosionsartig zu, je höher die Genauigkeit des unterschiedenen Ergebnisses wird. Dann kann das Figur-/Grundtrennmittel 16 (siehe 2) als Mittel zur Lösung dieses Problems durch Ausführen angrenzender Verarbeitung verwendet werden.
  • Angenommen, das Figur-/Grundtrennmittel 16 gibt das ausgebildete Kanteninformationsbild 115 vom Kanteninformationsmittel 15 ein. Das Figur-/Grundtrennmittel 16 trennt einige Pixel innerhalb einer Objektfläche 141 und einige Pixel innerhalb des Hintergrunds in einige verschiedene Gruppen ab, wiederum gefolgt von der Ausgabe eines Trennergebnisses jeder Gruppe. Hierbei ist darauf hinzuweisen, dass das Figur-/Grundtrennmittel 16 einige Objektflächen 141 in einige verschiedene Gruppen trennen kann, wenn die Flächen aneinander angrenzen, aber durch ausgebildete Kanteninformationen 114 voneinander genau unterschieden werden. Kurz gesagt, die Anzahl dieser Gruppen kann mehr oder gleich drei werden. Da das Figur-/Grundtrennmittel 16 die Objektfläche 141 und den Hintergrund durch Ausführen paralleler Verarbeitung jedes Pixels trennen kann, ist das Mittel zur parallelen Verarbeitung geeignet. Wenn das Figur-/Grundtrennmittel 16 alle Pixel des Objektflächenbilds 142 parallel ausgeben kann, kann die Kommunikation vom Figur-/Grundtrennmittel 16 zum Positions-/Größendetektionsmittel 17 jeden einzelnen Pixel parallel ausführen.
  • Wie in 2 zu sehen, kann die visuelle Vorrichtung die Fläche des bewegenden Objekts 2 und des Hintergrunds, einschließlich anderer Objekte, unter Verwendung des Figur-/Grundtrennmittels 16 trennen, was die ausgebildeten Kanteninformationen 114 nur durch angrenzende Verarbeitung ergänzt. Wenn die Fläche des bewegten Objekts 2 einem Kreis ähnelt, sind, kurz gesagt, nur zwei Teile der Unebenheit auf der Kontur der Fläche vorhanden sind, kann das Positions-/Größendetektionsmittel 17 nur den Bereich auswählen, dessen Größe geeignet ist und die Position des bewegten Objekts 2 bestimmen. Wenn zuvor schon eindeutig ist, dass das bewegte Objekt 2 einem Kreis ähnelt, kann das Pixelzählmittel 18 die Anzahl der an der Position der Fläche des bewegten Objekts 2, dessen Größe geeignet ist, auftretenden Pixel unter Verwendung des Figur-/Grundtrennmittels 16 zählen. Das Bewegungs-Objektzählteil 101 kann dann die Bewegungs-Objektanzahl genauer ausgeben.
  • Weiter oben wurde beschrieben, wie der Bewegungs-Objektzählteil 101 beim Zählen der Anzahl der bewegten Objekte 2 bei mehr als oder gleich zwei Rahmenbildern 1 eines Animationsbildes arbeitet. Hier wird nun der Fall erläutert, in dem eine visuelle Vorrichtung die Gesamtanzahl der bewegten Objekte 2 und der unbewegten Objekte 3 in einem Rahmenbild 1 sowie die Gesamt-Objektanzahl des Animationsbilds zählt.
  • Zuerst entspricht das grundlegende Zählverhalten dem oben erwähnten Zählen der Anzahl an bewegten Objekten 2 unter Verwendung des Rahmenbilds 1 des Animationsbilds. Kurz gesagt wird in diesem Zählvorgang das unbewegte Objekt 3 im Rahmenbild 1 nur durch das bewegte Objekt 2 im Rahmenbild 1, bei dessen Auftreten, unter Verwendung eines bestimmten Verfahrens abgelöst. Da die Roh-Kanteninformation 112 des unbewegten Objekts in diesem Fall erzeugt wird, kann das Bewegungs-Objektzählteil 101 ebenfalls die Anzahl der unbewegten Objekte 3 zählen. Der einfachste Weg, um die unbewegten Objekte 3 als die bewegten Objekte 2 anzusehen, ist es, eine Video-Kamera oder einen Digitalkamera auf einem Schwingtisch zum Vibrieren zu bringen. Ansonsten vibriert der Tisch das unbewegte Objekt selbst. Da diese Arten jedoch physikalische Mechanismen benötigen, wird das Bewegungs-Objektzählteil 101 teuer und komplex. Demgegenüber verwendet das Bildvibrationsmittel 13 (siehe 3) derartige Mechanismen nicht.
  • Angenommen, dass das Bildvibrationsmittel 13 das digitale Bild 111 vom Bildspeichermittel 12 als Eingangssignal eingibt. Das Bildvibrationsmittel 13 transferiert das gesamte digitale Bild 111 oder das digitale Bild 111 jedes einzelnen Pixels, während ein unbewegtes Objekt 3 den Abstand zwischen etwa drei Pixeln im digitalen Bild 111 bewegt. Wenn das Bildvibrationsmittel 13 alle Pixel des digitalen Bilds 111 parallel ausgeben kann, kann die Kommunikation vom Bildvibrationsmittel 13 zum Kanteninformations-Erzeugungsmittel 14 parallel für jedes einzelne Pixel ausgeführt werden.
  • Wie in 3 zu sehen, vibriert das Bildvibrationsmittel 13 das unbewegte Objekt 3 im digitalen Bild 111, welches durch das Bilderfassungsmittel 11 innerhalb von drei Pixel vertikal und horizontal erzeugt wird. Da das Kanteninformations-Erzeugungsmittel 14 Roh-Kanteninformationen 112 des unbewegten Objektes 3 erzeugen kann, wobei das unbewegte Objekt 3 als bewegtes Objekt 2 angesehen wird, kann das Gesamt-Objektzählteil 102 die Gesamtanzahl der bewegten Objekte 2 und der unbewegten Objekte 3, also der gesamten Objektanzahl, zählen.
  • Welches Ziel auch immer ein bewegtes Objekt 2 oder ein unbewegtes Objekt 3 ist, das Figur-/Grundtrennmittel 16 trennt Objektbereiche 141 lediglich durch die ausgebildeten Kanteninformationen 114 vom Hintergrund ab. Ist es daher schon von vornherein ersichtlich, dass das bewegte Objekt 2 und das unbewegte Objekt 3 einem Kreis ähneln, kann das Positions-/Größendetektionsmittel 17, wie in 4 zu sehen, die Anzahl an auf einer Position der Fläche des bewegten Objekts 2 oder des unbewegten Objekts 3 auftretenden Pixel, deren Größe geeignet ist, zählen, indem ein ausgebildetes Kanteninformationsbild 115, welches durch das Kanteninformations-Ausbildungsmittel 15 erzeugt wird, in das Figur-/Grundtrennmittel 19 und ein Objektflächenbild 142, welches durch das Figur-/Grundtrennmittel 16 erzeugt wird, in das Positions-/Größendetektionsmittel 17 eingegeben wird. Das Gesamt-Objektzählteil 102 kann dann die Gesamt-Objektanzahl präziser ausgeben.
  • Wie oben beschrieben kann nun die visuelle Vorrichtung die gesamte Anzahl der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild 1 des Animationsbilds unter Verwendung des Bewegungs-Objektzählteils 101 zum Zählen der Anzahl an bewegten Objekten 2 im Animationsbild und des Gesamt-Objektzählteils 102 mit fast denselben Mitteln wie das Bewegungs-Objektzählteil 101 zählen. Hierbei ist nun ein Fall in Betracht zu ziehen, in dem eine visuelle Vorrichtung die Anzahl an bewegten Objekten 2 und unbewegten Objekten 3 parallel zählt. Wenn die Vorrichtung die Anzahl an bewegten Objekten 2 und an unbewegten Objekten 3 zählen kann, ist es sehr leicht für die Vorrichtung die Rate (Anteil) der bewegten Objekte 2 pro Gesamt-Objekte oder die Rate (Anteil) der unbewegten Objekte 3 pro Gesamt-Objekte zu berechnen. Es wird noch erklärt werden, wie die visuelle Vorrichtung diese Raten berechnen wird.
  • Wie in 5 zu sehen, besteht der gesamte Aufbau einer visuellen Vorrichtung, welche die Anzahl der bewegten Objekte 2 und die Anzahl aller Objekte zählt sowie die Rate der bewegten Objekte 2 und die Rate der unbewegten Objekte 3 berechnet, aus zwei Hauptbestandteilen: einem Bewegungs-Objektzählteil 101 und einem Gesamt-Objektzählteil 102. Das Bewegungs-Objektzählteil 101 bzw. das Gesamt-Objektzählteil 102 bestehen aus den oben genannten Mitteln. Hierbei ist anzumerken, dass das Bewegungs-Objektzählteil 101 und das Gesamt-Objektzählteil 102, in 5 abgebildet, sich das Bilderfassungsmittel 11 und das Bildspeichermittel 12 teilen, da das Bilderfassungsmittel 11 bzw. das Bildspeichermittel 12 denselben Vorgang in zwei Teilen ausführen. Es ist hierbei für die visuelle Vorrichtung wichtig, dass es seinen Vorgang mittels eines Außensignals, wie etwa eines Raten-Schaltsignals, schaltet, während die Vorrichtung die Rate der bewegten Objekte 2 oder die Rate der unbewegten Objekte 3 berechnet und einen der beiden in einen Gleitkomma-Ausdruck umwandelt, wo das Pixelanzahl-Haltemittel 19 des Bewegungs-Objektzählteils 101 die Gesamt-Objektanzahl vom Pixelzählmittel 18 des Gesamt-Objektzählteils 102 eingeben muss und das Pixelanzahl-Haltemittel 19 des Gesamt-Objektzählteils 102 die Bewegungs-Objektanzahl vom Pixelzählmittel 18 des Bewegungs-Objektzählteils 101 eingeben muss. Selbstverständlich benötigt das Pixelanzahl-Haltemittel 19 eine solche Funktion, wie etwa das Berechnen der Rate der bewegten Objekte 2 und der Rate der unbewegten Objekte 3, nicht, wenn nicht erwünscht wird, dass diese Raten oder die Funktion von einer anderen Vorrichtung durchgeführt werden. Wenn die visuelle Vorrichtung die bewegte Objektanzahl und die unbewegte Objektanzahl gleichzeitig zählen muss, hat das Pixelanzahl-Haltemittel 19 demgegenüber solche Funktionen nur hinzuzufügen. Die visuelle Vorrichtung kann einige Funktionen frei anordnen, entsprechend deren Verwendung, wenn das Pixelanzahl-Haltemittel 19 in einem allgemeinen Prozessor ausgeführt wird.
  • Wie oben erwähnt, ist nun die visuelle Vorrichtung, welche aus einem Bewegungs-Objektzählteil 101 und einem Gesamt-Objektzählteil 102 besteht, eine Vorrichtung zum Zählen der Anzahl an Bewegungs-Objekten 2 und beweglichen Objekten 3 in einem Rahmenbild 1, welches von einer Videokamera aufgenommen wird. Wenn die bewegten Objekte 2 und die unbewegten Objekte 3 in dem Rahmenbild 1 gezeigt werden, können diese visuellen Vorrichtungen die Anzahl der bewegten Objekte 2 und der unbewegten Objekte 3 zählen. Sobald die bewegten Objekte 2 und die unbewegten Objekte 3 nicht in dem Rahmenbild 1 auftreten, ist es jedoch für diese visuellen Vorrichtungen unmöglich, die Anzahl der bewegten Objekte 2 und der unbewegten Objekte 3 zu zählen. Hierin werden die in den Ansprüchen 4 und 5 beschriebenen visuellen Vorrichtungen näher erläutert, welches immer bewegte Objekte 2 und unbewegte Objekte 3 erfassen und deren Anzahl unter Verwendung einer beweglichen Kamera 10 zählen (siehe 6).
  • Zuerst die bewegliche Kamera 10 kann geschwenkt und gekippt werden, wobei sie zwei mechanische Systeme aufweist, die sich selbsttätig horizontal bzw. vertikal bewegen und die Systeme Befehle eingeben, welche deren Bewegungswinkel von einem Außenteil steuern. Die bewegliche Kamera 10 kann ebenfalls zoomen, wobei sie ein mechanisches System hat, welches die Zoomvergrößerung eines durch diese aufgenommenen Bilds verändert, und das System gibt Befehle zur Steuerung der Vergrößerung von dem Außenteil ein. Die bewegliche Kamera 10 kann dann selbsttätig durch die Befehle von dem Außenteil oft vibrieren. Da ein Rahmenbild 1 eines von der beweglichen Kamera 10 aufgenommenen Animationsbilds verzerrt ist, wird ein Objekt im Rahmenbild 1 als vibrierend angenommen. Kurz gesagt, nur der Bewegungs-Objektzählteil 101 kann die Flächen aller Objekte zählen, ohne das Bildvibrationsmittel 13 des Gesamt-Objektzählteils 102 zu verwenden, wenn die bewegliche Kamera 10 verwendet wird. Obwohl diese Art einige Probleme hinsichtlich der Verarbeitungsleistung und der Präzision des Zählens aufweist, da physikalische Mechanismen der beweglichen Kamera 10 verwendet werden, kann nur das Bewegungs-Objektzählteil 101 die Anzahl an Flächen sowohl der bewegten Objekte 2 als auch aller Objekte zählen. Diese Art ist daher für die Verwendung beim Zählen von bewegten Objekten 2 und unbewegten Objekten 3 in einer weiten Fläche geeignet, deren Auftreten im Rahmenbild 1 nicht möglich wäre.
  • Angenommen wird, dass die bewegliche Kamera 10 hierin die gegenwärtige Position von sich selbst, bewegt von den Steuerbefehlen – schwenken, kippen und zoomen –, ausgeben kann und zwar jedes Mal, wenn sie die Position und ihren Zustand, in dem sie sich bewegt oder anhält, ausgeben muss und zwar jedes Mal, wenn sie auch ihren Zustand ausgeben muss. Wenn die visuelle Vorrichtung das Schwenken, Kippen und Zoomen der beweglichen Kamera 10 steuern kann, kann die Vorrichtung auch die Richtung und die Vergrößerung der beweglichen Kamera 10 ändern, während die Vorrichtung ein Bild des bewegten Objekts 2 und des unbewegten Objekts 3 aufnehmen kann, dessen Größe in dem Bild immer passend ist.
  • 6 zeigt eine in Anspruch 4 beschriebenen visuelle Vorrichtung, welche einige Basismittel für eine bewegliche Kamera 10 aufweist, um ein Bild eines beweglichen Objekts 2 und eines unbewegten Objekts 3 aufzunehmen, dessen Größe im Bild immer geeignet ist. Hierbei ist anzumerken, dass die visuelle Vorrichtung drei Koordinatensysteme – das Kamerakoordinatensystem, das Bildkoordinatensystem und das Umgebungskoordinatensystem – je nach deren Funktionen verwendet. Zuerst ist das Kamerakoordinatensystem ein dreidimensionales Ballkoordinatensystem, welches von der Kamera verwendet wird, um das Kippen, Schwenken bzw. Zoomen für einen Minimalsteuereinheit zu steuern. Im Allgemeinen ist der Anfang des Kamerakoordinatensystems die ursprüngliche Position der beweglichen Kamera, auch Ausgangsposition genannt. Das Kamerakoordinatensystem ist ein Koordinatensystem, welches lediglich die Darstellung physikalischer Positionen der beweglichen Objekte 2 und der unbewegten Objekte 3 zeigt, aber das System kann nicht für allgemeine Zwecke verwendet werden, da jedes Modell der beweglichen Kamera 10 sein eigenes Kamerakoordinatensystem hat. Daher hat das visuelle System das Kamerakoordinatensystem gegenüber anderen Mitteln geheim zu halten. Zweitens ist das Bildkoordinatensystem das zweidimensionale Koordinatensystem, dessen Einheit ein Pixel ist und dessen Anfangspunkt die Mitte des von der beweglichen Kamera 10 aufgenommenen Rahmenbilds liegt. Dieses System wird zum Anzeigen eines Pixels des Rahmenbilds 1 verwendet, wobei hier die bewegten Objekte 2 und die unbewegten Objekte 3 vorhanden sind. Das Bildkoordinatensystem ist zur Differenzierung der Positionen einiger Objekte im Rahmenbild 1 gut geeignet, aber die physikalischen Positionen der bewegten Objekte 2 und der unbewegten Objekte 3 können nicht nur durch das Bildkoordinatensystem angezeigt werden. Drittens ist das Umgebungskoordinatensystem das dreidimensionale Ballsystem, welches zur regelmäßigen Anzeige von Innenpositionen der bewegten Objekte 2 und der unbewegten Objekte 3 verwendet wird. Der Winkel der horizontalen und vertikalen Richtungen wird durch Radianten dargestellt. Der Abstand im Umgebungskoordinatensystem wird durch reelle Zahlen dargestellt, die dem Produkt der Größe der Objekte und dem Kehrwert des Abstands zu diesen entsprechen.
  • Da die Größe der Objekte sich im Allgemeinen nicht erheblich verändert, kann davon ausgegangen werden, dass der Abstand zu den Objekten proportional zur Vergrößerung der beweglichen Kamera 10 ist. Der Ursprung des Umgebungskoordinatensystems kann frei definiert werden. Kurz gesagt, das Umgebungskoordinatensystem wird zum Anzeigen der relativen Koordinaten von zwei beliebigen Punkten auf dem Umgebungssystem selbst verwendet. Die visuelle Vorrichtung kann einige Objekte unterscheiden, indem sie diese Objekte, die sich in ein Umgebung befinden und möglicherweise von der beweglichen Kamera 10 aufgenommen werden, auf das Umgebungskoordinatensystem projiziert.
  • Das Kamerakoordinatensystem und das Bildkoordinatensystem müssen jeweils zueinander umgewandelt werden. Mittel, die eine solche Aufgabe übernehmen sind etwa ein Kamera-/Umgebungskoordinaten-Umwandlungsmittel 20, ein Bild-/Umgebungskoordinaten-Umwandlungsmittel 21 und ein Aktionssteuermittel 23. Diese Mittel leiten zwei Einheiten des Kamerakoordinatensystems und des Bildkoordinatensystems 11 ab und berechnen dann eine Matrix zur Umwandlung ins Umgebungskoordinatensystem. Eine Umwandlungsmatrix vom Umgebungskoordinatensystem zum Kamerakoordinatensystem wird ebenfalls durch Berechnen einer inversen Matrix der umgewandelten Matrix vom Kamerakoordinatensystem zum Umgebungskoordinatensystem abgeleitet. Hierbei ist darauf hinzuweisen, dass die Position des vom Kamerakoordinatensystem umgewandelten Umgebungskoordinatensystems gleich der relativen Position von der Ausgangsposition der beweglichen Kamera 10 ist, welche auf dem Umgebungskoordinatensystem vorhanden ist, da der Anfangspunkt des Kamerakoordinatensystems die Ausgangsposition der beweglichen Kamera 10 ist. Demgegenüber ist die Position des vom Umgebungskoordinatensystem umgewandelten Kamerakoordinatensystems gleich der relativen Position von der gegenwärtigen Position der beweglichen Kamera 10, welche auf dem Kamerakoordinatensystem ist. Ferner wird die Position nicht zum Umgebungskoordinatensystem lediglich unter Verwendung des Bildkoordinatensystems umgewandelt, da das Bildkoordinatensystem das zweidimensionale Koordinatensystem ist. Die Position des Bildkoordinatensystems kann zum Umgebungskoordinatensystem umgewandelt werden, wenn das Bild-/Koordinaten-Umwandlungsmittel 21 die umgewandelte Matrix häufig, unter Verwendung der Richtung und der Vergrößerung der durch das Umgebungskoordinatensystem dargestellten beweglichen Kamera 10, und die Größe der Flächen der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild 1 berechnet. Hierbei ist darauf hinzuweisen, dass die Position des vom Bildkoordinatensystem umgewandelten Umgebungskoordinatensystems gleich der relativen Position von der Mitte des Bilds ist.
  • Daher ist ersichtlich, dass das verbleibende Mitte der visuellen Vorrichtung, beschrieben in Anspruch 4, das Mittel zur Erzeugung und Umwandlung der Positionen der bewegten Objekte 2 und der unbewegten Objekte 3 ist, deren Größe im Bild geeignet ist. Nun folgt die Erklärung zu 6, basierend auf dem Kamerakoordinatensystem, dem Bildkoordinatensystem und dem Umgebungskoordinatensystem.
  • Zuerst sind das Bilderfassungsmittel 11, das Kanteninformations-Erzeugungsmittel 14 und das Positions-/Größendetektionsmittel 17 dieselben wie die in den in den Ansprüchen 1 bis 3 beschriebenen visuellen Vorrichtungen dargelegten Mittel, welche aus dem Bewegungs-Objektzählteil 101 und dem Gesamt-Objektzählteils 102 bestehen. Hierbei ist anzumerken, dass das Positions-/Größendetektionsmittel 17 ein vom Kanteninformations-Ausbildungsmittel 15 in den visuellen Vorrichtungen, beschrieben in den Ansprüchen 1 bis 3, erzeugtes ausgebildetes Kanteninformationsbild 115 eingibt. Das Positions-/Größendetektionsmittel 17 gibt jedoch ein Roh-Kanteninformationsbild 113, das vom Kanteninformations-Erzeugungsmittel 14 in der in Anspruch 4 beschriebenen visuellen Vorrichtung erzeugt wird. Wenn diese visuelle Vorrichtung das Kanteninformations-Ausbildungsmittel 15 verwendet, kann das Positions-/Größendetektionsmittel 17 selbstverständlich das ausgebildete Kanteninformationsbild 115 eingeben, aber diese visuelle Vorrichtung arbeitet aus den folgenden Gründe sehr gut, obwohl das Kanteninformations-Ausbildungsmittel 15 nicht verwendet wird. Zuerst hat diese visuelle Vorrichtung nicht die Anzahl an Flächen der bewegten Objekte 2 und der unbewegten Objekte 3 zu zählen, wie dies die in den Ansprüchen 1 bis 3 beschriebenen visuellen Vorrichtungen zu tun haben. Es ist jedoch für diese visuelle Vorrichtung wichtig, die bewegten Objekte 2 und die unbewegten Objekte 3 zu erfassen und die Richtung und die Vergrößerung der beweglichen Kamera 10 auf die Position derselben einzustellen. Das Positions-/Größendetektionsmittel 17 kann ebenfalls die ungefähre Größe der Flächen der bewegten Objekte 2 und der unbewegten Objekte 3 von den Roh-Kanteninformationen 112 ableiten. Zweitens erzeugt das Kanteninformations-Ausbildungsmittel 15 das ausgebildete Kanteninformationsbild 115 unter Verwendung des durch das Kanteninformations-Erzeugungsmittel 14 erzeugte Roh-Kanteninformationsbilds 113. Kurz gesagt, die bewegten Objekte 2 bewegen sich, während das Kanteninformations-Ausbildungsmittel 15 das ausgebildete Kanteninformationsbild 115 erzeugt. Die Bewegungsgeschwindigkeit der beweglichen Kamera 10 erscheint als nicht so schnell, da die bewegliche Kamera 10 im Allgemeinen physikalische Mechanismen aufweist. Wenn diese visuelle Vorrichtung die bewegliche Kamera 10 bewegt, kann die bewegliche Kamera 10 nicht dazu imstande sein, ihre Bewegung aufgrund der langsamen Geschwindigkeit der beweglichen Kamera 10 zu steuern. Die in Anspruch 4 beschriebene visuelle Vorrichtung verwendet danach nicht immer die exakt und deutlich ausgebildeten Kanteninformationen 114 der bewegten Objekte 2 und der unbewegten Objekte 3.
  • Als Nächstes wandelt das Kamera-/Umgebungskoordinaten-Umwandlungsmittel 20 und das Bild-/Umgebungskoordinaten-Umwandlungsmittel 21 die Position der Flächen der bewegten Objekte 2 und des unbewegten Objekts 3, was durch das vom Positions-/Größendetektionsmittel 17 erzeugte Redundanz-Informationsbild 132 dargestellt wird, zur Position auf dem Umgebungskoordinatensystem um. Wenn die Gesamtzahl der Position der Flächen der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild 1 mehr oder gleich zwei beträgt, bedeutet dies, dass mehr als oder gleich zwei Positionen auf dem Umgebungskoordinatensystem vorhanden sind. Eine der Positionen auf dem Umgebungskoordinatensystem muss dann ausgewählt werden, um die Richtung und die Vergrößerung der beweglichen Kamera 10 zur Position eines der Objekte einzustellen, um das Schwenken, Kippen und Zoomen der beweglichen Kamera 10 zu steuern. Ein Positionsselektionsmittel 22 wählt eine der Positionen auf der Umgebungskoordinatenposition unter Berücksichtigung bestimmter Auswahlkriterien aus. Die hierin verwendeten Auswahlkriterien sind wie folgt: Zuerst wählt das Mittel das nächst gelegene Objekt (oder das größte) auf dem Umgebungskoordinatensystem aus. Der Grund dafür ist, dass das Kanteninformations-Erzeugungsmittel 14 Geräusche erzeugen kann, wenn ein Objekt weit entfernt (oder klein) ist. Das Mittel wählt dann die Position auf dem Umgebungskoordinatensystem aus, an der die Wahrscheinlichkeit des Vorhandenseins des Objekts größer ist. Zweitens, wenn einige Positionen innerhalb eines bestimmten Bereichs des Umgebungskoordinatensystems dicht gedrängt vorliegen, wählt das Mittel eines daraus aus. Diese Auswahl leitet sich von zwei Fällen ab. In einem Fall erzeugt das Kanteninformations-Erzeugungsmittel 14 einige verteilte Roh-Kanteninformationen 112 für ein Objekt. In dem anderen Fall sind tatsächliche einige Objekte vorhanden. Drittens, wenn viele Positionen auf dem Umgebungskoordinatensystem fast denselben Abstand (oder annähernd die gleiche) Größe darstellen, wählt das Mittel die am nächsten zum Anfang hin liegende Position aus, also die Richtung der beweglichen Kamera 10, das Positionsselektionsmittel 22 kann eine der Positionen auf dem Umgebungskoordinatensystem durch Kombination dieser beiden Auswahlarten in Übereinstimmung mit Verwendung und Situation der visuellen Vorrichtung auswählen.
  • Die visuelle Vorrichtung führt nun das Kippen, Schwenken und Zoomen der durch das Positionsselektionsmittel 22 ausgewählten Positionen durch und muss ferner das Kippen, Schwenken und Zoomen der folgenden Positionen durchführen: Zuerst muss diese visuelle Vorrichtung die bewegliche Kamera 10 vibrieren lassen. Damit die bewegliche Kamera 10 vibriert, spezifiziert ein Vibrationsbefehl-Erzeugungsmittel 25 die Position, an der die bewegliche Kamera 10 sich bewegt, als Position auf dem Umgebungskoordinatensystem. Die durch das Vibrationsbefehl-Erzeugungsmittel 25 spezifizierte Position wird durch die Anzahl an pseudozufallsverteilten Anzahlen innerhalb des Bereichs bestimmt, in dem die bewegliche Kamera 10 nicht erheblich vibriert. Außerdem muss die in Anspruch 4 beschriebene Kamera das Kippen, Schwenken und Zoomen der beweglichen Kamera 10 ausführen, wenn der Steuerbefehl von einem Außenteil eingegeben wird. Im Allgemeinen führt die bewegliche Kamera 10 das Kippen, Schwenken und Zoomen aus, verglichen mit dessen gegenwärtiger Richtung und Vergrößerung. Sobald ein Steuerbefehl-Eingabemittel 24 den Steuerbefehl speichert, berechnet die visuelle Vorrichtung einige Positionen auf dem Umgebungskoordinatensystem, dessen Anfang die gegenwärtige Position der beweglichen Kamera 10 ist. Hierbei ist darauf hinzuweisen, dass es problemlos möglich ist, die bewegliche Kamera 10 zu einer bestimmten Position hin zu bewegen, indem das Steuerbefehl-Eingabemittel 24 verstärkt wird.
  • Damit das Kippen, Schwenken und Zoomen der beweglichen Kamera 10 gesteuert werden kann, wählt das Aktionssteuermittel 23 eine von drei, oben beschriebenen, Positionen auf dem Umgebungskoordinatensystem aus. Wenn das Aktionssteuermittel 23 eine von drei Positionen auswählt, wird die Position von einem der drei Mittel, welche eine Eingabeposition haben kann, wiederum vom Steuerbefehl-Eingabemittel 24, dem Positionsselektionsmittel 22 und dem Vibrationsbefehl-Erzeugungsmittel 25 ausgewählt. Die ausgewählte Position auf dem Umgebungskoordinatensystem wird zur Position auf dem Kamerakoordinatensystem umgewandelt. Nachdem die umgewandelte Position durch ein Kamerabefehl-Erzeugungsmittel 26 zu einem Befehl umgewandelt wurde, den die bewegliche Kamera 10 erkennen kann, wird der Befehl zur beweglichen Kamera 10 gesendet. Die in Anspruch 4 beschriebenen visuelle Vorrichtung kann dann das Kippen, Schwenken und Zoomen der beweglichen Kamera 10 steuern.
  • Hierin werden einige Modelle der beweglichen Kamera 10, welche deren Status, also die Richtung und die Vergrößerung der beweglichen Kamera 10, und Informationen, ob die bewegliche Kamera 10 sich bewegt oder anhält, was nur geschieht, wenn die bewegliche Kamera einige spezielle Befehle erhält, senden können. Nachdem das Aktionssteuermittel 23 eine der drei Positionen ausgewählt hat und zum Kamerabefehl-Erzeugungsmittel 26 ausgibt, steuert das Aktionssteuermittel 23 das Kamerabefehl-Erzeugungsmittel 26, um den Befehl zur Abfrage, ob sich die bewegliche Kamera 10 bewegt oder nicht, an die bewegliche Kamera 10 zu senden und wartet dann auf eine Antwort der beweglichen Kamera 10 mittels des Kamera-/Umgebungskoordinaten-Umwandlungsmittels 20. Wenn die erhaltenen Antwort die Bewegung anzeigt, steuert das Aktionssteuermittel 23 das Kamerabefehl-Erzeugungsmittel 26, um den Befehl zur Abfrage, ob die bewegliche Kamera 10 sich bewegt oder nicht, wieder zur beweglichen Kamera zu senden. Wenn die erhaltene Antwort das Anhalten anzeigt, steuert das Aktionssteuermittel 23 das Kamerabefehl-Erzeugungsmittel 26, um den Befehl zur Abfrage der gegenwärtigen Richtung und gegenwärtigen Vergrößerung der beweglichen Kamera 10 zur beweglichen Kamera 10 zu senden. In dieser Periode wählt das Aktionssteuermittel 23 keine der drei Positionen aus. Das Kamerabefehl-Erzeugungsmittel 26 sendet den entsprechenden Befehl in Übereinstimmung mit der Richtung des Aktionssteuermittels 23 zur beweglichen Kamera 10. Das Kamera-/Umgebungskoordinaten-Umwandlungsmittel 20 sendet Informationen, ob sich die bewegliche Kamera bewegt oder nicht, direkt zum Aktionssteuermittel 23. Ferner wandelt das Kamera-/Umgebungskoordinaten-Umwandlungsmittel 20 die gegenwärtige Richtung und die gegenwärtige Vergrößerung der beweglichen Kamera 10 auf dem Kamerakoordinatensystem zur Position auf dem Umgebungskoordinatensystem. Die visuelle Vorrichtung kann das Kippen, Schwenken und Zoomen der beweglichen Kamera 10 steuern, in dem der Status der beweglichen Kamera nacheinander ermittelt wird.
  • Weiter oben wurde in Bezug auf die visuelle Vorrichtung mit den Grundmitteln erläutert, dass die bewegliche Kamera 10 das Rahmenbild 1 zur Anzeige der bewegten Objekte 2 und der unbewegten Objekte 3 aufnehmen kann, deren Größe im Rahmenbild immer geeignet ist. Es sind jedoch nicht immer bewegte Objekte 2 und unbewegte Objekte 3 innerhalb eines von der beweglichen Kamera 10 aufgenommenen Bereichs vorhanden. Ferner ist es für bewegte Objekte 2 und unbewegte Objekte 3 natürlich, sich zu anderen, außerhalb des von der beweglichen Kamera 10 erfassten Bereichs zu bewegen. Wenn sich natürlich die bewegten Objekte 2 irgendwohin bewegen, ändern sich auch Form und Farbe der durch die bewegliche Kamera 10 erfassten bewegten Objekte 2. Die in Anspruch 5 beschriebene visuelle Vorrichtung, welche unten näher beschrieben wird, wird als visuelle Vorrichtung mit einigen zusätzlichen Mitteln angesehen, die wie folgt bereitstehen: Einige Mittel sind zum exakteren Erfassen von Form und Farbe der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild 1, einige Mittel sind zum präziseren Zählen der Anzahl an bewegten Objekten 2 und unbewegten Objekte 3 und Mittel sind zum genaueren Bewegen der beweglichen Kamera 10 zur Position der bewegten Objekte 2 und der unbewegten Objekte 3 vorhanden, welche von der beweglichen Kamera 10 in einer bestimmten Periode aufgenommen wurden.
  • Eine visuelle Vorrichtung, in 7 dargestellt, normiert das Bild 145 durch Anbringen des Kanteninformations-Ausbildungsmittels 15, des Figur-/Grundtrennmittels, eines Flächennormierungsmittels 27 und eines Normierungsbild-Haltemittels 28 an der in Anspruch 4 beschriebenen visuellen Vorrichtung. Das Kanteninformations-Ausbildungsmittel 15 und das Figur-/Grundtrennmittel 16 sind dieselben wie das Kanteninformations-Ausbildungsmittel 15 und das Figur-/Grundtrennmittel 16 der in den Ansprüchen 1 bis 3 beschriebenen visuellen Vorrichtungen, welche aus einem Bewegungs-Objektzählteil 101 bzw. einem Gesamt-Objektzählteil 102 bestehen.
  • Angenommen, das Flächennormierungsmittel 27 gibt das Objekt-Flächenbild 142 und das digitale Bild 111 vom Figur-/Grundtrennmittel 16 bzw. dem Bilderfassungsmittel 11 ein. Das Flächennormierungsmittel 16 erzeugt ein normiertes Bild 145, indem die Segmentierungs-Objektfläche 143 vom digitalen Bild 111 segmentiert wird und die Segmentierungs-Objektfläche 143 ergänzt und erweitert, sowie durch Ändern derselben und Anpassen deren Größe auf die Größe des digitalen Bilds 111. Da das Flächennormierungsmittel 27 die Segmentierungs-Objektfläche 143 durch Ausführen angrenzender Verarbeitung jedes einzelnen Pixels normieren kann, ist das Mittel zur parallelen Verarbeitung geeignet. Wenn das Flächennormierungsmittel 27 alle Pixel des normierten Bilds 145 parallel ausgeben kann, kann die Kommunikation vom Flächennormierungsmittel 27 zum Normierungsbild-Haltemittel 28 parallel für jedes einzelne Pixel ausführen.
  • Angenommen, das Normierungsbild-Haltemittel 28 gibt das normierte Bild 145 vom Flächennormierungsmittel 27 als Eingangssignal ein. Wenn ein Ausgabeplatz des normierten Bilds 145 ein spezifisches Format des normierten Bilds 145 benötigt, wird das normierte Bild 145 in das vom Ausgabeplatz des normierten Bilds 145 gewünschte Formt umgewandelt. Das Normierungsbild-Haltemittel 28 speichert das normierte Bild 145 für eine spezifische Periode, bis es das normierte Bild 145 sicher zum Ausgabeplatz des normierten Bilds 145 sendet. Da das Normierungsbild-Haltemittel 28 das eingeschränkte Format des normierten Bilds 145 durch Ausführen der angrenzenden Verarbeitung jedes einzelnen Pixels umwandelt, ist das Mittel für die parallele Verarbeitung geeignet. Wenn das Normierungsbild-Haltemittel 28 alle Pixel des normierten Bilds 145 parallel ausgeben kann, kann die Kommunikation vom Normierungsbild-Haltemittel 28 zum normierten Bild 145 parallel für jeden Pixel ausgeführt werden.
  • Selbst wenn jede beliebige Größe der bewegten Objekte 2 und jede beliebige Größe der unbewegten Objekte 3 an jeder beliebigen Position des von der in Anspruch 4 beschriebenen visuellen Vorrichtung aufgenommenen Rahmenbilds 1 verbleiben, kann die in 7 abgebildete visuelle Vorrichtung das normierte Bild 145 von so ähnlichen beweglichen Objekten 2 wie möglich und so ähnlichen unbewegten Objekten wie möglich unter Verwendung des Kanteninformations-Ausbildungsmittels 15, des Figur-/Grundtrennmittels 16, des Flächenormierungsmittels 27 und des Normierungsbild-Haltemittels 28 erzeugen. Wenn der Ausgabeplatz des normierten Bilds 145 die bewegten Objekte 2 und die unbewegten Objekte 3 zu erkennen hat, kann der Ausgabeplatz des normierten Bilds 145 das geeignete Erkennungsverfahren ohne Berücksichtigung von Position und Größe der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild sehr gut einsetzen.
  • Hierbei ist anzumerken, dass es nicht notwendigerweise wünschenswert ist, dass die Auflösung oder die Größe eines vom Kanteninformations-Erzeugungsmittel 14 eingegebenen Bilds mit der Auflösung oder Größe des Kanteninformations-Ausbildungsmittels 15, des Figur-/Grundtrennmittels 16, des Flächennormierungsmittels 27 und dem Normierungsbild-Haltemittels 28 in der in 7 dargestellten visuellen Vorrichtung übereinstimmt. Angenommen, das Kanteninformations-Erzeugungsmittel 14 gibt beispielsweise ein digitales Bild mit niedriger Auflösung 116 ein, das durch das Verringern der Auflösung des digitalen Bilds 111 erzeugt wurde. Angenommen also, dass das Kanteninformationsausbildungsmittel 15 ein Roh-Kanteninformationsbild 113 eingibt, welches ein erweitertes Roh-Kanteninformationsbild 117 ist, das durch das Kanteninformations-Erzeugungsmittel 14 bis zur Größe des digitalen Bilds 111 in einem spezifischen Verfahren erzeugt wurde. Ferner angenommen, das Figur-Grundtrennmittel 16 und das Flächennormierungsmittel 27 geben das digitale Bild 111 ein. In diesem Fall kann die in 7 abgebildete visuelle Vorrichtung die Lasten des Kanteninformations-Erzeugungsmittels 14 verringern. Kurz gesagt, die visuelle Vorrichtung kann die Steuerung des Kippens, Schwenkens und Zoomens der beweglichen Kamera 10 beschleunigen, welche im Positions-/Größendetektionsmittel 17 oder nachfolgenden Mitteln, vor allem mit einer sich selten ändernden Qualität des durch das Kanteninformations-Ausbildungsmittel 15 oder nachfolgenden Mitteln erzeugten normierten Bilds 145, ausgeführt wird. Wenn dieses Verfahren weiter fortschreitet, kann die in 7 dargestellte Vorrichtung die Lasten des Kanteninformations-Ausbildungsmittels 15 oder einigen nachfolgenden Mitteln beim Erzeugen des normierten Bilds 5 verringern, wo das Kanteninformations- Ausbildungsmittel 15 ein geschnittenes Roh-Kanteninformationsbild 113 eingibt, das eine Fläche des vom Kanteninformations-Erzeugungsmittels 14 erzeugten Roh-Kanteninformationsbilds 113 ist und die Roh-Kanteninformationen 112 umfasst. Außerdem geben das Figur-/Grundtrennmittel 16 und das Flächennormierungsmittel 27 ein geschnittenes digitales Bild 120 ein, weiches derselbe Bereich wie ein geschnittenes Roh-Kanteninformationsbilds 119 ist und vom digitalen Bild 111 ausgeschnitten wird. Daher können einige Ladungen der Erzeugung des normierten Bilds 145 in den Mitteln nach dem Kanteninformations-Ausbildungsmittel 15 verringert werden. Wenn die bewegliche Kamera 10 das Rahmenbild, welches die bewegten Objekte 2 und die unbewegten Objekte 3 in der Mitte zeigt und die Größe dieser Objekte geeignet ist, unter Verwendung der in Anspruch 4 beschriebenen visuellen Vorrichtung aufnehmen kann, kann die Vorrichtung zuerst einen geschnittenen Bereich des geschnittenen Roh-Kanteninformationsbilds 119 und des geschnittenen digitalen Bilds 120 vom digitalen Bild 111 bestimmen. Unter Verwendung dieses Verfahrens kann die visuelle Vorrichtung mit einer beweglichen Kamera 10, in 7 dargestellt, dieselbe Leistung wie eine Vorrichtung erzielen, welche ein Objekt sowohl mit einer Weitwinkelkamera als auch einer hochauflösenden Kamera aufnimmt.
  • Eine in 8 dargestellte visuelle Vorrichtung erzeugt ein Erkennungsergebnis, indem ein Bilderkennungsmittel 29 und ein Erkennungsergebnis-Haltemittel 30 an der in 7 abgebildeten visuellen Vorrichtung angebracht werden.
  • Angenommen, das Bilderkennungsmittel 29 gibt das normierte Bild 145 vom Flächennormierungsmittel 27 als Eingangssignal ein. Das Bildererkennungsmittel 29 erkennt die normierte Fläche 144 der bewegten Objekte 2 und der unbewegten Objekte 3 durch ein spezifisches Verfahren der Strukturerkennung und gibt das Erkennungsergebnis aus. Da die durch das Bilderkennungsmittel 29 ausgegebene Form der bewegten Objekte 2 und der unbewegten Objekte 3 des normierten Bilds 145 sich durch das Flächennormierungsmittel 27 verändert hat, ist es für das Bilderkennungsmittel 29 geeignet, um eher eine Strukturübereinstimmung durchzuführen, welche ein eingegebenes Bild mit einigen Musterbildern vergleicht, statt eine geometrische Analyse unter Verwendung eines derartigen, stark an einem Positionsabstand orientierten Verfahren, wie etwa das Bewegungsextraktionsverfahren, die Fourier-Transformation und die Hough-Transformation, anwendet. Das Bilderkennungsmittel 29 kann solche neuralen Netzwerke als Perzeptron verwenden, welches einige Musterbilder durch Back-Propagation für das Strukturübereinstimmungsverfahren lernen kann. Wenn darüber hinaus die neuronalen Netzwerke verwendet werden, kann das Bilderkennungsmittel 29 ferner parallel und schnell unter Verwendung eines auf neuronale Netzwerke spezialisierten Beschleunigers arbeiten. Das Bildererkennungsmittel 29 gibt das Erkennungsergebnis des normierten Bilds 145 an das Ergebniserkennungs-Haltemittel 30 aus.
  • Angenommen, das Erkennungsergebnis-Haltemittel 30 gibt das Erkennungsergebnis des normierten Bilds 145 vom Bilderkennungsmittel 29 ein. Wenn ein Ausgabeplatz des Erkennungsergebnisses ein spezifisches Signalformat benötigt, wird das Erkennungsergebnis in das vom Ausgabeplatz des Erkennungsergebnisses gewünschte Format umgewandelt. Das Erkennungsergebnis-Haltemittel 30 speichert das Erkennungsergebnis für eine spezifische Periode, bis es das Erkennungsergebnis dann sicher zum Ausgabeplatz des Erkennungsergebnisses sendet.
  • Die in 8 dargestellte visuelle Vorrichtung kann das Erkennungsergebnis der bewegten Objekte 2 und der unbewegten Objekte 3 in einem von der beweglichen Kamera 10 aufgenommenen Bild, deren Größe des Bilds geeignet ist, unter Verwendung des Bilderkennungsmittels 29 und des Erkennungsergebnis-Haltemittels 30 erzeugen. Der Ausgabeplatz des Erkennungsergebnisses kann die in 8 dargestellte visuelle Vorrichtung als eine Erkennungsvorrichtung der bewegten Objekte 2 und der unbewegten Objekte 3, welche durch die bewegliche Kamera 10 aufgenommen werden, verwenden.
  • Eine in 9 dargestellte visuelle Vorrichtung erzeugt einen Umgebungsplan, indem eine Umgebungsverständnismittel 31, ein Zeitmessmittel 32 und ein Umgebungsplan-Haltemittel 33 an der in 8 abgebildeten visuellen Vorrichtung angebracht werden.
  • Das Zeitmessmittel 32 gibt die gegenwärtige Zeit für eine Millisekunde unter Verwendung eines Zeitschaltkreises aus. Das Zeitmessmittel 32 gibt immer die aktuelle Zeit an das Umgebungsverständnismittel 31 aus.
  • Angenommen, das Umgebungsverständnismittel 31 gibt das Erkennungsergebnis der bewegten Objekte 2 und der unbewegten Objekte 3 vom Bilderkennungsmittel 29 ein. Das Umgebungsverständnismittel 31 erzeugt ein Umgebungsdatum, bestehend aus dem Erkennungsergebnis, der Position der beweglichen Kamera 10 auf dem Umgebungskoordinatensystem und der aktuellen Zeit. Angenommen also, das Umgebungsverständnismittel 31 gibt die Position auf dem Umgebungskoordinatensystem von allen Flächen der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild 1 vom Bild-/Umgebungskoordinaten-Umwandlungsmittel 21 ein. Das Umgebungsverständnismittel 31 erzeugt dieselbe Anzahl an Umgebungsdaten, bestehend aus dem Erkennungsergebnis, welches Null-Daten sind, wobei die Position die Position auf dem Umgebungskoordinatensystem der beweglichen Kamera 10 der Position auf dem Umgebungskoordinatensystem eines der Flächen der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild 1 hinzufügt, und die aktuelle Zeit als die Anzahl an Flächen der bewegten Objekte 2 und der unbewegten Objekte 3. Der Umgebungsplan ist ein Satz von Umgebungsdaten, die innerhalb einer spezifischen Periode der aktuellen Zeit erzeugt werden, und wird durch das Umgebungskoordinatensystem dargestellt, dessen Anfang die Anfangsposition der beweglichen Kamera 10 ist, das Umgebungsverständnismittel 31 bringt einige Umgebungsdaten nacheinander am Umgebungsplan an und löscht diese somit vom Umgebungsplan. Das Umgebungsverständnismittel 31 löscht einige redundante Umgebungsdaten. Wenn die Position in einem Umgebungsdatum, dessen Erkennungsergebnis Null-Daten sind, sich nahe an der Position in anderen Umgebungsdaten befindet, deren Erkennungsergebnis nicht Null-Daten sind, löscht das Umgebungsverständnismittel 31 in diesem Fall ebenfalls das Umgebungsdatum, dessen Erkennungsergebnis Null-Daten sind. In dem Falle ferner, in dem sich die Position im Umgebungsdatum, dessen Erkennungsergebnis nicht Null-Daten sind, nahe an der Position in anderen Umgebungsdaten ist, deren Erkennungsergebnis nicht Null-Daten sind, wenn diese Erkennungsergebnisse aus diesen Umgebungsdaten resultieren, löscht das Umgebungsverständnismittel 31 ebenfalls das vorangegangene Umgebungsdatum. Die Genauigkeit des Umgebungsplans wird durch die Aufzeichnungsperiode der Umgebungsdaten und der Nachbarbereiche um die Position in den Umgebungsdaten herum bestimmt. Das Umgebungsverständnismittel 31 gibt den Umgebungsplan an das Umgebungsplan-Haltemittel 33 aus.
  • Angenommen, das Umgebungsplan-Haltemittel 33 gibt den Umgebungsplan vom Umgebungsverständnismittel 31 als Eingangssignal ein. Wenn ein Ausgabeplatz des Umgebungsplans ein spezifisches Signalformat benötigt, wird der Umgebungsplan in das vom Ausgabeplatz des Umgebungsplans gewünschte Format umgewandelt. Das Umgebungsplan-Haltemittel 33 speichert den Umgebungsplan für eine spezifische Periode, bis es den Umgebungsplan sicher an den Ausgabeplatz des Umgebungsplans sendet.
  • Die visuelle Vorrichtung von 9 kann die Position der durch die bewegliche Kamera 10 aufgenommenen bewegten Objekte 2 und der unbewegten Objekte 3 unter Verwendung des Umgebungsverständnismittels 33, des Zeitmessmittels 32 und des Umgebungsplan-Haltemittels 33 speichern. Der Ausgabeplatz des Umgebungsplans kann die in 9 abgebildete visuelle Vorrichtung für eine Vorrichtung zur Spezifizierung der Position der bewegten Objekte 2 und der unbewegten Objekte 3 verwenden, deren Bild durch eine bewegliche Kamera 10 aufgenommen werden kann.
  • Eine in 10 dargestellte visuelle Vorrichtung steuert die bewegliche Kamera 10 zur unterdrückten Position der Objekte durch Anbringen eines Objektpositions-Unterdrückungsmittels 34 an der in 9 abgebildeten visuellen Vorrichtung.
  • Angenommen, das Objektpositions-Unterdrückungsmittel 34 gibt den Umgebungsplan vom Umgebungsverständnismittel 31 ein. Das Objektpositions-Unterdrückungsmittel 34 wählt eines der Umgebungsdaten aus, dessen Erkennungsergebnis Null-Daten sind, und extrahiert die Position aus diesem Umgebungsdatum. Wenn die gegenwärtige Position auf dem Umgebungskoordinatensystem der beweglichen Kamera 10, welche durch das Kamera-/Umgebungskoordinaten-Umwandlungsmittel 20 berechnet wird, von der Position subtrahiert wird, kann das Objektpositions-Unterdrückungsmittel 34 die relative Position auf dem Umgebungskoordinatensystem der bewegten Objekte 2 und der unbewegten Objekte 3 berechnen, deren Roh-Kanteninformationen 112 schon erzeugt wurden, aber deren Erkennungsergebnis noch nicht bestimmt wurde, von der gegenwärtigen Position auf dem Umgebungskoordinatensystem der beweglichen Kamera 10, welche als Anfangspunkt angesehen wird. Hierbei ist anzumerken, dass es nicht notwendig ist, dass das Objekt an dieser relativen Position gegenwärtig vorliegt, wenn das Objekt sich bewegt. Diese Position ist daher die unterdrückte Position der bewegten Objekte 2 und der unbewegten Objekte 3, an der die bewegten Objekte 2 und unbewegten Objekte 3 vorhanden sein müssen. Wenn keine Umgebungsdaten, dessen Erkennungsergebnis im Erkennungsplan Null-Daten sind, vorliegen, erzeugt das Objektpositions-Unterdrückungsmittel 34 demgegenüber eine spezifische Position auf dem Umgebungskoordinatensystem innerhalb des Bereichs, in dem sich die bewegliche Kamera bewegen kann. Die Standards zur Erzeugung der spezifischen Position hierin sind wie folgt aufgelistet: Zuerst erzeugt das Objektpositions-Unterdrückungsmittel 34 jede beliebige Position durch pseudozufallsverteilte Anzahlen. Zweitens berechnet das Objektpositions-Unterdrückungsmittel 34 die Position, an der die Dichte der Position der Umgebungsdaten der Umgebungsdaten im Umgebungsplan niedrig ist. Drittens erzeugt das Objektpositions-Unterdrückungsmittel 34 die Position innerhalb eines Bereichs, in dem die bewegliche Kamera 10 sich in einer bestimmten Reihenfolge, nacheinander, bewegen kann. Das Objektpositions-Unterdrückungsmittel 34 erzeugt beispielsweise nacheinander die Position von der oberen linken Seite hin zur rechten Seite. Wenn die Position an der rechten Seite erreicht wurde, geht die Position um eins zur nächsten Reihe nach unten und das Objektpositions-Unterdrückungsmittel 34 erzeugt nacheinander die Position zur linken Seite hin. Nachdem diese Position an der linken Seite erreicht wurde, geht die Position um eins zur nächsten Reihe nach unten und das Objektpositions-Unterdrückungsmittel 34 erzeugt, eins nach dem anderen, die Position zur rechten Seite hin. Das Objektpositions-Unterdrückungsmittel 34 wiederholt dann diese Schritte. Das Objektpositions-Unterdrückungsmittel 34 kann die unterdrückte Position der bewegten Objekte 2 und der unbewegten Objekte 3 effektiv unterdrücken, deren Bild noch nicht durch die bewegliche Kamera 10 aufgenommen wurde, durch Kombination dieser Standards in Übereinstimmung mit der Verwendung und der Situation der visuellen Vorrichtung. Das Objektpositions-Unterdrückungsmittel 34 gibt die unterdrückte Position der Objekte and das Aktionsteuermittel 23 aus.
  • Basierend auf dem Aktionssteuermittel 23 in der in Anspruch 4 beschriebenen visuellen Vorrichtung, ist das Aktionssteuermittel nun wie folgt modifiziert; damit das Kippen, Schwenken und Zoomen der beweglichen Kamera 10 gesteuert werden kann, wählt das Aktionssteuermittel 23 eine der eingegebenen Positionen von dem Mittel aus, welche die eingegebenen Positionen gegenwärtig vorliegen haben, in der Reihenfolge des Steuerbefehl-Eingabemittels 24, des Objektpositions-Unterdrückungsmittels 34, des Positionsselektionsmittels 22 und des Vibrationsbefehl-Erzeugungsmittels 25. Hierbei ist anzumerken, dass das Aktionssteuermittel 23 die eingegebene Position vom Objektpositions-Unterdrückungsmittel 34 nicht fortlaufend auszuwählen hat.
  • Die in 10 dargestellte visuelle Vorrichtung kann die bewegten Objekte 2 und unbewegten Objekte 3 erfassen, die innerhalb eines von der beweglichen Kamera, 10 unter Verwendung des Objektpositions-Unterdrückungsmittel 34, aufgenommenen Bereichs vorhanden sind. Der Ausgabeplatz des Umgebungsplans kann die visuelle Vorrichtung von 10 für eine die Position der bewegten Objekte 2 und der unbewegten Objekte 3 spezifizierenden Vorrichtung verwenden, deren Bild von einer beweglichen Kamera 10 aufgenommen werden kann.
  • Eine in 11 abgebildete visuelle Vorrichtung erzeugt die willkürliche Objektanzahl durch Anbringen eines Objektzählmittels 35 und eines Objektanzahl-Haltemittels an der in 10 dargestellten visuellen Vorrichtung.
  • Angenommen, das Objektzählmittel 35 gibt den Umgebungsplan vom Umgebungsverständnismittel 31 als Eingangssignal ein. Das Objektzählmittel 35 zählt die Anzahl der Umgebungsdaten mit dem Erkennungsergebnis, welches einige spezifische Objekte darstellt, im Umgebungsplan und erzeugt die willkürliche Objektanzahl. Das Erkennungsergebnis im Umgebungsplan kann vom Typ der Objekte ausgewählt werden, die durch das Bilderkennungsmittel 29 ohne Einschränkungen unterschieden werden. Das Objektzählmittel 35 gibt die willkürliche Objektanzahl an das Objektanzahl-Haltemittel 36 aus.
  • Hierbei ist anzumerken, dass die Änderung des Objektszählmittels 35 problemlos, ist da das Objektzählmittel 35 den Typ der Objekte angeben kann, der von einem Außenteil in Übereinstimmung mit der Verwendung der visuellen Vorrichtung gezählt werden muss.
  • Angenommen, das Objektanzahl-Haltemittel 36 gibt die willkürliche Objektanzahl vom Objektzählmittel 35 ein. Das Objektanzahl-Haltemittel 36 speichert die willkürliche Objektanzahl für eine spezifische Periode, bis es die willkürliche Objektanzahl an den Ausgabeplatz der willkürlichen Objektanzahl sicher ausgibt.
  • Die visuelle Vorrichtung von 11 kann die Anzahl an spezifischen bewegten Objekte 2 und unbewegten Objekte 3 zählen, die innerhalb eines von der beweglichen Kamera 10, unter Verwendung des Objektzählmittels 35 und des Objektanzahl-Haltemittels 36, aufgenommenen Bereichs liegen. Der Ausgabeplatz der willkürlichen Objektanzahl kann die in 11 abgebildete visuelle Vorrichtung als eine Vorrichtung zum Zählen der Anzahl an spezifischen bewegten Objekten 2 und unbewegten Objekten 3, deren Bild von einer beweglichen Kamera 10 aufgenommen werden kann.
  • Wie in 12 abgebildet, kann eine visuelle Vorrichtung den Umgebungsplan schnell und akkurat durch Anbringen eines Mittels zur geometrischen Analyse 37 an der in 11 dargestellten visuellen Vorrichtung erzeugen.
  • Angenommen, das Mittel zur geometrischen Analyse 37 gibt das ausgebildete Kanteninformationsbild 115 vom Kanteninformations-Ausbildungsmittel 15 ein. Das Mittel zur geometrischen Analyse 37 unterdrückt die Form der bewegten Objekte 2 und der unbewegten Objekte 3 im Rahmenbild 1 und erzeugt ein Ergebnis der geometrischen Analyse durch Ausführen einer derartigen geometrischen Analyse, wie etwa das Bewegungsextraktionsverfahren, die Fourier-Transformation und die Hough-Transformation. In der vorherigen Bilderkennung wird ein Objekt in einem Bild durch Extrahieren von Streckensegmenten direkt vom Bild selbst oder unter Verwendung vieler Transformationsverfahren, die nicht von Position, Größe und so weiter unabhängig sind, erkannt. Trotz der einfachen Verarbeitung benötigt dann die Bilderkennung eine große Anzahl an Kombinationen der Verarbeitung. Da dies eine hohe rechentechnische Komplexität verursacht, benötigt die Bilderkennung viel Zeit, um das gewünschte Resultat zu erzielen. Ansonsten könnte dies zu Erkennungsergebnissen von geringer Qualität führen. In der in Anspruch 5 beschriebenen Vorrichtung erkennen jedoch das Figur-/Grundtrennmittel 16, das Flächennormierungsmittel 27 und das Bilderkennungsmittel 29 gemeinsam die Struktur der bewegten Objekte 2 und der unbewegten Objekte 3 in dem Rahmenbild 1. Wenn das Mittel zur geometrischen Analyse 37 auf einfache Art eine grobe Analyse einer derartigen Figur als Kontur der bewegten Objekte 2 und der unbewegten Objekte 3 unter Verwendung des ausgebildeten Kanteninformationsbilds 115 durchführt, welche für das Figur-/Grundtrennmittel 16, das Flächennormierungsmittel 27 und das Bilderkennungsmittel 29 nicht von Vorteil ist, verzichtet das Bilderkennungsmittel 29 auf unnötige Strukturübereinstimmung und das Umgebungsverständnismittel 31 erzeugt schnell den genauen Umgebungsplan. Außerdem kann das Mittel zur geometrischen Analyse 37 ebenfalls die Ladung selbst verringern. Das Mittel zur geometrischen Analyse 37 gibt das Ergebnis der geometrischen Analyse an das Bilderkennungsmittel 29 und das Umgebungsverständnismittel 31 aus. Daher arbeiten das Bilderkennungsmittel 29 bzw. das Umgebungsverständnismittel 31 wie folgt.
  • Angenommen, das Bilderkennungsmittel 29 ist das Ergebnis der geometrischen Analyse vom Mittel zur geometrischen Analyse 37. Zuerst bestimmt das Bilderkennungsmittel 29, ob das Ergebnis der Figur der durch das Bilderkennungsmittel 29 erkannten Ziele entspricht oder nicht. Wenn das Ergebnis nicht der Figur der Ziele entspricht, arbeitet das Bilderkennungsmittel 29 nicht. Wenn das Ergebnis mit der Figur der Ziele übereinstimmt, führt das Bilderkennungsmittel 29 die Strukturübereinstimmung unter Verwendung einiger Musterbilder für die Figuren der Ziele durch. In einem Fall von Perzeptron-Lernen durch Back-Propagation ist das Bilderkennungsmittel 29 so ausgebildet, dass es die Strukturübereinstimmung für die Zielfiguren effektiv durch Lernen des Perzeptrons jeder Zielfigur durch Erzeugen von Lerndaten des Perzeptrons und durch Auswählen der Lerndaten basierend auf dem Ergebnis der geometrischen Analyse durchführt. Kurz gesagt, wenn das Ergebnis der geometrischen Analyse einem Kreis entspricht, verwendet das Bilderkennungsmittel 29 lediglich Lerndaten eines kreisförmigen Objekts, wie etwa menschliche Gesichter und Bälle. Wenn das Resultat der geometrischen Analyse einem Dreieck entspricht, verwendet das Bilderkennungsmittel 29 lediglich Daten dreieckiger Objekte, wie Verkehrsschilder oder einen Gebirgszug. In diesem Fall kann das Bilderkennungsmittel 29 die Strukturen vieler Objekte in einer kleineren Perzeptron-Größe erkennen, aber das Perzeptron selbst kann ebenfalls effektiv lernen.
  • Angenommen, das Umgebungsverständnismittel 31 gibt das Resultat der geometrischen Analyse vom Mittel zur geometrischen Analyse 37 ein. Zuerst entscheidet das Bilderkennungsmittel 29, ob das Ergebnis der Figur der durch das Bilderkennungsmittel 29 erkannten Ziele entspricht oder nicht. Wenn das Ergebnis nicht der Figur der Ziele entspricht, löscht das Umgebungsverständnismittel 31 umgehend einige Umgebungsdaten, deren Position nahe der Position auf dem Umgebungskoordinatensystem der beweglichen Kamera 10 liegt und deren Erkennungsergebnis Null-Daten sind, vom Umgebungsplan. Da einige unnötige Umgebungsdaten vom Umgebungsplan gelöscht werden, haben das Objektpositions-Unterdrückungsmittel 34 und so weiter keine unnötigen unterdrückten Positionen von Objekten auszugeben. Wenn das Ergebnis der Figur der Ziele entspricht, wartet das Umgebungsverständnismittel 31 bis das Erkennungsergebnis vom Bilderkennungsmittel 29 eingegeben wird.
  • Die in Anspruch 5 beschriebene visuelle Vorrichtung kann die Anzahl der spezifischen bewegten Objekte 2 und der unbewegten Objekte 3 schnell und exakt zählen, welche sich innerhalb eines von der beweglichen Kamera 10, unter Verwendung des Mittels zur geometrischen Analyse 37, aufgenommenen Bereichs befinden. Der Ausgabeplatz der willkürlichen Objektanzahl kann die in Anspruch 5 beschriebene visuelle Vorrichtung als schnelle Vorrichtung zum Zählen der Anzahl an spezifisch bewegten Objekte 2 und unbewegten Objekte 3 verwenden, deren Bild durch die bewegliche Kamera 10 aufgenommen werden kann.
  • Das Bildspeichermittel 12, das Bildvibrationsmittel 13, das Kanteninformations-Erzeugungsmittel 14, das Kanteninformations-Ausbildungsmittel 15, das Figur-/Grundtrennmittel 16, das Positions-/Größendetektionsmittel 17, das Flächennormierungsmittel 27, das Normierungsbild-Haltemittel 28 und das Bilderkennungsmittel 29, die in der in den Ansprüchen 1 bis 5 beschriebenen visuellen Vorrichtung verwendet werden, können nun unter Verwendung einer Datenverarbeitungsvorrichtung 110, bestehend aus einigen Matrix-Betätigungs(-Operations)einheiten 40, implementiert werden. Untenstehend werden einige Ausführungsformen der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, aufgelistet und die in den Ansprüchen 6 bis 12 beschriebenen visuellen Vorrichtungen unter Bezug auf die Zeichnungen erläutert.
  • Zuerst erzeugt die Matrix-Betätigungs(-Operationseinheit 40 ein Pixel in einem Ausgabebild unter Verwendung eines Pixels und einigen Nachbarpixeln in einem Eingabebild. Wie in 13 zu sehen, kann die Datenverarbeitungsvorrichtung 110 das Ausgabebild aus dem Eingabebild erzeugen, wenn einige Matrix-Betätigungseinheiten 40 in Form eines Gitters in der Datenverarbeitungsvorrichtung 110 in Übereinstimmung mit der Größe des Eingabebilds angeordnet sind. Hierbei ist anzumerken, dass die Matrix-Betätigungseinheit 40 in 13 als AOU bezeichnet wird. Danach kann die Matrix-Betätigungseinheit 40 durch eine spezialisierte Hardware implementiert werden. Ansonsten kann sie ebenfalls durch eine Software auf einem allgemeinen Computer implementiert werden. Wenn die Datenverarbeitungsvorrichtung 110 das Ausgabebild aus dem Eingabebild erzeugen kann, ist daher die Implementierungsart der Matrix-Betätigungseinheit nicht eingegrenzt. Die Bildverarbeitung der Datenverarbeitungsvorrichtung 110 kann durch Beschreiben einiger Algorithmen der Matrix-Betätigungseinheit 40 auftreten. Damit die Algorithmen der Matrix-Betätigungseinheit 40 beschrieben werden können, werden hierin einige im Bildspeichermittel 12 (siehe 1 und 6), im Bildvibrationsmittel 13 (siehe 3, 4 und 5), im Kanteninformations-Erzeugungsmittel 14 (siehe 1 oder 5, 7 oder 12), im Figur-/Grundtrennmittel 16 (siehe 2, 4, 5, 7 oder 12), im Positions-/Größendetektionsmittel 17 (siehe 1 und 6), im Flächennormierungsmittel 27 (siehe 7), im Normierungsbild-Haltemittel 28 (siehe 7) und im Bilderkennungsmittel 29 (siehe 8) verwendete Gleichungen erläutert.
  • Angenommen, jedes der drei 2n-Tonbilder, deren Breite w ist, deren Höhe h ist, deren Bereichsanzahl b ist, werden als x, y und w bezeichnet. X, y und w werden als EQ.1 (EQ = Gleichung), EQ.2 und EQ.3 unter Verwendung von drei Bereichspixelwerten xijk, yijk bzw. wijk an einer Position p(i, j, k) dargestellt. Hierbei ist darauf hinzuweisen, dass die fettgedruckten Buchstaben Vektoren bezeichnen, n keine negative Zahl ist und w, h, b, i, j und k natürliche Zahlen sind. x = {xijk|xijk ist Wert bei p(i, j, k), 1 ≤ i ≤ w, 1 ≤ j ≤ h, 1 ≤ k ≤ b} (1) Y = {yijk|yijk ist Wert bei p(i, j, k), 1 ≤ i ≤ w, 1 ≤ j ≤ h, 1 ≤ k ≤ b} (2) w = {wijk|wijk ist Wert bei p(i, j, k), 1 ≤ i ≤ w, 1 ≤ j ≤ h, 1 ≤ k ≤ b} (3)
  • Zuerst werden hierin die Funktionen der Punktverarbeitung für jeden Bereichspixelwert in den oben erwähnten Bildern beschrieben.
  • Wenn das Bild x in ein binäres Bild umgewandelt wird, erstellt EQ.4 den Bereichspixelwert der X-Binärzahl.
  • Figure 00530001
  • Wenn das Bild x in ein Bereichsmaximalwertbild umgewandelt ist, wählt EQ.5 den Maximalwert aller Bereichspixelwerte an der Spalte i und der Zeile j aus. Hierbei ist anzumerken, dass die Anzahl der Bereiche des oben erwähnten Bandmaximalwertbilds angemessen behandelt wird, da das oben erwähnte Bereichsmaximalwertbild ein Ein-Bereichsbild wird. Die dritte Kennziffer der Funktion Bij1(x) ist dann gleich eins. Bij1(x) = max k{xijk} (5)
  • Angenommen, das Bild x ist ein binäres Bild. Wenn das Bild x umgekehrt ist, berechnet EQ.6 die Inversion. Iijk(x) = 1 – xijk (6)
  • EQ.7 wandelt einen Wert an einer Position p(i, j, k) des Bilds x zu einem Logarithmus des Werts um. Hierbei ist darauf hinzuweisen, dass e ein Offset-Wert ist und im Allgemeinen keine Schwierigkeiten für e = 1 vorliegen, da dieser Wert verwendet wird, um einen Wert, welcher Ergenis einer natürlichen logarithmischen Funktion ist, der innerhalb eines gültigen Bereichs zu liegen hat. Die Subtraktion zwischen zwei Bereichspixelwerten kann die Division zwischen diesen durch diese Umwandlung ersetzen. Angenommen also, das Bild x ist ein digitales 2n-Tonbild. Wenn ein Speicher eine Verweistabelle einschließlich der 2n-Elemente trotz der Anzahl an Bereichen aufweist, muss eine natürliche logarithmische Funktion nicht jederzeit berechnet werden und der Speicher muss ebenfalls keine Logarithmen-Standardtabellen speichern. Lijk(x) = In(xlmk + e) (7)
  • Ein Satz Pijk(q) Nachbarpositionen um p(i, j, k) herum wird durch EQ.8 dargestellt, wo nun y eine Progression von 4, 8, 24, 48, 80, 120, (2r + 1)2 – 1 ist und r eine natürliche Zahl ist. Wenn eine Position außerhalb eines Bilds im Satz Pijk(q) enthalten ist, wird diese von der Position p(i, j, k) abgelöst, solange insbesondere keine Spezifikation vorliegt. Ansonsten wird die Position durch eine fiktive Position abgelöst, einen Pixelwert, der gleich null ist und der nicht im Bild enthalten ist. Die Verarbeitung um die Grenzen herum wird automatisch durch diesen Ersatz durchgeführt. Danach ist die Anzahl der Elemente, Nijk, des Satzes Pijk(q) immer q.
  • Figure 00540001
  • Nun werden einige Funktionen und ein Operator für jeden Bereichspixelwert auf einer Nachbarverarbeitung beschrieben, wobei die Anzahl seiner Nachbarn weniger oder gleich acht ist.
  • Die Vibration an der Position p(i, j, k) des Bilds x wird in Übereinstimmung mit EQ.9 durchgeführt. Es kann durch die Art und Weise des Auswählens nur einer Position aus den q-Nachbarn rund um die Position p(i, i, k) herum bestimmt werden, ob das gesamte Bild vibriert oder jeder Pixel unabhängig vibriert. Wenn einer der q-Nachbarn auf dieselbe Art und Weise für alle Positionen des Bilds x ausgewählt wird, vibrieren alle Pixel des Bilds x gemeinsam. Wenn einer der q-Nachbarn zufällig in jeder Position des Bilds x, unter Verwendung zufälliger Anzahlen und so weiter, ausgewählt wird, vibriert jeder Pixel des Bilds x streuungsgleich. Ξijk(x) = xlmk nur für einen von p(l, m, k) ∊ Pijk(q) (9)
  • Das Glätten an der Position p(i, j, k) des Bilds x wird in Übereinstimmung mit EQ.10 ausgeführt, wobei int(v) die Auslassung jeder reellen Zahl v nach dem Dezimalpunkt darstellt. Im Folgenden wird nun ein Fall näher erörtert, in dem diese Gleichung durch eine Hardware implementiert wird. Wenn ein Bereichspixelwert des Bilds x eine ganze Zahl ist, wird ein Divisionsschaltkreis durch Ändern eines generellen arithmetischen Schaltkreises zur Durchführung eines Nach-Rechts-Verschiebungsbefehls verringert, was zweimal bei der Berechnung der Summe von ximk wenn Nijk = 4 oder dreimal bei der Berechnung der Summe von ximk wenn Nijk = 8 durchgeführt wird.
  • Figure 00550001
  • Wie in EQ.11 zu sehen, ist ein Laplacescher Operator nur ein zweiter Differentialoperator. Da ein Laplacescher Operator für acht Nachbarn eine leichte Veränderung des Geräuschs erfassen kann, werden viele Nullpunkte und Nulldurchgänge erstellt. Der Laplacescher Operator für acht Nachbarn ist für die vorliegende Erfindung geeignet. Nun wird ein Fall erläutert, in dem diese Gleichung durch eine Hardware implementiert wird. Da Nijk entweder acht oder vier ist, wird ein Mehrfachschaltkreis durch Ändern eines allgemeinen arithmetischen Schaltkreises verringert, um einen Links-Verschiebungsbefehl zweimal beim Berechnen der Summe von ximk wenn Nijk = 4 oder dreimal beim Berechnen der Summe von ximk wenn Nijk = 8 durchzuführen.
  • Figure 00550002
  • Das Ableiten eines Nullpunkts von einem durch einen Laplaceschen Operator berechneten Wert führt zu einem Pixelwert, der von positiv bis negativ variiert. In Übereinstimmung mit EQ.12 erkennt jedoch die vorliegende Erfindung einen Pixelwert, der Nulldurchgänge von negativ bis positiv aufweist, welcher über null, etwa von negativ bis null und von null bis positiv ist, und welcher null bleibt.
  • In der vorliegenden Erfindung weist ein durch EQ.12 entdeckter Nullpunkt nicht auf einen Platz hin, an dem eine Kante existiert, aber er stellt einen Platz dar, an dem Geräusche auftreten, also eine Kante nicht vorhanden ist. EQ.12 macht aus der reellen Zahl eine Binärzahl.
  • Figure 00560001
  • Angenommen, das Bild x sei ein beliebiges binäres Bild. Das Füllen eines Pixels mit einem Loch in dem Bild x wird in Übereinstimmung mit EQ.13 durchgeführt, wobei ein Parameter f die Größe des zu füllenden Lochs darstellt, und es im Allgemeinen keine Probleme für f = 1 gibt. Da diese Gleichung für vier Nachbarn eine Diagonallinie von selbst nicht detektieren kann, muss die Gleichung acht Nachbarn, so viele wie möglich, verwenden.
  • Figure 00560002
  • Angenommen, das Bild x sei ein beliebiges Binärbild. Das Löschen eines Pixels mit einem einzigen Punkt oder einem einzigen Loch im Bild x wird in Übereinstimmung mit EQ.14 ausgeführt. Da diese Gleichung für vier Nachbarn von selbst eine Diagonallinie nicht detektieren kann, muss die Gleichung acht Nachbarn, so viele wie möglich sind, verwenden.
  • Figure 00560003
  • Angenommen, das Bild x sei ein beliebiges Binärbild. Damit einige Linien detektiert werden können, deren Breite einem im Bild x gleicht, erfasst EQ.15 ein Pixel zur Erstellung der Linien unter Verwendung von deren vier Nachbarn.
  • Figure 00570001
  • Angenommen, das zwei Bilder, x und y, Binärbilder sind und das Bild y aus Pixel besteht, welche eine Linie darstellen, deren Breite gleich einer im Bild x ist. Damit die Linien sich ausdehnen können, deren Breite gleich einer im Bild x ist, ändert EQ.16 einen Pixel unter Verwendung deren vier Nachbarn.
  • Figure 00570002
  • Die Ergänzung der Linienbreite in einem binären Bild kann einfach durch EQ.17 unter Verwendung der Detektion der Linienbreite, EQ.15, und der Ausdehnung der Linienbreite, EQ.16, beschrieben werden. Cijk(x) = Kijk(x, J(x)) (17)
  • Im Folgenden werden nun einige Funktionen und Operatoren für jeden Bereichspixelwert auf einer Nachbarverarbeitung erläutert.
  • Angenommen, es seien zwei Bilder, x und y, vorhanden. Ein Maximalwertbild zwischen diesen wird durch EQ.18 abgeleitet.
  • Figure 00570003
  • Angenommen, es seien zwei Bilder, x und y, vorhanden. Eine Differenz zwischen diesen wird durch EQ.19 berechnet. Dijk(x, y) = xijk – yijk (19)
  • Die Verstärkung eines Binärbilds kann einfach durch EQ.20 unter Verwendung des Laplaceschen Operators, EQ.11, und der Differenz, EQ.19, beschrieben werden. Eijk(x) – Dijk(x, ∇2 ijkx (20)
  • Angenommen, es seien zwei Bilder, x und y, vorhanden und das Bild y ist ein Ein-Bereichs-Binärbild. EQ.21 kann jeden Bereichspixelwert des Bilds x durch einen Bereichspixelwert des Bilds y maskieren. Oijk(x, y) – xijkyij1 (21)
  • Angenommen, es seien zwei Bilder, x und y, vorhanden und beide sind binär. Das Bild y kann in Übereinstimmung mir EQ.22 basierend auf dem Bild x verarbeitet werden.
  • Figure 00580001
  • Angenommen, es seien zwei Bilder, x und y, vorhanden und das Bild y ist binär. Ein Bereichspixelwert des Bilds x, der nicht durch das Bild y geleitet wird, wird durch den Durchschnitt einiger Bereichspixelwerte, welche durch das Bild y geleitet werden, unter den Nachbarn des Bereichspixelwerts des Bilds x in Übereinstimmung mit EQ.23 ergänzt. Hierbei ist darauf hinzuweisen, dass int(v) eine Auslassung nach dem Dezimalpunkt für jede reelle Zahl v darstellt.
  • Figure 00580002
  • In der vorliegenden Erfindung wird nun die Verarbeitung in Bezug auf die Position eines Bilds und die Transferwerte als Bilddaten einfacher durchgeführt. Dies wird hierin als Abbildung der Positionen bezeichnet. Es werden hierin einige Funktionen und Operatoren der Abbildung der Positionen beschrieben.
  • Angenommen, dass zuerst ein Operator, der alle Werte, l, m, o einer Position p(l, m, o) zu einem Bereichspixelwert für ein Bilddatum umwandelt, als # gekennzeichnet wird, ferner wird der umgewandelte Bereichspixelwert als #p(l, m, o) bezeichnet. Nun wird ein Fall erläutert, in dem ein Bereichspixelwert von der Position p(i, j, k) zur Position p(i + l, j + m, k + o) transferiert wird. Ein Transferwert des Bereichspixelwerts wird durch die Position p (l, m, o) dargestellt. Kurz gesagt, ein Transferwert wird als ein Vektor von einer Position angesehen. Ein Operator, der eine Position aus einem Bereichspixelwert herausnimmt, wird als #–1 bezeichnet, wobei #–1#p(l, m, o) = p(l, m, o).
  • EQ.24 kann die Richtung eines Transferwerts p(i, j, k) zur entgegengesetzten Richtung ändern, also um 180 Grad in einer durch Breite und Höhe dargestellten Ebene. ϓ(p(i, j, k)) = p(–i, –j, k) (24)
  • Angenommen, ein Bild x sei vorhanden und das Bild y sei binär. Ein Transferwert in Richtung des Schwerpunkts an einer Position p(i, j, 1) des Bilds x wird durch EQ.25 berechnet. Obwohl die Teilung von selbst aus durch Berechnen des Schwerpunkts durchzuführen ist, wird auf die Teilung in EQ.25 verzichtet, da die Teilung beim Umwandeln des Transferwerts zu einem der acht Nachbarn versetzt ist.
  • Figure 00590001
  • Ein Pixelwert eines Transferwertbilds kann aus einem Transferwert p(i, j, k) durch Umwandeln von p(i, j, k) zu einem der acht Nachbarn in Übereinstimmung mit EQ.26 und EQ.27 erstellt werden, wobei EQ.27 nur dann verwendet wird, wenn ein einzelnes Bild in EQ.26 Schwierigkeiten bereitet.
  • Figure 00600001
  • Der Bereichspixelwert des Transferwertbilds in Richtung des Schwerpunkts des Ein-Bereichs-Binärbilds x kann einfach durch EQ.28 und EQ.29 unter Verwendung von EQ.25, EQ.26 und EQ.27 verwendet werden. Hierbei ist anzumerken, dass die Anzahl an Bereichen des Transferwertbilds gleich eins ist. Δij1(x) = θ(Gij1(x)) (28) Δ'ij1(x) = θ'(Gij1(x)) (29)
  • Da die gegenüberliegende Position gegen den Schwerpunkt von EQ.24 abgeleitet wird, kann demgegenüber der Bereichspixelwert des Transferwertbilds gegen den Schwerpunkt des Ein-Bereichs-Binärbilds x einfach durch EQ.30 beschrieben werden. Hierbei ist anzumerken, dass die Anzahl an Bereichen des Transferwertbilds gleich eins ist. Rij1(x) = θ(ϓ(Gij1(x))) (30)
  • Angenommen, es seien zwei Bilder, x und y, vorhanden und das Bild y ist ein Transferwertbild. Nachdem ein Bereichspixelwert des Bilds x zu einer vom Bild y geleiteten Transferposition in Übereinstimmung mit EQ.31 transferiert wird, kann ein Graustufenbild von einer Summe einiger Bereichspixelwerte, welche an den selben Bereichspixel transferiert wurden, erstellt werden. Γijk(x, y) = Σxlmk für p(l, m, 1) ∊ Pij1(q) und #–1ylm1 = p(i – l, j – m, 0). (31)
  • Für den Fall, dass jedes Pixel des Ein-Bereichs-Graustufenbilds x zu einem der Nachbarn in Richtung des Schwerpunkts transferiert wird, gefolgt von der Berechnung der Summe der zu demselben Bereichspixel transferierten Bereichspixelwerte, kann dieser Vorgang einfach durch EQ.32 und EQ.33 unter Verwendung von EQ.4 und EQ.28, EQ.29 und EQ.31 beschrieben werden. Λij1(x) = Γij1(x, Δ(Φ(x))) (32) Λ'ij1(x) = Γij1(x, Δ'(Φ(x))) (33)
  • Angenommen, es seien zwei Bilder, x und y, vorhanden, das Bild x sei ein Binärbild und das Bild y sei ein Transferwertbild. Da eine Transferposition jedes Bereichspixelwerts des Bilds x abgeleitet werden kann, können auch einige Bereichspixelwerte, deren Transferposition redundant ist, erfasst werden. EQ.34 erzeugt einen Bereichspixelwert eines Übertragbarkeitsbilds, welches so in Erscheinung tritt, dass eine Transferposition jedes Bereichspixelwerts des Bilds x nicht redundant ist und dass der Bereichspixelwert ebenfalls zu einer anderen Position transferiert werden kann. Hierbei ist darauf hinzuweisen, dass die Anzahl an Bereichen des Übertragbarkeitsbilds gleich eins ist.
  • Figure 00620001
  • Angenommen, es seien zwei Bilder, x, y und w, vorhanden, das Bild y ist ein Übertragbarkeitsbild und das Bild w ist ein Transferwertbild. EQ.35 kann ein Bereichspixelwert des Bilds x sein.
  • Figure 00620002
  • Der Bereichspixelwert eines Bilds, welches vom Transfer eines Bereichspixelwertes des Bilds x zur Richtung entgegengesetzt zum Schwerpunkt, der vom Binärbild y abgeleitet ist, abgeleitet werden kann, kann einfach durch EQ.36 unter Verwendung von EQ.30, EQ.34 und EQ.35 beschrieben werden. Uijk(x, y) = Tijk(x, H(y, R(y)), R(y)) (36)
  • Algorithmen aller Matrix-Betätigungseinheiten 40 in einer Datenverarbeitungsvorrichtung 110, die das Bildspeichermittel 12 (siehe 1 und 6), das Bildvibrationsmittel 13 (siehe 3, 4 und 5), das Kanteninformations-Erzeugungsmittel 14 (siehe 1 und 6), das Kanteninformations-Ausbildungsmittel 15 (siehe 1 oder 5, 7 oder 12), das Figur-/Grundtrennmittel 16 (siehe 2, 4, 5, 7 oder 12), das Positions-/Größendetektionsmittel 17 (siehe 1 und 6), das Flächennormierungsmittel 27 (siehe 7) und das Normierungsbild-Haltemittel 28 (siehe 7) realisieren können, können durch EQ.1 bis EQ.36 beschrieben werden. Es werden die visuellen Vorrichtungen in Übereinstimmung mit dem Bildvibrationsmittel 13, dem Kanteninformations-Erzeugungsmittel 14, dem Kanteninformations-Ausbildungsmittel 15, dem Positions-/Größendetektionsmittel 17 bzw. dem Flächennormierungsmittel 27 durch Darstellen des Algorithmus einer beliebigen Matrix-Betätigungseinheit 40 in der Datenverarbeitungsvorrichtung 110 erläutert.
  • Damit das Bildspeichermittel 12 (siehe 1 und 6), welches durch eine Datenverarbeitungsvorrichtung 110 realisiert wurde, ein digitales Bild 111 speichert, arbeiten Matrix-Betätigungseinheiten 40, welche in einer Gitterform angeordnet sind, synchron und parallel miteinander. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix sei AOUij sein. Der Algorithmus von AOUij ist in 14 zu sehen.
  • Im Schritt 1201 wird AOUij in der Spalte i und der Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, zu bestimmen.
  • Im Schritt 1202 werden die Nachbarn von AOUij eingestellt und ihre Parameter werden initialisiert.
  • Im Schritt 1203 bestimmt AOUij, ob ein digitales Bild 111 nacheinander eingegeben wird oder nicht. Wenn kein digitales Bild 111 mehr vorhanden ist (Schritt 1203: Ja), endet dieser Algorithmus. Wenn das digitale Bild 111 (Schritt 1203: Nein) vorhanden ist, geht dieser Algorithmus zu Schritt 1204 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wird.
  • Im Schritt 1204 wartet AOUij, während das eingegebene digitale Bild 111 vorbereitet wird.
  • Im Schritt 1205 gibt AOUij das gesamte Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 ein. Daher benötigt AOUij den Speicher 42 zur Speicherung zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 1206 speichert AOUij das Pixel auf der Spalte i und der Zeile j des digitalen Bilds, unterdessen wird das Pixel, während der Wartephase der eingegebenen Daten, ausgegeben.
  • Im Schritt 1207 gibt AOUij alle Bereichspixelwerte des digitalen Bilds 111 aus. Dieser Algorithmus kehrt dann zu Schritt 1203 zurück.
  • Die dem Bildspeichermittel 12 entsprechende visuelle Vorrichtung kann das digitale Bild 111 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, speichern.
  • Damit das Bildvibrationsmittel 13, beschrieben in Anspruch 6 (siehe 3, 4 und 5), welches durch eine Datenverarbeitungsvorrichtung 110 realisiert wurde, ein digitales Bild 111 zum Vibrieren bringt, arbeiten die Matrix-Betätigungseinheiten 40, welche in einer Gitterform angeordnet sind, synchron und parallel miteinander. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix sei AOUij. Der Algorithmus von AOUij ist in 15 zu sehen.
  • Im Schritt 1301 wird AOUij in der Spalte i und der Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, zu bestimmen.
  • Im Schritt 1302 werden die Nachbarn von AOUij eingestellt und deren Parameter initialisiert.
  • Im Schritt 1303 bestimmt AOUij, ob ein digitales Bild 111 nacheinander eingegeben wird oder nicht. Wenn kein digitales Bild 111 mehr vorhanden ist (Schritt 1303: Ja), endet dieser Algorithmus. Wenn ein digitales Bild 111 (Schritt 1303: Nein) vorhanden ist, geht dieser Algorithmus zu Schritt 1304 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wird.
  • Im Schritt 1304 gibt AOUij das gesamte Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 ein. Daher benötigt AOUij einen Speicher 42 zum Speichern zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 1305 transferiert AOUij das Pixel in der Spalte i und der Zeile j des digitalen Bilds zu einem seiner Nachbarn in Übereinstimmung mit der Funktion Ξijk(x).
  • Im Schritt 1306 gibt AOUij alle Bereichspixelwerte des digitalen Bilds 111 aus. Dieser Algorithmus kehrt dann wieder zu Schritt 1303 zurück.
  • Die in Anspruch 6 beschriebene visuelle Vorrichtung, entsprechend dem Bildvibrationsmittel 13, kann das digitale Bild 111 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, vibrieren.
  • Damit das in Anspruch 7 (siehe 1 und 6) beschriebene Kanteninformations-Erzeugungsmittel 14, das durch eine Datenverarbeitungsvorrichtung 110 realisiert wurde, ein Roh-Kanteninformationsbild 113 aus einem digitalen Bild 111 erzeugen kann, haben Matrix-Betätigungseinheiten 40, die in Form eines Gitters angeordnet sind, synchron und parallel zu arbeiten. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix soll AOUij sein. Der Algorithmus von AOUij ist in 16 abgebildet.
  • Im Schritt 1401 wird AOUij in der Spalte i und der Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, zu bestimmen.
  • Im Schritt 1402 werden die Nachbarn von AOUij eingestellt und deren Parameter initialisiert. Durch Einstellen der Nachbarn kann die Anzahl an in den oben erwähnten Funktionen verwendeten Nachbarn, entweder als vier oder acht, einzeln definiert werden oder alle davon können einheitlich, entweder als vier oder acht, definiert werden. Damit die vom Kanteninformations-Erzeugungsmittel 14 der vorliegenden Erfindung erzeugten Roh-Kanteninformationen 12 exakter werden, muss die Anzahl an Nachbarn q für alle Funktionen auf acht eingestellt werden. Das Kanteninformations-Erzeugungsmittel 14 kann jedoch mit den Beschränkungen der rechentechnischen Zeit zur Erzeugung des Roh-Kanteninformationsbilds 112 und der Anzahl an Bereichen des digitalen Bilds 111 durch entsprechendes Variieren der Anzahl an Nachbarn umgehen.
  • Im Schritt 1403 bestimmt AOUij, ob ein digitales Bild 111 nacheinander eingegeben wird oder nicht. Wenn kein digitales Bild 111 mehr vorhanden ist (Schritt 1403: Ja), endet dieser Algorithmus. Wenn das digitale Bild 111 (Schritt 1403: Nein) vorhanden ist, geht dieser Algorithmus zu Schritt 1404 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wird.
  • Im Schritt 1404 gibt AOUij das gesamte Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 ein. Dies wird für AOUij durchgeführt, um das Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 zu verarbeiten. Daher benötigt AOUij den Speicher 42 zum Speichern zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 1405 führt AOUij für jeden Bereichspixelwert des eingegebenen digitalen Bilds 111 das Glätten in Übereinstimmung mit der Funktion Sijk(x) durch, indem mit den benachbarten Matrix-Betätigungseinheiten 40 kommuniziert wird. Der geglättete Bereichspixelwert Sijk(x) kann, wenn nötig, öfter berechnet werden. Es ist für ein allgemeines Farbbild ausreichend, die Funktion zweimal zu wiederholen.
  • Im Schritt 1406 führt AOUij für jeden Bereichspixelwert des glatten digitalen Bilds die Logarithmus-Umwandlung in Übereinstimmung mit der Funktion Lijk(x) durch. Der zum Logarithmus umgewandelte Bereichspixelwert wird als ein Bereichspixelwert eines Logarithmus-Umwandlungsbilds angesehen.
  • Im Schritt 1407 führt AOUij für jeden Bereichspixelwert des Logarithmus-Umwandlungsbilds die Verstärkung in Übereinstimmung mit der Funktion Eijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40 durch. Der verstärkte Bereichspixelwert wird als ein Bereichspixelwert eines verstärkten Bilds angesehen.
  • Im Schritt 1408 führt AOUij für jeden Bereichspixelwert des Logarithmus-Umwandlungsbilds die Subtraktion jedes Bereichspixelwerts der zuvor verstärkten Bilds jeweils in Übereinstimmung mit der Funktion Dijk(x, y) durch. Der die Differenz darstellende Bereichspixelwert wird als ein Bereichspixelwert eines Zeitdifferentialbilds angesehen.
  • In Schritt 1409 wird jeder Bereichspixelwert des zuvor verstärkten Bilds durch den entsprechenden Bereichspixelwert des verstärkten Bilds abgelöst.
  • In Schritt 1410 führt AOUij für jeden Bereichspixelwert des Zeitdifferentialbilds eine Laplacesche Berechnung in Übereinstimmung mit dem Operator ∇2 ijkx durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40 durch. Der durch den Laplaceschen Operator berechnete Bereichspixelwert wird als ein Bereichspixelwert eines Laplaceschen Zeitdifferentialbilds angesehen.
  • In Schritt 1411 extrahiert AOUij für jeden Bereichspixelwert des Laplaceschen Zeitdifferentialbilds einen Nullpunkt in Übereinstimmung mit der Funktion Zijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der den extrahierten Nullpunkt darstellende Bereichspixelwert wird als ein Bereichspixelwert eines Zeitdifferential-Nullpunktbilds angesehen.
  • In Schritt 1412 detektiert AOUij für jeden Bereichspixelwert des Laplaceschen Zeitdifferentialbilds den Maximalwert unter einigen Bereichspixelwerten des Laplaceschen Zeitdifferentialbilds in Übereinstimmung mit der Funktion Bijk(x). Der den detektierten Maximalwert darstellende Bereichspixelwert wird als Maximalwert des Zeitdifferential-Nullpunktbilds angesehen. Hierbei ist anzumerken, dass die Anzahl an Bereichen an Geräten eins ist.
  • In Schritt 1413 führt AOUij für jeden Bereichspixelwert des verstärkten Bilds die Laplacesche Berechnung in Übereinstimmung mit dem Operator ∇2 ijkx durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40 durch. Der durch den Laplaceschen Operator berechnete Bereichspixelwert wird als ein Bereichspixelwert eines Laplaceschen Bilds angesehen.
  • In Schritt 1414 extrahiert AOUij für jeden Bereichspixelwert des Laplaceschen Bilds den Nullpunkt in Übereinstimmung mit der Funktion Zijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der den extrahierten Nullpunkt darstellende Bereichspixelwert wird als ein Bereichspixelwert eines Nullpunktbilds angesehen.
  • Im Schritt 1415 detektiert AOUij für jeden Bereichspixelwert des Laplaceschen Bilds den Maximalwert unter einigen Bereichspixelwerten des Laplaceschen Bilds in Übereinstimmung mit der Funktion Bij1(x). Der den detektierten Maximalwert darstellende Bereichspixelwert wird als Bereichspixelwert eines Maximalwert-Nullpunktbilds angesehen. Hierbei ist anzumerken, dass die Anzahl an Bereichen an Geräten eins ist.
  • Im Schritt 1416 detektiert AOUij für jeden Bereichspixelwert des Laplaceschen Bilds und jeden Bereichspixelwert des Zeitdifferentialbilds den Maximalwert zwischen zwei Bereichspixelwerten an derselben Position der Bilder in Übereinstimmung mit der Funktion Mijk(x, y). Der den detektierten Maximalwert darstellende Bereichspixelwert wird als ein Bereichspixelwert eines gemischten Nullpunktbilds angesehen. Hierbei ist anzumerken, dass die Anzahl an Bereichen an Geräten eins ist.
  • Im Schritt 1417 löscht AOUij für jeden Bereichspixelwert des gemischten Nullpunktbilds ein Loch in Übereinstimmung mit der Funktion Fijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der das Loch löschende Bereichspixelwert wird als ein Bereichspixelwert eines gemischten Lochlösch-Nullpunktbilds angesehen. Hierbei ist darauf hinzuweisen, dass die Anzahl an Bereichen an Geräten eins ist. Die Funktion Fijk(x) kann, wenn nötig, öfter berechnet werden. Es reicht für ein allgemeines Farbbild aus, die Funktion einmal zu berechnen.
  • Im Schritt 1418 löscht AOUij für einen Bereichspixelwert des gemischten Lochlösch-Nullpunktbilds einen einzigen Punkt und ein einziges Loch in Übereinstimmung mit der Funktion Aijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten. Der den Punkt und das Loch löschende Bereichpixelwert wird als ein Bereichspixelwert eines gemischten Rauschlösch-Nullpunktbilds angesehen. Hierbei ist anzumerken, dass die Anzahl an Bereichen an Geräten eins ist.
  • Im Schritt 1419 invertiert AOUij null für einen Bereichspixelwert des gemischten Rauschlösch-Nullpunktbilds in Übereinstimmung mit der Funktion Iijk(x). Der invertierte Bereichspixelwert wird als ein Bereichspixelwert eines Roh-Kanteninformationsbilds 113 angesehen.
  • Im Schritt 1420 gibt AOUij einen Bereichspixelwert des Roh-Kanteninformationsbilds 113 aus. Dieser Algorithmus kehrt dann wieder zu Schritt 1403 zurück.
  • Die dem Kanteninformations-Erzeugungsmittel 14 entsprechende visuelle Vorrichtung kann das Roh-Kanteninformationsbild 113 aus dem digitalen Bild 111 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, erzeugen.
  • Damit das Kanteninformations-Ausbildungsmittel 15 (siehe 1 oder 5, 7 oder 12), welches von einer Datenverarbeitungsvorrichtung 110 realisiert wurde, ein ausgebildetes Kanteninformationsbild 115, bestehend aus ausgebildeten Kanteninformationen 114, aus einem Roh-Kanteninformationsbild 113, bestehend aus Roh-Kanteninformationen 112, beschrieben in Anspruch 8, und ein digitales Bild 111 erzeugen kann, wie in 17 zu sehen, arbeiten Matrix-Betätigungseinheiten 40, die in Form eines Gitters angeordnet sind, synchron und parallel. Eine Matrix-Betätigungseinheit in einer Spalte i und einer Zeile j einer Matrix sei AOUij. Der Algorithmus von AOUij ist in 18 abgebildet.
  • Im Schritt 1501 wird AOUij in der Spalte i und der Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, bestimmen zu können.
  • Im Schritt 1502 werden die Nachbarn von AOUij eingestellt und deren Parameter initialisiert. Durch Einstellen der Nachbarn kann die Anzahl an in den oben erwähnten Funktionen verwendeten Nachbarn, entweder als vier oder acht, einzeln definiert werden oder alle davon können einheitlich, entweder als vier oder acht, definiert werden. Damit die vom Kanteninformations-Ausbildungsmittel 15 der vorliegenden Erfindung erzeugten Roh-Kanteninformationen exakter werden, muss die Anzahl an Nachbarn q für alle Funktionen auf acht eingestellt werden. Das Kanteninformations-Ausbildungsmittel 15 kann jedoch die Beschränkungen der rechentechnischen Zeit zur Erzeugung des Roh-Kanteninformationsbilds 112 und der Anzahl an Bereichen des digitalen Bilds 111 durch entsprechendes Variieren der Anzahl an Nachbarn bewältigen.
  • Im Schritt 1503 bestimmt AOUij, ob ein digitales Bilds 111 und ein Roh-Kanteninformationsbilds 113 nacheinander eingegeben werden oder nicht. Wenn keine digitale Bilder 111 oder kein Roh-Kanteninformationsbild 113 mehr vorhanden sind (Schritt 1503: Ja), endet dieser Algorithmus. Wenn ein digitales Bild 111 oder ein Roh-Kanteninformationsbild 113 (Schritt 1503: Nein) vorhanden sind, geht dieser Algorithmus zu Schritt 1504 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wird.
  • Im Schritt 1504 gibt AOUij das gesamte Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 und das gesamte Pixel in der Spalte i und der Zeile j des Roh-Kanteninformationsbilds 113 ein. Dies wird für AOUij durchgeführt, um das Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 und das Pixel in der Spalte i und der Zeile j des Roh-Kanteninformationsbilds 113 gemeinsam zu verarbeiten. Daher benötigt AOUij den Speicher 42 zum Speichern zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 1505 trennt AOUij das Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 und das Pixel in der Spalte i und der Zeile j des Roh-Kanteninformationsbilds 113. Dies wird für AOUij durchgeführt, um das Pixel auf der Spalte i und der Zeile j des digitalen Bilds 111 bzw. das Pixel in der Spalte i und der Zeile j des Roh-Kanteninformationsbilds 113 als zwei Pixel von unabhängigen Bildern zu verarbeiten. Wenn das Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 und das Pixel in der Spalte i und der Zeile j des Roh-Kanteninformationsbilds 113 zuvor getrennt und dann eingegeben wurden, wird von AOUij nichts durchgeführt.
  • Im Schritt 1506 führt AOUij für jeden Bereichspixelwert des eingegebenen digitalen Bilds 111 das Glätten in Übereinstimmung mit der Funktion Sijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40 durch. Der geglättete Bereichspixelwert wird als ein Bereichspixelwert eines geglätteten digitalen Bilds angesehen. Die Funktion Sijk(x) kann, wenn nötig, öfter berechnet werden. Es ist für ein allgemeines Farbbild ausreichend, die Funktion zweimal zu wiederholen.
  • Im Schritt 1507 führt AOUij für jeden Bereichspixelwert die Logarithmus-Umwandlung in Übereinstimmung mit der Funktion Lijk(x) durch. Der umgewandelte Bereichspixelwert wird als ein Bereichspixelwert eines Logarithmus-Umwandlungsbilds angesehen.
  • Im Schritt 1508 führt AOUij für jeden Bereichspixelwert des Logarithmus-Umwandlungsbilds die Verstärkung in Übereinstimmung mit der Funktion Eijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40 durch. Der verstärkte Bereichspixelwert wird als ein Bereichspixelwert eines verstärkten Bilds angesehen.
  • Im Schritt 1509 führt AOUij für jeden Bereichspixelwert des verstärkten Bilds eine Laplacesche Berechnung in Übereinstimmung mit dem Operator ∇2 ijkx durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40 durch. Der durch den Laplaceschen Operator berechnete Bereichspixelwert wird als ein Bereichspixelwert eines Laplaceschen Bilds angesehen.
  • Im Schritt 1510 extrahiert AOUij für jeden Bereichspixelwert des Laplaceschen Bilds einen Nullpunkt in Übereinstimmung mit der Funktion Zijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der den extrahierten Nullpunkt darstellende Bereichspixelwert wird als ein Bereichspixelwert eines Zeitdifferential-Nullpunktbilds angesehen.
  • Im Schritt 1511 detektiert AOUij für jeden Bereichspixelwert des Nullpunktbilds den Maximalwert unter einigen Bereichspixelwerten des Nullpunktbilds in Übereinstimmung mit der Funktion Bijk(x). Der den detektierten Maximalwert darstellende Bereichspixelwert wird als ein Bereichspixelwert des Maximalwert-Nullpunktbilds angesehen. Hierbei ist anzumerken, dass die Anzahl an Bereichen in Geräten eins ist.
  • Im Schritt 1512 invertiert AOUij null für einen Bereichspixelwert des Maximalwert-Nullpunktbilds in Übereinstimmung mit der Funktion Iijk(x) um. Der invertierte Bereichspixelwert wird als ein Bereichspixelwert eines Basis-Kanteninformationsbilds angesehen.
  • Im Schritt 1513 wird der Bereichspixelwert des eingegebenen Roh-Kanteninformationsbilds 113 zuerst als ein Bereichspixelwert eines Roh- Kanteninformationsbilds angesehen. AOUij arbeitet in Übereinstimmung mit der Funktion Qijk(x, y) für einen Bereichspixelwert eines Roh-Kanteninformationsbilds. Der so verarbeitete Bereichspixelwert wird wieder als ein Bereichspixelwert eines Roh-Kanteninformationsbilds angesehen. Die Funktion Qijk(x, y) wird von selbst wiederholt, bis der Bereichspixelwert des Roh-Kanteninformationsbilds aufhört, sich zu ändern. Es ist jedoch für AOUij besser diese selbst wiederholende Verarbeitung während einiger spezifischer Repetitionszeiten, entsprechend der Einschränkung der rechentechnischen Zeit, der Qualität des eingegebenen Roh-Kanteninformationsbilds 113, der für das ausgebildete Kanteninformationsbilds 115 gewünschten Qualität, zu beenden.
  • Im Schritt 1514 ergänzt AOUij für einen Bereichspixelwert des Roh-Kanteninformationsbilds die Linienbreite in Übereinstimmung mit der Funktion Cijk(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der ergänzte Bereichspixelwert wird als ein Bereichspixelwert eines ausgebildeten Kantenbilds 115 angesehen.
  • Im Schritt 1515 gibt AOUij einen Bereichspixelwert des ausgebildeten Kanteninformationsbilds 115 aus. Dieser Algorithmus kehrt dann wieder zu Schritt 1503 zurück.
  • Die dem Kanteninformations-Ausbildungsmittel 15 entsprechende visuelle Vorrichtung kann das ausgebildete Kanteinformationsbild 115 aus dem Roh-Kanteninformationsbild 113 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, erzeugen.
  • Es ist ersichtlich, dass die Ausbildung aus dem Roh-Kanteninformationsbild 113 zum ausgebildeten Kanteninformationsbild 115 darauf abzielt, Kanteninformationen zur Erzeugung aus einem hochauflösenden digitalen Bild 111, welches in einer Szene aufgenommen wurde, um von Kanteninformationen aus einem in derselben Szene aufgenommenen hochauflösenden digitalen Bild 111 erzeugt zu werden, abzuleiten. Wie in 19 zu sehen, kann für eine natürliche Zahl n das Roh- Kanteninformationsbild 113 durch Expandieren eines Roh-Kanteninformationsbilds mit niedriger Auflösung 117 n-mal erzeugt werden, wenn das Kanteninformations-Erzeugungsmittel 14 das Roh-Kanteninformationsbild mit niedriger Auflösung 117 aus dem digitalen Bild mit niedriger Auflösung 116, dessen Auflösung mit der 1/n-Auflösung des digitalen Bilds 111 übereinstimmt, erzeugt. Damit die Auflösung des digitalen Bilds 111 auf 1/n verringert wird, ist lediglich einer der n horizontal oder vertikal fortlaufenden Pixel des digitalen Bilds 111 zu extrahieren. Damit das Roh-Kanteninformationsbild 117 n-mal expandiert, sind demgegenüber lediglich aufeinanderfolgende Pixel des Roh-Kanteninformationsbilds mit niedriger Auflösung 117 mit n-1 Pixel aufzufüllen, deren Bereichspixelwert gleich null ist. Angenommen, ein Roh-Kanteninformationsbild 113 wird durch Expandieren eines Roh-Kanteninformationsbilds mit niedriger Auflösung 117 erstellt und ein anderes Roh-Kanteninformationsbild 113 wird aus dem digitalen Bild 111 erzeugt. Wenn n nicht zu groß ist, wird ein ausgebildetes Kanteninformationsbild 115, an dem eine das Kanteninformations-Ausbildungsmittel 15 realisierende Datenverarbeitungsvorrichtung 110 das vorherige Roh-Kanteninformationsbild 113 ausbildet, zu einem ähnlichen Bild, wie das ausgebildete Kanteninformationsbild 115, an dem eine das Kanteninformations-Ausbildungsmittel 15 realisierende Datenverarbeitungsvorrichtung 110 das letzte Roh-Kanteninformationsbild 113 ausbildet. Der Grund dafür ist, dass das Kanteninformations-Ausbildungsmittel 15 lediglich das Roh-Kanteninformationsbild 113 verwendet, um sich darauf zu beziehen, welche der Kanteninformationen, welche vom Kanteninformations-Ausbildungsmittel 15 aus dem digitalen Bild 111 erzeugt werden, verwendet wird. Für den Fall, dass das Kanteninformations-Ausbildungsmittel 15 ein Roh-Kanteninformationsbild 113, welches durch Expandieren eines Roh-Kanteninformationsbilds mit niedriger Auflösung 117 erstellt wurde, eingibt, kann eine das Kanteninformations-Erzeugungsmittel 14 realisierende Datenverarbeitungsvorrichtung 110, welche das Roh-Kanteninformationsbild mit niedriger Auflösung 117 aus einem digitalen Bild 116 mit niedriger Auflösung erzeugt, den Umfang der Hardware verringern.
  • Wenn dieses Verfahren entwickelt ist, kann ferner die Datenverarbeitungsvorrichtung 110, wie in 20 zu sehen, ein geschnittenes Roh-Kanteninformationsbild mit niedriger Auflösung 118, um die Roh-Kanteninformationen 112 herum, aus dem Roh-Kanteninformationsbild mit niedriger Auflösung 117 schneiden, welches aus dem digitalen Bild mit niedriger Auflösung 116 erzeugt wurde, welches eine niedrige Auflösung des digitalen Bilds 11 ist. Angenommen, die das Kanteninformations-Ausbildungsmittel 15 realisierende Datenverarbeitungsvorrichtung 110 gibt ein geschnittenes Roh-Kanteninformationsbild 119, welches durch Ausdehnen dieses geschnittenen Roh-Kanteninformationsbilds mit niedriger Auflösung 118 erzeugt wurde, und ein geschnittenes digitales Bild 120 ein, weiches derselbe geschnittene Bereich des digitalen Bilds 111 wie das geschnittene Roh-Kanteninformationsbild 119 ist. Die Datenverarbeitungsvorrichtung 110 kann ein geschnittenes Kanteninformationsbild 121 erzeugen. In diesem Fall kann die das Kanteninformations-Erzeugungsmittel 14 realisierende Datenverarbeitungsvorrichtung 110 den Umfang der Hardware verringern.
  • Damit das Positions-/Größendetektionsmittel 17 (siehe 1 und 6), welches durch eine Datenverarbeitungsvorrichtung 110 zur Erzeugung eines Redundanz-Informationsbilds 132, bestehend aus Redundanz-Informationen 131 aus einem Roh-Kanteninformationsbild 113, bestehend aus Roh-Kanteninformationen 112, erzeugen kann, arbeiten Matrix-Betätigungseinheiten 40, die in einer Gitterform angeordnet sind, synchron und parallel. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix sei AOUij. Der Algorithmus von AOUij ist in 22 dargestellt.
  • Im Schritt 1701 ist AOUij in der Spalte i und der Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, zu bestimmen.
  • Im Schritt 1702 werden die Nachbarn von AOUij eingestellt und deren Parameter initialisiert. Durch Einstellen der Nachbarn kann die Anzahl an in den oben erwähnten Funktionen verwendeten Nachbarn, entweder als vier oder acht, einzeln definiert werden oder alle davon können einheitlich, entweder als vier oder acht, definiert werden. Damit das Redundanz-Informationsbild 132, welches durch die Datenverarbeitungsvorrichtung 110 der vorliegenden Erfindung erzeugt wurde exakter wird, muss die Anzahl an Nachbarn q für alle Funktionen auf acht eingestellt werden. Das Positions-/Größendetektionsmittel 17 kann jedoch mit den Beschränkungen der rechentechnischen Zeit zur Berechnung des Schwerpunkts der Roh-Kanteninformationen 112 eines Objekts und der Größe des eingegebenen Roh-Kanteninformationsbilds 113 durch entsprechendes Variieren der Anzahl an Nachbarn umgehen.
  • Im Schritt 1703 bestimmt AOUij, ob ein Roh-Kanteninformationsbild 113 nacheinander eingegeben wird oder nicht. Wenn kein Roh-Kanteninformationsbild 113 mehr vorhanden ist (Schritt 1703: Ja), endet dieser Algorithmus. Wenn ein Roh-Kanteninformationsbild 113 (Schritt 1703: Nein) vorhanden ist, geht dieser Algorithmus zu Schritt 1704 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wird.
  • Im Schritt 1704 gibt AOUij den gesamte Pixel in der Spalte i und der Zeile j des Roh-Kanteninformationsbilds 113 ein. Daher benötigt AOUij den Speicher 42 zum Speichern zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 1705 wandelt AOUij die Roh-Kanteninformationen 112 zum Roh-Kanteninformationsbild 113 um. Die Redundanz-Informationen 131 werden ein Pixelwert, welcher eins oder null entspricht.
  • Im Schritt 1706 berechnet AOUij für jeden Bereichspixelwert des Redundanzinformationsbilds 132 einen Transferwert in Übereinstimmung mit der Funktion Δij1(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der den Transferwert darstellende Bereichspixelwert wird als ein Bereichspixelwert eines Transferwertbilds angesehen.
  • Im Schritt 1707 transferiert AOUij dies für jeden Bereichspixelwert des Redundanz-Informationsbilds 132 in Übereinstimmung mit der Funktion Λij1(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der transferierte Bereichspixelwert wird als ein Bereichspixelwert eines neuen Redundanz-Informationsbilds 132 angesehen.
  • Im Schritt 1708 beurteilt AOUij, ob die die Wiederholzeiten von Schritt 1706 bis Schritt 1707 darstellenden Transferzeiten die bestimmten Zeiten erzielen oder nicht. Wenn die Transferzeiten die bestimmten Zeiten nicht erzielen (Schritt 1708: Nein), kehrt dieser Algorithmus zu Schritt 1705 zurück. Wenn die Transferzeiten die bestimmten Zeiten erzielen (Schritt 1708: Ja), geht dieser Algorithmus zu Schritt 1709 über. Hierbei ist anzumerken, dass die bestimmten Zeiten von der Größe des Roh-Kanteninformationsbilds 113, der Größe des durch die Roh-Kanteninformationen dargestellten Objekts 112 und der Anzahl an Nachbarn q abgeleitet werden. In einem Fall, in dem einige Parameter auf spezifische Anzahlen, entsprechend dem Verwendungsziel der Erfindung, eingestellt werden, ergeben sich keinerlei Probleme, selbst wenn die bestimmten Zeiten auf mehr als die benötigten Zeiten eingestellt werden. Wenn die bestimmten Zeiten jedoch zu viel sind, benötigt AOUij viel Zeit, um die Position und die Größe des Objekts zu detektieren.
  • Im Schritt 1709 berechnet AOUij für jeden Bereichspixelwert des Redundanzinformationsbilds 132 einen Transferwert in Übereinstimmung mit der Funktion Δ'ij1(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der den Transferwert darstellende Bereichspixelwert wird als ein Bereichspixelwert eines Transferwertbilds angesehen.
  • Im Schritt 1710 transferiert AOUij jeden Bereichspixelwert des Redundanz-Informationsbilds 132 in Übereinstimmung mit der Funktion Λ'ij1(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der transferierte Bereichspixelwert wird als ein Bereichspixelwert eines neuen Redundanz-Informationsbilds 132 angesehen.
  • Im Schritt 1711 gibt AOUij einen Bereichspixelwert des Redundanz-Informationsbilds 132 aus. Dieser Algorithmus kehrt dann wieder auf Schritt 1703 zurück.
  • Hierbei ist anzumerken, dass jede Redundanz-Information 131 des Redundanz-Informationsbilds 132 deshalb die Größe des Objekts, dessen Mitte eine Position des Redundanz-Informationsbilds 132 ist, bedeutet, da es die Gesamtanzahl der Roh-Kanteninformationen 112 um die Position herum bestimmt.
  • Die dem Positions-/Größendetektionsmittel 17 entsprechende visuelle Vorrichtung kann das Redundanz-Informationsbild 132 vom Roh-Kanteninformationsbild 113 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, erzeugen. Selbstverständlich kann die in Anspruch 9 beschriebene visuelle Vorrichtung ebenfalls das Redundanz-Informationsbild 132 aus dem ausgebildeten Kanteninformationsbild 115 anstelle des Roh-Kanteninformationsbilds 113 erzeugen. Daher kann die dem Positions-/Größendetektionsmittel 17 entsprechende visuelle Vorrichtung das Redundanz-Informationsbild 132 aus dem ausgebildeten Kanteninformationsbild 115 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40 erzeugen.
  • Angenommen, ein eine Objektfläche 141 darstellendes Objektflächenbild 142 wird in dem in 22 abgebildeten Algorithmus anstelle des Roh-Kanteinformationsbilds 113, bestehend aus Roh-Kanteninformationen 112 verwendet. Wie in 23 zu sehen kann das durch die Datenverarbeitungsvorrichtung 110 realisierte Positions-/Detektionsmittel 17 (siehe 2 und 4) daher ebenfalls das Redundanz-Informationen 131 darstellende Redundanz-Informationsbild 132 die Fläche des Objekts ermitteln, dessen Mitte eine Position des Redundanz-Informationsbilds 132 ist, da es die Gesamtanzahl der Pixel der Objektfläche 141 um die Position herum bestimmt. Wenn die Größe des Objekts vom Redundanz-Informationsbild 132 abgeleitet wird, muss daher auf etwa das Berechnen der Quadratwurzel für die Redundanz-Informtaionen 131 Acht gegeben werden.
  • Damit das in Anspruch 10 beschriebene Flächennormierungsmittel 27 (siehe 7), welches durch eine Datenverarbeitungsvorrichtung 110 realisiert wurde, wie in 24 zu sehen, ein normiertes Bild 145, inklusive einer normierten Fläche 144 aus einem Objektflächenbild 142, einschließlich einer Objektfläche 141 und eines digitalen Bilds 111, erzeugen kann, arbeiten die Matrix-Betätigungseinheiten 40, die in einer Gitterform angeordnet sind, synchron und parallel. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix sei AOUij. Der Algorithmus von AOUij ist in 25 dargestellt.
  • Bei Schritt 2701 wird AOUij in einer Spalte i und einer Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, zu bestimmen.
  • Im Schritt 2702 werden die Nachbarn von AOUij und deren Parameter initialisiert. Durch Einstellen der Nachbarn kann die Anzahl an in den oben erwähnten Funktionen verwendeten Nachbarn, entweder als vier oder acht, einzeln definiert werden oder alle davon können einheitlich, entweder als vier oder acht, definiert werden. Damit das normierte Bild 145, welches vom Flächennormierungsmittel 27 der vorliegenden Erfindung erzeugt wurde, exakter wird, muss die Anzahl an Nachbarn q für alle Funktionen auf eine hohe Zahl eingestellt werden. Das Flächennormierungsmittel 27 kann jedoch die Beschränkungen der rechentechnischen Zeit zur Normierung einer segmentierten Objektfläche 143 und der Größe des eingegebenen digitalen Bilds 111 durch entsprechendes Variieren der Anzahl an Nachbarn bewältigen.
  • Im Schritt 2703 beurteilt AOUij, ob sowohl ein digitales Bild 111 als auch ein Objektflächenbild 142 nacheinander eingegeben werden oder nicht. Wenn kein digitales Bild 111 und kein Objektflächenbild 142 mehr vorhanden sind (Schritt 2703: Ja), endet dieser Algorithmus. Wenn ein digitales Bild 111 und ein Objektflächenbild 142 (Schritt 2703: Nein) vorhanden sind, geht dieser Algorithmus zu Schritt 2704 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wird.
  • Im Schritt 2704 gibt AOUij das gesamte Pixel in der Spalte i und der Zeile j des Objektflächenbilds 142 und das gesamte Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 ein. Dies wird für AOUij durchgeführt, um das Pixel auf der Spalte i und der Zeile j des Objektflächenbilds 142 und den Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 gemeinsam zu verarbeiten. Daher benötigt AOUij den Speicher 42 zum Speichern zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 2705 trennt AOUij das Pixel in der Spalte i und der Zeile j des Objektflächenbilds 142 und das Pixel in der Spalte i und der Zeile j des digitalen Bilds 111. Dies wird für AOUij durchgeführt, um das Pixel in der Spalte i und der Zeile j des Objektflächenbilds 142 bzw. das Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 als zwei Pixel von unabhängigen Bildern zu verarbeiten. Wenn das Pixel in der Spalte i und der Zeile j des Objektflächenbilds 142 und das Pixel in der Spalte i und der Zeile j des digitalen Bilds 111 zuvor getrennt und dann eingegeben wurden, wird von AOUij nichts durchgeführt. Das Objektflächenbild und das digitale Bild werden zum aktualisierten Objektflächenbild bzw. zum aktualisierten digitalen Bild kopiert.
  • Im Schritt 2706 berechnet AOUij für jeden Bereichspixelwert des aktualisierten Objektflächenbilds 142 einen Transferwert in Übereinstimmung mit der Funktion Rij1(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der den Transferwert darstellende Bereichspixelwert wird als ein Bereichspixelwert eines Transferwertbilds angesehen.
  • Im Schritt 2707 kann AOUij für jeden Bereichspixelwert des aktualisierten Objektflächenbilds 142 einen Transferplatz-Bereichspixelwert in Übereinstimmung mit der Funktion Hijk(x, y) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40 erfassen. Der Wert stellt dar, ob Transferplatz- Bereichspixelwert als ein möglicher Transferplatz zum Transfer oder als ein Bereichspixelwert eines transferfähigen Bilds angesehen wird.
  • Im Schritt 2708 transferiert AOUij jeden Bereichspixelwert des aktualisierten Objektflächenbilds 142 zum Transferplatz in Übereinstimmung mit der Funktion Uijk(x, y) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der transferierte Bereichspixelwert wird als ein Bereichspixelwert eines neuen, aktualisierten Objektflächenbilds 142 angesehen.
  • Im Schritt 2709 transferiert AOUij dies für jeden Bereichspixelwert des digitalen Bilds 111 zum Transferplatz in Übereinstimmung mit der Funktion Uijk(x, y) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der transferierte Bereichspixelwert wird als ein Bereichspixelwerte eines neuen, digitalen Bilds 111 angesehen.
  • Im Schritt 2710 beurteilt AOUij, ob die die Wiederholzeiten von Schritt 2706 bis Schritt 2709 darstellenden Transferzeiten die gerichteten Zeiten erzielen oder nicht. Wenn die Transferzeiten die bestimmten Zeiten nicht erzielen (Schritt 2710: Nein), kehrt dieser Algorithmus zu Schritt 2706 zurück. Wenn die Transferzeiten die gerichteten Zeiten erzielen (Schritt 2710: Ja), geht dieser Algorithmus zu Schritt 2711 über. Hierbei ist anzumerken, dass die bestimmten Zeiten von der Größe digitalen Bilds 111, der Größe der segmentierten Objektfläche 143 des digitalen Bilds und der Anzahl an Nachbarn q abgeleitet werden. In einem Fall, in dem einige Parameter auf spezifische Anzahlen, entsprechend dem Verwendungsziel der Erfindung, eingestellt werden, ergeben sich keinerlei Probleme, selbst wenn die bestimmten Zeiten auf mehr als die benötigten Zeiten eingestellt werden. Wenn die bestimmten Zeiten jedoch zu viel sind, benötigt AOUij viel Zeit, um die Bilder zu normieren.
  • Im Schritt 2711 ergänzt AOUij jeden Bereichspixelwert des aktualisierten Objektflächenbilds 142, welches den Transfer beendet hat, mit dem Durchschnitt seiner Nachbarn in Übereinstimmung mit der Funktion Vijk(x, y) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Hierbei ist darauf hinzuweisen, dass sowohl x als auch y wie das aktualisierte Objektflächenbild 142 behandelt werden. Der ergänzte Bereichspixelwert wird als ein Bereichspixelwert eines normierten, aktualisierten Objektflächenbilds angesehen.
  • Im Schritt 2712 ergänzt AOUij dies für jeden Bereichspixelwert des aktualisierten digitalen Bilds 111, welches den Transfer beendet hat, mit dem Durchschnitt seiner Nachbarn in Übereinstimmung mit der Funktion Vijk(x, y) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Hierbei ist anzumerken, dass x wie das aktualisierte digitale Bild 111 behandelt wird und y wie das aktualisierte Objektflächenbild 142 behandelt wird. Der transferierte Bereichspixelwert wird als ein Bereichspixelwert eines normierten, aktualisierten digitalen Bilds angesehen.
  • Im Schritt 2713 entscheidet AOUij, ob die Ergänzungszeiten von Schritt 2706 bis Schritt 2709 darstellenden Transferzeiten die bestimmten Zeiten erzielen oder nicht. Wenn die Ergänzungsseiten nicht die gerichteten Zeiten erzielen (Schritt 2713: Nein), kehrt dieser Algorithmus zu Schritt 2711 zurück. Wenn die Ergänzungszeiten die gerichteten Zeiten erzielen (Schritt 2713: Ja), geht dieser Algorithmus zu Schritt 2714 über. Im Allgemeinen ergeben sich keine Probleme, wenn die Ergänzungszeiten etwa die Hälfte der Anzahl an Nachbarn q ausmachen.
  • Im Schritt 2714 beurteilt AOUij, ob die die Wiederholzeiten von Schritt 2706 bis Schritt 2713 darstellenden verbleibenden Zeiten die bestimmten Zeiten erzielen oder nicht. Wenn die verbleibenden Zeiten die bestimmten Zeiten nicht erzielen (Schritt 2714: Nein), kehrt dieser Algorithmus wieder zu Schritt 2706 zurück. Wenn die verbleibenden Zeiten die bestimmten Zeiten erzielen (Schritt 2714: Ja), dann geht dieser Algorithmus zu Schritt 2715 über. Hierbei ist anzumerken, dass die gerichteten Zeiten von der Größe des digitalen Bilds 111, der Größe der segmentierten Objektfläche 143 des digitalen Bilds 111 und der Anzahl an Nachbarn q abgeleitet werden. Für den Fall, dass einige Parameter auf spezifische Anzahlen, entsprechend dem Ziel der Verwendung, eingestellt werden, ergeben sich keinerlei Probleme, selbst wenn die bestimmten Zeiten für mehr als die benötigten Zeiten eingestellt sind. Wenn die bestimmten Zeiten zu viel werden, benötigt jedoch AOUij viel Zeit zur Normierung der Bilder.
  • Im Schritt 2715 gibt AOUij einen Bereichspixelwert des aktualisierten digitalen Bilds als einen Bereichspixelwert des normierten Bilds 145 aus. Dieser Algorithmus kehrt dann wieder zu Schritt 2703 zurück.
  • Die in Anspruch 10 beschriebene visuelle Vorrichtung, welche dem Flächennormierungsmittel 27 entspricht, kann das normierte Bild 145 vom Objektflächenbild 142 und dem digitalen Bild 111 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, erzeugen.
  • Damit das Normierungsbild-Haltemittel 28 (siehe 7), welches durch eine Datenverarbeitungsvorrichtung 110 realisiert wurde, ein normiertes Bild 145 speichert, arbeiten Matrix-Betätigungseinheiten 40, die in Form eines Gitters angeordnet sind, synchron und parallel. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix soll AOUij sein. Der Algorithmus von AOUij ist in 26 abgebildet.
  • Im Schritt 2801 wird AOUij in der Spalte i und der Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, zu bestimmen.
  • Im Schritt 2802 werden die Nachbarn von AOUij eingestellt und deren Parameter initialisiert.
  • Im Schritt 2803 beurteilt AOUij, ob ein nacheinander eingegebenes normiertes Bild 145 noch vorhanden ist oder nicht. Wenn das normierte Bild 145 nicht vorhanden ist (Schritt: 2803), endet der Algorithmus. Wenn das normierte Bild 145 vorhanden ist, geht der Algorithmus zu Schritt 2804 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Bildgröße realisiert wird.
  • Im Schritt 2804 gibt AOUij das gesamte Pixel in der Spalte i und der Zeile j des normierten Bilds 145 ein. Daher benötigt AOUij den Speicher 42 zur Speicherung zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 2805 ändert AOUij das Format des normierten Bilds 145, wenn nötig, für eine Vorrichtung eines Ausgabeplatzes. Dies ist für die Vorrichtung zur leichteren Erzeugung analoger Signale nützlich, besonders durch Umwandeln des normierten Bilds 145 in ein Ein-Bereichsbild oder Umwandeln des mehr als oder gleich 4-Bereichsbilder normierten Bilds 145 zu einem beliebigen Drei-Bereichsbilds. Ansonsten führt AOUij keine Tätigkeiten aus.
  • Im Schritt 2806 AOUij speichert ein Pixel in der Spalte i und der Zeile j des normierten Bilds 145, da es sicherlich Bilddaten zu den Vorrichtungen des Ausgabeplates senden kann, der die unterschiedliche Rechenleistung daraus bezieht.
  • Im Schritt 2807 gibt AOUij einen Bereichspixelwert des normierten Bilds 145 aus. Dieser Algorithmus kehrt dann wieder zu Schritt 2803 zurück.
  • Die dem Normierungsbild-Haltemittel 28 entsprechende visuelle Vorrichtung kann das normierte Bild 145 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40 ausgeben.
  • Der Algorithmus des Bildspeichermittels 12 (siehe 1 und 6), des Bildvibrationsmittels 13 (siehe 3, 4 und 5), des Kanteninformations-Erzeugungsmittels 14 (siehe 1 und 6), des Kanteninformations-Ausbildungsmittels 15 (siehe 1 oder 5, 7 oder 12), des Figur-/Grundtrennmittels 16 (siehe 2, 4, 5, 7 oder 12), des Positions-/Größendetektionsmittels 17 (siehe 1 und 6), des Flächennormierungsmittels 27 (siehe 7) und des Normierungsbild-Haltemittels 28 (siehe 7) wurde weiter oben beschrieben. Da alle diese Mittel durch Nachbarverarbeitung realisiert wurden, können sie eine Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, die in Form eines Gitters angeordnet sind, verwenden. Es ist jedoch schwierig, dass das Bilderkennungsmittel 29 (siehe 8) lediglich durch Nachbarverarbeitung realisiert wird. Damit festgestellt werden kann, ob die Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, angeordnet in einer Gitterform, durch das Bilderkennungsmittel 29 verwendet werden können oder nicht, wird das Bilderkennungsmittel 29 hierin detailliert klassifiziert.
  • Es ist erwünscht, dass das Bilderkennungsmittel 29 einen unter den zuvor als bewegtes Objekt 2 oder unbewegtes Objekt 3 vorbereiteten Kandidaten, welche auf die Größe des normierten Bilds 145 (siehe 24) expandiert sind, identifiziert und ein Erkennungsergebnis erstellt. Das grundlegendste Verfahren zur Identifikation des bewegten Objekts 2 oder des unbewegten Objekts 3 ist, so viele Musterbilder 146 wie möglich vorzubereiten (siehe 27) und dann das mit dem normierten Bild 145 größte Ähnlichkeit aufweisenden Musterbild 146 durch Vergleichen des normierten Bilds mit dem Musterbild 146 herauszufinden. Das Bilderkennungsmittel 29 kann jedoch nicht das mit dem normierten Bild 145 größte Ähnlichkeit aufweisenden Musterbild 146 nur durch Extraktion zweiter beliebiger Pixel aus dem normierten Bild bzw. Musterbild 146 herausfinden und diese miteinander zu vergleichen. Es ist daher wünschenswert, dass alle Pixel des normierten Bilds 145 und des Musterbilds 146 miteinander verglichen werden müssen. Das Bilderkennungsmittel 29 benötigt solche globale Verarbeitung als Fehlerquadratmethode und neuronale Netzwerke. Da die Datenverarbeitungsvorrichtung 110 eine für die Nachbarverarbeitung geeignete Architektur aufweist, ist es für die Datenverarbeitungsvorrichtung 110 selbst schwierig, das Bilderkennungsmittel 29 zu realisieren.
  • Das Bilderkennungsmittel 29 wiederum hat jedoch keine globale Verarbeitung im gesamten Erstellungsprozess eines Erkennungsergebnisses vom normierten Bild 145 auszuführen.
  • Obwohl das Bilderkennungsmittel 29 die globale Verarbeitung im Erstellungsprozess des Erkennungsergebnisses vom Vergleichsergebnis zweier beliebiger aus dem normierten Bild 145 und dem Musterbild 146 entnommenen Pixel ausführen muss, hat das Bildererkennungsmittel 29 nicht immer die globale Verarbeitung im Extraktionsprozess zweier beliebiger Pixel aus dem normierten Bild 145 und dem Musterbild 146 und deren Vergleich miteinander auszuführen. Der Extraktionsprozess zweier beliebiger Pixel aus dem normierten Bild 145 und dem Musterbild 146 und deren Vergleich miteinander ist lediglich das grundlegendste Strukturübereinstimmungsverfahren. Wenn diese Strukturübereinstimmung durch Nachbarverarbeitung durchgeführt wird, kann daher das Bildererkennungsmittel 29 den Erstellungsprozess lediglich aus einem Ergebnis dieser Strukturübereinstimmung durch einen allgemeinen Prozessor zur Durchführung einfacher Berechnung, wie Mehrheitentscheidungen, realisiert werden. Hierin wird ein Verfahren zur Realisierung von Strukturübereinstimmung mittels der Datenverarbeitungsvorrichtung 110 näher beschrieben.
  • Angenommen, dass zuerst ein normiertes Bild 145 als x und n Musterbilder 146 als y', y2, ... yh ... yn bezeichnet werden. Für eine natürliche Zahl g stellt ein Übereinstimmungsergebnis δij1 für ein Pixel in der Spalte i und der Zeile j des einen Übereinstimmungsergebnisbilds 147 die Anzahl an Musterbildern 146 dar, welches nach dem Vergleichen des Pixels in der Spalte i und der Zeile j des normierten Bilds 145 und des Musterbilds 146 die meisten ähnlichen Pixel wie die Pixel des normierten Bilds 145 aufweist. Hierbei ist darauf hinzuweisen, dass die Anzahl an Bereichen des Übereinstimmungsergebnisbilds 147 nützlicherweise mit eins gehandhabt wird, da das Übereinstimmungsergebnisbild 147 zu einem Ein-Bereichsbild wird. Die dritte Kennziffer der Funktion δij1 ist dann gleich eins.
  • Figure 00860001
  • Hierbei ist darauf hinzuweisen, dass alle Übereinstimmungsergebnisse δij1 des Übereinstimmungsbilds 147, welches durch EQ.37 erstellt wird, nicht immer miteinander identifizierbar sind. Wenn mehrere Musterbilder 146 vorhanden sind, tendiert das Übereinstimmungsergebnisbild 147 eher dazu, häufig einem Mosaik ähnlich auszusehen. Hierin wird ein Verfahren beschrieben, in dem die Datenverarbeitungsvorrichtung 110 das Histogramm des Übereinstimmungsergebnisses δij1 und der Übereinstimmungsergebnisse der q Nachbarn berechnet und das Übereinstimmungsergebnis δij1 umwandelt.
  • Angenommen, ein beliebiges Ein-Bereichsbilds stellt ein Übereinstimmungsergebnisbild 147 dar. Für eine natürliche Zahl g werden zwei Übereinstimmungsbilder 172 mit reellen Zahlen u, v, a durch EQ.38 und EQ.39 aktualisiert. Hierbei ist darauf hinzuweisen, dass die Anzahl an Bereichen des Übereinstimmungsergebnisbilds 147 nützlicherweise mit eins gehandhabt wird, da das Übereinstimmungsergebnisbild 147 zu einem Ein-Bereichsbild wird. Die dritte Kennziffer der Funktion ψij1(x) ist dann gleich eins.
  • Figure 00870001
  • Die Datenverarbeitungsvorrichtung 110 kann alle Übereinstimmungsergebnisse des Übereinstimmungsergebnisbilds 147 durch Berechnen von EQ.38 und EQ.39 wiederholt umwandeln, während sich das Übereinstimmungsergebnisbild 147 verändert. Entsprechend der Kombination des normierten Bilds 145 und des Musterbilds 146, werden die Übereinstimmungsergebnisse wie folgt umgewandelt: Wenn etwa die Hälfte aller Pixel des normierten Bilds 145 den Pixel eines spezifischen Musterbilds 145 jeweils sehr ähnlich sind, wandeln sich die fast übereinstimmenden Ergebnisse des Übereinstimmungsergebnisbilds 147 zur Anzahl dieses spezifischen Musterbilds 146 um. Wenn jedoch ein Klumpen einiger Pixel des normierten Bilds einigen Pixelklumpen einiger verschiedener Musterbilder 146 ähnlich ist, umfasst jedoch das Übereinstimmungsergebnisbild 147 einige Klumpen an Anzahlen einiger Musterbilder 146, die von null umgeben werden. Wenn das normierte Bild 145 ferner keine Korrelation mit dem Satz an Musterbildern 147 aufweist, werden die fast übereinstimmenden Ergebnisse des Übereinstimmungsergebnisbilds 147 null. Es wird angenommen, dass es für die von der Datenverarbeitungsvorrichtung 110 realisierte Strukturübereinstimmung schwierig ist, das ähnlichste Musterbild 146 zum normierten Bild 145 zu finden, aber die Strukturübereinstimmung kann einige ähnliche Musterbilder 146 unter allen Musterbildern 146 auswählen. Der Erstellungsprozess eines Erkennungsergebnisses aus einem Ergebnis einer Strukturübereinstimmung hat lediglich das ähnlichste und den ähnlichen Kandidaten der Musterbilder 146, welche durch das Übereinstimmungsergebnisbild 147 aufgelistet werden, welches durch die Strukturübereinstimmung erzeugt wird, auszuwählen.
  • Damit die in Anspruch 11 beschriebene Strukturübereinstimmung durch eine Datenverarbeitungsvorrichtung 110, wie in 27 zu sehen, realisiert werden kann, um ein Übereinstimmungsergebnisbild 147, bestehend aus der Anzahl des ähnlichen Bilds zum normierten Bild 145 eines Musterbilds darstellende Übereinstimmungsergebnisse zu erstellen, arbeiten Matrix-Betätigungseinheiten in Form eines Gitters synchron und parallel. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix sei AOUij. Der Algorithmus von AOUij ist in 28 abgebildet.
  • Im Schritt 2901 ist AOUij in der Spalte i und der Zeile j der Matrix angeordnet. Dies ist erwünscht, um die Nachbarn von AOUij, entweder logisch oder physikalisch, zu bestimmen.
  • Im Schritt 2902 werden die Nachbarn von AOUij eingestellt und deren Parameter initialisiert. Durch Einstellen der Nachbarn kann die in den oben erwähnten Funktionen verwendete Anzahl an Nachbarn q einzeln definiert werden oder alle können einheitlich definiert werden. Damit das Übereinstimmungsergebnisbild 147, welches durch eine Datenverarbeitungsvorrichtung 110 der vorliegenden Erfindung exakter erzeugt wird, erstellt wird, ist die Anzahl an Nachbarn q auf eine große Anzahl für alle Funktionen einzustellen. Die Strukturübereinstimmung kann jedoch mit den Beschränkungen der rechentechnischen Zeit zur Aktualisierung der Übereinstimmungsergebnisse und der Größe des eingegebenen normierten Bilds 145 durch entsprechendes Variieren der Anzahl an Nachbarn umgehen.
  • Im Schritt 2903 bestimmt AOUij, ob ein Musterbild 146 nacheinander eingegeben wird oder nicht. Wenn kein Musterbild 146 mehr vorhanden ist (Schritt 2903: Ja), endet dieser Algorithmus. Wenn ein Musterbild 146 (Schritt 2903: Nein) vorhanden ist, geht dieser Algorithmus zu Schritt 2904 über.
  • Im Schritt 2904 gibt AOUij das gesamten Pixel in der Spalte i und der Zeile j des Musterbilds 146 ein. Daher benötigt AOUij den Speicher 42 zum Speichern der Bilddaten, deren Anzahl gleich zumindest der Anzahl an Bereichen durch die Anzahl an Musterbildern 146 ist. Dieser Algorithmus kehrt dann wieder zu Schritt 2903 zurück.
  • Im Schritt 2905 beurteilt AOUij, ob ein normiertes Bild 145 nacheinander eingegeben wird oder nicht. Wenn keine normierten Bilder 145 mehr vorhanden sind (Schritt 2905: Ja), endet dieser Algorithmus. Wenn kein normiertes Bild 145 vorhanden ist (Schritt 2905: Nein), geht dieser Algorithmus zu Schritt 2906 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn die Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wurde.
  • Im Schritt 2906 gibt AOUij das gesamte Pixel in der Spalte i und der Zeile j des normierten Bilds 145 ein. Daher benötigt AOUij den Speicher 42 zum Speichern zumindest der Anzahl an Bereichen der Bilddaten.
  • Im Schritt 2907 berechnet AOUij das Übereinstimmungsergebnis δij1 des Übereinstimmungsergebnisbilds 147 durch das normierte Bild 145 und das Musterbild 146. Das Übereinstimmungsergebnis ist ein Bereichspixelwert, der eine Anzahl an fast ähnlichen Musterbildern 146 zum normierten Bild 145 darstellt.
  • Im Schritt 2908 aktualisiert AOUij für jeden Bereichspixelwert des Übereinstimmungsergebnisbilds 147 das Übereinstimmungsergebnis in Übereinstimmung mit der Funktion ψij1(x) durch Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der aktualisierte Bereichspixelwert wird wiederum als ein Bereichspixelwert eines Übereinstimmungsergebnisbilds angesehen. Die Funktion ψij1(x) wird von selbst wiederholt, bis der Bereichspixelwert des Übereinstimmungsbilds 147 sich nicht mehr ändert. Es ist jedoch besser für AOUij, diesen Aktualisierungsvorgang in einigen spezifischen Wiederholzeiten, entsprechend der Begrenzung der Rechenzeit, der Qualität des eingegebenen normierten Bilds 145, der für das Übereinstimmungsergebnisbild 147 gewünschten Qualität, zu beenden.
  • Im Schritt 2909 gibt AOUij einen Bereichspixelwert des Übereinstimmungsergebnisbilds 147 aus. Dieser Algorithmus kehrt dann wieder zu Schritt 2905 zurück.
  • Die in Anspruch 11 beschriebene visuelle Vorrichtung, welche der Strukturübereinstimmung im Bilderkennungsmittel 29 entspricht, kann das Übereinstimmungsergebnisbild 147 aus dem normierten Bild 145 unter Verwendung der Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40, erzeugen.
  • Hierin werden die Verfahren zur Ausführung der Bildverarbeitung, welche lediglich Nachbarverarbeitung verwenden, unter Verwendung einer Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40 beschrieben. Es wird hierin die in Anspruch 11 beschriebene visuelle Vorrichtung erläutert, welche das Figur-/Grundtrennmittel 16 (siehe 2 und 7) nur durch Nachbarverarbeitung unter Verwendung einer Datenverarbeitungsvorrichtung 110, bestehend aus Matrix-Betätigungseinheiten 40 realisiert.
  • Erstens zeigen nichtlineare Oszillatoren im Allgemeinen einen Anziehungseffekt. Dieser Anziehungseffekt ist ein begrenztes Phänomen, da einige nichtlineare Oszillotoren, die verschiedene Perioden darstellen, periodisch schwingen, die über Wechselwirkung ein einfaches konstantes Verhältnis zeigen. Wenn die Oszillation eines nichtlinearen Oszillators verändert wird, ändern andere nichtlineare Oszillatoren ihre Oszillation gemeinsam. Dadurch synchronisieren diese nichtlinearen Oszillatoren. Außerdem kann die angepasste Wechselwirkung unter den nichtlinearen Oszillatoren die Herstellung der Phasendifferenz von zwei beliebigen Oszillatoren als so klein und groß wie möglich herbeiführen. Zur Steuerung der Wechselwirkung kann eine Gruppe nichtlinearer Oszillatoren in einige Gruppen aufgeteilt werden, deren Oszillatoren verschiedene Phasen darstellen. Das Figur-/Grundtrennmittel 16 trennt Objekte und Hintergrund unter Verwendung derartiger Anziehung der Oszillatoren, da Kanteninformationen eines Kanteninformationsbilds zur Grenze werden, und erzeugt dann ein Objektflächenbild, welches eine Objektfläche darstellt. Ein Fall, in dem ein Van-der-Pole-Oszillator für den nichtlinearen Oszillator verwendet wird, wird hierin beschrieben.
  • Zuerst soll in einem nichtlinearen Oszillatornetzwerk, bestehend aus nichtlinearen Oszillatoren, die in einer Gitterform angeordnet sind, ein nichtlinearer Oszillator in der Spalte i und der Zeile j ωij sein. Ein Satz Ωij(q) von q Nachbarn des nichtlinearen Oszillators ωij wird durch EQ.40 dargestellt, wobei q eine Reihe von 4, 8, 24, 48, 80, 120, (2r + 1)2 – 1 ist und r eine natürliche Zahl ist. Wenn ein nichtlinearer Oszillator außerhalb des Netzwerks im Nachbarsatz Ωij(q) enthalten ist, wird dieser vom nichtlinearen Oszillator ωij ersetzt. Die Verarbeitung um die Grenzen herum wird automatisch durch diesen Ersatz ausgeführt. Dann beträgt die Anzahl an Elementen des Nachbarsatzes Ωij(q) immer q. Dies zeigt, dass das nichtlineare Oszillatornetzwerk als ein Ein-Bereichsbild angesehen wird. Damit dies einfach beschrieben werden kann, sind nur zwei Kennziffern des nichtlinearen Oszillatornetzwerks vorhanden, welche die horizontale Achse und die vertikale Achse darstellen.
  • Figure 00920001
  • Als Nächstes wird der nichtlineare Oszillator durch einen Verbindungswert τijkl, der durch EQ.41 zwischen diesem und einem der nichtlinearen Oszillatoren in einem Nachbarsatz Ωij(qa) berechnet wird, verbunden, welcher innerhalb seiner qa Nachbarn vorhanden ist. Wenn die Logarithmustabelle nicht verwendet wird, ist es möglich, die Annäherung durch EQ.42 zu verwenden. Hierbei ist darauf hinzuweisen, dass μ und ν ponsitiv Konstanten sind.
  • Figure 00920002
  • Für den Fall, das alle nichtlinearen Oszillatoren eines nichtlinearen Oszillatornetzwerks mit derselben Phase vollständig synchronisieren, oszilliert ein nichtlinearer Oszillator ωij mit derselben Phase konstant so lange, wie ein Prozessor zur Berechnung der Oszillation benötigt. Diese Situation kann vermieden werden, wenn einexternes Rauschen ρij an das Netzwerk übermittelt wird. Obwohl eine pseudozufallsverteilte Zahl für das externe Rauschen verwendet werden kann, entstehen keine Probleme, selbst wenn das externe Rauschen aus einer so einfachen Gleichung wie EQ.43 erstellt wird. Hierbei ist anzumerken, dass ζij angibt, ob Kanteninformationen in der Spalte i und der Zeile j eines Kanteninformationsbilds vorhanden sind oder nicht. Wenn Kanteninformationen vorhanden sind, sind diese gleich eins. Ansonsten sind sie gleich null. Außerdem ist κeine positive Konstante. ρij = κζij (43)
  • Damit ein nichtlinearer Oszillator ωij mit einem nichtlinearen Oszillator ωkl eines achbarsatzes Ωij(qa) synchronisiert wird, wird eine Nachbar-Eingabesumme σij durch EQ.44 berechnet.
  • Figure 00930001
  • Zwei Parameter ϕij und ψij, welche einen nichtlinearen Van-der-Pole-Oszillator ωij bilden, werden durch EQ.45 und EQ.46 berechnet. Hierbei ist anzumerken, dass γ und ε positive Konstanten sind.
  • Figure 00930002
  • Die Differenz der Phasen zwischen zwei beliebigen aller nichtlinearen Oszillatoren muss berechnet werden, um nichtlineare Oszillatoren in einer Objektfläche von nichtlinearen Oszillatoren in einem Hintergrundbereich zu trennen. Der Phasenabstand wird jedoch durch Bestimmen, ob ein Parameter ψij mehr oder gleich einem Grenzwert θ ist oder weniger als der Wert ist, abgeleitet, da die vorliegende Erfindung lediglich die Objektfläche vom Hintergrundbereich zu trennen hat.
  • Eine Ausgabe λij, welche das Ergebnis einer Trennung der Objektfläche vom Hintergrundsbereich darstellt, wird durch EQ.47 abgeleitet. Hierbei ist anzumerken, dass θ eine positive Konstante ist.
  • Figure 00940001
  • Wenn die Kanteninformationen nicht ausreichen, um ein Objekt vom Hintergrund zu trennen, muss die Kanteninformation ergänzt werden. Es ist für die Ergänzung erwünscht, zu zählen, wie viele nichtlineare Oszillatoren ihre Phasen in einem Satz Ωij(qb) nichtlinearer Oszillatoren innerhalb der qb Nachbarn eines nichtlinearen Oszillators ωij verändern. Ein Konturparameter ηij wird durch EQ.48 berechnet.
  • Figure 00940002
  • Basierend auf diesem Ergebnis wird ein Grenzparameter ξij, welcher eine Ergänzungsrate für die Kanteninformationen darstellt, durch EQ.49 berechnet. Hierbei ist anzumerken, dass α, β, ηmin und ηmax positive Konstanten sind.
  • Figure 00940003
  • Obwohl hierin der Fall erläutert wurde, in dem ein Van-der-Pole für einen nichtlinearen Oszillator verwendet wurde, kann diese Trennung durch jeden beliebigen nichtlinearen Oszillator durchgeführt werden, der einen Anziehungseffekt darstellt, wie etwa nichtlineare Oszillatoren, wie z.B. ein Oszillator, der in einer begrenzten Periode stabilisiert ist, und einen Lorentz-Attraktor und einen Attraktor der Ressler-Gleichung erzeugende Chaososzillatoren, usw. In diesem Fall müssen zwei Parameter ϕij und ψij lediglich von den Parametern jedes nichtlinearen Oszillators ersetzt werden oder einige Parameter werden nur dem Van-der-Pole hinzugefügt. Außerdem werden lediglich eine Nachbareingabesumme σij und ein externes Rauschen ρij einem bestimmten Parameter hinzugefügt. Hierbei ist anzumerken, dass ein Chaososzillator das externe Rauschen ρij im Besonderen nicht benötigt.
  • Der Algorithmus aller Matrix-Betätigungseinheiten 40 in einer Datenverarbeitungsvorrichtung 110, welche das Figur-/Grundtrennmittel 16 realisieren kann (siehe 2 und 7), können durch EQ.40 bis EQ.49 beschrieben werden. Hierin wird eine in Anspruch 12 beschriebene visuelle Vorrichtung, welche dem Figur-/Grundtrennmittel 16 entspricht, durch Darstellen einer beliebigen Matrix-Betätigungseinheit 40 in der Datenverarbeitungsvorrichtung 110 näher erläutert.
  • Damit das von einer Datenverarbeitungsvorrichtung 110 realisierten Figur-/Grundtrennmittel, wie in 29 zu sehen, einen Innenbereich des Dreiecks 152 von einem Außenbereich des Dreiecks 153 unter Verwendung der ausgebildeten Dreiecks-Kanteninformationen 151 trennen kann, arbeiten Matrix-Betätigungseinheiten 40, die in einer Gitterform angeordnet sind, synchron und parallel. Eine Matrix-Betätigungseinheit 40 in einer Spalte i und einer Zeile j einer Matrix soll AOUij sein. Der Algorithmus von AOUij ist in 30 dargestellt.
  • Im Schritt 1601 wird AOUij in der Spalte i und der Zeile j der Matrix angeordnet.
  • Im Schritt 1602 werden zwei Nachbarn ωij und ωkl durch einen Verbindungswert τijkl miteinander verbunden, basierend auf EQ.41 und EQ.42.
  • Im Schritt 1603 werden zwei Parameter des nichtlinearen Oszillators ϕij und ψij durch bestimmte Werte initialisiert.
  • Im Schritt 1604 bestimmt AOUij, ob ein ausgebildetes Kanteninformationsbild 115 nacheinander eingegeben wird oder nicht. Wenn kein ausgebildetes Kanteninformationsbild 115 mehr vorhanden ist (Schritt 1604: Ja), endet dieser Algorithmus. Wenn ein ausgebildetes Kanteninformationsbild 115 vorhanden ist (Schritt 1604: Nein), geht dieser Algorithmus zu Schritt 1605 über. Hierbei ist anzumerken, dass dieser Algorithmus eine unendliche Schleife sein kann, wenn eine Matrix-Betätigungseinheit 40 für eine spezifische Größe des Bilds realisiert wird.
  • Im Schritt 1605 gibt AOUij gibt ζij der ausgebildeten Kanteninformationen 114 ein.
  • Im Schritt 1606 leitet AOUij ein externes Rauschen ρij aus ζij der zuvor eingegebenen, ausgebildeten Kanteninformationen 114 in Übereinstimmung mit EQ.43 ein.
  • Im Schritt 1607 gibt AOUij ζkl, ξkl, ψkl aus einer Matrix-Betätigungseinheit 40 AOUkl ein, welche einen nichtlinearen Oszillator ωkl in einem Nachbarsatz Ωij(qa) aufweist und eine Summe σij in Übereinstimmung mit EQ.44 berechnet.
  • Im Schritt 1608 werden zwei Parameter des nichtlinearen Oszillators ϕij und ψij durch EQ.45 und EQ.46 berechnet. Kurz gesagt, durch diese Gleichungen beschriebene Differentialgleichungen werden im Runge-Kutta-Verfahren gelöst.
  • Im Schritt 1609 wird die Ausgabe des nichtlinearen Oszillators λij in Übereinstimmung mit EQ.47 berechnet. λij = 1, wenn ψij ≥ θ ist. Sonst ist λij = 0.
  • Im Schritt 1610 gibt AOUij λkl aus einer Matrix-Betätigungseinheit 40 AOUkl ein, welche einen nichtlinearen Oszillator ωkl in einem Nachbarsatz Ωij(qb) aufweist und einen Konturparameter ηij in Übereinstimmung mit EQ.48 eingibt.
  • Im Schritt 1611 wird ein Grenzparameter ξij durch EQ.49 berechnet. Kurz gesagt, eine durch diese Gleichung beschriebene Differentialgleichung wird durch die Finite-Differenzen-Methode oder das Runge-Kutta-Verfahren gelöst.
  • Im Schritt 1612 beurteilt AOUij, ob die die Wiederholzeiten von Schritt 1606 bis Schritt 1611 darstellenden Trennzeiten die gerichteten Zeiten erzielen oder nicht. Wenn die Trennzeiten nicht die gerichteten Zeiten erzielen (Schritt 1612: Nein), kehrt dieser Algorithmus zu Schritt 1606 zurück. Wenn die Trennzeiten die gerichteten Zeiten erzielen (Schritt 1614: Ja), geht dieser Algorithmus zu Schritt 1613 über.
  • Im Schritt 1613 gibt AOUij die Ausgabe des nichtlinearen Oszillators λij aus, welche ein Bereichspixelwert des Objektflächenbilds 142 ist. Dieser Algorithmus kehrt dann zu Schritt 1604 zurück.
  • Damit die Trennzeit bei Schritt 1612 abgeleitet werden kann, wird hierin das folgende Verfahren verwendet: Für den Fall, dass fast jede beliebige, ausgebildete Kanteninformation 114, deren Größe konstant ist, verwendet wird, beendet das Figur-/Grundtrennmittel 16 die Trennung innerhalb einer bestimmten Periode, trotz des anfänglichen Zustands der nichtlinearen Oszillatoren. Daher entstehen keine Probleme, wenn die Wiederholzeiten von Schritt 1606 bis 1611 in der Periode zuvor gezählt werden. Da die Zeiten, die nichtlineare Oszillatoren zur Synchronisierung durch den Anziehungseffekt brauchen, fast immer nicht variieren, wenn ihr Anfangszustand innerhalb der festgelegten Grenzen liegt.
  • Obwohl nur nichtlineare Oszillatoren berechnet werden, wie oben beschrieben, liegt der Grund, warum das Figur-/Grundtrennmittel 16 den Innenbereich des Dreiecks 152 vom Außenbereich des Dreiecks 153 unter Verwendung der ausgebildeten Dreiecksinformationen 153 trennen kann, in der Verwendung des Anziehungseffekts, welches ein Charakteristikum eines nichtlinearen Oszillators ist. Kurz gesagt, die Phasen zweier nichtlinearer Oszillatoren werden einander so ähnlich wie möglich, wenn die nichtlinearen Oszillatoren durch einen positiven Verbindungswert verbunden sind. Demgegenüber, wird die Differenz ihrer Phasen so groß wie möglich, wenn sie durch einen negativen Verbindungswert miteinander verbunden sind. Für den Fall der Verwendung dieses Charakteristikums, bekommen beide der zwei nichtlinearen Oszillatoren, die nicht direkt verbinden, dieselbe Phase durch Verbinden der in Gitterform mit den Nachbarn durch positive Verbindungswerte miteinander verbundenen nichtlinearen Oszillatoren. Ferner sei angenommen, dass die beiden an Pixel befindlichen nichtlinearen Oszillatoren, zwischen denen die ausgebildeten Kanteninformationen 114 gegeben werden, durch einen negativen Verbindungswert miteinander verbunden sind. Die Oszillatoren an beiden Seiten der Kanteninformationen ändern ihre Phasen zueinander so unterschiedlich wie möglich. Dadurch können zwei verschiedene Phasensätze im Innenbereich und Außenbereich, welche durch die Kanteninformationen 151 eines Dreiecks getrennt sind, vorhanden sein. Das Figur-/Grundtrennmittel trennt daher den Innenbereich des Dreiecks 152 vom Außenbereich des Dreiecks 153, wie in 29 zu sehen. Hierbei ist anzumerken, dass die Phasendifferenz eines Innenbereichs des Dreiecks 152 und eines Außenbereich des Dreiecks 153 so nahe wie möglich bei 180 Grad und über 90 Grad ist, und dann können ein Dreiecksbereich und ein Hintergrundbereich getrennt werden.
  • Es ist daher wichtig, dass ein Verbindungswert in dieser Ausführungsform bei Auftreten in der folgenden Weise verändert wird, sobald die ausgebildeten Kanteninformationen 114 erhalten wurden. Wie in EQ.41 und EQ.42 definiert, wird zuerst ein Verbindungswert zum Verbinden eines nichtlinearen Oszillators ωkl mit einem nichtlinearen Oszillator ωij auf τijkl eingestellt (siehe Schritt 1602). Für die beiden ausgebildeten Kanteninformationen ζij und ζkl werden die ausgebildeten Kanteninformationen auf eins eingestellt, wenn eine Kante vorhanden ist. Ansonsten wird diese auf null gestellt. Wenn die ausgebildeten Kanteninformationen ζij und ζkl eingegeben werden (siehe Schritt 1605), wird die ausgebildete Kanteninformation ζkl von einer Matrix-Betätigungseinheit AOUkl, zu AOUij übertragen. Ferner berechnet AOUij einen Verbindungswert τijkl(1 – ζkl) und ersetzt diesen für einen Verbindungswert τijkl (siehe Schritt 1607). Für diesen ersetzten Verbindungswert τijkl(1 – ζkl) agiert ein Grenzparameter ξij als Vergrößerung zwischen null und eins (siehe Schritt 1607).
  • Wenn die ausgebildeten Kanteninformationen 114 zu strichliert dargestellten Dreiecks-Kanteninformationen werden, wie in 31 abgebildet, muss eine Strichlinie ergänzt werden. Es wird also zuerst angenommen, dass ein System unter Verwendung der als Strichlinie dargestellten Dreiecks-Kanteninformationen 154 arbeitet (siehe Schritt 1605). Obwohl die Phasendifferenz zwischen einem Innenbereich und einem Außenbereich durch als Strichlinien dargestellten Dreiecks-Kanteninformationen 154 zu mehr als etwa 90 Grad wird, ist ein Bereich um die Grenze der Innen- und Außenbereich des Dreiecks nicht deutlich erkennbar. Jedes AOUij berechnet eine Ausgabe seines nichtlinearen Oszillators λij (siehe Schritt 1609). Angenommen, diese Ausgabe λij ist gleich eins. Wenn ein nichtlinearer Oszillator, dessen λkl gleich einem unter den benachbarten nichtlinearen Oszillatoren ist, ωkl ist, sind beide Paramater ψij und ψkl mehr als oder gleich θ. Kurz gesagt, die Phasen λij und λkl sind fast gleich und die Phasendifferenz ist nicht mehr als höchstens 90 Grad, wenn θ positiv ist. Der Maximalwert dieser Differenz der Phasen wird durch θ bestimmt. Je größer θ innerhalb eines Bereichs wird, in dem sowohl λij als auch λkl gleich eins sind, desto näher liegt die Phasendifferenz bei null Grad. Unter Verwendung von λij und λkl wird dann ein Konturparameter ηij, der die Anzahl an benachbarten nichtlinearen Oszillatoren darstellt, deren Phasen fast ident sind, durch EQ.48 berechnet (siehe Schritt 1610). Ferner wird ein Grenzparameter ξij, der die Vergrößerung eines Verbindungswerts ist, in Übereinstimmung mit EQ.49 verringert, wenn dieser Konturparameter ξij etwa die Hälfte aller Nachbarn beträgt. Ansonsten wird der Grenzparameter in Übereinstimmung mit EQ.49 verringert (siehe Schritt 1611). Als ein Beispiel für acht Nachbarn kann der Grenzparameter in Übereinstimmung mit EQ.49 verringert werden, wenn der Konturparameter zwischen drei und fünf liegt. Durch die verbleibende, wiederholte Durchführung dieses Vorgangs werden ein Innenbereich des als Strichlinie dargestellten Dreiecks 155 und ein Außenbereich des als Strichlinie dargestellten Dreiecks 156 getrennt, wenn die als Strichlinie dargestellten Kanteninformationen 154, wie in 31 zu sehen, gegeben sind.
  • Wie in 32 abgebildet, können die Kanteninformationen eines vorderen Dreiecks 157 und die Kanteninformationen eines hinteren Dreiecks 158 abgeleitet werden, wenn zwei Dreiecke gestapelt werden. Drei Bereiche, ein Innenbereich eines vorderen Dreiecks 159, ein Innenbereich eines hinteren Dreiecks 160 und ein Bodenbereich des doppelten Dreiecks 161 werden durch Verschieben der Phasen der nichtlinearen Oszillatoren miteinander getrennt. Wie in 33 zu sehen, werden außerdem ein Innenbereich eines vorderen Kreises 163, ein Innenbereich eines hinteren Kreises 164 und ein Bodenbereich der überlappenden Kreise 165 getrennt, selbst wenn die Kanteninformationen der überlappenden Kreise 162 eine als Strichlinie dargestellte Linie erstellt.
  • Die dem Figur-/Grundtrennmittel 16 entsprechende visuelle Vorrichtung kann einige Objektflächen 141 trennen, deren Grenzen durch die ausgebildeten Kanteninformationen 114 eines ausgebildeten Kanteninformationsbilds 115 unter Verwendung der aus Matrix-Betätigungseinheiten 40 bestehenden Datenverarbeitungsvorrichtung 110 dargestellt werden.
  • Verschiedene visuelle Vorrichtungen wurden obenstehend erläutert. Selbstverständlich können diese visuellen Vorrichtungen durch allgemein übliche Computer implementiert werden. Wenn bewegte Objekte 2 gezählt werden müssen, muss jedoch jedes der oben beschriebenen Mittel entsprechend der Geschwindigkeit der bewegten Objekte 2 schnell ausgeführt werden. Besonders wenn die Größe eines Rahmenbilds 1 groß wird oder dessen Auflösung hoch wird, erhöht sich die rechentechnische Komplexität, wobei diese proportional zur Größe des Bilds oder dessen Auflösung für jede der horizontalen Achse und der vertikalen Achse im Bildspeichermittel 12 (siehe 1 und 6), im Bildvibrationsmittel 13 (siehe 3, 4 und 5), im Kanteninformations-Erzeugungsmittel 14 (siehe 1 oder 5, 7 oder 12), im Kanteninformations-Ausbildungsmittel 15 (siehe 1 oder 5, 7 oder 12), im Figur-/Grundtrennmittel 16 (siehe 2, 4, 5, 7 oder 12), im Positions-/Größendetektionsmittel 17 (siehe 1 und 6), im Flächennormierungsmittel 27 (siehe 7), im Normierungsbild-Haltemittel 28 (siehe 7) und im Bilderkennungsmittel 29 (siehe 8) ist, welche ihre Bilder selbst verarbeiten müssen. Daher können die visuellen Vorrichtungen nicht dazu imstande sein, die gewünschte Leistung in einer spezifischen Verwendung zu erzielen.
  • Damit das Bildspeichermittel 12, das Bildvibrationsmittel 13, das Kanteninformations-Erzeugungsmittel 14, das Kanteninformations-Ausbildungsmittel 15, das Figur-/Grundtrennmittel 16, das Positions-/Größendetektionsmittel 17, das Flächennormierungsmittei 27 und das normierte Bildhaltemittel 28 unter Verwendung digitaler Technologie verwendet werden können, sind einige in Anspruch 13 beschriebene Matrix-Betätigungseinheiten 40 in einer Datenverarbeitungsvorrichtung 110 in einer Gitterform, wie in 13 zu sehen, angeordnet und dann werden die Matrix-Betätigungseinheiten 40 so verdrahtet, dass sie mit einigen angrenzenden Matrix-Betätigungseinheiten 40 in der Datenverarbeitungsvorrichtung 110 miteinander kommunizieren können. Kurz gesagt, zwei beliebige von vier Nachbarn sind direkt miteinander verdrahtet. Dieser Fall verwendet weniger elektronische Bauteile und verdrahtete Bereiche als ein Fall, in dem zwei beliebige von vier Nachbarn verkabelt sind. Ersterer läuft mit fast derselben Geschwindigkeit wie Letzterer. Außerdem kann Ersterer mehr Ausdehnungsfähigkeit als Letzterer aufweisen, selbst wenn die Anzahl an Nachbarn hinkünftig erweitert wird.
  • Wie in 34 zu sehen, besteht eine in Anspruch 14 beschriebene Matrix-Betätigungseinheit 40 aus einem Prozessor 41 zur Berechnung der Gleichungen der Bildverarbeitung, einem Speicher 42 zum Speichern aller in den Gleichungen verwendeten Parameter, konstanten Werten, Funktionen und Operatoren und einer Steuerung 43 zum Kommunizieren mit benachbarten Matrix-Betätigungseinheiten 40. Der Prozessor 41 kann jedes Speicherelement und Register im Speicher 42 und in der Steuerung 43 durch einen vom Adressbus 51 angesprochenen Adresse auswählen. Der Prozessor 41 ist ebenfalls bidirektional mit dem Speicher 42 und der Steuerung 43 über einen Datenbus 52 verbunden und kann auf die Daten in jedem Speicherelement und in den vom Adressbus 51 angesprochenen Registern zugreifen. Sobald die Matrix-Betätigungseinheit 40 einen vorderen Eingabedatensatz, bestehend aus einem oder mehr eingegebenen Pixeln, eingibt, speichert die Steuerung 43 den vorderen Eingabedatensatz im Speicher 42. Die Steuerung 43 bringt den Speicher 42 zum Speichern der rechentechnischen Daten, die von einigen angrenzenden Matrix-Betätigungseinheiten 40 empfangen wurden und übermittelt ferner die Daten zu anderen angrenzenden Matrix- Betätigungseinheiten 40, von denen sie die Daten, wenn nötig, nicht eingibt, während die Steuerung 43 rechentechnische Daten, die durch die Funktionen erstellt wurden, im Speicher 42 zu einigen angrenzenden Matrix-Betätigungseinheiten 40 sendet. Schließlich gibt die Steuerung 43 die Bilddaten des ausgegebenen Bilds als Ergebnisdaten aus.
  • Die Gründe, warum jede Matrix-Betätigungseinheit 40 eine oben beschriebene Steuerung 43 aufweist, sind wie folgt: Zuerst kann der Prozessor 41 während der Wartekommunikation Berechnungen durchführen, also er kann schnelle Verarbeitung realisieren, da der Prozessor 41 arbeiten kann, während die Matrix-Betätigungseinheiten 40 miteinander kommunizieren. Zweitens muss eine Hardware der Matrix-Betätigungseinheiten 40 nicht verändert werden, selbst wenn die Anzahl an deren benachbarten Matrix-Betätigungseinheiten 40 variiert. Drittens muss ein Programm des Prozessors 41 die Grenzverarbeitung des Bilds, also die Ausnahmebehandlung für Grenzpixel im Bild, nicht ausführen und wird dann äußerst einfach, da die Steuerung 43 die Grenzverarbeitung automatisch ausführen kann.
  • Der Prozessor 41 und der Speicher 42 können durch allgemeine digitale Schaltkreise erstellt werden. Ein Schaltbild der Steuerung 43 ist in 35 abgebildet. Nachdem ein Adresspuffer 53 eine Adresse von einem Prozessor 41 über einen Adressbus empfängt, wählt ein Adressdekodierer 54 eines der Register und andere Funktionsblöcke aus. Nachdem ein Datenpuffer 55 Daten von einem Prozessor 41 über einen Datenbus 52 empfangen hat, kommuniziert dieser exklusiv mit einem vom Adressdekodierer 54 ausgewählten Register über einen internen Datenbus 56, wo die Richtung der Kommunikation von LESEN geleitet wird. Wenn die Adresse ein Kennzeichenregister 57 anspricht, werden Daten im Kennzeichenregister 57 gespeichert, von einem Kennzeichendekodierer 58 dekodiert und dann zu einigen angrenzenden Matrix-Betätigungseinheiten 40 für SIGNALE gesendet. Nachdem SIGNALE empfangen und von einem Kennzeichenkodierer 59 analysiert werden, werden EMPFANGEN, welche von SIGNALE abgeleitet werden, an die Matrix-Betätigungseinheiten 40 als Antwort gegeben, welche Sender der SIGNALE sind, während diese in einem Statusregister 60 gespeichert werden. EMPFANGEN wird durch den Kennzeichenkodierer 59 empfangen, welcher ein Sender der SIGNALE ist. Als Resultat wird überprüft, dass die Übermittlung der SIGNALE vollständig durchgeführt wurde. Sobald das Statusregister 60 von der Adresse ausgewählt wurde, werden die Inhalte des Statusregisters 60 zum Prozessor 41 über einen Datenbus 52 gesendet, der diese als Daten ansieht. Nachdem der Kennzeichenenkodierer 59 einen oder mehrer VORDERE EINGABESENDUNGEN empfangen hat, welche einem bzw. mehrer eingegebenen Bilder entsprechen, werden die vorderen Eingabedatensätze, die von einem oder mehrer eingegebener Bilder erstellt wurden, in ein vorderes Eingabedatenregister 61 gelesen, welches einen zur Speicherung der Sätze benötigten Speicherbereich vorbereitet. Nachdem das vordere Eingabedatenregister 61 von einer Adresse ausgewählt wurde, werden die Inhalte des vorderen Eingabedatenregisters 61 zum Prozessor 41 gesendet, der diese als Daten ansieht. Sobald der Prozessor 41 die Bilddaten eines Ausgabebilds berechnet hat, wird ein Ergebnisdatenregister 62 durch eine Adresse ausgewählt und liest dann diese vom Prozessor 41, welcher diese als Ergebnisdaten ansieht. Zu diesem Zeitpunkt sendet der Kennzeichenenkodierer 59 ERGEBNISSE GESENDET.
  • Wenn Daten zur Berechnung von einer benachbarten Matrix-Betätigungseinheit 40 gewünscht werden, wird die Adresse eines Ausgabedatenregisters 63 ausgewählt, das Ausgabedatenregister 63 liest Daten aus, um diese zu benachbarten Matrix-Betätigungseinheiten 40 zu senden, welche diese als Berechnungsdaten ansehen. Die Berechnungsdaten werden dann an alle benachbarten Matrix-Betätigungseinheiten 40 gesendet. Angenommen, es werden SIGNALE von einer oberen Matrix-Betätigungseinheit 40 empfangen. Ein oberes Eingabedatenregister 64 liest die Berechnungsdaten. Nach dem das obere Eingabedatenregister 64 durch eine Adresse ausgewählt wurde, werden die Inhalte des oberen Eingabedatenregisters 64 als Berechnungsdaten versendet. Sogar wenn SIGNALE von entweder einer unteren, linken oder rechten Matrix-Betätigungseinheit 40 empfangen werden, kann dieses ähnlich arbeiten, also ein unteres Eingabedatenregister 65, ein linkes Eingabedatenregister 66 und ein rechtes Eingabedatenregister 67 arbeiten so wie das obere Eingabedatenregister 64.
  • Jeder Block, so wie auch einige Puffer, Register und der Adressendekodierer 54, ist ein allgemeiner digitaler Schaltkreis. Der Kennzeichendekodierer 58 und der Kennzeichenenkodierer 59 haben Eingabe- und Ausgabesignale, wie konkret in den 36 und 37 dargestellt. TYPE stellt einige Arten von Inhalten dar, die vom Ausgabedatenregister 63 in einem Fünf-Bit-Signal gelesen werden. Die Anzahl an Bits dieses Signals reicht für eine Matrix-Betätigungseinheit 40 aus, um alle Berechnungsdaten aufgrund von Senden und Empfangen zu unterscheiden. ZÄHLEN-X bzw. ZÄHLEN-Y bezeichnen unbezeichnete Vier-Bit-Integer und stellen Übertragungszeiten zwischen Matrix-Betätigungseinheiten 40 dar. In einem Fall, in dem die Matrix-Betätigungseinheit 40 Berechnungsdaten sendet, werden sowohl ZÄHLEN-X als auch ZÄHLEN-Y auf null gestellt. In einem Fall, in dem die Matrix-Betätigungseinheit 40 wiederum Berechnungsdaten entweder von der linken oder rechten Matrix-Betätigungseinheit 40 versendet, wird ZÄHLEN-X zu ZÄHLEN-X eines Kennzeichenenkodierers 59 des Senders plus eins. In einem Fall, in dem die Matrix-Betätigungseinheit 40 erneut Daten von entweder der oberen oder der unteren Matrix-Betätigungseinheit 40 sendet, wird ZÄHLEN-Y zu ZÄHLEN-Y eines Kennzeichenkodierers 59 des Senders plus eins. Angenommen, der Kennzeichendekodierer 58 empfängt ZENTRALE DEKODIERUNG des Adressdekodierers 54, welches das Ausgabedatenregister 63 spezifizierte, nachdem der Prozessor 41 KENNZEICHEN SENDEN des Kennzeichenregisters 57 einiger der oberen, unteren, linken und rechten Matrix-Betätigungseinheiten 40 spezifizierte, an die die Inhalte des Ausgabedatenregisters 63 gesendet werden. Der Kennzeichendekodierer 58 gibt SENDEN an die spezifizierten Richtungen von KENNZEICHEN SENDEN aus. KENNZEICHEN SENDEN bezeichnet ein Vier-Bit-Signal. Wenn die Berechnungsdaten der Matrix-Betätigungseinheit 40 an die vier benachbarten Matrix-Betätigungseinheiten 40 gesendet werden, stellt der Prozessor 41 KENNZEICHEN SENDEN auf 1111. Wenn die Berechnungsdaten von der rechten Matrix-Betätigungseinheit 40 zur oberen, unteren und linken Matrix-Betätigungseinheit 40 gesendet werden, stellt der Prozessor 41 KENNZEICHEN SENDEN auf 1110 ein. Wenn Berechnungsdaten von der linken Matrix-Betätigungseinheit 40 zur oberen, unteren und rechten Matrix-Betätigungseinheit 40 gesendet werden, stellt der Prozessor 41 KENNZEICHEN SENDEN auf 1101. Wenn Berechnungsdaten von der unteren Matrix-Betätigungseinheit 40 zur oberen Matrix-Betätigungseinheit 40 gesendet werden, stellt der Prozessor 41 KENNZEICHEN SENDEN auf 1000 ein. Wenn Berechnungsdaten von der oberen Matrix-Betätigungseinheit 40 zur unteren Matrix-Betätigungseinheit 40 gesendet werden, stellt der Prozessor 41 KENNZEICHEN SENDEN auf 0100. Da nicht nur keine Redundanz-Übertragung vorhanden ist und die Übertragung effektiv ausgeführt wird, sondern auch eine Regel zu Bestimmung der Übertragungsrichtungen eindeutig ist, kann der Kennzeichenkodierer 59 beurteilen, welcher TYP Berechnungsdaten von welcher Matrix-Betätigungseinheit durch Kombinieren des TYPs, von ZÄHLEN-X und ZÄHLEN-Y 40 gesendet wird. Der Kennzeichendekodierer 58 empfängt ERGEBNIS DEKODIEREN gleichzeitig, wenn die Berechnungsdaten zum Ergebnisdatenregister 62 als Ergebnisdaten gelesen werden. Der Kennzeichendekodierer 58 sendet dann ERGEBNIS SENDEN.
  • Wenn der Kennzeichenenkodierer 59 SENDEN von zumindest einem der vier Nachbarn empfängt, empfängt er ebenfalls TYPen, ZÄHLEN-X und ZÄHLEN-Y von Seiten, die SENDEN empfangen, und dann wird ein Teil der Inhalte des Statusregisters, entsprechend den empfangenen Signalen, aktualisiert. Gleichzeitig sendet der Kennzeichenkodierer 59 EMPFANGEN, welches an eine der Seiten gestellt worden war. Ein Kennzeichenkodierer 59 einer Matrix-Betätigungseinheit 40, welches der Sender ist, empfängt EMPFANGEN zu einem Zeitpunkt, an dem sich EMPFANGEN auf eins ändert, und aktualisiert dann den EMPFANGSSTATUS im Statusregister 60. Jede Matrix-Betätigungseinheit 40 kann daher lediglich durch Überprüfen des EMPFANGSSTATUS in seinem Statusregister 60 bestimmen, welche Eingabedatenregister die gültigen Berechnungsdaten speichern. Beispielsweise angenommen, das obere Eingabedatenregister 64 hat bereits Berechnungsdaten gespeichert. Der Prozessor 41 kann Daten aus dem oberen Eingaberegister 64 durch Ansprechen einer Adresse lesen. OBERE DEKODIERUNG wird gleichzeitig aus dem Adressdekodierer 54 zum Kennzeichenkodierer 59 geschickt. Nachdem ein eine obere Seite im EMPFANGSSTATUS darstellender Teil auf null geht, wird EMPFANGEN, welches zur oberen Seite hin geht, welche null darstellt, gesendet. In Fällen des unteren Eingabedatenregisters 65, des linken Eingabedatenregisters 66 und des rechten Eingabedatenregisters 67, arbeitet jede Matrix-Betätigungseinheit 40 in ähnlicher Weise. Wenn der Kennzeichenkodierer 59 einen der VORDERE EINGABE SENDEN für einige eingegebene Bilder empfängt, stellt der Kennzeichenkodierer 59 den VORDERE EINGABE SENDEN STATUS im Statusregister 60 auf eins, wo der VORDERE EINGABE SENDEN STATUS für ein eingegebenes Bild verwendet wird, das dem empfangenen VORDERE EINGABE SENDEN entspricht. Wenn der Prozessor 41 Daten aus dem vorderen Eingabedatenregister 91 für eingegebene Daten liest, sendet der Addressdekodierer 54 VORDERE DEKODIERUNG an den Kennzeichenenkodierer 59 und dann stellt der Kennzeichenenkodierer 59 den VORDERE EINGABE SENDEN STATUS entsprechend dem empfangenen VORDERE EINGABE SENDEN auf null. Der Prozessor 41 kann dann bestimmen, ob ein letztes eingegebenes Bild im vorderen Eingabedatenregister 61 durch Lesen der Inhalte des Statusregister 60 gespeichert wird.
  • 38 zeigt einen Algorithmus eines Falls, in dem der Prozessor 41 Berechnungsdaten an vier benachbarte Matrix-Betätigungseinheiten 40 über die Steuerung 43 sendet. 38 wird durch Kombinieren der im Prozessor ausgeführten Programmsteuerung und der im Kennzeichendekodierer 58 und im Kennzeichenenkodierer 59 verwendeten Hardwarelogik verarbeitet. Bei Schritt 71 in 38 liest der Prozessor 41 die Inhalte des Statusregister 60. Bei Schritt 72 beurteilt der Prozessor 41, ob alle Signale vom EMPFANGSSTATUS in den Leseinhalten gleich null sind oder nicht. Wenn diese Beurteilung NEIN ergibt, endet dieser Vorgang. Wenn JA herauskommt, geht dieser Vorgang zu Schritt 73 über. Im Schritt 73 bestimmt der Prozessor 41 den TYP an Daten, um einen zu sendenden Zählwert und zu sendende Richtungen an einige angrenzende Matrix-Betätigungseinheiten 40 zu senden und schreibt diese dann zum Kennzeichenregister 57. Im Schritt 74 schreibt der Prozessor 41 Daten, um diese zu einigen angrenzenden Matrix-Betätigungseinheiten 40 zu senden. Im Schritt 75 sendet die Steuerung 43 die Inhalte des Ausgabedatenregisters 63 zu einigen angrenzenden Matrix-Betätigungseinheiten 40, welche als Berechnungsdaten angesehen werden. im Schritt 76 stellt die Steuerung 43 SENDEN auf eins ein und sendet SENDEN nur zu Richtungen, die durch KENNZEICHEN SENDEN im Kennzeichenregister 57 geleitet werden. Der Algorithmus des Prozessors 41 zum Senden einer Zeit endet. Der Prozessor 41 beginnt das Senden des Algorithmus, sobald die zu sendenden Daten im Speicher 42 aktualisiert werden.
  • 39 zeigt einen Algorithmus eines Falls, in dem die Steuerung 43 die Berechnungsdaten von der oberen Matrix-Betätigungseinheit 40 empfängt. 39 wird durch eine im Kennzeichendekodierer 58 und im Kennzeichenkodierer 59 verwendete Hardwarelogik verarbeitet. Im Schritt 81 in 39 gibt der Kennzeichenkodierer 59 SENDEN ein. Im Schritt 82 bestimmt der Kennzeichenkodierer 59, ob SENDEN gleich eins ist oder nicht. Wenn diese Bestimmung NEIN ergibt, endet dieser Vorgang. Wenn JA herauskommt, geht dieser Vorgang zu Schritt 83 über. Im Schritt 83 liest das obere Eingabedatenregister 64 die von der oberen Seite gesendeten Berechnungsdaten. Im Schritt 84 stellt der Kennzeichenkodierer den EMPFANGSSTATUS für die obere Seite im Statusregister 60 auf eins ein. Gleichzeitig stellt der Kennzeichenkodierer 59 EMPFANGEN auf eins und sendet EMPFANGEN zur oberen Matrix-Betätigungseinheit 40. In den Fällen der unteren, linken und rechten Seiten, wird dieser Schritt in ähnlicher Weise durchgeführt. Der Algorithmus der Steuerung 43 zum Empfangen einer Zeit endet. Die Steuerung 43 überwacht immer das SENDEN von den oberen, unteren, linken und rechten Matrix-Betätigungseinheiten 40. Die Steuerung 43 beginnt diesen Empfangsalgorithmus, sobald Anweisungen für SENDEN empfangen werden.
  • 40 zeigt den Algorithmus eines Falls, in dem der Prozessor 41 die Daten von dem oberen Eingabedatenregister 64 empfängt. 40 wird durch Kombinieren der im Prozessor 41 ausgeführten Programmsteuerung und der im Kennzeichendekodierer 58 und im Kennzeichenenkodierer 59 verwendeten Hardwarelogik verarbeitet. Im Schritt 91 in 40 liest der Prozessor 41 die Inhalte des Statusregisters 60. im Schritt 92 beurteilt der Prozessor 41, ob der EMPFANGSSTATUS für die obere Seite in den Leseinhalten gleich eins ist oder nicht. Wenn diese Beurteilung NEIN ergibt, endet dieser Vorgang. Wenn sie JA ergibt, geht der Vorgang zu Schritt 93 über. Im Schritt 93 liest der Prozessor 41 Daten vom oberen Eingabedatenregister 64. Im Schritt 94 stellt der Kennzeichenkodierer 59 den EMPFANGSSTATUS für die obere Seite im Statusregister 60 auf null ein. Gleichzeitig stellt der Kennzeichenkodierer EMPFANGEN auf null und sendet EMPFANGEN zur oberen Matrix-Betätigungseinheit 40. In den Fällen der unteren, linken und rechten Seiten, wird dieser Schritt ähnlich ausgeführt. Der Algorithmus des Prozessors 41 zum Empfangen einer Zeit endet. Der Prozessor 41 beginnt diesen Empfangsalgorithmus, sobald jeder EMPFANGSSTATUS für die obere, untere, rechte und linke Seite gleich eins ist. Außerdem kann dieser Algorithmus durch Unterbrechen der Verarbeitung selbst dann realisiert werden, wenn der Prozessor 41 die Inhalte des Statusregisters 60 für eine spezifische Periode nicht zu überwachen hat.
  • Obwohl diese Matrix-Betätigungseinheit 40 hierin hauptsächlich auf der Annahme beschrieben wird, dass sie ein Ausgabebild aus mehr als einem oder nur einem Eingabebild erstellt, hat die Matrix-Betätigungseinheit 40 ihren Schaltkreis zu ändern, da sie Berechnungsdaten während der Berechnung, wenn nötig, ausgeben kann. In diesem Fall ist lediglich der Schaltkreis zu ändern, während die Anzahl an ERGEBNIS SENDEN im Kennzeichendekodierer 58 bis zur Anzahl an Berechnungsdaten aufgrund der Ausgabe zunimmt und das Programm der Matrix-Betätigungseinheit 40, als einziges den Berechnungsdaten, welche in das Ergebnisdatenregister 62 eingelesen werden, entsprechendes ERGEBNIS SENDEN auf eins gestellt wird.
  • Während die Erfindung anhand von Beispielen erläutert wurde, ist jedoch die hierin vorliegende Beschreibung der spezifischen Ausführungsformen nicht darauf ausgerichtet, die Erfindung auf die spezifischen, hierin offenbarten Formen zu beschränken, sondern im Gegenteil, deckt die Erfindung alle äquivalenten Modifikationen und Alternativen, die unter den Schutzumfang der Erfindung, wie in den beigefügten Ansprüchen definiert, fallen, wie durch die Beschreibungen und die Zeichnungen dargelegt, ab.
  • Industrielle Anwendbarkeit
  • Durch die vorliegende Erfindung ist es möglich, die Anzahl an bewegten Objekten in einem Fall zu zählen, in dem es schwierig ist, das gesamte bewegte Objekt oder einen Satz seiner Teile aus einem Animationsbild zu segmentieren, da dieses einen Bereichsklumpen bildet, selbst wenn Helligkeit, Sättigung und Farben verwendet werden. Beispielsweise ist es in einem Fall des Zählens lebendiger und transparenter Amöben unmöglich, die ganze Amöbe zur Zählung einzufärben. Es ist also schwierig, solche Bilder als ein Bild zu erstellen, in dem nur Amöben eingefärbt werden, da die Amöben dieselbe Farbe wie entweder die Lichtquelle oder der Hintergrund aufweisen, sogar dann wenn die Farbe der Lichtquelle und des Hintergrunds spezifiziert ist oder das Zentrum jeder Amöbe eine andere Farbe als die Begrenzung, aufgrund von Brechung und Spiegelung des Lichts, aufweist. Die vorliegende Erfindung kann die Anzahl an Amöben einfach zählen, da sie die ganze Amöbe vom Hintergrund durch Erzeugen von Kanteninformationen aus den individuellen Leuchtwerten segmentieren kann. Das Gleiche wird auf solche Mikroben, wie Mijinko, und Zellen, wie ein Leukozyt oder ein Sperma, angewendet. Selbstverständlich wird die vorliegende Erfindung auch für bewegte Objekte wie eine Kaulquappe oder ein menschliches Gesicht eingesetzt, welche durch Farbinformationen vom Hintergrund leicht unterschieden werden können. Da die vorliegende Erfindung die Anzahl an bewegten Objekten zählen kann, ohne diese selbst, die Lichtquelle und den Hintergrund zu betätigen, wie oben erläutert, kann ein System zum Zählen bewegter Objekte kostengünstig durch Verbinden der vorliegenden Erfindung mit dem vorhandenen Equipment, welches imstande ist, deren Bild aufzunehmen, realisiert werden. Die vorliegende Erfindung kann ebenfalls zur Durchführung der Vorbehandlung verwendet werden, welche bestimmt, ob einige bewegte Objekte in einem Animationsbild vorhanden sind oder nicht. Außerdem kann die vorliegende Erfindung in einem Fall, in dem einige vom Hintergrund getrennte Objekte direkt von der vorliegenden Erfindung erhalten werden und einer anderen Vorrichtung eingegeben werden, zur Durchführung der Vorbehandlung eingesetzt werden, welche einige bewegte Objekte erfasst. Dann kann ein System zur Erkennung der Objekte kostengünstig realisiert werden.
  • Es ist auch möglich, die Anzahl an unbewegten Objekten in einem Fall zu zählen, in dem es für das ganze unbewegte Objekt oder einen Satz seiner Teile schwierig ist, von einem Rahmenbild eines Animationsbilds segmentiert zu werden, weil dieses einen Bereichsklumpen bildet, sogar wenn Helligkeit, Sättigung und Farbe verwendet werden. Beispielsweise ist es in einem Fall des Zählens transparenter Kügelchen unmöglich, das ganze Kügelchen nur für die Zählung einzufärben. Es ist ebenfalls schwierig, solche Bilder als ein Bild zu erstellen, in dem nur Kügelchen eingefärbt werden, da die Kügelchen dieselbe Farbe wie entweder die Lichtquelle oder der Hintergrund aufweisen, selbst wenn die Farbe der Lichtquelle und des Hintergrunds spezifiziert ist oder das Zentrum jedes Kügelchens eine andere Farbe als die Begrenzung aufgrund der Lichtbrechung und -spiegelung aufweist. In fast allen Fällen stellt jeder Konturteil des Kügelchens einen individuellen Leuchtwert aufgrund der Brechung und Spiegelung des Lichts dar. Die vorliegende Erfindung kann die Anzahl an Kügelchen einfach zählen, da sie das ganze Kügelchen vom Hintergrund durch Erzeugen der Kanteninformationen aus den einzigartigen Leuchtwerten segmentieren kann. Das Gleiche wird auch auf derartige Mikroben, wie Mijinko, und Zellen, wie ein Leukozyt oder ein Sperma, angewendet. Selbstverständlich wird die vorliegende Erfindung auch für bewegte Objekte wie eine Kaulquappe oder ein menschliches Gesicht eingesetzt, welche durch Farbinformationen vom Hintergrund leicht unterschieden werden können. Da die vorliegende Erfindung die Anzahl an Objekten zählen kann, ohne diese selbst, die Lichtquelle und den Hintergrund zu betätigen, wie oben erläutert, kann ein System zum Zählen unbewegter Objekte kostengünstig durch Verbinden der vorliegenden Erfindung mit der vorhandenen Einrichtung, welche imstande ist, deren Bild aufzunehmen, realisiert werden. Die vorliegende Erfindung kann ebenfalls zur Durchführung der Vorbehandlung verwendet werden, welche bestimmt, ob einige bewegte Objekte in einem Animationsbild vorhanden sind oder nicht. Außerdem kann die vorliegende Erfindung in einem Fall, in dem einige vom Hintergrund getrennte Objekte direkt von der vorliegenden Erfindung erhalten werden und einer anderen Vorrichtung eingegeben werden, zur Durchführung der Vorbehandlung eingesetzt werden, welche einige Objekte erfasst. Dann kann ein System zur Erkennung der Objekte kostengünstig realisiert werden.
  • Ferner ist es möglich, sowohl die Anzahl an bewegter Objekte als auch die Anzahl aller Objekte in einem Fall zu zählen, in dem es für das ganze bewegte Objekt, das ganze unbewegte Objekt oder einen Satz seiner Teile schwierig ist, von einem Animationsbild segmentiert zu werden, weil dieses einen Bereichsklumpen bildet, selbst wenn Helligkeit, Sättigung und Farbe verwendet werden. Beispielsweise wird in einem Fall des Zählens sowohl lebendiger als auch aller transparenter Amöben angenommen, dass eine sich für eine spezifische Periode bewegende Amöbe als eine lebendige angesehen wird. Die vorliegende Erfindung kann die Anzahl an bewegten Amöben und die Anzahl aller Amöben unter Verwendung zweier Rahmenbilder in einem Animationsbild, dessen Intervall die spezifische Periode ist, oder zweier unbewegter Bilder zählen, die an zwei Zeitpunkten aufgenommen wurden, deren Intervall die spezifische Periode ist. Das Gleiche wird auch auf derartige Mikroben, wie Mijinko, und Zellen, wie ein Leukozyt oder ein Sperma, angewendet. Selbstverständlich wird die vorliegende Erfindung auch für bewegte Objekte wie eine Kaulquappe oder ein menschliches Gesicht eingesetzt, welche durch Farbinformationen vom Hintergrund leicht unterschieden werden können. Da die vorliegende Erfindung die Anzahl an bewegten Objekten und die Anzahl aller Objekte mithilfe einer Vorrichtung zählen kann, wie oben erläutert, kann ein System zum Zählen bewegter Objekte und aller Objekte kostengünstig realisiert werden. Die vorliegende Erfindung kann ebenfalls zur Durchführung der Vorbehandlung verwendet werden, welche bestimmt, ob einige bewegte Objekte oder einige unbewegte Objekte in einem Animationsbild vorhanden sind oder nicht. Außerdem kann die vorliegende Erfindung in einem Fall, in dem einige vom Hintergrund getrennte Objekte direkt von der vorliegenden Erfindung erhalten werden und einer anderen Vorrichtung eingegeben werden, zur Durchführung der Vorbehandlung eingesetzt werden, welche einige bewegte und unbewegte Objekte erfasst. Dann kann ein System zur Erkennung der Objekte kostengünstig realisiert werden.
  • Wenn sowohl die Anzahl an bewegten Objekten als auch die Anzahl aller Objekte gezählt wird, ist dann die Berechnung der Anzahl oder Geschwindigkeit der bewegten Objekte und die Anzahl oder Geschwindigkeit der unbewegten Objekte in einem Fall möglich, in dem es für das ganze bewegte Objekt, das ganze unbewegte Objekt oder einen Satz seiner Teile schwierig ist, aus einem Animationsbild segmentiert zu werden, weil es einen Bereichsklumpen bildet, selbst wenn Helligkeit, Sättigung und Farbe verwendet werden. Beispielsweise wird in einem Fall der Berechnung der Überlebensrate transparenter Amöben angenommen, dass eine sich für eine spezifische Periode bewegende Amöbe als lebendig angesehen wird. Die vorliegende Erfindung kann die Anzahl an bewegten Amöben und die Anzahl aller Amöben unter Verwendung zweier Rahmenbilder in einem Animationsbild, dessen Intervall die spezifische Periode ist, oder zweier unbewegter Bilder zählen, die an zwei Zeitpunkten aufgenommen wurden, deren Intervall die spezifische Periode ist. Daher ist die Überlebensrate der Amöben einfach zu berechnen. Das Gleiche wird auch auf derartige Mikroben, wie Mijinko, und Zellen, wie ein Leukozyt oder ein Sperma, angewendet. Selbstverständlich wird die vorliegende Erfindung auch für bewegte Objekte wie eine Kaulquappe oder ein menschliches Gesicht eingesetzt, welche durch Farbinformationen vom Hintergrund leicht unterschieden werden können. Da die vorliegende Erfindung die Anzahl an bewegten Objekten und die Anzahl aller Objekte mithilfe einer Vorrichtung zählen kann, wie oben erläutert, kann ein System zur Berechnung sowohl der Geschwindigkeit der bewegten Objekte und der Geschwindigkeit der unbewegten Objekte kostengünstig realisiert werden. Die vorliegende Erfindung kann ebenfalls zur Durchführung der Vorbehandlung verwendet werden, welche bestimmt, ob einige bewegte Objekte oder einige unbewegte Objekte in einem Animationsbild vorhanden sind oder nicht. Außerdem kann die vorliegende Erfindung in einem Fall, in dem einige vom Hintergrund getrennte Objekte direkt von der vorliegenden Erfindung erhalten werden und einer anderen Vorrichtung eingegeben werden, zur Außenvorbehandlung eingesetzt werden, welche einige bewegte und unbewegte Objekte erfasst. Dann kann ein System zur Erkennung der Objekte kostengünstig realisiert werden.
  • Die vorliegende Erfindung kann Objekte, deren Bilder durch eine bewegliche Kamera aufgenommen werden können, unter Verwendung eines aus beliebigen Wellenlängenbereichen, wie etwa drei Primärfarben, sichtbaren Farben, Infrarotstrahlen, UV-Strahlen, usw., bestehenden Animationsbilds erfassen. Wenn ein Objekt sich bewegt, kann die vorliegende Erfindung durch Detektieren der Position und der Größe des Objekts die Richtung der beweglichen Kamera zum Objekt hin ändern und die Vergrößerung der Kamera anpassen, so dass dessen Größe im Bild dafür geeignet ist. Wenn ein Objekt sich nicht bewegt, kann die vorliegende Erfindung, ähnlich wie beim bewegten Objekt, die bewegliche Kamera ebenfalls zum Objekt hin durch mehrmaliges Vibrieren der beweglichen Kamera steuern. Da die vorliegende Erfindung die bewegliche Kamera durch ein externes Signal steuern kann, ist die mit Computern, usw. kombinierte Erfindung ferner nützlich. Einige Anwendungen der vorliegenden Erfindung werden dann wie folgt beschrieben: Wenn solche Objekte, wie Personen, Autos und Waren nicht nur an Plätzen, wie Passagen, wo die Lichtverhältnisse stabil sind, also an Plätzen wie Eingängen und an Plätzen im Freien, an denen viele Geräusche vorhanden sind, überwacht werden müssen, kann die vorliegende Erfindung die bewegliche Kamera steuern, während die Kamera die geeignete Vergrößerung der Bilder dieser Objekte ausführen kann. Die vorliegende Erfindung ist nützlich beim Einsatz in der Ladendiebstahlsprävention durch intensiviertes Aufzeichnen von Bildern der Kunden an Plätzen, wie Einzelhandelsbetrieben und Supermärkten, wo sich Objekte selten bewegen. Da die vorliegende Erfindung einige Objekte in einem großen Bereich durch eine Vorrichtung, wie oben erläutert, überwachen kann, kann ein System zur Überwachung der Objekte kostengünstig realisiert werden. Die vorliegende Erfindung kann ebenfalls zur Durchführung der Vorbehandlung eingesetzt werden, welche beurteilt, ob einige spezifische Objekte in einem Animationsbild vorliegen oder nicht. In einem Fall, in dem einige durch die Normierung einer vom Hintergrund getrennter Objektflächen erzeugte Bilder direkt von der vorliegenden Erfindung erhalten werden und dann an eine andere Vorrichtung eingegeben werden, kann die Erfindung zur Außenvorbehandlung verwendet werden, welche einige bewegte oder unbewegte Objekte erfasst. Dann kann ein System zur Erkennung der Objekte kostengünstig realisiert werden.
  • Die vorliegende Erfindung kann Objekte erkennen, deren Bilder durch eine bewegliche Kamera unter Verwendung eines Animationsbilds, bestehend aus beliebigen Wellenlängen, wie etwa drei Primärfarben, sichtbaren Farben, Infrarotstrahlen, UV-Strahlen, usw., aufgenommen werden können. Nachdem diese Objekte in einige Typen durch ein spezifisches Erkennungsverfahren klassifiziert werden, werden die Typen mit Attributen, wie eine Position und Zeit, gemeinsam aufgenommen. Die vorliegende Erfindung kann daher die Anzahl an spezifischen Objekten zählen und die Spuren der Objekte aufzeichnen. Die vorliegende Erfindung kann beispielsweise die Anzahl an Kunden und das Kundenaufkommen in einem KARAOKE-Lokal und einem Einkaufszentrum usw. messen. Die vorliegende Erfindung kann auch an Plätzen kontrollieren, an denen viele Kunden vorhanden sind und die Arbeitsprozesse der Arbeitskräfte aufzeichnen. Ferner kann die vorliegende Erfindung in einem Spiel zum Auffinden von bewegten Objekten, wie etwa „Darumasan ga Koronda" und einem Schießspiel, eingesetzt werden. Wenn die vorliegende Erfindung in einem Industrieroboter zusammengesetzt wird, kann der Roboter außerdem Werkstücke einer Herstellungsstraße erfassen und ferner kann der Roboter die Arbeit unterbrechen, wenn er sich auf ihn zubewegende Personen detektiert. Die vorliegende Erfindung kann dann die visuelle Funktion der bewegten Roboter, wie einem humanoiden Roboter und einem Blindenhundroboter, realisieren. Wenn die vorliegende Erfindung an zumindest der Vorderseite, Rückseite, linken und rechten Seite von Kraftfahrzeugen, wie etwa einem Auto, einem Bus und einem Schwerlastkraftwagen, angebracht ist, kann die Erfindung ein Objekt in einem toten Winkel für einen Fahrer erkennen und dann einen Alarm ausgeben. Die vorliegende Erfindung kann ebenfalls solche bewegte Objekte schon frühzeitig erkennen, wie etwa ein sich näherndes Fahrzeug, und kann ferner einen Verkehrsunfall, während sich dieser ereignet, aufzeichnen. Da eine Person in einem Rollstuhl einen großen Bereich ohne Drehen des Kopfes sehen kann, kann diese sich von hinten nähernde Radfahrer und Autos schon frühzeitig erkennen. Die vorliegende Erfindung ist dann zur Vermeidung von Unfällen nützlich. Wenn die vorliegende Erfindung außerdem an Türen von Zügen installiert wird, kann diese einige Fahrgäste, die im Türbereich oder nahe der Tür befinden, erkennen. Wenn die vorliegende Erfindung an einem Bahnsteig eines Bahnhofs installiert wird, kann sie ebenfalls auf die Gleise fallende Objekte erkennen und Personen warnen, die sich zu nahe an den Gleisen befinden. Wenn die vorliegende Erfindung in einem Rettungsroboter eingebaut wird, kann der Roboter einer verunfallten Person einen Rettungsweste, ein Seil, usw. bringen oder kann diese an einen sicheren Platz befördern, in dem er sich dieser, nach Auffinden am Ufer, am Strand oder am Fluss, automatisch annähert. Dieser Rettungsroboter ist ebenfalls zum Auffinden einer Person nützlich, die sich nach einem Erdbeben unter Ziegeln und Steinen befindet. Da die vorliegende Erfindung Objekte erkennen und zählen kann und Spuren von bewegten Objekten durch eine Vorrichtung aufzeichnen kann, wie oben erläutert, kann ein System zum Auffinden von Objekten, ein System zum Überwachen von Objekten, ein System zum Zählen von Objekten und ein System zur Aufzeichnung von Objekten, usw. kostengünstig realisiert werden.
  • Die vorliegende Erfindung kann jedes Pixel eines digitalen Bilds parallel nach dem parallelen Eingeben jedes Pixels des digitalen Bilds und dem Vibrieren des gesamten digitalen Bilds oder jedes einzelnen Pixels des digitalen Bilds ausgeben. Da die vorliegende Erfindung keine solchen physikalischen Mechanismen, wie einen Schwingtisch, verwendet, kann sie das digitale Bild mehrmals vibrieren lassen. Wenn Kanteninformationen aller bewegten Objekte im digitalen Bild in Echtzeit erstellt werden müssen, da sich die Objekte schneller bewegen, kann die vorliegende Erfindung die notwendige Verarbeitungsgeschwindigkeit erzielen.
  • Die vorliegende Erfindung kann die Roh-Kanteninformationen jedes Pixels des digitalen Bilds parallel nach dem parallelen Eingeben jedes Pixels des digitalen Bilds und dem parallelen Erstellen der Roh-Kanteninformationen ausgeben. Obwohl die erzeugten Roh-Kanteninformationen aufgrund des Einflusses der Bewegungsrichtung der Objekte, deren Geschwindigkeit, die Farbdifferenz zwischen diesen und dem Hintergrund, etc. nicht immer genau sind, kann die vorliegende Erfindung die Roh-Kanteninformationen der bewegten Objekte erzeugen, welche jede Form ohne Berichtigen eines digitalen Bilds aufweisen, sogar wenn sich die Objekte in einer solchen Umgebung, wie etwa im Freien unter der Sonne, wo viel Geräusche vorhanden sind, befinden. Daher kann die vorliegende Erfindung überall eingesetzt werden. Die vorliegende Erfindung kann ebenfalls mit Infrarotstrahlen, UV-Strahlen und Strahlung, ähnlich wie sichtbaren Farben, besonders drei Primärfarben, umgehen. Da die vorliegende Erfindung einen Schaltkreis ihrer Datenverarbeitungsvorrichtung, mit Ausnahme der Speichermenge, nicht ändern muss, kann sie in diesem Fall die Anzahl der Bereiche einfach erhöhen. Die vorliegende Erfindung kann daher die Kontur, Position und Größe der bewegten Objekte schnell und kostengünstig erfassen und an einen Roboter, der nicht nur in einem Haus, sondern auch im Freien arbeiten kann, übermitteln. Die vorliegende Erfindung führt ferner die Außenvorbehandlung eines visuellen Erkennungssystems, welches jedes beliebige Objekt erkennt, effektiv durch.
  • Die vorliegende Erfindung kann ausgebildete Kanteninformationen parallel nach dem Eingeben der Roh-Kanteninformationen und jedes Pixels eines digitalen Bilds sowie dem Erstellen der ausgebildeten Kanteninformationen aus den Roh-Kanteninformationen unter Verwendung des digitalen Bilds ausgeben. Da die vorliegende Erfindung die durch jedes beliebige Verfahren erzeugten Roh-Kanteninformationen zu deutlicheren und genaueren Informationen ausbilden kann, kann sie die für das Mittel, welches die Roh-Kanteninformationen erstellt, notwendige Last einfach verringern. Außerdem kann die vorliegende Erfindung die Roh-Kanteninformationen, welches aus einem spezifischen Bereich eines digitalen Bilds mit niedriger Auflösung, der durch Niedrigstellen der Auflösung des digitalen Bilds erstellt wurde, zu deutlicheren und genaueren Kanteninformationen ausbilden, da die vorliegende Erfindung durch die Qualität der Roh-Kanteninformationen in nicht sehr gutem Maße beeinflusst wird. Die vorliegende Erfindung kann daher für ein Objekt in einem digitalen Bild mit geringer Vergrößerung eine hohe Auflösung ohne Erhöhen der Menge der Hardware und der rechentechnischen Komplexität erzeugen. Obwohl viele Systeme zur Erkennung von Objekten bereits eine Weitwinkelkamera und eine hochauflösende Kamera verwenden, kann ein System zur Erkennung von Objekten mit einer Kamera durch die vorliegende Erfindung realisiert werden.
  • Die vorliegende Erfindung kann Position und Größe eines durch die Kanteninformationen dargestellten Objekts parallel nach dem parallelen Eingeben der Kanteninformationen und dem Detektieren der Position und der Größe des Objekts ausgeben, welche als Redundanz-Informationen angesehen werden. Die vorliegende Erfindung kann die Position und Größe aus den Kanteninformationen einiger Objekte in einem Bild gleichzeitig detektieren, in dem die Qualität der Position und der Größe dieselbe oder besser als durch eine größere Hardwaremenge und verstärkte rechentechnische Komplexität detektierten Qualität und Größe ist. Die vorliegende Erfindung wird ebenfalls zur Vorbehandlung zur Detektion von Position und Größe einiger Objekte in einem Bild, welches ein Rahmenbild, eines durch eine Videokamera aufgenommenes Animationsbild oder ein durch eine digitale Kamera aufgenommenes unbewegtes Bild ist. Die vorliegende Erfindung kann daher einen Algorithmus einer Strukturerkennung für das unbewegte Bild und das Animationsbild schnell und kostengünstig realisieren.
  • Ferner kann die vorliegende Erfindung Position und Größe eines durch jedes Pixel eines Objektflächenbilds dargestelltes Objekt parallel nach dem parallelen Eingeben jedes Pixels des Objektflächenbilds und dem Detektieren der Position und der Größe des Objekts ausgeben, welches als Redundanz-Information angesehen wird. Die vorliegende Erfindung kann die Position und die Größe von Flächen einiger Objekte in einem Bild gleichzeitig detektieren, wo die Qualität der Position und der Größe dieselbe ist oder besser als die durch eine größere Hardwaremenge und verstärkte rechentechnische Komplexität detektierte Qualität von Position und Größe ist. Besonders beim Detektieren von Objekten, die einen kreisförmigen Teil, wie etwa eine Zelle und Sperma, aufweisen und ferner beim Detektieren von Objekten, die als Kreis angesehen werden, wie etwa ein menschliches Gesicht, musst die vorliegende Erfindung die Kanteninformationen von diesen Bereichen nicht noch einmal erstellen. Die vorliegende Erfindung kann daher einen Algorithmus einer Strukturerkennung für das unbewegte Bild und das Animationsbild schnell und kostengünstig realisieren.
  • Die vorliegende Erfindung kann jedes Pixel eines normierten Bilds nach dem parallelen Eingeben jedes Pixels eines Objektflächenbilds und jedes Pixels eines digitalen Bilds parallel und nach dem Normieren einiger Objektflächen im digitalen Bild ausgeben. Die vorliegende Erfindung kann die Objektflächen im digitalen Bild normieren, welche durch einige Flächen verdeckt sind, mit Ausnahme der Objektflächen im Objektflächenbild normieren, wobei die Räume im digitalen Bild wie die Größe der Objektflächen an die Größe des digitalen Bilds passen, in dem die Qualität des normierten Bilds dieselbe oder besser als die Qualität eines normierten Bilds ist, welches in Bezug auf einen Positionsabstand schwach ist und viele Räume aufweist, die durch eine größere Hardwaremenge und verstärkte rechentechnische Komplexität erzeugt werden. Die vorliegende Erfindung wird auch zur Vorbehandlung zur Normierung eines spezifischen Objekts, welches von einem Rahmenbild in einem von einer Videokamera aufgenommenen Animationsbild oder einem von einer digitalen Kamera aufgenommenen unbewegten Bild segmentiert wird, verwendet. Die vorliegende Erfindung kann daher einen Algorithmus einer Strukturerkennung für das unbewegte Bild und das Animationsbild schnell und kostengünstig realisieren.
  • Die vorliegende Erfindung kann jedes Pixel eines Übereinstimmungsergebnisbild nach der parallelen Eingabe jedes Pixels einiger Musterbilder, gefolgt von der parallelen Eingabe jedes Pixels eines normierten Bilds und der Durchführung der Strukturübereinstimmung des normierten Bilds mit den Musterbildern parallel ausgeben. Die vorliegende Erfindung kann einige Musterbilder auswählen, die dem durch Nachbarverarbeitung normierten Bild ähneln, wenn das normierte Bild oft durch dieselben Objekte erzeugt wird, deren Positionen bzw. Größen unterschiedlich sind. Die vorliegende Erfindung kann daher einen Algorithmus einer Strukturerkennung für das unbewegte Bild und das Animationsbild schnell und kostengünstig realisieren, da der Algorithmus die globale Verarbeitung, etwa der Fehlerquadratmethode und neuralen Netzwerken, so wenig wie möglich ausführen.
  • Die vorliegende Erfindung kann jedes Pixel eines Objektflächenbilds nach der parallelen Eingabe ausgebildeter Kanteninformationen und dem Trennen der Objektflächen vom Hintergrund durch nichtlineare Oszillatoren parallel ausgeben. Die vorliegende Erfindung kann die Objektflächen vom Hintergrund trennen, ohne jedwede Vorbehandlung für ein digitales Bild zu verwenden, mit Ausnahme der Erzeugung seiner Kanteninformationen in Abhängigkeit von der Position, der Größe und der Richtung der Objekte im digitalen Bild, in Bezug darauf, dass die Kanteninformationen eine Strichlinie und eine Überschneidung aufweisen oder sogar die Objektflächen im digitalen Bild überschneidend sind. Da eine Hardware der vorliegenden Erfindung durch digitale Technologie einfach realisiert wird, kann die Hardware ferner Echtzeit-Bildverarbeitung schnell durchführen.
  • Die vorliegende Erfindung kann eine visuelle Vorrichtung schnell machen. Sogar wenn die Größe der Bilder größer wird, verändert sich insbesondere die Verarbeitungszeit der visuellen Vorrichtung aufgrund des Parallelismus nicht. Die visuelle Vorrichtung kann dann für einige Anwendungen eingesetzt werden, welche in Echtzeit ausgeführt werden müssen. Da einige Komponenten mithilfe eines Chip durch Bereitstellen eines geeigneten Programms ausgebildet werden können, kann die vorliegende Erfindung die visuelle Vorrichtung kostengünstig machen. Ferner kann ein derartiger Chip problemlos in einer beweglichen Kamera installiert werden. die vorliegende Erfindung kann dadurch die Handhabungsfreundlichkeit verbessern. Da die vorliegende Erfindung immer Signale jedes einzelnen Pixels ein- und ausgibt, kann sie schließlich die Verdrahtungskomplexität durch Stapeln einiger Chips verringern. Die Leistung der vorliegenden Erfindung kann dann durch solche technologischen Innovationen, wie die dreidimensionale VLSI, einfach verbessert werden.

Claims (6)

  1. Visuelle Vorrichtung, umfassend Matrix-Betätigungseinheiten (40), die in der Form eines Gitters in einer Datenverarbeitungseinheit (110) angeordnet sind, welche ein Mittel zur Detektion der Position und der Größe von Objektbereichen (17) realsiert, wobei jede der Matrix-Betätigungseinheiten (40) Folgendes umfasst: ein Mittel zur Initialisierung der Matrix-Betätigungseinheit (40); ein Mittel zum Beenden der Verarbeitung, wenn nicht mehr ein Roh-Kanteninformationsbild (113) zur Eingabe vorhanden ist; ein Mittel zur Eingabe eines Bereichspixelwerts zum Kennzeichnen eines Elements eines Bildes mit Kennziffern für Breite, Höhe und Bereich im Roh-Kanteninformationsbild (113); ein Mittel zur Umwandlung des Bereichspixelwerts im Roh-Kanteninformationsbild (113) in einen Bereichspixelwert in einem Redundanz-Informationsbild (132); ein Mittel zur Umwandlung eines Transferwerts, welcher ein Vektor ist, der die Übersetzung eines Bereichspixelwerts, der vom Redundanz-Informationsbild (132) abgeleitet ist, in einen Bereichspixelwert in einem Transferwertbild beschreibt, indem der Transferwert auf irgendeinen der Bereichspixelwerte, die an den Bereichspixelwert angrenzen, angewendet wird; ein Mittel zum Transfer des Bereichspixelwerts im Redundanz-Informationsbild (132) zu einer Transferposition, die durch den Bereichspixelwert im Transferwertbild angewiesen ist; ein Mittel zur Aktualisierung des Bereichspixelwerts im Redundanz-Informationsbild (132) durch Addition der von ihren ursprünglichen Positionen in dem Redundanz-Informationsbild (132) transferierten Bereichspixelwerte; und ein Mittel zur Ausgabe des Bereichspixelwerts im Redundanz-Informationsbild (132).
  2. Vorrichtung für bewegte Objekte (2) in einem Animationsbild, umfassend: ein Mittel zur Erfassung (11) eines Rahmenbilds (1) des Animationsbilds; ein Mittel zur Speicherung (12) des Rahmenbilds (1) als ein digitales Bild (111), wobei jeweils eins nach dem anderen gespeichert wird; ein Mittel zur Erzeugung (14) eines Bewegungs-Objekt(2)-Roh-Kanteninformationsbilds (113) aus dem digitalen Bild; ein Mittel zur Erzeugung (15) eines durch ein Bewegungs-Objekt(2) gebildeten Roh-Kanteninformationsbilds (115) aus dem Bewegungs-Objekt(2)-Roh-Kanteninformationsbild (113) unter Verwendung des digitalen Bilds (111); die visuelle Vorrichtung nach Anspruch 1 zur Detektion der Position und der Größe (17) von Bewegungs-Objekt-Bereichen (141), die durch das aus dem Bewegungs-Objekt(2) gebildete Roh-Kanteninformationsbild (115) unterschieden werden; ein Mittel zum Zählen (18) einer Bewegungs-Objekt-Flächen(114)-Nummer; und ein Mittel zum Halten (19) der Bewegungs-Objekt-Flächen(114)-Nummer.
  3. Vorrichtung nach Anspruch 2, welche ferner ein Mittel zur Segmentierung (16) der Bewegungs-Objekt-Flächen von einem Hintergrund unter Verwendung des aus dem Bewegungs-Objekt ausgebildeten Kanteninformationsbilds (115) umfasst.
  4. Vorrichtung nach einem der Ansprüche 2 oder 3, worin eine Gesamt-Objekt(114)-Flächennummer entweder für stillstehende (3) oder sich bewegende (2) Objekte gezählt wird, indem Mittel zur Bewegung (13) des digitalen Bilds (111) um eine vorgegebene Position vorgesehen sind, so dass stillstehende Objekte (3) von der Vorrichtung als sich bewegend angesehen werden können.
  5. Vorrichtung zur Analyse von Objekten (2, 3) in einem von einer beweglichen Kamera (10) aufgenommenen Animationsbild, umfassend: ein Mittel zur Erfassung (11) eines Rahmenbilds (1) des Animationsbilds; ein Mittel zur Speicherung (12) des Rahmenbilds (1) als ein digitales Bild, wobei jeweils eins nach dem anderen gespeichert wird; ein Mittel zur Erzeugung (14) eines Objekt-Roh-Kanteninformationsbilds (113) aus dem digitalen Bild; die visuelle Vorrichtung nach Anspruch 1 zur Detektion der Position und der Größe (17) der Objektbereiche (141), welche durch das Objekt-Roh-Kanteninformationsbild (113) unterschieden werden; ein Mittel zur Umwandlung der Richtungs- und der Vergrößerungsinformationen (20) der beweglichen Kamera (10) auf die Position der Kamera in einem umgebenden Koordinatensystem, worin das umgebende Koordinatensystem ein dreidimensionales Polarkoordinatensystem ist; ein Mittel zur Umwandlung der Position und der Größe (21) der Objektflächen (141) in die Position im umgebenden Koordinatensystem; ein Mittel zum Auswählen einer der Positionen (22) im umgebenden Koordinatensystem für die Objektflächen; ein Mittel zur Eingabe eines Steuerbefehls von einem Außenteil (24); ein Mittel zur Erzeugung eines Schwingungsbefehls (25), um die bewegliche Kamera (10) in Schwingung zu versetzen; ein Mittel zur Steuerung der Position einer vorgegebenen, umgebenden Koordinate (23), wo sich die bewegliche Kamera (10) zu bewegen hat; und ein Mittel zur Erzeugung eines Kamerabefehls (26) zur Steuerung der beweglichen Kamera (10).
  6. Vorrichtung nach Anspruch 5, ferner umfassend: ein Mittel zur Erzeugung (15) eines aus einem Objekt gebildeten Kanteninformationsbilds (115) vom Objekt-Roh-Kanteninformationsbild unter Verwendung des digitalen Bilds (111); ein Mittel zur Segmentierung (16) der Objektflächen (141) vom Hintergrund unter Verwendung des aus dem Objekt gebildeten Kanteninformationsbilds (115); ein Mittel zur Normierung (27) der Objektbereiche (141) durch Skalieren auf die Größe des digitalen Bilds (111); ein Mittel zum Halten (28) eines Objekt-normierten Bilds (145); ein Mittel zur Erkennung (29) des Objekt-normierten Bildes (145) durch Vergleichen mit einem Musterbild (146); ein Mittel zum Beibehalten des Erkennungsergebnisses (30); ein Mittel zur Erzeugung eines Umgebungsplans (31), bestehend aus den Arten der Objekte (2, 3) und deren Position im umgebenden Koordinatensystem; ein Mittel zum Halten des Umgebungsplans (33); ein Mittel zum Andeuten der Position (34) der Objekte (2, 3) im Umgebungsplan; ein Mittel zum Zählen (35) einer Objektnummer; ein Mittel zum Halten (36) einer Objektnummer; und ein Mittel zur Ausführung der geometrischen Analyse (37) für das aus einem Objekt gebildete Kanteninformationsbild (115).
DE69935437T 1998-09-10 1999-09-10 Visuelle vorrichtung Expired - Lifetime DE69935437T2 (de)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
JP25732798 1998-09-10
JP25732798 1998-09-10
JP14563899 1999-05-25
JP14563899 1999-05-25
JP20973899 1999-07-23
JP20973899 1999-07-23
JP25098699 1999-09-06
JP25098699 1999-09-06
JP25099099 1999-09-06
JP25099099 1999-09-06
JP25363499 1999-09-07
JP25363499 1999-09-07
PCT/JP1999/004975 WO2000016259A1 (fr) 1998-09-10 1999-09-10 Dispositif visuel

Publications (2)

Publication Number Publication Date
DE69935437D1 DE69935437D1 (de) 2007-04-19
DE69935437T2 true DE69935437T2 (de) 2007-11-15

Family

ID=27553000

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69935437T Expired - Lifetime DE69935437T2 (de) 1998-09-10 1999-09-10 Visuelle vorrichtung

Country Status (9)

Country Link
US (1) US6856696B1 (de)
EP (1) EP1113388B1 (de)
JP (1) JP4324327B2 (de)
KR (1) KR100402361B1 (de)
CN (1) CN1292383C (de)
AU (1) AU763178B2 (de)
DE (1) DE69935437T2 (de)
IL (1) IL141589A (de)
WO (1) WO2000016259A1 (de)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100385460C (zh) * 2001-03-13 2008-04-30 伊强德斯股份有限公司 联动式计数器及联动装置
DE60238041D1 (de) * 2001-03-13 2010-12-02 Ecchandes Inc Visuelle einrichtung, verriegelnder zähler und bildsensor
GB0118020D0 (en) * 2001-07-24 2001-09-19 Memco Ltd Door or access control system
US7028175B2 (en) * 2003-04-09 2006-04-11 Microsoft Corporation System and method for computer hardware identification
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
US7756301B2 (en) * 2005-01-26 2010-07-13 Honeywell International Inc. Iris recognition system and method
JP4428067B2 (ja) * 2004-01-28 2010-03-10 ソニー株式会社 画像照合装置、プログラム、および画像照合方法
JP2006098803A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 動画処理方法、動画処理装置および動画処理プログラム
US7359552B2 (en) 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US7796780B2 (en) * 2005-06-24 2010-09-14 Objectvideo, Inc. Target detection and tracking from overhead video streams
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
JP4696991B2 (ja) * 2006-03-22 2011-06-08 日産自動車株式会社 動き検出方法および動き検出装置
NL2002462C2 (nl) * 2009-01-29 2010-07-30 Nedap Nv Werkwijze voor het detecteren, in het bijzonder tellen van dieren.
US8150902B2 (en) * 2009-06-19 2012-04-03 Singular Computing Llc Processing with compact arithmetic processing element
KR101105034B1 (ko) * 2010-02-09 2012-01-16 주식회사 팬택 촬영 기능을 보유한 단말기
JP5321497B2 (ja) * 2010-02-22 2013-10-23 株式会社デンソー 白線認識装置
CN102714694B (zh) 2010-06-04 2015-08-19 松下电器(美国)知识产权公司 图像处理装置、图像处理方法、集成电路、程序
US8730396B2 (en) * 2010-06-23 2014-05-20 MindTree Limited Capturing events of interest by spatio-temporal video analysis
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9114838B2 (en) 2011-01-05 2015-08-25 Sphero, Inc. Self-propelled device for interpreting input from a controller device
WO2013173389A1 (en) * 2012-05-14 2013-11-21 Orbotix, Inc. Operating a computing device by detecting rounded objects in an image
US9292758B2 (en) 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
TW201425871A (zh) * 2012-12-21 2014-07-01 Zong Jing Investment Inc 測距方法及電腦程式產品
EP3686754A1 (de) * 2013-07-30 2020-07-29 Kodak Alaris Inc. System und verfahren zur erzeugung navigierbarer ansichten geordneter bilder
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
JP6562823B2 (ja) * 2015-12-01 2019-08-21 シャープ株式会社 画像読取装置
CN106131537B (zh) * 2016-08-17 2018-11-20 重庆转购科技有限公司 一种3d智能拍摄系统和方法
US10504007B2 (en) * 2017-10-27 2019-12-10 Facebook, Inc. Determination of population density using convoluted neural networks
CN107895344B (zh) * 2017-10-31 2021-05-11 深圳市森国科科技股份有限公司 视频拼接装置及方法
JP7089179B2 (ja) 2018-08-30 2022-06-22 富士通株式会社 画像認識装置、画像認識方法および画像認識プログラム
CN109598328B (zh) * 2018-11-21 2023-09-12 山东农业大学 一种散布式千粒计数方法、系统、装置及终端
KR102426726B1 (ko) * 2019-11-19 2022-07-29 한국기계연구원 비접촉식 위치 정보 획득 방법 및 장치
CN112200027B (zh) * 2020-09-27 2022-07-15 卡斯柯信号有限公司 一种基于机器视觉的自身移动状态识别方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61206079A (ja) 1985-03-09 1986-09-12 Fujitsu Ltd 変形画像表示方式
US5163133A (en) * 1987-02-17 1992-11-10 Sam Technology, Inc. Parallel processing system having a broadcast, result, and instruction bus for transmitting, receiving and controlling the computation of data
JPH0668769B2 (ja) * 1987-09-24 1994-08-31 新技術事業団 パターン認識装置
JP2863290B2 (ja) * 1990-09-19 1999-03-03 株式会社リコー エッジ抽出装置
JP3038051B2 (ja) * 1991-06-28 2000-05-08 日本放送協会 動画像領域抽出装置
JPH05252437A (ja) * 1991-07-24 1993-09-28 C S K Sogo Kenkyusho:Kk 画像処理方法および装置
JPH05324954A (ja) * 1991-11-28 1993-12-10 Nec Corp 駐車台数計数装置
US5519793A (en) * 1992-11-05 1996-05-21 The United States Of America As Represented By The Secretary Of The Interior Apparatus and method for computer vision measurements
US5687249A (en) * 1993-09-06 1997-11-11 Nippon Telephone And Telegraph Method and apparatus for extracting features of moving objects
JP2981382B2 (ja) * 1993-11-25 1999-11-22 松下電工株式会社 パターンマッチング方法
JP3247228B2 (ja) 1993-12-17 2002-01-15 東京瓦斯株式会社 流体の画像処理解析装置
US6400831B2 (en) * 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking

Also Published As

Publication number Publication date
KR100402361B1 (ko) 2003-10-17
IL141589A0 (en) 2002-03-10
IL141589A (en) 2005-11-20
AU763178B2 (en) 2003-07-17
AU5650099A (en) 2000-04-03
CN1292383C (zh) 2006-12-27
WO2000016259A1 (fr) 2000-03-23
EP1113388B1 (de) 2007-03-07
EP1113388A4 (de) 2005-04-06
US6856696B1 (en) 2005-02-15
DE69935437D1 (de) 2007-04-19
CN1317124A (zh) 2001-10-10
JP4324327B2 (ja) 2009-09-02
KR20010085779A (ko) 2001-09-07
EP1113388A1 (de) 2001-07-04

Similar Documents

Publication Publication Date Title
DE69935437T2 (de) Visuelle vorrichtung
DE69032326T2 (de) Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafür
CN101406390B (zh) 检测人体部位和人的方法和设备以及对象检测方法和设备
EP2368216B1 (de) Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung
DE102020113280A1 (de) Automatische erzeugung von grundwahrheitsdaten zum trainieren oder umzutrainieren eines oder mehrerer modelle für maschinelles lernen
DE60313941T2 (de) Personendetektion durch Gesichtsdetektion und Bewegungsdetektion
DE69932619T2 (de) Verfahren und system zum aufnehmen und repräsentieren von dreidimensionaler geometrie, farbe und schatten von animierten objekten
DE60034555T2 (de) System zur objekterkennung und -verfolgung
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
CN109376637B (zh) 基于视频监控图像处理的人数统计系统
DE112016004535T5 (de) Universelles Übereinstimmungsnetz
DE69126611T2 (de) Bilderzeugungsgerät
DE112017001311T5 (de) System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen
CN107463892A (zh) 一种结合上下文信息和多级特征的图像中行人检测方法
DE602004002837T2 (de) Objekterkennung
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102013004073A1 (de) Videostromauswertung
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102017215079A1 (de) Erfassen von Verkehrsteilnehmern auf einem Verkehrsweg
EP3520024A1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera mittels homographien
DE112022002652T5 (de) Automatische erzeugung einer vektorkarte für die fahrzeugnavigation
DE112021005070T5 (de) Multi-hop-transformer für räumlich-zeitliches denken und lokalisierung
WO2020105146A1 (ja) 情報処理装置、制御方法、及びプログラム
EP3021256A1 (de) Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem
DE102020204840A1 (de) Prozessierung von Mehrkanal-Bilddaten einer Bildaufnahmevorrichtung durch einen Bilddatenprozessor

Legal Events

Date Code Title Description
8364 No opposition during term of opposition