DE69032326T2 - Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafür - Google Patents
Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafürInfo
- Publication number
- DE69032326T2 DE69032326T2 DE69032326T DE69032326T DE69032326T2 DE 69032326 T2 DE69032326 T2 DE 69032326T2 DE 69032326 T DE69032326 T DE 69032326T DE 69032326 T DE69032326 T DE 69032326T DE 69032326 T2 DE69032326 T2 DE 69032326T2
- Authority
- DE
- Germany
- Prior art keywords
- probability
- stored
- objects
- data
- given class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000012545 processing Methods 0.000 title claims description 16
- 230000004044 response Effects 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 18
- 230000000875 corresponding effect Effects 0.000 claims description 14
- 230000002596 correlated effect Effects 0.000 claims description 12
- 241000282412 Homo Species 0.000 claims description 11
- 241000894007 species Species 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 8
- 230000003190 augmentative effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 239000000203 mixture Substances 0.000 claims description 5
- 238000003672 processing method Methods 0.000 claims description 4
- 230000001276 controlling effect Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 description 15
- 210000003128 head Anatomy 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000005855 radiation Effects 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000037237 body shape Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- LTUFGCFAPCJOFQ-UHFFFAOYSA-N 2h-pyran-3-carboxamide Chemical compound NC(=O)C1=CC=COC1 LTUFGCFAPCJOFQ-UHFFFAOYSA-N 0.000 description 1
- HUPNQNOWXCVQSW-UHFFFAOYSA-N 2h-pyran-4-carboxamide Chemical compound NC(=O)C1=CCOC=C1 HUPNQNOWXCVQSW-UHFFFAOYSA-N 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
- Die vorliegende Erfindung ist auf eine dynamische Bildverarbeitungstechnik für das Erkennen von Objekten einer gegebenen Klasse gerichtet, die in einer zeitlichen Abfolge aufeinanderfolgender Einzelbilder mit einer relativ hohen Auflösung aus Bilddaten grafisch wiedergegeben werden.
- Techniken für das Erkennen von Musterformen von Gegenständen, die in Bilddaten grafisch wiedergegeben sind, sind im Stand der Technik bekannt. Weiterhin sind Techniken für das Unterscheiden zwischen sich bewegenden und stationären Gegenständen, die eine zuvor ausgewählte Winkelorientierung haben, oder von Objekten, die irgendein anderes, vorbestimmtes interessierendes Merkmal haben, ebenfalls im Stand der Technik bekannt.
- In dieser Hinsicht wird nun beispielhaft auf das US-Patent 4,692,806, ausgegeben für Anderson et al. am 8. September 1 987, und auf das US-Patent 4,385,322, ausgegeben für Hubach et al. am 24. Mai 1983, bezug genommen.
- Anderson et al. offenbaren eine Bilddatenreduktionstechnik, bei welcher ein Bild mit ursprünglich weitem Gesichtsfeld und hoher Auflösung, welches aus einer ersten gegebenen Anzahl von Pixeln besteht, so verarbeitet wird, daß ein Bild mit großem Gesichtsfeld und niedriger Auflösung abgeleitet wird, welches aus einer zweiten gegebenen Anzahl von Pixeln besteht, die kleiner ist als die erste gegebene Anzahl. Auf der Basis der Position eines erfaßten, interessierenden Merkmales, welches in dem abgeleiteten Bild mit niedriger Auflösung vorhanden ist, kann ein bewegbares Fenster, welches aus nicht mehr als der zweiten gegebenen Anzahl von Pixeln besteht, verwendet werden, um die Position dieses Teiles mit engem Gesichtsfeld aus dem ursprünglichen Bild mit hoher Auflösung zu erhalten, welcher das erfaßte interessierende Merkmal enthält. Anderson et al. verwenden bekannte, sogenannte Vielfachauflösungspyramidenprozessortechniken, um ihre Bilddatenreduktion durchzuführen. Ein Pyramidenprozessor wird auch offenbart in den Proceedings of the IEEE, Band 76, No. 3, Seiten 1006-1015, August 1988, P.T. Burt, "Smart Sensing with a Pyramid Vision Machine".
- Während die Datenreduktionstechnik von Anderson et al. in einer zeitlichen Abfolge von aufeinanderfolgenden Einzelbildern relativ hoher Auflösung aus Bilddaten wiederholt arbeiten kann, ist die Erfassung des interessierenden Merkmals während jedes Vorganges ähnlich (d.h. während jedes wiederholten Vorganges wird entweder das interessierende Merkmal erfaßt oder nicht, unabhängig davon, ob das interessierende Merkmal in einer der vorhergehenden der wiederholt durchgeführten Vorgänge bzw. Operationen erfaßt worden ist.
- Hubach et al. offenbaren eine Mustererkennungsmethode, die ebenfalls eine Datenreduktionstechnik verwendet. Zunächst wird eine Bezugsszene aufgezeichnet und in einem feinen Format gespeichert und dann in einem groben Format. Die gespeicherte Grobinformation der Bezugsszene wird in Realzeit mit Grobinformation von einer betrachteten Szene mit großem Gesichtsfeld verglichen, und es wird eine Korrelationszahl (Wahrscheinlichkeit), welche den Prozentsatz der Übereinstimmung anzeigt, verwendet, um die Position der besten Anpassung (falls eine solche vorhanden ist) zwischen der betrachteten Szene und der Bezugsszene zu bestimmen. Nur der enge Gesichtsfeldbereich der betrachteten Szene, welche sich in der Nähe der im groben Bereich übereinstimmenden Teile befindet, wird dann mit der gespeicherten Feininformation der Bezugsszene verglichen. Die Position der besten Anpassung wird exakt bestimmt entsprechend der höchsten Korrelationszahl (Wahrscheinlichkeit) der Zusammenpassung der betrachteten Szene mit der fein gespeicherten Information der Bezugsszene. Es ist darauf hinzuweisen, daß bei Hubach et al. die gespeicherten groben und feinen Bezugsinformationen fest bleiben.
- Man betrachte den Fall, bei welchem das zu erkennende Objekt ein dreidimensionales, bewegliches Objekt ist, welches in einer zeitlichen Abfolge aufeinanderfolgender Einzelbilder aus Bilddaten grafisch wiedergegeben wird, wobei jedes der Bilder bzw. der Gegenstand in dem Bild aus einer zweidimensionalen Projektion des dreidimensionalen Objektes besteht. In einem solchen Fall hängen die Abmessungen und die Form der zweidimensionalen Projektion in jedem der entsprechenden Einzelbilder von dem Abstand des dreidimensionalen Objektes in einer Richtung senkrecht zu der Projektion desselben und von der Winkelausrichtung des dreidimensionalen Objektes bezüglich seiner Projektion in diesem Einzelbild ab. Wenn sich das dreidimensionale Objekt bewegt, verändern sich die Größe und Form seiner grafischen Wiedergabe von Einzelbild zu Einzelbild. Daher kann man über ein solches dreidimensionales, sich bewegendes Objekt viel weniger als eine vollständige Information aus irgendeinem einzelnen Einzelbild erhalten. Durch kumulatives Hinzufügen der Information, die man von allen vorhergehenden Einzelbildern der zeitlichen Abfolge erhalten hat, zu der von irgendeinem Einzelbild erhaltenen Information, wird es möglich, ausreichend Information zu sammeln, um gezielt die Identität eines solchen dreidimensionalen, beweglichen Objektes mit hoher Genauigkeit zu erkennen. Das dynamische Bildverarbeitungsverfahren der vorliegenden Erfindung richtet sich auf eine effiziente Lösung dieser Art von Erkennungsproblemen.
- Gesichtspunkte der Erfindung sind in den Ansprüchen beschrieben, auf die das Augenmerk zu richten ist.
- Insbesondere erkennt eine Ausführungsform des dynamischen Bildverarbeitungsverfahrens gemäß der vorligenden Erfindung Gegenstände bzw. Objekte einer gegebenen Klasse, die allesamt eine Gruppe von bekannten, ihnen innewohnenden Eigenschaften haben, die insgesamt genommen die Gegenstände dieser gegebenen Klasse von Gegenständen unterscheiden, die nicht aus dieser gegebenen Klasse sind. Das Verfahren spricht auf eine Einrichtung für das Steuern dieser Verarbeitung und für das Spezifizieren eines Satzes von Entscheidungskriterien an. Dieses Verfahren spricht auch auf gespeicherte Daten an, die anfänglich eine begrenzte Anzahl getrennter Merkmale definieren, die sich auf eine Gruppe von generischen Eigenschaften (Gattungseigenschaften) beziehen, wobei jedes der anfänglich gespeicherten Merkmale die Wahrscheinlichkeit hat, in einer Folge eines oder mehrerer aufeinanderfolgender Einzelbilder aus Bilddaten vorhanden zu sein, wenn ein Gegenstand der gegebenen Klasse in dieser Folge grafisch wiedergegeben wird. Die Ausführungsform des Verfahrens weist die folgenden Schritte auf:
- Zunächst werden aufeinanderfolgende, relativ hoch aufgelöste Einzelbilder von Bilddaten in einer zeitlichen Abfolge in einem Pyramidenprozessor mit Mehrfachauflösung analysiert, der aus zumindest einer Ebene besteht, die eine niedrigere Auflösung hat als die hochaufgelösten Einzelbilder. Unter der Steuerung des gespeicherten Programmes und unter Ansprechen auf zumindest eines der getrennten Merkmale, die anfänglich durch die gespeicherten Daten definiert wurden, wird eine erste Bestimmung gemäß den Entscheidungskriterien durchgeführt, und zwar bezüglich einer ersten Wahrscheinlichkeit, mit welcher irgendeine der Ebenen mit niedrigerer Auflösung des Pyramidenprozessors mit mehrfacher Auflösung in einer Folge von einem oder mehreren relativ früh auftretenden Einzelbildern der zeitlichen Abfolge als Teil ihrer Bilddaten zumindest das erste der separaten Merkmale von Objekten der gegebenen Klasse umfassen könnte. Wenn diese erste Wahrscheinlichkeit zumindest gleich einem ersten vorbestimmten Grenzwert ist, werden Daten, die zumindest die relative Position dieses Teiles der Bilddaten innerhalb der früh auftretenden Einzelbilder der Folge definieren, zu den gespeicherten Daten hinzuaddiert, wodurch die gespeicherten Daten vergrößert bzw. vermehrt werden.
- Dann wird unter der Steuerung des gespeicherten Programmes und unter Ansprechen auf die vermehrten gespeicherten Daten eine zweite Bestimmung entsprechend den Entscheidungskriterien bezüglich einer zweiten Wahrscheinlichkeit durchgeführt, nämlich daß auf irgendeiner der Ebenen des Pyramidenprozessors mit mehrfacher Auflösung von einer Folge von einem oder mehreren relativ später auftretenden Einzelbildern in der zeitlichen Abfolge verifiziert wird, daß der zuvor erwähnte Teil der Bilddaten zumindest ein zweites der separaten Merkmale zusätzlich zu dem ersten Merkmal aufweist. Wenn die zweite Wahrscheinlichkeit oberhalb eines zweiten vorbestimmten Grenzwertes liegt, so wird der zuvor erwähnte Teil der Bilddaten als eine grafische Wiedergabe eines Gegenstandes der gegebenen Klasse erkannt. Wenn jedoch die zweite Wahrscheinlichkeit unterhalb eines dritten vorbestimmten Grenzwertes ist, wobei der dritte vorbestimmte Grenzwert beträchtlich unterhalb des zweiten vorbestimmten Grenzwertes liegt, so wird der zuvor erwähnte Teil der Bilddaten als einer erkannt, den keine grafische Wiedergabe eines Objektes der gegebenen Klasse ist. In den Fällen, in welchen die zweite Wahrscheinlichkeit in dem Bereich zwischen den zweiten und den dritten Wahrscheinlichkeiten liegt, so werden die weiteren Daten, die durch den zuvor erwähnten Verifizierungsschritt definiert wurden, zu den gespeicherten Daten hinzugefügt, wodurch die gespeicherten Daten weiter vergrößert werden. Weiterhin wird für den Fall, daß die zweite Wahrscheinlichkeit in diesem Bereich liegt, der Verifizierungsschritt und die weitere Vergrößerung der gespeicherten Daten unter Ansprechen auf jenen für relativ zunehmend später auftretende Folgen eines oder mehrerer Einzelbilder in der zeitlichen Abfolge wiederholt, bis die durch einen derart wiederholten Schritt bestimmte Wahrscheinlichkeit entweder über diesen zweiten vorbestimmten Grenzwert ansteigt oder unter den dritten vorbestimmten Grenzwert fällt.
- Für ein besseres Verständnis der vorliegenden Erfindung wird nun beispielhaft auf die beigefügten Zeichnungen bezug genommen, von denen:
- Figur 1 ein Funktionsdiagramm ist, welches die Prinzipien der vorliegenden Erfindung veranschaulicht,
- Figur 2 ein anschauliches Beispiel der vorliegenden Erfindung ist, welches eine bestimmte Ausführungsform der Abbildungseinrichtung gemäß Figur 1 verwendet,
- Figur 3 ein Beispiel des Vorprozessors nach Figur 1 darstellt und
- Figur 4 ein Beispiel für die gespeicherten Daten und die Objekterkennungseinrichtung nach Figur 1 list.
- Ein menschlicher Betrachter hat keine Schwierigkeit, Gegenstände einer gegebenen Klasse (z. B. anderer Menschen) zu erkennen, die in einer komplexen Szene anwesend sind. In der Tat hat der Betrachter, obwohl er hunderte von verschiedenen Individuen kennt, keine Schwierigkeit, irgendeines von diesen, das in der betrachteten Szene anwesend ist, zu erkennen.
- Alle Menschen besitzen eine Gruppe von bekannten Gattungseigenschaften, die als Ganzes genommen sie von anderen Objekten unterscheidet, die nicht menschlich sind. Es sind jedoch Unterschiede in den Eigenschaften des Gesichtes, die in erster Linie ein Individuum von dem anderen unterscheiden.
- Das dynamische Bildverarbeitungsverfahren gemäß der vorliegenden Erfindung, welches in Figur 1 dargestellt ist, ahmt die Fähigkeit eines Menschen nach, Gegenstände einer gegebenen Klasse zu erkennen, die allesamt eine Gruppe von bekannten Gattungseigenschaften besitzen und die als Ganzes genommen Gegenstände bzw. Objekte dieser gegebenen Klasse von Objekten unterscheiden, die nicht aus der gegebenen Klasse sind. Weiterhin ist die dynamische Bildverarbeitung gemäß der vorliegenden Erfindung in der Lage, unter einer Vielzahl von vorher ausgewählten Mitgliedern der gegebenen Klasse zu unterscheiden, wobei jedes der zuvor ausgewählten Mitglieder individuell dadurch definiert ist, daß es einen eindeutigen Satz bekannter Eigenschaften aus zumindest einer Teilgruppe der bekannten Gattungseigenschaften hat.
- Gemäß Figur 1 ist eine Abbildungseinrichtung 100 dargestellt, die ein Gesichtsfeld 102 hat. Die Abbildungseinrichtung 100 kann aus einem Aufbau für den Empfang von Strahlung bestehen, die von Objekten innerhalb eines Gesichtsfeldes 102 reflektiert wird, welche von einer externen Strahlungsquelle beleuchtet werden. Alternativ kann die Abbildungseinrichtung 100 aus einem Aufbau bestehen, der Einrichtungen zum Beleuchten von Gegenständen innerhalb des Gesichtsfeldes 102 mit Strahlung und Einrichtungen für das Empfangen reflektierter Echos von solchen Objekten einschließt (wobei diese Echos auch eine Information über den Objektabstand bereitstellen können). Weiterhin kann die Abbildungseinrichtung 100 auf Strahlung irgendeines gegebenen Wellenlängenabschnittes des elektromagnetischen, Ultraschall- und/oder irgendeines anderen Types von Wellenenergiespektren ansprechen. Innerhalb des Gesichtsfeldes 102 sind zwei bewegbare Gegenstände einer gegebenen Klasse 104 angeordnet (in Figur 1 als bewegbare Würfel wiedergegeben). Während beide Objekte alle Gattungseigenschaften eines Würfels besitzen, unterscheiden sie sich insbesondere voneinander dadurch, daß die Flächen des oberen Würfels mit einem "+" markiert sind, während die Flächen des unteren Würfels mit einem "o" markiert sind. Weiterhin sind in dem Gesichtsfeld 102 eine Vielzahl verschiedener stationärer Gegenstände 106 enthalten, die nicht aus der gegebenen Klasse 104 sind.
- Die Abbildungseinrichtung 100 erzeugt eine zweidimensionale Projektion jedes der dreidimensionalen Würfel 104. Da die Würfel 104 beweg bar sind, verändert sich die Form und die Größe der Projektion jedes Würfels zu irgendeinem gegebenen Zeitpunkt mit der Orientierung und dem Abstand dieses Würfels bezüglich der Abbildungseinrichtung 100.
- Der Ausgang bzw. die Ausgabe der Abbildungseinrichtung 100 liefert bzw. besteht aus einer zeitlichen Abfolge von aufeinanderfolgenden, relativ hoch aufgelösten Einzelbildern aus Bilddaten, wobei jedes der Einzelbilder in analoger Form grafisch eine zweidimensionale Projektion jedes der Würfel aus der Klasse 104 sowie der Objekte 106 in ihrer räumlichen Position innerhalb des Gesichtsfeldes zum Zeitpunkt des Auftretens dieses Einzelbildes in der zeitlichen Abfolge wiedergibt. Der Analog-Digital (A/D)-Wandler 108 wandelt die Bilddaten in jedem der aufeinanderfolgenden Einzelbilder in eine digitale Form für das Verarbeiten durch einen digitalen Prozessor um, der aus einem Vorprozessor 110, einem Pyramidenprozessor 112 mit mehrfacher Auflösung, einer Objekterkennungseinrichtung 114, einem gespeicherten Programm 116 und gespeicherten Daten 118 besteht.
- In Figur 1 ist der digitale Prozessor als ein System von miteinander verbundenen Funktionsblöcken dargestellt, wobei jeder Block einem Teilsystem entspricht. In der Praxis kann ein digitales Prozessorsystem in Form von Software verwirklicht sein (d.h. einem programmierten Computersystem) und/oder in Form von Hardware (d.h. aus hartverdrahteten Elementen). Ein detailliertes Beispiel des Teilsystems des Vorprozessors 110 ist in Figur 3 dargestellt, und detaillierte Beispiele von Gegenstandserkennungseinrichtungen 114 und gespeicherten Daten 118 sind in Figur 4 dargestellt, wobei diese Figuren weiter unten noch diskutiert werden.
- Das gespeicherte Programm 116 wendet Kontrolleingaben sowohl auf den Vorprozessor 110 als auch auf den Pyramidenprozessor 112 mit mehrfacher Auflösung, die Objekterkennungseinrichtung 114 und die gespeicherten Daten 118 an, um die Abfolge von Vorgängen bzw. Bearbeitungen dieser Teilsysteme dementsprechend zu steuern. Diese Abfolge von Vorgängen bzw. Operationen wird entsprechend der Information modifiziert, die von der Objekterkennungseinrichtung 114 an das gespeicherte Programm 116 zurückgeführt wird. Steuerungsinformation wird auch von der Objekterkennungseinrichtung 114 über sowohl die Abbildungseinrichtung 100, den Vorprozessor 110 als auch den Pyramidenprozessor 112 mit mehrfacher Auflösung zurückgeführt. Zusätzlich wendet die Objekterkennungseinrichtung 114 eine vergrößerte Datenspeicherung auf die gespeicherten Daten 118 an.
- Die Bilddaten in digitaler Form werden als eine Signaleingabe an den Vorprozessor 110 gegeben. Der Vorprozessor 110 modifiziert entsprechend der ihm von der Objekterkennungseinrichtung 114 und dem gespeicherten Programm 116 eingegebenen Steuerinformation die Bilddaten, die ihm als Eingabe eingegeben werden, und übergibt dann diese modifizierten Bilddaten als Eingabe an den Pyramidenprozessor 112 mit mehrfacher Auflösung.
- Der Pyramidenprozessor 112 mit mehrfacher Auflösung, der in der Lage ist, den Typ von Funktionen auszuführen, der durch das zuvor erwähnte Patent US-A-4,692,806 von Anderson et al. durchgeführt wird, kann entsprechend der Lehre des US-Patents 4,703,514, ausgegeben am 27. Oktober 1987 für Van der Wal und mit dem Titel "Programmierte Umsetzung einer Signalverarbeitungsvorrichtung mit mehrfacher Auflösung in Realzeit", strukturell umgesetzt werden.
- Die Ausgangsdaten von dem Pyramidenprozessor 11 2 werden als erste Signaleingabe auf eine Objekterkennungseinrichtung 114 gegeben. Zusätzlich empfängt die Objekterkennungseinrichtung 114 zweite Signaleingabeinformationen unmittelbar von dem Vorprozessor 110. Weiterhin kann Information von der Abbildungseinrichtung 100 als eine Eingabe an die Objekterkennungseinrichtung 114 zurückgeführt werden. Auch die gespeicherten Daten 118 geben unter der Steuerung des gespeicherten Programms 11 6 ausgewählte gespeicherte Daten als eine Eingabe auf die Objekterkennungseinrichtung 114. Die Ausgangsinformation aus dem Objekterkennungsprogramm 114 wird als Eingabe auf eine Ausgangsverwendungseinrichtung 120 gegeben. In Figur 1 ist auch ein optional vorhandener Anzeigemonitor 122 dargestellt (mit gestrichelten Linien gezeigt), um das Bild aus der Abbildungseinrichtung 100 anzuzeigen. Der Anzeigemonitor 122 kann auch Information anzeigen, die von der Ausgabeverwendungseinrichtung 120 empfangen wurde (d.h. Beschriftungen und andere Zeichen, welche erkannte Gegenstände bzw. Objekte in dem Bild identifizieren).
- Figur 1 ist eine verallgemeinerte Darstellung des Systems gemäß der vorliegenden Erfindung. Für ein besseres Verständnis der vorliegenden Erfindung wird jetzt ein spezielles, anschauliches Beispiel (dargestellt in Figur 2) beschrieben. In Figur 2 besteht die Erkennungseinrichtung 100 aus einer Farbfernsehkamera 200a und einer Entfernungsmeßeinrichtung 200b. Das Gesichtsfeld sowohl der Kamera 200a als auch der Entfernungsmeßeinrichtung 200b ist das Innere eines Raumes 201 mit einem Eingang 203. Irgendeines der drei speziellen Individuen, bestehend aus John 204a, Bill 204b und Mary 204c kann zu irgendeinem gegebenen Zeitpunkt in dem Raum 201 sein oder nicht. Drei Gegenstände, die aus einem am Ende stehenden Tisch 206a, einem Sofa 206b und einem hin und her beweglichen Fächer 208 bestehen, sind in dem Raum 201 dauerhaft angeordnet, wie in Figur 2 dargestellt. Zu dem Zeitpunkt, der in Figur 2 dargestellt ist, steht John 204a in dem Raum 102 relativ dicht an der Abbildungseinrichtung, die aus der Fernsehkamera 200a und der Meßeinrichtung 200b besteht; Bill 204b, der auf dem Sofa 206b sitzt, befindet sich in dem Raum 102 relativ weit weg von der Abbildungseinrichtung 100; und Mary 204c hat soeben den Raum 201 durch die Tür 203 verlassen, wie durch den Pfeil 205 angezeigt wird.
- Im Falle der in Figur 2 anschaulich dargestellten Beispiele ist es der Zweck der Erfindung des Anmelders, (1) der Gattung nach jedes menschliche Wesen zu erkennen, das sich in dem Raum 201 befindet, (2) dann speziell erkennen, ob irgendeiner der gattungsmäßig erkannten Menschen John 204a, Bill 204b oder Mary 204c ist, und (3) daraufhin die Position jedes speziell erkannten Individuums in dem Raum 201 zu verfolgen.
- Der Anschauung halber sei angenommen, daß der Vorprozessor 110 die in Figur 3 dargestellte Form annimmt und daß die Objekterkennungseinrichtung 114 und die gespeicherten Daten 118 die in 4 dargestellte Form annehmen. Aus Gründen der Klarheit sind in den Figuren 3 und 4 die entsprechenden Verbindungen des gespeicherten Programms 116 zu dem Vorprozessor 110, der Erkennungseinrichtung 114 und den gespeicherten Daten fortgelassen. Es versteht sich jedoch, daß die Abfolge der Bearbeitung jedes der Teilsysteme durch das gespeicherte Programm 116 gesteuert wird.
- Wie in Figur 3 angezeigt, besteht der Vorprozessor 110 aus einem Farbfilter, Rahmen- und Abstandsspeichern 300, einer Transformationseinrichtung 302 für die Bildorientierung und einer Einrichtung 304 für bewegte Objekte. Wie in Figur 4 gezeigt, besteht die Objekterkennungseinrichtung 114 aus einer Größeneinstelleinrichtung 400, einer Transformationseinrichtung 401 für eine Schablonenausrichtung, einer Korrelationseinrichtung 402 für eine orientierte Musterform, eine Wahrscheinlichkeitsbestimmungseinrichtung 404, einem Fleischfarbtondetektor 406, Gattern 408, einer Fenstersteuereinrichtung 410 und einem Gatter 412. Wie weiterhin in Figur 4 gezeigt wird, bestehen die gespeicherten Daten 118 aus anfänglich gespeicherten Schablonen 118a mehrfacher Ansichten und in mehrfacher Auflösung, gespeicherten Positionen von stationären Gegenständen 118b und nachträglich gespeicherten Erkennungsverbesserungsdaten 118c.
- Es sei angenommen, daß die anfänglich gespeicherten Schablonen 118a die zuvor aufgezeichneten Bilddaten einschließen, welche ein vollständiges Gesicht, Linksprofil- und Rechtsprofilansichten des Kopfes oder von ausgewählten Abschnitten sowohl von John 204a, Bill 204b und Mary 204c, und zwar bei einer Anzahl verschiedener Auflösungen. Während Schablonen mit niedrigerer Auflösung den gesamten Kopf oder das Gesicht des speziellen Individuums einschließen können, sind die Schablonen mit höherer Auflösung auf nur einen Abschnitt mit relativ hoher Information von dem Gesicht des Individuums beschränkt. Beispielsweise kann eine Schablone mit hoher Auflösung einen horizontalen Streifen quer über dem Gesicht des Individuums aufweisen, welcher seine bzw. ihre Ohren, Augen und Nasenrücken zeigt (d.h. sie enthält eine umfangreiche Erkennungsinformation, die verwendet werden kann, um eine Unterscheidung zwischen dem einen speziellen Individuum und einem anderen vorzunehmen). Zusätzlich weisen die Schablonen 118a, vorzugsweise nur bei niedriger Auflösung, eine oder mehrere Schablonen einer menschlichen Körperform, eines gattungsgemäßen Kopfes oder anderer Musterformen auf, die die Form von menschlichen Objekten von anderen Objekten grafisch unterscheidet.
- Gemäß Figur 3 wird der Teil der Eingabe von dem A/D-Wandler 108, welcher der Realzeitausgabe von der Farbfernsehkamera 200a entspricht, und zwar in digitaler Form, zunächst durch den Farbfilterabschnitt des Blockes 300 der Farbe nach gefiltert, um den Luminanz(Y)-Teil von den Chrominanz(I, Q)-Teilen abzutrennen (unter der Annahme, daß der Ausgang der Farbfernsehkamera 200a in der Standard NTSC-Form vorliegt). Falls die getrennten Luminanz- und Chrominanzteile des Ausganges der Fernsehkamera 200a in digitaler Form unmittelbar auf den Block 300 angewendet werden (entweder als getrennte rote, grüne und blaue Signale oder als getrennte L, I, Q Signale), so kann der Farbfilterteil des Blockes 300 fortgelassen werden. Auf jeden Fall werden die einen oder mehreren aufeinanderfolgenden Einzel bilder der Luminanz- und der Chrominanzinformation zeitweise in dem Einzelbildspeicherabschnitt des Blockes 300 gespeichert.
- Die Abstandsmeßeinrichtung 200b und die Farbfernsehkamera 200a tasten in vertikaler und horizontaler Richtung dasselbe Gesichtsfeld 102 ab, jedoch nicht notwendigerweise mit derselben Bildfrequenz. Die Abstandsmeßeinrichtung 200b kann so betrieben werden, daß sie das Zeitintervall zwischen dem übergang eines Infrarot-Pulses und dem Empfang eines Echos desselben mißt, wobei der Abstand durch die Länge dieses Intervalls bestimmt wird, wie beim Radar. Der Grund für die Verwendung von Infrarotstrahlung für die Abstandsmeßeinrichtung 200b anstelle von sichtbarer Lichtstrahlung liegt darin zu verhindern, daß die variable Intensität des Umgebungslichtes in dem Raum 201 die Empfindlichkeit der Entfernungsmeßeinrichtung 200b beeinflußt. Auf jeden Fall wird die Ausgangsinformation von der Abstandsmeßeinrichtung 200b in digitaler Form zeitweise in dem Abstandsspeicherabschnitt des Blockes 300 gespeichert.
- Alternativ können Skalen und Abstandsinformationen über einen Musteranpaßvorgang erhalten werden, welcher die Skala bzw. den Maßstab einer gespeicherten Schablone oder das aktuelle Bild einstellt, um zwischen diesen die beste Übereinstimmung zu erhalten.
- Unter der Annahme, daß die Abtastrate für die Fernsehinformation und für die Abstandsinformation dieselben sind, hat der Abstandsspeicher eine individuelle Abstandsspeicherposition, welche der Speicherposition jedes individuellen Fernsehpixels eines Fernsehbildspeichers entspricht. Daher sind während des synchronisierten Auslesens sowohl eines Fernsehbildspeichers als auch seines entsprechenden Abstandsspeichers die horizontalen (X) und die vertikalen (Y) Pixelkoordinaten aus den Ausleseadressen der Einzelbildspeicher erhältlich bzw. verfügbar, und die Abstands (Z)-Koordinate für jedes ausgelesene Pixel ist aus der in der Abstandsspeicherposition dieses Pixels gespeicherten Information verfügbar. Wie in Figur 3 angezeigt, besteht also eine der Ausgaben aus dem Block 300 aus den X-, Y- und Z-Pixelkoordinaten jedes aufeinanderfolgend ausgelesenen Pixels. Weiterhin führt, unter der Annahme, daß die Chrominanzinformation in dem Block 300 in der Standard I Q-Form gespeichert ist, das Auslesen eines Fernsehbildspeichers aus dem Block 300, was die entsprechenden I Q-Werte jedes aufeinanderfolgenden Auslesepixels bereitstellt.
- Die einfache, wohlbekannte Technik für das Separieren sich bewegender Gegenstände von stationären Gegenständen besteht darin, entsprechende Pixel zweier aufeinanderfolgend auftretender Einzelbilder der Fernsehbildinformation voneinander zu substrahieren, wodurch man die Pixel stationärer Objekte im wesentlichen entfernt. Die Pixel des Differenzbildes entsprechen nur den sich bewegenden Gegenständen. Wenn die Pixel dieses Differenzbildes dann von den Pixeln des aktuellen Bildes subtrahiert werden, so enthält das Bild bzw. Einzelbild ausschließlich stationäre Objekte. Während die Einrichtung 304 für sich bewegende Objekte diese wohlbekannte, einfache Form annehmen kann, so wäre es für die Zwecke der vorliegenden Erfindung dennoch nicht die am meisten bevorzugte Realisierung der Einrichtung 304 für sich bewegende Objekte. Für die Zwecke der vorliegenden Erfindung ist es erwünscht, die Tatsache, daß Menschen bewegliche Gegenstände sind, als ein Merkmal für die Unterscheidung zwischen Menschen und Nichtmenschen zu verwenden. Während der hin und herbewegliche Fächer 208 ebenso wie der Tisch 206a am Ende und das Sofa 206b permanente Hintergrundgegenstände in dem Raum 201 sind, ist der hin und her bewegliche Fächer 208 auch ein sich bewegendes Objekt. Unter dem Blickwinkel der vorliegenden Erfindung wäre es wünschenswert, eine Realisierung einer Einrichtung 304 für sich bewegende Objekte bereitzustellen, in welcher sich bewegende Hintergrundobjekte, wie z. B. der hin und her bewegliche Fächer 208, als stationäre Objekte betrachtet werden, trotz der Tatsache, daß sie sich bewegen. Daher sollte eine Einrichtung 304 für sich bewegende Objekte zwischen sich bewegenden Vordergrundobiekten und allen Hintergrundobiekten unterscheiden (die als stationär angesehen werden).
- Wie oben diskutiert, werden die Positionen von stationären Gegenständen in dem Abschnitt 118b der gespeicherten Daten 118 gespeichert. Als vorläufige Betriebsweise des Systems können, um die gespeicherten Daten in dem Abschnitt 118b der gespeicherten Daten 118 zu erhalten, die Farbfernseh kamera 200a und die Abstandsmeßeinrichtung 200b betrieben werden, wenn alle drei Individuen John 204a, Bill 204b und Mary 204c in dem Raum 201 nicht anwesend sind, um Bilder abzuleiten, die ausschließlich die permanenten, stationären Hintergrundobjekte enthalten, die alles sind, was während dieser vorläufigen Betätigung bzw. Bearbeitung in dem Raum 201 vorhanden ist. Die durch diese vorläufige Verarbeitung erhaltenen Bilder werden dann für die Speicherung in den gespeicherten Positionen des Abschnitts 118b für stationäre Objekte in den gespeicherten Daten 118 weitergeleitet, wobei für diesen Zweck die Einrichtung 304 für sich bewegende Gegenstände verwendet wird.
- Eine noch mehr wünschenswerte bzw. bevorzugte Realisierung der Einrichtung 304 für sich bewegende Objekte geht von der Annahme aus, daß die von der Einrichtung 304 für sich bewegende Objekte übermittelte Information über stationäre Objekte für die Speicherung in dem Abschnitt 118b der gespeicherten Daten 118 auch für die Verwendung durch die Einrichtung 304 für sich bewegende Objekte selbst verfügbar ist. Während das System arbeitet, führt das Beseitigen des Hintergrundes durch Subtrahieren der Pixel desselben von den Pixeln des aktuellen Bildes, um die sich bewegenden (Vordergrund) Objekte zu erhalten, auch zum Subtrahieren des Hintergrundes von dem Vordergrund, wodurch das Vordergrundbild gestört wird. Eine weniger einfache, jedoch bessere Realisierung der Einrichtung 304 für sich bewegende Objekte vermeidet diese Störung bzw. Verzerrung, indem zunächst eine bedingte Subtraktion durchgeführt wird, bei welcher ein Pixel des Hintergrundes von dem entsprechenden Pixel in dem aktuellen Bild nur dann subtrahiert wird, wenn sie einen ausreichend dicht beieinander liegenden Wert haben. Wenn sie keinen dicht beieinander liegenden Wert haben, wird das entsprechende Pixel des aktuellen Bildes selbst verwendet. Wenn sie jedoch einen dicht beieinander liegenden Wert haben, so daß die Subtraktion durchgeführt wird, so wird versuchsweise der Wert Null für dieses Pixel eingesetzt. Wenn der versuchsweise eingesetzte Wert eines Pixels Null ist, so wird eine Abschätzung für den Wert dieses Pixels auf der Basis eines gewichteten Durchschnitts der Pixel berechnet, welche jenes Pixel in einem gegebenen Bereich um das Pixel herum umgeben. Wenn der gewichtete Durchschnitt oberhalb eines gegebenen Grenzwertes liegt, so wird der entsprechende Pixelwert des aktuellen Bildes ersetzt, anderenfalls wird der versuchsweise eingesetzte Wert von Null für dieses Pixel verwendet. Der Vorteil einer solchen verbesserten Einrichtung für sich bewegende Objekte liegt darin, daß sie sowohl die Verzerrung als auch das Rauschen minimal macht, ebenso wie falsche Subtraktionen, welche auftreten, wenn die Pixelwerte der Vordergrundpixel nahe bei denen des Hinterg rundes liegen (was dazu führen würde, daß ein Vordergrund bild voller "Löcher" wäre, und was für die anschließende Verarbeitung nicht geeignet wäre).
- Unabhängig von seiner speziellen Realisierung stellt die Einrichtung 304 für sich bewegende Objekte einen Ausgang bzw. eine Ausgabe bereit, die diejenigen Pixels anzeigt, welche die sich bewegenden (Vordergrund) Objekte repräsentieren, und zwar für die Verwendung durch die Objekterkennungseinrichtung 114. Weiterhin kann die Information über sich bewegende Objekte zu dem Block 300 für eine Speicherung zurückgeführt werden oder kann wahlweise weitergegeben werden an den Pyramidenprozessor 112 mit mehrfacher Auflösung, entweder direkt oder, falls gewünscht, nach der weiteren Speicherung innerhalb des Blockes 300.
- Die Bildorientierungs- und Transformationseinrichtung 302 verwendet standardmäßige Algorithmen für die Transformation der Orientierung, um Bilddaten um eine oder mehrere Achsen um einen kleinen, vorbestimmten Winkel in jeder Richtung eines einstellbaren Arbeitspunktes bezüglich dieser Achse zu drehen (d.h. das Bild wird in einer Zitterbewegung um den Arbeitspunkt vor und zurück bewegt). Der Block 402 der Objekterkennungseinrichtung 114 führt einen Steuereingangswert zu der Transformationseinrichtung 302 zurück und stellt damit den Wert des Arbeitspunktes für jede Achse dementsprechend ein. Die Bilddaten, wie sie durch den Block 300 von der Fernsehkamera 200a entweder vor oder nach der Speicherung in einem Bildspeicher hierfür empfangen werden, können dem Block 302 für eine Transformation ihrer Orientierung zugeführt werden. Die transformierten Bilddaten werden dann zu dem Block 300 zurückgegeben für die Speicherung in einem Bildspeicher desselben. Weiterhin kann der Block 302 mit einer Transformationseinrichtung 401 der Datenerkennungseinrichtung 114 für die Orientierung der Schablone verbunden sein.
- Die in dem Block 300 gespeicherten Bilddaten werden vorzugsweise nach der Modifizierung durch eine Transformationseinrichtung 302 für die Bildorientierung und die Einrichtung 304 für sich bewegende Objekte aus einem Bildspeicher des Blockes 300 ausgelesen und als Eingabe auf den Pyramidenprozessor 112 mit mehrfacher Auflösung gegeben.
- Gemäß Figur 4 ist eine beispielhafte Ausführungsform einer Objekterkennungseinrichtung 114 zusammen mit einer beispielhaften Ausführungsform der gespeicherten Daten 118 dargestellt. Wie in Figur 4 gezeigt, wird die Farbinformation (z. B. I und Q) von einem Vorprozessor 110 als eine erste Eingabe auf einen Fleischfarbendetektor 406 gegeben, und die X- und Y-Pixel koordinaten werden von dem Vorprozessor 110 als eine zweite Eingabe auf den Fleischfarbendetektor 406 gegeben. Der Fleischfarbendetektor 406 leitet als einen Ausgangswert die X- und Y-Pixelkoordinaten derjenigen Teile, sofern vorhanden, der Bildchrominanz ab, die einen Fleischfarbton haben. Vorzugsweise ist der Fleischfarbtondetektor 406 eine Einrichtung, welche den Wert von 1 gegenüber dem Wert von Q aufträgt und der nur dann einen Fleischtonausgangswert ableitet, wenn die entsprechenden Werte von I und Q, welche die verwendete Farbe definieren, innerhalb eines Rechteckes liegen, in welchem der Wert von I zwischen einem relativ kleinen, vorbestimmten positiven Wert und einem relativ großen, vorbestimmten positiven Wert liegt, und der Wert von Q gleich einem oder unterhalb eines relativ kleinen vorbestimmten Absolutwertes ist. Der Ausgang aus dem Detektor 406 für die X-Y-Pixelkoordinaten mit dem Fleischton wird sowohl als eine der drei Signaleingaben auf die Wahrscheinlichkeitsbestimmungseinrichtung 404 als auch auf Gatter 408 gegeben.
- Information über sich bewegende Objekte, die von dem Vorprozessor 110 zugegeben werden und die X- und Y-Pixelkoordinaten von sich bewegenden Bilddaten definieren, werden direkt sowohl als eine zweite Signaleingabe auf die Wahrscheinlichkeitsbestimmungseinrichtung 404 als auch auf die Gatter 408 geführt.
- Die Transformationseinrichtung 401 für die Orientierung einer Schablone, die im wesentlichen der oben beschriebenen Transformationseinrichtung 302 für die Bildorientierung ähnlich ist, ist in der Lage, gleichzeitig irgendeine Kombination von einer oder mehreren von drei Eingaben (als L, C bzw. R bezeichnet) aus dem Abschnitt 118a der gespeicherten Daten 118 zu empfangen. Zusätzlich werden Steuereingaben auf die Transformationseinrichtung 401 aus der Transformation 302 des Vorprozessors 110 und auch aus dem Korrelationswertausgang der Korrelationseinrichtung 402 gegeben. Der Ausgang bzw. Ausgabewert aus der Transformationseinrichtung 401 wird über eine Größeneinstelleinrichtung 400 aus den gespeicherten Daten 118 als eine erste von drei Eingaben in die Korrelationseinrichtung 402 gegeben. Zweite und dritte Eingaben aus den gespeicherten Daten 118 werden direkt aus den Abschnitten 118b und 118c aus den gespeicherten Daten 118 auf die Korrelationseinrichtung 402 gegeben. Weiterhin wird die Z-Pixelkoordinate als eine Steuereingabe auf die Größeneinstelleinrichtung 400 gegeben und die X- und Y-Pixelkoordinaten werden als Eingaben in die Korrelationseinrichtung 402 gegeben. Die Korrelationseinrichtung 402 empfängt eine zusätzliche Eingabe aus dem Ausgang des Pyramidenprozessors 112 mit mehrfacher Auflösung.
- Die grundlegende Funktion der Korrelationseinrichtung 402 besteht darin, daß sie Bilddaten aus dem Pyramidenprozessor 11 2 mit mehrfacher Auflösung mit Schablonenbilddaten aus dem Abschnitt 118 der gespeicherten Daten 118 in einer in hohem Maße trennenden Art und Weise korreliert. Die Tatsache, daß die korrelierte Musterform ausgerichtet wird, erhöht die Genauigkeit der Korrelation. Weiterhin macht die Verfügbarkeit der Pixelpositionen von stationären Objekten aus dem Abschnitt 118b der gespeicherten Daten es möglich, daß die Korrelationseinrichtung 402 die Anwesenheit derartiger stationärer Objekte in den aus dem Pyramidenprozessor 112 ihr zugeführten Bilddaten aus der Betrachtung entfernt. Außerdem kann die Korrelationseinrichtung 402 Bildinformationen verwenden, die nicht notwendigerweise in der aktuellen Eingabe an sie aus dem Pyramidenprozessor 11 2 mit mehrfacher Auflösung enthalten sind, sondern aus einer früheren Verarbeitung oder einem früheren Betrieb des Objekterkennungssystems der vorliegenden Erfindung verfügbar sind, die in dem Abschnitt 118c der gespeicherten Daten 118 gespeichert sind. Eine genauere Erläuterung der Arbeitsweise der Korrelationseinrichtung 402 folgt weiter unten. Auf jeden Fall leitet die Korrelationseinrichtung 402 einen ersten Ausgangswert ab, der den aktuellen berechneten Korrelationswert zu diesem Zeitpunkt anzeigt, welcher als Dritte der drei Eingaben an die Wahrscheinlichkeitsbestimmungseinrichtung 404 gegeben wird und der auch zu jeder der Transformationseinrichtungen 302 und 401 zurückgeführt wird, wie oben beschrieben. Zusätzlich führt die Korrelationseinrichtung 402 einen zweiten Ausgangswert als das dritte der drei Signaleingänge den Gattern 408 zu. Dieser zweite Ausgangswert aus der Korrelationseinrichtung 402 besteht aus den X- und Y-Pixelkoordinaten des Bildbereiches, welcher der aktuellen größenangepaßten Schablone entspricht, die dann der Korrelationseinrichtung 402 zugeführt wird und welche als die Bezugsmusterform wirkt, mit welcher die Bilddaten aus dem Pyramidenprozessor 112 mit mehrfacher Auflösung korreliert werden.
- Die Wahrscheinlichkeitsbestimmungseinrichtung 404 wird entsprechend den Entscheidungskriterien gesteuert, die ihr aus dem gespeicherten Programm 116 aktuell eingegeben sind. Gemäß diesen Entscheidungskriterien ordnet die Einrichtung 104 dem jeweiligen Korrelationswert, dem Fleischfarbton und den sich bewegenden Eingaben bestimmte Wichtungen zu. Solange die aus den gewichteten Werten der drei Eingaben berechnete Wahrscheinlichkeit unterhalb eines vorbestimmten Grenzwertes bleibt, der durch die aktuellen Entscheidungskriterien aus dem gespeicherten Programm 116 festgelegt wird, wird kein "Freigabe"- Ausgang aus der Wahrscheinlichkeitsbestimmungseinrichtung 404 abgeleitet. Wenn jedoch die berechnete Wahrscheinlichkeit über diesen vorbestimmten Grenzwert ansteigt (jedoch unter einem immer noch höheren Grenzwert liegt, der durch die aktuellen Entscheidungskriterien festgelegt wird), so leitet die Wahrscheinlichkeitsbestimmungseinrichtung 404 einen "Freigabe-1"-Ausgangswert ab. Die Wahrscheinlichkeitsbestimmungseinrichtung 404 leitet einen "Eingabe-2"-Ausgangswert bzw. -Ausgabe unter Ansprechen darauf ab, daß die berechnete Wahrscheinlichkeit über den zuvor erwähnten höheren Grenzwert ansteigt.
- Die "Freigabe-1"-Ausgabe wird als eine Steuereingabe auf die Gatter 408 gegeben. In Reaktion darauf übermitteln die Gatter 408 als erste, zweite und dritte Eingaben in den Abschnitt 118c der gespeicherten Daten 118 die aktuellen korrelierten X-, Y-Pixelkoordinaten, die aktuellen Fleischton-X-Y-Pixelkoordinaten und die aktuellen Bewegungspixel X- und Y- Koordinaten, für eine Speicherung darin. Zusätzlich werden die korrelierten X- und Y-Pixelkoordinaten als eine Eingabe an die Fenstersteuereinrichtung 410 gegeben (die vorzugsweise entsprechend der Lehre von Anderson et al. arbeitet), und die Ausgabe aus der Fenstersteuereinrichtung 410 wird als eine Steuereingabe an den Pyramidenprozessor 11 2 zurückgeführt. Weiterhin führt unter Ansprechen darauf, daß die Wahrscheinlichkeitsbestimmungseinrichtung 404 eine Wahrscheinlichkeit in dem Bereich zwischen dem vorbestimmten und dem höheren Grenzwert der entsprechenden Freigabe-1- und der Freigabe-2-Ausgaben hiervon berechnet, die Wahrscheinlichkeitsbestimmungseinrichtung 404 ein Steuersignal an das gespeicherte Programm 116 zurück, um anzuzeigen, daß das gespeicherte Programm 116 einen neuen Arbeitszyklus des Systems auslösen sollte.
- Das Auftreten der "Freigabe-2"-Ausgabe ist ein Anzeichen für die Tatsache, daß ein Gegenstand der abgebildeten Szene, wie z.B. John 204a oder Bill 204b als das in einer oder mehreren speziellen Schablonen gezeigte Objekt erkannt wurde, welche in dem Abschnitt 118a der gespeicherten Daten 118 gespeichert wurden. Die "Freigabe-2"-Ausgabe wird als eine Steuereingabe an das Gatter 412 gegeben. Unter Ansprechen darauf übermittelt das Gatter 412 ein Signal aus den gespeicherten Daten 118 an die Ausgabeverwendungseinrichtung 120. Dieses Signal (welches grafische und/oder alphanumerische Daten einschließen kann) identifiziert das erkannte Objekt und seine Position (d.h. die zugehörigen Pixelkoordinaten) in dem Bild. Die Ausgabeverwendungseinrichtung 120 weist Einrichtungen auf, die auf das übermittelte Identifikationssignal ansprechen, um gewisse vorbestimmte Funktionen durchzuführen. Beispielsweise kann die Ausgabeverwendungseinrichtung 120 die darin enthaltene Information aufzeichnen oder an eine zentrale Stelle übermitteln, zusammen mit dem Empfangszeitpunkt, und/oder eine Identifizierungsmarke oder -beschriftung für die Anzeige auf einem Anzeigemonitor 122 an einer Position desselben bereitzustellen, die in der unmittelbaren Nähe des dargestellten Bildes des bestimmten, erkannten Gegenstandes liegt.
- Zum Zwecke der Veranschaulichung wird für die Beschreibung der Arbeitweise der vorliegenden Erfindung angenommen, daß die Schablonen in mehrfacher Betrachtung und mehrfacher Auflösung, die in dem Abschnitt 118a der gespeicherten Daten anfänglich gespeichert wurden, welche jeweils Schablonen einschließen, die John 204a, Bill 204b und Mary 204c zeigen, abgeleitet und dann als eine geordnete Daten basis in dem Abschnitt 118a gespeichert werden, und zwar in der oben beschriebenen Weise.
- Ein Satz von Bildern für jedes der drei beteiligten Individuen wird in einer Übungsphase benutzt für die Verwendung beim Ableiten der in dem Abschnitt 118a der gespeicherten Daten 118 gespeicherten Schablonen. Jeder Satz schließt jeweils Teilsätze einer geraden bzw. Frontalansicht (d.h. das volle Gesicht), des linken Profils und des rechten Profils ein. Jeder Teilsatz kann eine beträchtliche Vielfalt von typischen (Gesichts-)Ausdrücken der in Rede stehenden Person einschließen. Jedoch bleiben einige variable Parameter während der Übungsphase fest. Diese Einschränkungen schließen eine gleichförmige Beleuchtung, einen festen Abstand von der Kamera und keinerlei Drehung und Verkippung des Kopfes aus der vorher festgelegten Position der Frontalansicht, des linken Profils oder des rechten Profils ein. Jedes der Bilder der Übungsphase wird in eine Laplace'sche Pyramide oder Bandpaßpyramide transformiert. Diese Pyramide kann aus der Ebene 1 aufgebaut sein, welche eine Pixelauflösung von 256 x 256 hat, bis herab zur Ebene 5, die eine Pixelauflösung von nur 16 x 16 hat. Dann wird ein 8 x 8 Abschnitt des 16 x 16 Bildes der Ebene 5, welches eine Skizze des Kopfes und Gesichtes umfaßt, als ein Icon oder Zeichen gespeichert, welches in die anfänglich gespeicherte Datenbasis des Abschnittes 118a der gespeicherten Daten 118 aufgenommen werden soll. Als nächstes können drei 8 x 8 Abschnitte aus dem Pyramidenbild der Ebene 4 mit 32 x 32 genommen werden. Diese können den oberen Teil des Kopfes, den Mittelteil des Gesichtes und den Kinnbereich abdecken. Dann können sie ebenfalls in die anfänglich gespeicherte Datenbasis aufgenommen werden. Schließlich werden fünf 8 x 8 Abschnitte des Pyramidenbildes der Ebene 3 mit 64 x 64 in die anfänglich gespeicherte Datenbasis aufgenommen. Diese zuletzt genannten Pyramidenbilder können Bereiche beider Augen, der Nase und der linken und rechten Seiten des Mundes abdecken. Insgesamt bilden also neun Icons den Übungssatz für jedes der Teilsatzbilder mit ursprünglich 256 x 256 Pixelauflösung für jede der beteiligten Personen (d.h. John, Bill und Mary).
- In Zuordnung zu jedem lcon werden in die Datenbasis auch Daten aufgenommen, die seine horizontale und seine vertikale Versetzungsposition in dem speziellen Pyramidenebenenbild definieren, aus welchem es genommen wurde.
- Zusätzlich zu den vorstehenden, anfänglich gespeicherten Icon-Schablonen kann der Abschnitt 118a der gespeicherten Daten 118 auch Schablonen aufweisen, die generell die Form von Menschen definieren. Derartige Gattungsschablonen sollten auf der Ebene 5 oder einer noch höheren Ebene des Pyramidenbildes liegen und nur die verallgemeinerte Form eines menschlichen Kopfes auf einem verallgemeinerten menschlichen Körper in einer oder mehreren Positionen (z. B. stehend oder sitzend) zeigen.
- Eine zweite vorläufige Betriebsweise des oben beschriebenen Systems (das oben diskutiert wurde) ist die Speicherung in dem Abschnitt 118b der gespeicherten Daten 118, und zwar der Positionen der stationären (Hintergrund) Objekte (z. B. der Tisch 206a am Ende, das Sofa 206b und der sich hin und her bewegende Fächer 208) in dem Raum 201.
- Fleischfarbe bzw. Fleischfarbton ist eine bekannte Gattungseigenschaft, welche die abgebildeten Objekte, die aus einer der beteiligten Personen bestehen und andere Typen von abgebildeten Objekten voneinander unterscheidet. Die Erfassung der Fleischfarbigkeit durch den Fleischfarbtondetektor 406, der von dem System verwendet wird, ist ein interessierendes Merkmal, welches sich auf diese Gattungseigenschaft aller beteiligter Individuen bezieht.
- Eine andere Gattungseigenschaft von Menschen ist die, daß sie bewegbar sind, auch wenn sie sich nicht zu jedem gegebenen Zeitpunkt bewegen müssen. Weiterhin sind nicht alle Objekte Menschen. Nichtsdestotrotz wird die Ausgabe "sich bewegendes Objekt" aus der Einrichtung 304 für sich bewegende Objekte von dem System als ein weiteres Merkmal von Interesse verwendet, das sich auf eine Gattungseigenschaft der beteiligten Individuen bezieht.
- Eine zusätzliche, unterscheidungsfähige Gattungseigenschaft von Menschen ist die Musterform des menschlichen Körpers. Die Gattungsschablonen, die oben beschrieben wurden und die anfänglich in dem Abschnitt 118a der gespeicherten Daten 118 gespeichert wurden, sind Merkmale von Interesse, die sich auf diese Gattungseigenschaft von Menschen beziehen.
- Wenn die Einzelbild- und Abstandsspeicher des Blockes 300 entsprechend ihrer Adressierung für jedes aufeinanderfolgende Einzelbild der Kamera 200a und der Abstandsmeßeinrichtung 200b ausgelesen werden, sucht das System gleichzeitig nach dem Vorhandensein von irgendeinem dieser drei interessierenden Merkmale.
- Die Bestimmung der X- und Y-Koordinaten jedes ausgelesenen Bildes eines interessierenden Merkmales eines sich bewegenden (Vordergrund) Objektes oder eines interessierenden Fleischfarbtonmerkmales erfolgt unmittelbar. Der Umfang mit den Identifizierungspixeln eines ausgelesenen Bildes als zu der Musterform eines menschlichen Körpers gehörend ist jedoch beträchtlich komplizierter. Zunächst hängt die Form des zweidimensionalen Bildmusters eines Menschen von der Ausrichtung des dreidimensionalen Menschens bezüglich der Kamera 200a ab. Zum zweiten hängt die Größe dieses zweidimensionalen, abgebildeten Musters sowohl vom Abstand des Menschen von der Kamera 200a und der zu diesem Zeitpunkt vorhandenen Größe des Gesichtsfeldes 102 ab (die einstellbar sein kann, wenn die Kamera 200a die Fähigkeit zum Zoomen hat). Im vorliegenden Fall wird angenommen, daß das Gesichtsfeld 102 fest bleibt. Die Größeneinstelleinrichtung 400, die oben beschrieben wurde, gleicht jeden Größenunterschied der Bilddaten entsprechend den darauf angewendeten als Abstand gemessenen Z-Pixelkoordinaten aus. Dies bedeutet, daß die Anzahl der Schablonen, die anfänglich in dem Abschnitt 118a der gespeicherten Daten 118 gespeichert werden müssen, beträchtlich vermindert wird.
- Im Falle einer Erkennung eines gattungsgemäßen Objektes wird die Schablonentransformationseinrichtung 401 nicht verwendet. Die beiden Gattungsschablonen (Angehöriger der Gattung Mensch in einer stehenden bzw. einer sitzenden Position) werden jedoch anfänglich nacheinander in aufeinanderfolgenden Einzelbildern verwendet, um festzustellen, ob eine der beiden Schablonen, wenn überhaupt eine, den höheren Korrelationswert in irgendeinem gegebenen Fall liefert, woraufhin nur die Schablone berücksichtigt wird, welche den höheren Korrelationswert zeigt.
- Das Bestimmen eines Korrelationswertes kann das Auslesen mehrerer Einzelbilder erfordern. Von Einzelbild zu Einzelbild wird die Transformationseinrichtung 302 für die Bildorientierung um einen anfänglichen Bearbeitungsnullpunkt vor und zurück zitternd bewegt (dithering). Da die Korrelationseinrichtung 402 orientierte Musterformen korreliert, wird der abgeleitete Korrelationswert für eine der beiden Zitterpositionen normalerweise beträchtlich höher sein als für die andere. Unter Ansprechen darauf wird der Arbeitspunkt der Transformationseinrichtung 302 schrittweise von Null in der Richtung versetzt, die durch den höheren Korrelationswert angegeben wird. Dieser Vorgang wird fortgesetzt, bis die durch die Zitterbewegung erzeugten Korrelationswerte eines bestimmten, versetzten Arbeitspunktes einander im wesentlichen gleich sind. Auf diese Weise wird ein Verkippen des Bildmusters der gattungsgemäßen menschlichen Körperform kompensiert.
- Alternativ können andere im Stand der Technik wohlbekannte Techniken, einschließlich der einfachen Korrelation, der normalisierten Korrelation, des mittleren quadratischen Fehlers und des absoluten Fehlers verwendet werden, um die Übereinstimmung zwischen einem gegebenen Muster und gespeicherten Mustern zu bestimmen.
- Wie oben erläutert, ist die anfängliche Eingabe aus dem Pyramidenprozessor 112 mit mehrfacher Auflösung, die an die Korrelationseinrichtung 402 gegeben wird, für den Fall des Erkennens eines Menschens seiner Gattung nach von kleiner Auflösung (d.h. auf einer hohen Ebene des Pyramidenprozessors). Anfänglich wird die Gesamtfläche eines Einzelbildes betrachtet. Gemäß der Foveationstechnik, die in dem zuvor erwähnten Patent von Anderson et al. gelehrt wird, schaltet die Fenstersteuereinrichtung 410 unter Ansprechen auf den Ausgang der Korrelationseinrichtung 402, die einen gegebenen Korrelationswert erreicht, den Ausgang von dem Pyramidenprozessor 112 zu der nächstniedrigeren Ebene (höhere Auflösung) des Pyramidenprozessors, während der Bereich des Einzelbildes, der aus dem Pyramidenprozessor 112 ausgegeben wird, nur auf einen lokalisierten Fensterbereich in der Nachbarschaft der korrelierten Musterform beschränkt wird, welche den zuvor erhaltenen Korrelationswert geliefert hat.
- Die Korrelationseinrichtung 402 kann die jeweiligen Eingaben aus den Abschnitten 118b und 118c der gespeicherten Daten 118 verwenden, um ihre Arbeitsweise zu modifizieren, so daß ein Beitrag von Stellen oder stationären (Hintergrund) Objekten zu der Korrelation der Musterform ignoriert wird und so, daß die Wichtung des Korrelationswertes, die von der Korrelationseinrichtung 402 abgeleitet wird, entsprechend der schon erreichten und gespeicherten, ihr zugeführten Information für die Steigerung bzw. Verbesserung der Erkennung vergrößert wird.
- Man nehme an, daß zu Beginn des Betriebs des Systems John und Bill in Figur 2 sich in dem Raum 201 an der dargestellten Position aufhalten, wobei John bewegungslos steht und von der Kamera weg schaut und Bill bewegungslos sitzt und der Kamera zugewandt ist. Weiterhin nehme man an, daß im Falle von John der Unterschied zwischen seinem Bild mit niedriger Auflösung aus dem Pyramidenprozessor 112 mit mehrfacher Auflösung und die gattungsgemäße Menschenschablone in stehender Position ausreichend ist, um eine Ausgabe "Freigabe-1" aus der Wahrscheinlichkeitsbestimmungseinrichtung 404 zu erzeugen (obwohl die Eingaben für Fleischfarbton und sich bewegende Objekte bezüglich John für die Wahrscheinlichkeitsbestimmungseinrichtung 404 vernachlässigbar sind), und daß dieser Korrelationswert ausreichend ist, um zu bewirken, daß die Fenstersteuereinrichtung 410 den Pyramidenprozessor 112 auf die nächsthöhere Pyramidenprozessorebene umschaltet. Im Falle von Bill sei angenommen, daß für die Fleischfarbtoneingabe die durch die Wahrscheinlichkeitsbestimmungseinrichtung 404 bestimmte Wahrscheinlichkeit ausreichend ist, um eine "Freigabe-1"-Ausgabe aus dieser hervorzurufen (obwohl der Korrelationswert und die Eingaben für sich bewegende Objekte in die Wahrscheinlichkeitseinrichtung 404 im Falle von Bill vernachlässigbar sind). Der Grund für den niedrigen Korrelationswert im Falle von Bill liegt darin, daß, da er auf dem Sofa sitzt, eine niedrige Auflösung seines Bildes aus dem Pyramidenprozessor 112 mit mehrfacher Auflösung kombiniert mit derjenigen des Sofas (das sich im wesentlichen im selben Abstand zu der Kamera befindet wie Bill), zu einer kombinierten Musterform führt, die von der Musterform eines gattungsgemäßen Menschen in sitzender Position sehr verschieden ist (und die in dieser niedrigen Auflösung mit der gespeicherten Position von Informationen über stationäre Objekte, die der Korrelationseinrichtung 402 zugeführt sind, nicht wirksam korrigiert werden kann).
- Die "Freigabe-1"-Ausgabe aus der Einrichtung 404 öffnet die Gatter 408 und leitet die Pixelkoordinaten der jeweiligen Positionen von John und Bill als speichervergrößerte Erkennungsdaten in den Abschnitt 118c der gespeicherten Daten 118. Daher ist beim nächsten Arbeitszyklus des Systems der Korrelationswert an diesen entsprechenden Positionen stärker gewichtet. Weiterhin ist im Falle von John ein höher aufgelöstes Bild nur innerhalb einer lokalisierten Fensternachbarschaft der Position von John mit einem gattungsgemäßen Muster einer Menschenform in stehender Position korreliert. Dies führt zu einem hohen Korrelationswert bei hoher Auflösung und (einer daher genaueren) Bestimmung der Position von John. Weiterhin kann John zwischen den ersten und zweiten Arbeitszyklen des Systems seine Position geändert haben, so daß: (1) nunmehr eine Information über ein sich bewegendes Objekt als Eingabe für die Wahrscheinlich keitsbestimmungseinrichtung 404 vorhanden ist und (2) ein Fleischfarbton nunmehr abgebildet wird.
- Dies erhöht die Wahrscheinlichkeit bis zu einem Punkt, bei welchem das System definitiv annimmt, daß Johns Bild zumindest das eines gattungsgemäßen Menschen ist. Unter Ansprechen darauf liefert die Wahrscheinlichkeitsbestimmungseinrichtung 404 ein Signal an das gespeicherte Programm 116 zurück, welches bewirkt, daß das gespeicherte Programm 116 während künftiger Zyklen die Folge der Arbeitsvorgänge des Systems in einer Art und Weise steuert, die erforderlich ist, um die spezielle beteiligte Person, falls eine solche vorhanden ist, zu bestimmen, welche durch diese gattungsgemäße menschliche Musterform dargestellt wird (die tatsächlich Johns Bild ist).
- Im Falle von Bill führt der Arbeitszyklus des Systems zu einem höheren Korrelationswert oder korrelierten X- und Y-Pixeln in der Nähe von Bilis abgebildetem Kopf wegen der Speicherung der X- und Y-Pixelkoordinaten mit Fleischtonfarbe in dem Abschnitt 118c der gespeicherten Daten 118 während des ersten Arbeitszyklus des Systems. Es wird angenommen, daß der während des zweiten Arbeitszyklus des Systems erhaltene Korrelationswert ausreichend hoch ist, um zu bewirken, daß die Fenstersteuereinrichtung 410 den Ausgang des Pyramidenprozessors 112 mit mehrfacher Auflösung auf das nächstniedrigere (höhere Auflösung) Niveau des Pyramidenprozessors (nächsthöhere Ebene) für die Verwendung während des dritten Arbeitszyklus des Systems umschaltet. Weiterhin wird angenommen, daß bei dieser höheren Auflösung der Einfluß des Sofas 206b auf die korrelierte Bildmusterform in zufriedenstellender Weise von der auf die Korrelationseinrichtung 204 aus dem Abschnitt 118b der gespeicherten Daten 118 angewendeten Informationen über die stationären Objekte beseitigt werden kann. Daher liefert der resultierende Korrelationswert, den man aus dem dritten Arbeitszyklus des Systems erhält, zusammen mit der Information über den Fleischfarbton eine Wahrscheinlichkeit, die ausreichend hoch ist, um Bilis Bild als dasjenige eines Angehörigen der Gattung Mensch zu erkennen. Es ist daran zu erinnern, daß während jedes aufeinanderfolgenden Arbeitszyklus des Systems, währenddessen ein "Eingabe-1"-Ausgangswert aus der Einrichtung 404 abgeleitet wird, eine zusätzliche Vergrößerungsinformation für die Speicherung in dem Abschnitt 118c der gespeicherten Daten 118 übermittelt wird für die Verwendung während des nächsten Arbeitszyklus des Systems. Weiterhin liefert die Einrichtung 404, unter Ansprechen darauf, daß die Einrichtung 404 eine Wahrscheinlichkeit während irgendeines Zyklus ermittelt, welche anzeigt, daß ein Mensch sich in einer festgestellten Position auf dem Bild befindet, ein Signal an das gespeicherte Programm 116 zurück, um zu bewirken, daß das System während des nächsten Arbeitszyklus die Bestimmung startet, welches spezielle der beteiligten Individuen durch das so festgestellte menschliche Wesen repräsentiert wird, wenn es irgendeines von diesen ist.
- Bei der Bestimmung der Identität irgendeiner der beteiligten Personen werden die oben beschriebenen und anfänglich gespeicherten Schablonen der vorderen Gesichtsansicht (C) des linken Profils (L) und des rechten Profils (R) für die betroffene Person aus dem Abschnitt 118a der gespeicherten Daten 118 als die jeweiligen Eingaben für die Transformationseinrichtung 401 zugeführt. Die Transformationseinrichtung 401 arbeitet in einer Art und Weise, die ähnlich der oben für die Transformationseinrichtung 302 beschriebenen ist, um eine Transformationsmischung der (C)-, (L)- und (R)-Schablonendaten, die seinen drei Eingängen zugeführt wurden, in einer Zitterbewegung bezüglich eines aktuellen Arbeitspunktes nach links und rechts vor und zurück zu bewegen, wobei der Arbeitspunkt immer zwischen aufeinanderfolgenden Einzelbildern in derjenigen Richtung verändert wird, welche den höchsten Korrelationswert der resultierenden Transformationsmischung seiner drei Eingaben liefert, bis ein Arbeitspunkt erreicht ist, für welchen die Zitterbewegung nach links und die Zitterbewegung nach rechts im wesentlichen den gleichen Korrelationswert liefern. Zusätzlich kann ein Signal aus der Transformationseinrichtung 302, welches den Arbeitspunkt der Transformationseinrichtung 302 anzeigt, als eine Eingabe an die Transformationseinrichtung 401 gegeben werden, um eine Feinabstimmung der Transformationsmischung der Transformationseinrichtung 401 entsprechend dem Betrag der Bildverkippung vorzunehmen, die durch die Transformationseinrichtung 302 kompensiert wird. Mit all dieser Information kann die Transformationseinrichtung 401 einen Ausgangswert für eine zusammengesetzte Schablone (z. B. eine Schablone von 3/4 des linken Gesichtes) ableiten, die als Eingabe an die Größeneinstelleinrichtung 400 übermittelt wird, die weitgehend Veränderungen des zweidimensionalen Abbildes des Kopfes einer beteiligten Person aufgrund der aktuellen Veränderungen in der Ausrichtung des Kopfes dieser Person im dreidimensionalen Raum kompensiert.
- Nachdem die Position eines abgebildeten Menschens erkannt worden ist, verwendet die Korrelationseinrichtung 402 die anfänglich gespeicherten lcon-Schablonen mit mehreren Ansichten und mehrfacher Auflösung, die oben erläutert wurden und eine Datenbasis bilden, und zwar für den Zweck, um speziell zu erkennen, welche der drei beteiligten Personen (John, Bill oder Mary), wenn es irgendeine von diesen ist, durch diesen speziellen, in der Gattung erkannten Menschen wiedergegeben wird. Zu Beginn dieses speziellen Erkennungsprozesses liefern die Vergrößerungs- bzw. Zusatzdaten, die schon in dem Abschnitt 118c gespeichert sind, ein 16 x 16 Bildpixelfenster, welches die Position des der Gattung nach erkannten Menschens einschließt.
- Für den folgenden Vorgang der speziellen Erkennung wird der Erläuterung halber angenommen, daß die Korrelationseinrichtung 402 selbst eine Zwischenspeichereinrichtung (temporäre Speichereinrichtung) aufweist, die verwendet wird, um die der Reihe nach abgeleiteten schrittweisen Steigerungen des Korrelationswertes für die beteiligte Person zu berechnen bzw. aufzusummieren (obwohl es sich versteht, daß der spezielle Erkennungsprozeß auch den Abschnitt 118c der gespeicherten Daten 118 für einen solchen Zweck verwenden könnte). Insbesondere wird das 16 x 16 Bildfenster auf der Ebene 5 von dem Pyramidenprozessor 112 mit dem anfänglich gespeicherten lcon auf der Ebene 5 in der Datenbasis für jede der drei beteiligten Personen verglichen, und der resultierende, normalisierte Korrelationswert (der hinsichtlich seines Wertes zwischen -1,0 und + 1,0 variieren kann) wird getrennt zeitweise für jede der beteiligten Personen gesteigert. Ähnliche Vergleiche werden dann für jede der drei beteiligten Personen auf der Auflösung der Ebene 4 für jedes der drei Icons der Ebene 4 in der Datenbasis vorgenommen und dann wiederum mit der Auflösung auf der Ebene 3 für jedes der fünf Icons in der Datenbasis auf der Ebene 3.
- Wie oben erläutert, werden in der Datenbasis in Verbindung mit jedem darin gespeicherten Icon Daten gespeichert, die die horizontale Versetzungsposition und die vertikale Versetzungsposition des betreffenden Icons in dem speziellen Bild des Pyramidenniveaus definieren, aus welchem sie genommen wurden. Daher ist für jede beteiligte Person jedes der drei Icons in der Datenbasis mit der Auflösung auf der Ebene 4 und jedes der fünf Icons in der Datenbasis mit der Auflösung auf der Ebene 3 bekannt, und sie sind Teil der gespeicherten Information in dem Abschnitt 118a. Jeder dieser Vergleiche mit der Auflösung der Ebene 4 und der Ebene 3 und ihre entsprechenden Verschiebungen (Versätze) werden bei der Festlegung der Position eines 15 x 15 Zellbildfensters bei jedem der Vergleiche auf der Auflösung der Ebene 4 und der Ebene 3 für jede der beteiligten Personen berücksichtigt. Dies verbessert die Geschwindigkeit des Systems, indem unnötiges Absuchen in dem Bereich, wo die Icons wahrscheinlich nicht sind, verhindert wird.
- Der Grund für die steigende Anzahl von Icons bei höherer Auflösung liegt darin, daß Icons mit höherer Auflösung eine größere Variabilität haben und damit kleinen Veränderungen in dem Ausdruck (Gesichtsausdruck) der abgebildeten Person während der Trainingsphase von Zeit zu Zeit mehr ausgesetzt sind. Wenn man eine größere Anzahl von Icons hat, so vermindert dies die Möglichkeit, daß ein bestimmter Übungssatz bzw. Trainingssatz wegen einer kleinen Veränderung in einem Hochfrequenzmerkmal herabgesetzt wird. Auf jeden Fall wird für dasjenige der drei Icons auf der Ebene 4 für jede der beteiligten Personen, welches den höchsten normalisierten Korrelationswert hat, der normalisierte Korrelationswert zu dem gespeicherten normalisierten Korrelationswert der Ebene 5 hinzuaddiert. In ähnlicher Weise werden die höchsten normalisierten Korrelationswerte der fünf Icons auf der Ebene 3 zu der Summe der normalisierten Korrelationswerte der Ebene 5 und des höchsten Wertes der Ebene 4 hinzuaddiert. Für jede der beteiligten Personen gibt es also eine Gesamtsumme der normalisierten Korrelationswerte, die in ihrem Wert zwischen -3,0 und +3,0 variieren kann. Wie auch immer dieser Wert ist, so wird er der Wahrscheinlichkeitsbestimmungseinrichtung 404 zugeführt, und wenn er zumindest gleich dem zweiten Grenzwert ist, so leitet die Wahrscheinlichkeitsbestimmungseinrichtung 404 eine "Freigabe-2"-Ausgabe ab, welche das Gatter 412 öffnet. Unter Ansprechen darauf leitet das Gatter 412 die Identität und die Pixelposition der speziell erkannten der drei beteiligten Personen (d.h. John, Bill oder Mary) an die Ausgangsverwendungseinrichtung 120. Wenn der höchste Korrelationswert unterhalb des Grenzwertes liegt, so wird angenommen, daß der der Gattung nach erkannte Mensch nicht eine der drei beteiligten Personen ist.
- Bei der obigen Diskussion ist angenommen worden, daß keine der drei beteiligten Personen vorher bereits speziell erkannt worden ist. Wenn die dritte der beteiligten Personen speziell erkannt worden ist, arbeitet das System so, daß es kontinuierlich die Position dieses speziell erkannten Individuums verfolgt, wobei der Vorteil der Information über den sich bewegenden Gegenstand (Vordergrund), die der Wahrscheinlichkeitsbestimmungseinrichtung 404 zugeführt wird, und die Position (d.h. die zugeordneten Pixelkoordinaten) dieser speziell erkannten Person, die in dem Abschnitt 118c der gespeicherten Daten 118 gespeichert sind (welche kontinuierlich auf den neuesten Stand gebracht werden) in vollem Umfang ausgenutzt wird. Wenn also angenommen wird, daß Mary zuvor speziell erkannt worden ist, jedoch seitdem den Raum 201 durch den Eingang 203 verlassen hat (wie durch den Pfeil 205 i Figur 2 angezeigt wird), so wird der plötzliche Verlust ihres Bildes in dem Verfolgungsbetriebszustand des Systems erkannt.
- Wenn weiterhin eine der beteiligten Personen von dem System schon speziell erkannt worden ist, so würde es für das System keinen Nutzen bringen, die Icons dieser Person in der Datenbasis in dem Versuch zu berücksichtigen, eine andere, der Gattung nach erkannte, abgebildete menschliche Person speziell zu erkennen. Daher kann der oben beschriebene, spezifische Erkennungsvorgang für eine zweite beteiligte Person beschleunigt werden, indem die zuvor gespeicherten Icons aller schon speziell erkannten, beteiligten Personen in dem aktuellen Bild außer Betracht gelassen werden. Einfach gesagt ist die dynamische Bildverarbeitungstechnik für das Erkennen von Objekten gemäß der vorliegenden Erfindung in ihrer Verwendung nicht auf das anschauliche Beispiel beschränkt, welches in allen Einzelheiten oben besprochen wurde (d.h. Erkennen (1) der Anwesenheit eines menschlichen Wesens innerhalb eines Raumes und (2) dann Erkennen, ob der der Gattung nach erkannte Mensch ein bestimmter aus einer Gruppe bekannter, beteiligter Personen ist). Ein weiteres Beispiel, auf welches die vorliegende Erfindung in vorteilhafter Weise angewendet werden könnte, wären komplizierte, automatisch gesteuerte Systeme, wie z.B. Fernsehüberwachungskameras, Robotersysteme und Zielführungssysteme. Ein weiteres Beispiel läge in der Verwendung einer Maschinensicht (bzw. einer sehenden Maschine) bei der Herstellung, wobei die vorliegende Erfindung insbesondere geeignet ist für das spezielle Erkennen jeweils verschiedener, vorbestimmter Komponenten, die automatisch montiert oder sortiert werden sollen.
- Gemäß Figur 1 sind zusätzliche Merkmale der vorliegenden Erfindung dargestellt, die zuvor noch nicht diskutiert worden sind und die sowohl bei dem anschaulich dargestellten Beispiel als auch bei anderen Beispielen für den Betrieb bzw. die Benutzung der vorliegenden Erfindung verwendet werden können. Beispielsweise kann die Information, die durch die Gegenstandserkennungseinrichtung 114 abgeleitet wird, für das Steuern der Ausrichtung und/oder das Steuern des Veränderns (Zoomens) des Gesichtsfeldes der Abbildungseinrichtung 100 verwendet werden. In diesem Fall würde die Abbildungseinrichtung 100 Servomformation zurück zu der Gegenstandserkennungseinrichtung 114 liefern. Weiterhin könnte die Ausgabeverwendungseinrichtung 120 eine Aufzeichnungsausrüstung aufweisen, um die Gegenstandserkennungsinformation, die ihr von der Gegenstandserkennungseinrichtung 114 zugeführt wird, für eine spätere Verwendung aufzuzeichnen, oder eine solche Information könnte durch die Ausgabeverwendungseinrichtung 120 an einen Ort fernübertragen werden, der von demjenigen, an welchem die Gegenstandserkennungsinformation gewonnen wurde, entfernt liegt.
- Die Ausführungsform der Erfindung, die in breitem Umfang in Figur 1 dargestellt ist, wird als die effizienteste Verwirklichung der vorliegenden Erfindung angesehen. Zunächst wird in der offenbarten Ausführungsform neue Bildinformation kontinuierlich in Realzeit gesammelt, während der Objekterkennungsvorgang stattfindet. Zum zweiten beinhaltet der Pyramidenprozessor mit Mehrfachauflösung ein steuerbar bewegbares Fenster, welches verwendet wird, um in effizienter Weise die Bilddaten, die betrachtet werden müssen, auf ein Minimum zu reduzieren.
- Statt mit Bilddaten zu arbeiten, die in Realzeit erhalten werden, ist es auch möglich, alle Bilddaten eines Blockes aufzuzeichnen, die aus einer großen Anzahl von aufeinanderfolgenden Einzelbildern bestehen, bevor die Bilddaten in diesem Block von Bilddaten für Objekterkennungszwecke dynamisch verarbeitet werden. Weiterhin muß die Datenreduzierung nicht durch einen Pyramidenprozessor mit Mehrfachauflösung durchgeführt werden, da auch andere Datenreduktionstechniken im Stand der Technik existieren, die für Objekterkennungszwecke verwendet werden könnten.
- In Figur 1 wird die Abbildungseinrichtung, welche reale dreidimensionale Objekte bzw. Gegenstände abbildet, für das Erhalten von Bilddaten verwendet. Es versteht sich jedoch, daß solche Bilddaten auch durch andere Einrichtungen erhalten werden könnten. Beispielsweise könnten die Bilddaten durch einen Computer erzeugt werden oder sie könnten durch belebte Zeichentricktechniken (animated cartoons) erhalten werden.
- Das anschauliche Beispiel der Arbeitsweise des Gegenstandserkennungssystems der vorliegenden Erfindung, welches oben im Detail beschrieben worden ist, benutzt als interessierende Merkmale, die von der Wahrscheinlich keitsbestimmungseinrichtung 404 verwendet werden, (1) die Farbe (d.h. Fleischfarbton), (2) eine Musterform (das Muster einer Form bzw. die Form eines Musters) und (3) das sich Bewegen von Vordergrundgegenständen. Es versteht sich, daß andere interessierende Merkmale als Unterscheidungsmerkmale für Gegenstandserkennungszwecke verwendet werden können, und zwar zusätzlich zu oder anstelle der Farbe, der Musterform oder der Information über ein sich bewegendes Objekt.
Claims (17)
1. Dynamisches Bildverarbeitungsverfahren für das Erkennen von Gegenständen (104)
einer gegebenen Klasse, die grafisch in einer Zeitfolge von aufeinanderfolgenden
Einzelbildern von Bilddaten mit relativ hoher Auflösung wiedergegeben werden, wobei
das Verfahren anspricht auf (A) ein gespeichertes Programm (116) für das Steuern der
Bildverarbeitung und für das Spezifizieren eines Satzes von Entscheidungskriterien,
und (B) gespeicherte Daten (118);
wobei Gegenstände (104) der gegebenen Klasse allesamt eine Gruppe von
bekannten, ihnen innewohnenden bzw. Gattungs-Eigenschaften haben, die als Ganzes
genommen die Gegenstände der gegebenen Klasse von Gegenständen unterscheidet,
die nicht der gegebenen Klasse angehören, und
wobei die gespeicherten Daten (118) anfänglich eine begrenzte Anzahl von
getrennten Merkmalen definieren, die mit der Gruppe von Gattungseigenschaften
zusammenhängen, wobei jedes der anfänglich gespeicherten Merkmale in einer Folge
eines oder mehrere aufeinanderfolgender Einzelbilder von Bilddaten wahrscheinlich
vorhanden ist, wenn ein Gegenstand (104) der gegebenen Klasse in dieser Folge
grafisch wiedergegeben wird;
wobei das Verfahren die Schritte aufweist:
a) Durchführen einer ersten Bestimmung, und zwar unter der Steuerung
des gespeicherten Programms (116) und unter Ansprechen auf
zumindest ein erstes der erwähnten getrennten Merkmale, die anfänglich
durch die gespeicherten Daten (118) definiert werden, entsprechend
den Entscheidungskriterien bezüglich der ersten Wahrscheinlichkeit,
daß eines oder mehrere der relativ frühzeitig auftretenden Einzelbilder
der zeitlichen Folge als Teil der Bilddaten zumindest ein erstes der
getrennten Merkmale der Gegenstände der gegebenen Klasse (104)
aufweisen könnte,
b) unter Ansprechen darauf, daß die erste Wahrscheinlichkeit zumindest
gleich einem ersten vorbestimmten Grenzwert ist, Hinzufügen von
Daten, welche zumindest die relative Position des Teiles innerhalb der
relativ früh auftretenden Einzelbilder definieren, zu den gespeicherten
Daten und damit Vergrößern der gespeicherten Daten (18), wobei das
Verfahren gekennzeichnet ist durch die weiteren Schritte:
c) Durchführen einer zweiten Bestimmung, und zwar unter der Steuerung
des gespeicherten Programms (116) und unter Ansprechen auf die
vergrößerten gespeicherten Daten, entsprechend den
Entscheidungskriterien, bezüglich der zweiten Wahrscheinlichkeit, daß eines oder
mehrere der relativ später auftretenden Einzelbilder der Zeitfolge diesen
Teil als einen verifiziert, der zumindest ein zweites der getrennten
Merkmale zusätzlich zu dem ersten Merkmal aufweist;
d) unter Ansprechen darauf, daß die zweite Wahrscheinlichkeit oberhalb
eines zweiten vorbestimmten Grenzwertes liegt, Erkennen des Teiles
als eine grafische Wiedergabe eines Objektes der gegebenen Klasse;
e) unter Ansprechen darauf, daß die zweite Wahrscheinlichkeit unterhalb
eines dritten vorbestimmten Grenzwertes liegt, welcher beträchtlich
unterhalb des zweiten vorbestimmten Grenzwertes liegt, Erkennen des
Teiles als eines, welches keine grafische Wiedergabe eines
Gegenstandes der gegebenen Klasse ist;
f) unter Ansprechen darauf, daß die zweite Wahrscheinlichkeit in einem
Bereich zwischen den zweiten und dritten Grenzwerten liegt,
Hinzufügen weiterer Daten, welche durch die Verifizierung des Schrittes c)
definiert werden, zu den gespeicherten Daten (118) und damit weiteres
Erhöhen bzw. Vergrößern der gespeicherten Daten, und
g) falls die zweite Wahrscheinlichkeit innerhalb dieses Bereiches liegt,
rekursives Wiederholen der Schritte c) bis f) für relativ zunehmend
später auftretende Folgen von einem oder mehreren Einzelbildern der
Zeitfolge, bis die auf diese Weise in dem wiederholten Schritt d)
bestimmte Wahrscheinlichkeit entweder oberhalb des zweiten
vorbestimmten Grenzwertes oder unterhalb des dritten vorbestimmten
Grenzwertes liegt.
2. Verfahren nach Anspruch 1, wobei das Verfahren weiterhin den Schritt aufweist:
Analysieren jedes der aufeinanderfolgenden, relativ hoch aufgelösten
Einzelbilder von Bilddaten zu einer mehrfach aufgelösten Pyramide, welche zumindest eine
Ebene aufweist, die eine niedrigere Auflösung hat als die hoch aufgelösten Einzelbilder
vor dem Schritt (a);
wobei in Schritt (a) die erste Wahrscheinlichkeit die Wahrscheinlichkeit ist, mit
welcher irgendeines der niedrigeren Auflösungsniveaus der Pyramide mit mehreren
Auflösungen in einer Folge von einem oder mehreren relativ früh auftretenden
Einzelbilder der Zeitfolge als Teil der Bilddaten desselben zumindest eines der getrennten
Merkmale von Gegenständen der gegebenen Klasse aufweisen kann, und
wobei in Schritt (c) die zweite Wahrscheinlichkeit die Wahrscheinlichkeit ist,
daß auf irgendeinem der Niveaus der Pyramide mit mehreren Auflösungen in einer
Folge von einem oder mehreren relativ spät auftretenden Einzelbildern der Zeitfolge
bestätigt wird, daß der Teil zumindest ein zweites der getrennten Merkmale zusätzlich
zu dem ersten Merkmal aufweist.
3. Verfahren nach Anspruch 2, wobei
die gegebene Klasse von Gegenständen (104) aus einer Mehrzahl von
vorgewählten Teilen besteht, wobei jedes der vorgewählten Teile der gegebenen Klasse
individuell dadurch definiert ist, daß es einen eindeutigen Satz bekannter
Artenmerkmale zumindest jeweils einer Teilgruppe der bekannten, Gattungseigenschaften
aufweist, und
für jedes Artenmerkmal eine der genannten Gattungseigenschaften der
Teilgruppe die gespeicherten Daten (118) ein getrenntes Typmerkmal aufweist, das sich
auf eine grafische Wiedergabe dieser Art der einen Gattungseigenschaft in einem
bestimmten Pyramidenniveau der aufeinanderfolgenden Einzelbilder bezieht,
wobei das Verfahren die weiteren Schritte aufweist:
h) Vergleichen, und zwar unter der Steuerung des gespeicherten
Programms (116) und unter Ansprechen darauf, daß der erwähnte Teil als
eine grafische Wiedergabe eines Gegenstandes (104) der gegebenen
Klasse erkannt worden ist, wiederum jedes gespeicherten
Typmerkmals, welches sich auf jede unterschiedliche Art einer der ersten
gegebenen, Gattungseigenschaften der Teilgruppe auf einem bestimmten
Pyramidenniveau bezieht, mit jenem Teil, um zu bestimmen, welche der
verglichenen Arten dem betreffenden Teil mit der höchsten
Wahrscheinlichkeit entspricht, welche größer als eine vorbestimmte
Grenzwertwahrscheinlichkeit ist, und
i) Wiederholen des Schrittes h) wiederum für jedes gespeicherte
Typmerkmal, welches sich auf jede unterschiedliche Art von jeder anderen
der gegebenen Gattungseigenschaften der Teilgruppe auf einem
bestimmten Pyramidenniveau bezieht, um dadurch den eindeutigen Satz
bekannter Artenmerkmale zu bestimmen, die grafisch durch den Teil
und das vorgewählte individuelle Teil repräsentiert werden, welches
durch den eindeutigen Satz definiert wird, falls irgendein solches
vorhanden ist.
4. Verfahren nach Anspruch 1, 2 oder 3, wobei die grafische Wiedergabe von
Gegenständen der gegebenen Klasse eine zweidimensionale Wiedergabe eines bewegbaren
dreidimensionalen Gegenstandes aufweist, wobei die Position, Größe und/oder Form
der zweidimensionalen Wiedergabe in einem Einzelbild des bewegbaren Objektes sich
von einem Einzelbild zum anderen unterscheiden kann.
5. Verfahren nach Anspruch 4, wobei die Zeitfolge aufeinanderfolgender Einzelbilder
zweidimensionale Wiedergaben von tatsächlich dreidimensionalen Gegenständen
aufweist, die von einer Kamera betrachtet werden, wobei tatsächlich einer der
betrachteten dreidimensionalen Gegenstände bewegbar ist.
6. Verfahren nach Anspruch 5, wobei die gegebene Klasse von Gegenständen aus
Menschen besteht und die Gruppe von bekannten Eigenschaften Eigenschaften des
menschlichen Gesichtes einschließt.
7. Verfahren nach Anspruch 1, 5 oder 6, welches den weiteren Schritt aufweist:
h) kontinuierliches Messen des Abstandes zwischen der Kamera, welche
den bewegbaren Gegenstand betrachtet, und dem bewegbaren
Gegenstand, um laufende Meßdaten dieses Abstandes zu erhalten, und
i) Verwenden der laufenden Meßdaten gemeinsam mit den vergrößerten
gespeicherten Daten in der Vollendung des Schrittes c), um die zweite
Bestimmung vorzunehmen.
8. Bildverarbeitungssystem für das dynamische Erkennen von Gegenständen (104) einer
gegebenen Klasse, die grafisch in einer Zeitfolge aufeinanderfolgender, relativ hoch
aufgelöster Einzelbilder von Bilddaten wiedergegeben werden, wobei die Gegenstände
(104) der gegebenen Klasse allesamt eine erste Gruppe bekannter, ihnen
innewohnender Eigenschaften (Gattungseigenschaften) besitzt, welche als Ganzes genommen die
Gegenstände der gegebenen Klasse von Gegenständen (106) unterscheidet, die nicht
der gegebenen Klasse angehören, und wobei jedes bekannte Mitglied der gegebenen
Klasse eine zweite Gruppe von bekannten, spezifischen Eigenschaften aufweist, die
als Ganzes genommen das bekannte Mitglied von anderen Mitgliedern der gegebenen
Klasse unterscheidet, wobei das System aufweist:
eine erste Einrichtung (116) für das Speichern eines gespeicherten Programms
zum Steuern der Bildverarbeitung und für das Spezifizieren eines Satzes von
Entscheidungskriterien,
eine zweite Einrichtung (118) für das Speichern von Daten, welche einen Satz
von Anfangsdaten einschließen, wobei die Anfangsdaten eine begrenzte Anzahl von
getrennten Merkmalen definieren, die sich auf zumindest die erste Gruppe von
Gattungseigenschaften beziehen, wobei jedes der anfänglich gespeicherten Merkmale
wahrscheinlich in einer Folge von einem oder mehreren aufeinanderfolgenden
Einzelbildern von Bilddaten vorhanden ist, falls ein Gegenstand der gegebenen Klasse
grafisch in dieser Folge wiedergegeben wird,
eine dritte Einrichtung (114), die mit der ersten und der zweiten Einrichtung
verbunden ist, um eine erste Bestimmung entsprechend den Entscheidungskriterien
durchzuführen, und zwar bezüglich einer ersten Wahrscheinlichkeit, daß eines oder
mehrere von relativ früh auftretenden Einzelbildern in der Zeitfolge als Teil der
Bilddaten desselben zumindest eine erste der getrennten Eigenschaften der Gegenstände
(104) der gegebenen Klasse aufweist, wobei unter Ansprechen darauf, daß die erste
Wahrscheinlichkeit zumindest gleich einem ersten vorbestimmten Grenzwert ist,
zusätzliche Daten in der zweiten Einrichtung (118) gespeichert werden, welche
zumindest die relative Position des Teiles innerhalb der relativ früh auftretenden
Einzelbilder der Folge definieren, und dadurch die in der zweiten Einrichtung (118)
gespeicherten Daten vergrößert werden, und dadurch gekennzeichnet, daß eine zweite
Bestimmung entsprechend den Entscheidungskriterien und unter Ansprechen auf die
vergrößerten gespeicherten Daten vorgenommen wird, und zwar bezüglich einer
zweiten Wahrscheinlichkeit, daß eines oder mehrere der relativ spät auftretenden
Einzelbilder der Zeitfolge den betreffenden Teil als einen verifiziert, der zumindest ein
zweites der getrennten Merkmale zusätzlich zu dem ersten Merkmal aufweist, wobei
unter Ansprechen darauf, daß die zweite Wahrscheinlichkeit oberhalb eines zweiten
vorbestimmten Grenzwertes liegt, der betreffende Teil als eine grafische Wiedergabe
eines Objektes (104) der gegebenen Klasse erkannt wird, wobei unter Ansprechen
darauf, daß die zweite Wahrscheinlichkeit unterhalb eines dritten vorbestimmten
Grenzwertes liegt, der beträchtlich unterhalb des zweiten vorbestimmten Grenzwertes
liegt, der Teil als einer erkannt wird, der nicht eine grafische Wiedergabe eines
Gegenstandes (104) der gegebenen Klasse ist, und wobei unter Ansprechen darauf, daß die
zweite Wahrscheinlichkeit in einem Bereich zwischen dem zweiten und dem dritten
Grenzwert liegt, weitere zusätzliche Daten in der zweiten Einrichtung (118)
gespeichert werden, welche durch die zweite Bestimmung definiert werden, um dadurch die
in der zweiten Einrichtung (118) gespeicherten Daten weiter zu vergrößern, und, falls
die zweite Wahrscheinlichkeit in dem Bereich liegt, rekursives Durchführen zusätzlicher
Bestimmungen für relativ zunehmend später auftretende Folgen von einem oder
mehreren Einzelbildern der Zeitfolge, bis durch die abschließende zusätzliche
Bestimmung die bestimmte Wahrscheinlichkeit entweder über den zweiten vorbestimmten
Grenzwert ansteigt oder unter den dritten vorbestimmten Grenzwert fällt.
9. System nach Anspruch 8, welches weiterhin aufweist:
eine Einrichtung (110, 112) für das Analysieren jedes der
aufeinanderfolgenden, relativ hoch aufgelösten Einzelbilder von Bilddaten in eine Pyramide mit mehreren
Auflösungen, die zumindest eine Ebene bzw. ein Niveau aufweist, welches eine
niedrigere Auflösung als die der hoch aufgelösten Einzelbilder hat, und
wobei dritte Einrichtungen (114) mit der ersten Einrichtung (116), der zweiten
Einrichtung (118) und der Analysiereinrichtung (110, 112) verbunden sind, um eine
erste Bestimmung entsprechend den Entscheidungskriterien vorzunehmen, und zwar
bezüglich einer ersten Wahrscheinlichkeit, mit welcher irgendeine der Ebenen mit
niedrigerer Auflösung der Pyramide mit mehreren Auflösungen in einer Folge von
einem oder mehreren relativ früh auftretenden Einzelbildern der Zeitfolge als Teil der
Bilddaten zumindest ein erstes der getrennten Merkmale der Gegenstände (104) der
erwähnten gegebenen Klasse aufweisen kann, wobei unter Ansprechen darauf, daß
die erste Wahrscheinlichkeit zumindest gleich einem ersten vorbestimmten Grenzwert
ist, zusätzliche Daten in der zweiten Einrichtung (118) gespeichert werden, welche
zumindest die relative Position des betreffenden Teiles in den relativ früh auftretenden
Einzelbildern der Folge definieren, und damit Erhöhen (des Umfanges) der Daten, die
in der zweiten Einrichtung gespeichert werden, Durchführen einer zweiten Bestimmung
entsprechend den erwähnten Entscheidungskriterien, und zwar bezüglich einer zweiten
Wahrscheinlichkeit, daß in irgendeinem der Niveaus der Pyramide mit mehreren
Auflösungen in einer Folge von einem oder mehreren relativ später auftretenden
Einzelbildern der Zeitfolge der betreffende Teil als einer verifiziert wird, der zumindest
ein zweites der getrennten Merkmale zusätzlich zu dem ersten Merkmal aufweist,
wobei unter Ansprechen darauf, daß die zweite Wahrscheinlichkeit oberhalb eines
zweiten vorbestimmten Grenzwertes liegt, der betreffende Teil als eine grafische
Wiedergabe eines Gegenstandes (104) der gegebenen Klasse erkannt wird, wobei
unter Ansprechen darauf, daß die zweite Wahrscheinlichkeit unterhalb eines dritten
vorbestimmten Grenzwertes liegt, der beträchtlich unterhalb des zweiten
vorbestimmten Grenzwertes liegt, der betreffende Teil als einer erkannt wird, der keine grafische
Wiedergabe eines Gegenstandes (104) der gegebenen Klasse ist, wobei unter
Ansprechen darauf, daß die zweite Wahrscheinlichkeit in einem Bereich zwischen dem
zweiten und dem dritten Grenzwert liegt, in der zweiten Einrichtung (118) weitere
zusätzliche Daten gespeichert werden, die durch die zweite Bestimmung definiert
werden, um dadurch die (den Umfang der) in der zweiten Einrichtung (118)
gespeicherten Daten weiter zu vergrößern, und, falls die zweite Wahrscheinlichkeit in dem
Bereich liegt, zusätzliche Bestimmungen wiederholt vorgenommen werden für relativ
immer später auftretende Folgen eines oder mehrerer Einzelbilder in der Zeitfolge, bis
die durch die abschließende zusätzliche Bestimmung bestimmte Wahrscheinlichkeit
entweder über den zweiten vorbestimmten Grenzwert ansteigt oder unter den dritten
vorbestimmten Grenzwert fällt.
10. System nach Anspruch 8 oder 9, wobei die grafische Wiedergabe von Gegenständen
der gegebenen Klasse zumindest eine zweidimensionale Wiedergabe eines bewegbaren
Gegenstandes aufweist, wodurch die Position des bewegbaren Objektes in der
zweidimensionalen Wiedergabe eines Einzelbildes von einem Einzelbild zu dem anderen
variieren kann, und wobei das System weiterhin aufweist:
sich bewegende Gegenstandseinrichtungen (304), die auf die aufeinander
folgenden Einzelbilder der Bilddaten ansprechen, um die jeweiligen Pixelpositionen in
einem Einzelbild für diejenigen Pixel abzuleiten, die die grafische Wiedergabe von sich
bewegenden Gegenständen zu definieren, und
wobei die dritte Einrichtung (114) mit der Einrichtung (304) für sich
bewegende Gegenstände verbunden ist, um die jeweiligen Pixelpositionen der sich bewegenden
Gegenstände als ein zusätzliches Merkmal bei der Durchführung der
Wahrscheinlichkeitsbestimmungen zu verwenden, und um, unter Ansprechen darauf, daß die
Wahrscheinlichkeit als in dem erwähnten Bereich liegend bestimmt wird, Speichern
derselben als zusätzliche Daten in der zweiten Einrichtung.
11. System nach Anspruch 8, 9 oder 10, wobei die grafische Wiedergabe von
Gegenständen der gegebenen Klasse eine zweidimensionale Wiedergabe eines Gegenstandes
aufweist, der vorbestimmte Farbtoneigenschaften hat, und wobei das System
aufweist:
eine Farberfassungseinrichtung (406), die auf die aufeinanderfolgenden
Einzelbilder der Bilddaten anspricht, um die jeweiligen Pixelpositionen in einem Einzel bild von
denjenigen Pixeln abzuleiten, welche die grafische Wiedergabe von Gegenständen
definieren, welche die vorbestimmten Farbtoneigenschaften haben, und
wobei die dritte Einrichtung (114) mit der Farberfassungseinrichtung verbunden
ist, um die entsprechenden Pixelpositionen der Gegenstände, welche die
vorbestimmten Farbtoneigenschaften haben, als ein zusätzliches Merkmal bei der Durchführung
der Wahrscheinlichkeitsbestimmungen zu verwenden, und um, unter Ansprechen
darauf, daß die Wahrscheinlichkeit als in dem erwähnten Bereich liegend bestimmt
wird, sie als zusätzliche Daten in der zweiten Einrichtung zu speichern.
12. System nach Anspruch 8, 9, 10 oder 11, wobei unter den Merkmalen, die durch die
anfänglichen, in der zweiten Einrichtung (118) gespeicherten Daten vorbestimmte
Musterformen sind, die zu der zweidimensionalen grafischen Wiedergabe der
Gegenstände der gegebenen Klasse gehören, und wobei die dritte Einrichtung (114)
aufweist:
eine Korrelationseinrichtung (402, 404) für das Korrelieren von Musterformen,
die durch die Pixel definiert werden, welche jedes nachfolgende Einzelbild von
Bilddaten mit einer bestimmten Auflösung enthalten, mit jedem der vorbestimmten
Musterformen, und zum Verwenden der Korrelationswerte, die dadurch abgeleitet
wurden, bei der Durchführung der Wahrscheinlichkeitsbestimmungen, und
eine Einrichtung, die darauf anspricht, daß die bestimmte Wahrscheinlichkeit
in dem erwähnten Bereich liegt, um die Positionen der korrelierenden Pixel in der
zweiten Einrichtung (118) zu speichern.
1 3. System nach Anspruch 12, wobei die Zeitfolge von aufeinanderfolgenden Einzelbildern
aus der zweidimensionalen Wiedergabe von tatsächlich dreidimensionalen
Gegenständen besteht, die von einer Abbildungseinrichtung betrachtet werden, welche eine
Kamera (200a) aufweist, wobei zumindest einer der betrachteten, tatsächlich
dreidimensionalen Gegenstände bewegbar ist.
14. System nach Anspruch 13, wobei die Abbildungseinrichtung weiterhin eine
Abstandsmeßeinrichtung (200b) aufweist, die Größe der zweidimensionalen Wiedergabe eines
tatsächlich dreidimensionalen, bewegbaren Gegenstandes entsprechend dem Abstand
des tatsächlich dreidimensionalen, bewegbaren Gegenstandes von der Kamera variiert,
und die Bilddaten für jedes Einzelbild Abstandsdaten (2) enthalten, die jeder der
zweidimensionalen Pixelpositionen dieses Einzelbildes entsprechen, und wobei die
dritte Einrichtung (114) weiterhin aufweist:
eine Größeneinstelleinrichtung (400), die auf die Abstandsdaten anspricht, um
die Größe der vorbestimmten Musterformen, die durch die Korrelationseinrichtung
(402, 404) entsprechend den Abstandsdaten korreliert sind, zu skalieren bzw. in der
Größe anzupassen, wobei die Anzahl der skalierte Maße für jede vorbestimmte
Musterform, welche anfänglich gespeichert werden muß, minimal gemacht wird.
15. System nach Anspruch 13 oder 14, wobei die Musterform einer zweidimensionalen
Wiedergabe eines tatsächlich dreidimensionalen bewegbaren Gegenstandes
entsprechend der Ausrichtung des tatsächlich dreidimensionalen, beweglichen Gegenstandes
bezüglich der Kamera variiert, und wobei die dritte Einrichtung (114) weiterhin
aufweist:
eine Ausrichtungs-Transformationseinrichtung (401), die auf den von der
Anpaßeinrichtung abgeleiteten Korrelationswert anspricht, um kontinuierlich die
Orientierung zumindest eines der beiden Musterformen zu variieren, die dann
miteinander korreliert werden, bis der Korrelationswert maximal gemacht worden ist.
16. System nach Anspruch 15, wobei die anfänglich gespeicherten Musterformen eine
Mehrzahl von gespeicherten Musterformen einschließen, von denen jede einer
zweidimensionalen Wiedergabe desselben dreidimensionalen Gegenstandes der gegebenen
Klasse in einer anderen, vorbestimmten Ausrichtung entspricht, und wobei die
Orientierungs-Transformationseinrichtung aufweist:
eine Einrichtung zum Ableiten einer berechneten Musterform aus der Mehrzahl
von gespeicherten Musterformen, welche eine Orientierung hat, die eine variable
Mischung der jeweiligen verschiedenen Ausrichtungen der Mehrzahl von gespeicherten
Musterformen ist, wobei diese Ableitungseinrichtung auf den Korrelationswert
anspricht, der durch Korrelieren der berechneten Musterform mit einer Musterform
abgeleitet wird, die aus den Bilddaten für das kontinuierliche Variieren der Mischung
aus der Mehrzahl von gespeicherten Musterformen abgeleitet wurde, bis der
Korrelationswert der beiden Musterformen, die dann miteinander korreliert werden, maximal
gemacht worden ist.
17. System nach Anspruch 13, 14, 15 oder 16, wobei die Zeitfolge von
aufeinanderfolgenden Einzelbildern auch zweidimensionale Wiedergaben von tatsächlich
dreidimensionalen, stationären Gegenständen (106) aufweist, wobei alle Gegenstände (104) der
gegebenen Klasse in der Szene beweg bar sind, wobei die zweite Einrichtung (118) die
jeweiligen Pixelpositionen der Musterform der zweidimensionalen Wiedergabe jedes
stationären Gegenstandes (106) in der Szene speichert, wie sie von der Kamera
(200a) betrachtet wird, und wobei
die Korrelationseinrichtung (402, 404) auf die jeweiligen gespeicherten
Pixelpositionen der Musterform der zweidimensionalen Wiedergabe jedes stationären
Gegenstandes (106) anspricht, um auszuschließen, daß die in jedem Einzelbild vorhandene
Musterform des stationären Objektes mit jeder der vorbestimmten Musterformen
korreliert wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/432,013 US5063603A (en) | 1989-11-06 | 1989-11-06 | Dynamic method for recognizing objects and image processing system therefor |
PCT/US1990/006236 WO1991006921A1 (en) | 1989-11-06 | 1990-11-05 | Dynamic method for recognizing objects and image processing system therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69032326D1 DE69032326D1 (de) | 1998-06-25 |
DE69032326T2 true DE69032326T2 (de) | 1998-09-10 |
Family
ID=23714384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69032326T Expired - Fee Related DE69032326T2 (de) | 1989-11-06 | 1990-11-05 | Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafür |
Country Status (6)
Country | Link |
---|---|
US (1) | US5063603A (de) |
EP (1) | EP0499627B1 (de) |
JP (1) | JP3178719B2 (de) |
DE (1) | DE69032326T2 (de) |
ES (1) | ES2116284T3 (de) |
WO (1) | WO1991006921A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3021256A1 (de) * | 2014-11-11 | 2016-05-18 | OSRAM GmbH | Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem |
US11308324B2 (en) | 2019-08-26 | 2022-04-19 | Samsung Electronics Co., Ltd. | Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof |
Families Citing this family (306)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159647A (en) * | 1991-03-04 | 1992-10-27 | David Sarnoff Research Center, Inc. | Fast and efficient search method for graphical data |
GB9119964D0 (en) * | 1991-09-18 | 1991-10-30 | Sarnoff David Res Center | Pattern-key video insertion |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US6418424B1 (en) | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US5699442A (en) * | 1992-04-10 | 1997-12-16 | Andrew Welch | System for detecting the location of a reflective object within a video field |
US5680481A (en) * | 1992-05-26 | 1997-10-21 | Ricoh Corporation | Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system |
US5309522A (en) * | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
US5432864A (en) * | 1992-10-05 | 1995-07-11 | Daozheng Lu | Identification card verification system |
US5835641A (en) * | 1992-10-14 | 1998-11-10 | Mitsubishi Denki Kabushiki Kaisha | Image pick-up apparatus for detecting and enlarging registered objects |
US5550928A (en) * | 1992-12-15 | 1996-08-27 | A.C. Nielsen Company | Audience measurement system and method |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
WO1994030007A1 (en) * | 1993-06-04 | 1994-12-22 | David Sarnoff Research Center, Inc. | System and method for electronic image stabilization |
CA2129206C (en) * | 1993-08-10 | 1998-07-14 | Mark Thurman | Integration of tv video with ir tracker features |
US5561753A (en) * | 1993-12-02 | 1996-10-01 | International Business Machines Corporation | Method and system for relocating selectable graphical objects in a graphical user interface environment |
US5845008A (en) | 1994-01-20 | 1998-12-01 | Omron Corporation | Image processing device and method for identifying an input image, and copier scanner and printer including same |
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5572596A (en) * | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
US5578823A (en) * | 1994-12-16 | 1996-11-26 | Hitachi, Ltd. | Transmission electron microscope and method of observing element distribution by using the same |
US5627915A (en) * | 1995-01-31 | 1997-05-06 | Princeton Video Image, Inc. | Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US5649021A (en) * | 1995-06-07 | 1997-07-15 | David Sarnoff Research Center, Inc. | Method and system for object detection for instrument control |
US5892554A (en) * | 1995-11-28 | 1999-04-06 | Princeton Video Image, Inc. | System and method for inserting static and dynamic images into a live video broadcast |
US5912700A (en) * | 1996-01-10 | 1999-06-15 | Fox Sports Productions, Inc. | System for enhancing the television presentation of an object at a sporting event |
US5842194A (en) * | 1995-07-28 | 1998-11-24 | Mitsubishi Denki Kabushiki Kaisha | Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions |
US6985172B1 (en) * | 1995-12-01 | 2006-01-10 | Southwest Research Institute | Model-based incident detection system with motion classification |
AU1127197A (en) * | 1995-12-04 | 1997-06-27 | David Sarnoff Research Center, Inc. | Wide field of view/narrow field of view recognition system and method |
JPH09212648A (ja) * | 1996-01-31 | 1997-08-15 | Toshiba Corp | 動画像処理方法 |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
US6289107B1 (en) * | 1996-05-23 | 2001-09-11 | Nike, Inc. | Apparatus and method of measuring human extremities using peripheral illumination techniques |
US5917553A (en) * | 1996-10-22 | 1999-06-29 | Fox Sports Productions Inc. | Method and apparatus for enhancing the broadcast of a live event |
US5930410A (en) * | 1997-01-13 | 1999-07-27 | Hewlett-Packard Company | Method and apparatus for obtaining multiple views from one scan window |
US6542260B1 (en) * | 1997-01-13 | 2003-04-01 | Hewlett-Packard Company | Multiple image scanner |
US6252632B1 (en) | 1997-01-17 | 2001-06-26 | Fox Sports Productions, Inc. | System for enhancing a video presentation |
US5953077A (en) * | 1997-01-17 | 1999-09-14 | Fox Sports Productions, Inc. | System for displaying an object that is not visible to a camera |
US6084590A (en) * | 1997-04-07 | 2000-07-04 | Synapix, Inc. | Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage |
US6124864A (en) * | 1997-04-07 | 2000-09-26 | Synapix, Inc. | Adaptive modeling and segmentation of visual image streams |
US6160907A (en) * | 1997-04-07 | 2000-12-12 | Synapix, Inc. | Iterative three-dimensional process for creating finished media content |
US6760061B1 (en) * | 1997-04-14 | 2004-07-06 | Nestor Traffic Systems, Inc. | Traffic sensor |
US6151403A (en) * | 1997-08-29 | 2000-11-21 | Eastman Kodak Company | Method for automatic detection of human eyes in digital images |
JP3584458B2 (ja) | 1997-10-31 | 2004-11-04 | ソニー株式会社 | パターン認識装置およびパターン認識方法 |
WO1999023600A1 (en) * | 1997-11-04 | 1999-05-14 | The Trustees Of Columbia University In The City Of New York | Video signal face region detection |
US6002782A (en) * | 1997-11-12 | 1999-12-14 | Unisys Corporation | System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model |
US6697103B1 (en) | 1998-03-19 | 2004-02-24 | Dennis Sunga Fernandez | Integrated network for monitoring remote objects |
US6266053B1 (en) | 1998-04-03 | 2001-07-24 | Synapix, Inc. | Time inheritance scene graph for representation of media content |
US6249285B1 (en) | 1998-04-06 | 2001-06-19 | Synapix, Inc. | Computer assisted mark-up and parameterization for scene analysis |
US6297825B1 (en) | 1998-04-06 | 2001-10-02 | Synapix, Inc. | Temporal smoothing of scene analysis data for image sequence generation |
US6229550B1 (en) | 1998-09-04 | 2001-05-08 | Sportvision, Inc. | Blending a graphic |
US6266100B1 (en) | 1998-09-04 | 2001-07-24 | Sportvision, Inc. | System for enhancing a video presentation of a live event |
US6754663B1 (en) | 1998-11-23 | 2004-06-22 | Nestor, Inc. | Video-file based citation generation system for traffic light violations |
AU755840B2 (en) | 1998-11-23 | 2002-12-19 | Nestor, Inc. | Traffic light collision avoidance system |
US7062073B1 (en) | 1999-01-19 | 2006-06-13 | Tumey David M | Animated toy utilizing artificial intelligence and facial image recognition |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
AU4211000A (en) * | 1999-04-08 | 2000-11-14 | New York University | Extremely high resolution foveated display |
US6466275B1 (en) | 1999-04-16 | 2002-10-15 | Sportvision, Inc. | Enhancing a video of an event at a remote location using data acquired at the event |
US6393137B1 (en) * | 1999-06-17 | 2002-05-21 | Raytheon Company | Multi-resolution object classification method employing kinematic features and system therefor |
GB2352859A (en) * | 1999-07-31 | 2001-02-07 | Ibm | Automatic zone monitoring using two or more cameras |
US6766058B1 (en) * | 1999-08-04 | 2004-07-20 | Electro Scientific Industries | Pattern recognition using multiple templates |
DE19962201A1 (de) * | 1999-09-06 | 2001-03-15 | Holger Lausch | Verfahren und Anordnung zur Erfassung und Analyse des Rezeptionsverhaltens von Personen |
JP3679953B2 (ja) * | 1999-09-14 | 2005-08-03 | 富士通株式会社 | 生体情報を用いた個人認証システム |
WO2001028238A2 (en) * | 1999-10-08 | 2001-04-19 | Sarnoff Corporation | Method and apparatus for enhancing and indexing video and audio signals |
US7020351B1 (en) | 1999-10-08 | 2006-03-28 | Sarnoff Corporation | Method and apparatus for enhancing and indexing video and audio signals |
US6731790B1 (en) * | 1999-10-19 | 2004-05-04 | Agfa-Gevaert | Method of enhancing color images |
US7075556B1 (en) | 1999-10-21 | 2006-07-11 | Sportvision, Inc. | Telestrator system |
US6909438B1 (en) | 2000-02-04 | 2005-06-21 | Sportvision, Inc. | Video compositor |
US7107235B2 (en) * | 2000-03-10 | 2006-09-12 | Lyden Robert M | Method of conducting business including making and selling a custom article of footwear |
US7752775B2 (en) | 2000-03-10 | 2010-07-13 | Lyden Robert M | Footwear with removable lasting board and cleats |
JP4374759B2 (ja) * | 2000-10-13 | 2009-12-02 | オムロン株式会社 | 画像比較システムおよび画像比較装置 |
US7095444B1 (en) * | 2000-11-06 | 2006-08-22 | Sri International | Method and apparatus for generating, distributing and reconstructing deconstructed video |
US8954432B2 (en) | 2000-11-15 | 2015-02-10 | Mark Frigon | Users tagging users in photos online |
JP4106874B2 (ja) * | 2001-02-05 | 2008-06-25 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
US20020169735A1 (en) * | 2001-03-07 | 2002-11-14 | David Kil | Automatic mapping from data to preprocessing algorithms |
US20020129342A1 (en) * | 2001-03-07 | 2002-09-12 | David Kil | Data mining apparatus and method with user interface based ground-truth tool and user algorithms |
US6603882B2 (en) * | 2001-04-12 | 2003-08-05 | Seho Oh | Automatic template generation and searching method |
US20030076981A1 (en) * | 2001-10-18 | 2003-04-24 | Smith Gregory Hugh | Method for operating a pre-crash sensing system in a vehicle having a counter-measure system |
US6775605B2 (en) | 2001-11-29 | 2004-08-10 | Ford Global Technologies, Llc | Remote sensing based pre-crash threat assessment system |
US6819991B2 (en) * | 2001-11-29 | 2004-11-16 | Ford Global Technologies, Llc | Vehicle sensing based pre-crash threat assessment system |
US7158870B2 (en) | 2002-01-24 | 2007-01-02 | Ford Global Technologies, Llc | Post collision restraints control module |
US6831572B2 (en) | 2002-01-29 | 2004-12-14 | Ford Global Technologies, Llc | Rear collision warning system |
US6721659B2 (en) | 2002-02-01 | 2004-04-13 | Ford Global Technologies, Llc | Collision warning and safety countermeasure system |
US6519519B1 (en) | 2002-02-01 | 2003-02-11 | Ford Global Technologies, Inc. | Passive countermeasure methods |
US7009500B2 (en) | 2002-02-13 | 2006-03-07 | Ford Global Technologies, Llc | Method for operating a pre-crash sensing system in a vehicle having a countermeasure system using stereo cameras |
US6498972B1 (en) | 2002-02-13 | 2002-12-24 | Ford Global Technologies, Inc. | Method for operating a pre-crash sensing system in a vehicle having a countermeasure system |
US7221796B2 (en) * | 2002-03-08 | 2007-05-22 | Nec Corporation | Character input device, character input method and character input program |
US9569746B2 (en) | 2002-03-14 | 2017-02-14 | Nike, Inc. | Custom fit sale of footwear |
US7038577B2 (en) | 2002-05-03 | 2006-05-02 | Donnelly Corporation | Object detection system for vehicle |
AU2003285161A1 (en) | 2002-11-08 | 2004-06-03 | Data Flow / Alaska, Inc. | System for uniquely identifying subjects from a target population |
US7203338B2 (en) * | 2002-12-11 | 2007-04-10 | Nielsen Media Research, Inc. | Methods and apparatus to count people appearing in an image |
WO2004054255A1 (en) * | 2002-12-11 | 2004-06-24 | Nielsen Media Research, Inc. | Detecting a composition of an audience |
US7396574B2 (en) * | 2003-05-28 | 2008-07-08 | Robert C. Bogert | Self-inflating cushion and footwear including same |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US8189927B2 (en) | 2007-03-05 | 2012-05-29 | DigitalOptics Corporation Europe Limited | Face categorization and annotation of a mobile phone contact list |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US8363951B2 (en) | 2007-03-05 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Face recognition training method and apparatus |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US7792335B2 (en) | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US8553949B2 (en) | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7440593B1 (en) * | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US7616233B2 (en) | 2003-06-26 | 2009-11-10 | Fotonation Vision Limited | Perfecting of digital image capture parameters within acquisition devices using face detection |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US9129381B2 (en) | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7471846B2 (en) | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US20050071242A1 (en) * | 2003-09-30 | 2005-03-31 | Nike International Ltd. | Method and system for custom-manufacturing footwear |
US7564994B1 (en) * | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
WO2006083278A2 (en) * | 2004-05-26 | 2006-08-10 | Bae Systems Information And Electronic Systems Integration, Inc. | Method for transitioning from a missile warning system to a fine tracking system in a countermeasures system |
SE528068C2 (sv) | 2004-08-19 | 2006-08-22 | Jan Erik Solem Med Jsolutions | Igenkänning av 3D föremål |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US7796827B2 (en) * | 2004-11-30 | 2010-09-14 | Hewlett-Packard Development Company, L.P. | Face enhancement in a digital video |
US7620241B2 (en) * | 2004-11-30 | 2009-11-17 | Hewlett-Packard Development Company, L.P. | Artifact reduction in a digital video |
US7643088B2 (en) * | 2004-12-01 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Artifact reduction in a digital video |
US20060114994A1 (en) * | 2004-12-01 | 2006-06-01 | Silverstein D Amnon | Noise reduction in a digital video |
US8503800B2 (en) | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US8488023B2 (en) | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US7715597B2 (en) | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
EP1844612B1 (de) * | 2005-02-04 | 2017-05-10 | Barco NV | Verfahren und einrichtung zur bild- und videoübertragung über übertragungskanäle mit geringer bandbreite und hoher latenz |
US7450778B2 (en) * | 2005-03-17 | 2008-11-11 | Hewlett-Packard Development Company, L.P. | Artifact reduction in a digital video |
US7440608B2 (en) * | 2005-05-31 | 2008-10-21 | Hewlett-Packard Development Company, L.P. | Method and system for detecting image defects |
US10341558B2 (en) * | 2005-06-03 | 2019-07-02 | Craig P. Mowry | System and apparatus for increasing quality and efficiency of film capture and methods of use thereof |
US11632498B1 (en) | 2005-06-03 | 2023-04-18 | Craig P. Mowry | Multi-dimensional imaging system and method |
US7587070B2 (en) * | 2005-09-28 | 2009-09-08 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US7599527B2 (en) * | 2005-09-28 | 2009-10-06 | Facedouble, Inc. | Digital image search system and method |
US8600174B2 (en) | 2005-09-28 | 2013-12-03 | Facedouble, Inc. | Method and system for attaching a metatag to a digital image |
US8369570B2 (en) | 2005-09-28 | 2013-02-05 | Facedouble, Inc. | Method and system for tagging an image of an individual in a plurality of photos |
US7450740B2 (en) | 2005-09-28 | 2008-11-11 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US8311294B2 (en) | 2009-09-08 | 2012-11-13 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US7804983B2 (en) | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
JP2007257078A (ja) * | 2006-03-20 | 2007-10-04 | Fujitsu Ltd | 画像検索装置 |
WO2008023280A2 (en) | 2006-06-12 | 2008-02-28 | Fotonation Vision Limited | Advances in extending the aam techniques from grayscale to color images |
JP4764273B2 (ja) * | 2006-06-30 | 2011-08-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、記憶媒体 |
EP2050043A2 (de) | 2006-08-02 | 2009-04-22 | Fotonation Vision Limited | Gesichtserkennung mit kombinierten pca-basierten datensätzen |
WO2008024639A2 (en) | 2006-08-11 | 2008-02-28 | Donnelly Corporation | Automatic headlamp control system |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US8648867B2 (en) | 2006-09-25 | 2014-02-11 | Neurala Llc | Graphic processor based accelerator system and method |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
WO2008104549A2 (en) | 2007-02-28 | 2008-09-04 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
KR101247147B1 (ko) | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
US8335345B2 (en) * | 2007-03-05 | 2012-12-18 | Sportvision, Inc. | Tracking an object with multiple asynchronous cameras |
WO2008131823A1 (en) * | 2007-04-30 | 2008-11-06 | Fotonation Vision Limited | Method and apparatus for automatically controlling the decisive moment for an image acquisition device |
US7916971B2 (en) | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US9026370B2 (en) | 2007-12-18 | 2015-05-05 | Hospira, Inc. | User interface improvements for medical devices |
US8750578B2 (en) * | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US7855737B2 (en) | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
JP5360052B2 (ja) * | 2008-04-09 | 2013-12-04 | 日本電気株式会社 | 物体検出装置 |
CN106919911A (zh) | 2008-07-30 | 2017-07-04 | 快图有限公司 | 使用脸部检测的自动脸部和皮肤修饰 |
US8411963B2 (en) * | 2008-08-08 | 2013-04-02 | The Nielsen Company (U.S.), Llc | Methods and apparatus to count persons in a monitored environment |
WO2010063463A2 (en) | 2008-12-05 | 2010-06-10 | Fotonation Ireland Limited | Face recognition using face tracker classifier data |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
US8786415B2 (en) | 2010-02-24 | 2014-07-22 | Sportvision, Inc. | Tracking system using proximity and/or presence |
US9311593B2 (en) | 2010-03-26 | 2016-04-12 | Brain Corporation | Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices |
US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
US9122994B2 (en) * | 2010-03-26 | 2015-09-01 | Brain Corporation | Apparatus and methods for temporally proximate object recognition |
US8467623B2 (en) | 2010-03-26 | 2013-06-18 | Brain Corporation | Invariant pulse latency coding systems and methods systems and methods |
KR20110111106A (ko) * | 2010-04-02 | 2011-10-10 | 삼성테크윈 주식회사 | 객체추적 및 로이터링 장치 및 방법 |
US8369617B2 (en) * | 2010-04-12 | 2013-02-05 | Nokia Corporation | Cross device image recognition improvement |
US9906838B2 (en) | 2010-07-12 | 2018-02-27 | Time Warner Cable Enterprises Llc | Apparatus and methods for content delivery and message exchange across multiple content delivery networks |
US9193075B1 (en) | 2010-08-26 | 2015-11-24 | Brain Corporation | Apparatus and methods for object detection via optical flow cancellation |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US20120114181A1 (en) * | 2010-11-01 | 2012-05-10 | Borthwick James R | Vehicle pose estimation and load profiling |
US9047568B1 (en) | 2012-09-20 | 2015-06-02 | Brain Corporation | Apparatus and methods for encoding of sensory data using artificial spiking neurons |
US8990133B1 (en) | 2012-12-20 | 2015-03-24 | Brain Corporation | Apparatus and methods for state-dependent learning in spiking neuron networks |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
US9147156B2 (en) | 2011-09-21 | 2015-09-29 | Qualcomm Technologies Inc. | Apparatus and methods for synaptic update in a pulse-coded network |
US9070039B2 (en) | 2013-02-01 | 2015-06-30 | Brian Corporation | Temporal winner takes all spiking neuron network sensory processing apparatus and methods |
US9215383B2 (en) | 2011-08-05 | 2015-12-15 | Sportsvision, Inc. | System for enhancing video from a mobile camera |
US9412064B2 (en) | 2011-08-17 | 2016-08-09 | Qualcomm Technologies Inc. | Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update |
US9460387B2 (en) | 2011-09-21 | 2016-10-04 | Qualcomm Technologies Inc. | Apparatus and methods for implementing event-based updates in neuron networks |
US9104973B2 (en) | 2011-09-21 | 2015-08-11 | Qualcomm Technologies Inc. | Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel |
US8725662B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Apparatus and method for partial evaluation of synaptic updates based on system events |
US8725658B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Elementary network description for efficient memory management in neuromorphic systems |
US8719199B2 (en) | 2011-09-21 | 2014-05-06 | Brain Corporation | Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules |
CA2844807C (en) | 2011-08-19 | 2022-07-26 | Hospira, Inc. | Systems and methods for a graphical interface including a graphical representation of medical data |
US8620088B2 (en) | 2011-08-31 | 2013-12-31 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
US9098811B2 (en) | 2012-06-04 | 2015-08-04 | Brain Corporation | Spiking neuron network apparatus and methods |
US9104186B2 (en) | 2012-06-04 | 2015-08-11 | Brain Corporation | Stochastic apparatus and methods for implementing generalized learning rules |
US9015092B2 (en) | 2012-06-04 | 2015-04-21 | Brain Corporation | Dynamically reconfigurable stochastic learning apparatus and methods |
US9117176B2 (en) | 2011-09-21 | 2015-08-25 | Qualcomm Technologies Inc. | Round-trip engineering apparatus and methods for neural networks |
US10210452B2 (en) | 2011-09-21 | 2019-02-19 | Qualcomm Incorporated | High level neuromorphic network description apparatus and methods |
US9146546B2 (en) | 2012-06-04 | 2015-09-29 | Brain Corporation | Systems and apparatus for implementing task-specific learning using spiking neurons |
US8712939B2 (en) | 2011-09-21 | 2014-04-29 | Brain Corporation | Tag-based apparatus and methods for neural networks |
US9156165B2 (en) | 2011-09-21 | 2015-10-13 | Brain Corporation | Adaptive critic apparatus and methods |
US9213937B2 (en) | 2011-09-21 | 2015-12-15 | Brain Corporation | Apparatus and methods for gating analog and spiking signals in artificial neural networks |
DE102011083375A1 (de) * | 2011-09-26 | 2013-03-28 | Robert Bosch Gmbh | Verfahren zur Übermittlung von Routendaten für die Verkehrstelematik |
EP2760505A4 (de) | 2011-09-30 | 2015-07-22 | Hospira Inc | Intravenöser durchflussregler |
EP2786307A1 (de) * | 2011-11-29 | 2014-10-08 | Layar B.V. | Dynamische konfiguration einer bildverarbeitungsfunktion |
WO2013090709A1 (en) | 2011-12-16 | 2013-06-20 | Hospira, Inc. | System for monitoring and delivering medication to a patient and method of using the same to minimize the risks associated with automated therapy |
TWI588778B (zh) * | 2012-01-17 | 2017-06-21 | 國立臺灣科技大學 | 動作辨識方法 |
US9373023B2 (en) * | 2012-02-22 | 2016-06-21 | Sri International | Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor |
KR20130098675A (ko) * | 2012-02-28 | 2013-09-05 | 삼성전자주식회사 | 얼굴 검출 처리 회로 및 이를 포함하는 촬상 장치 |
EP2830687B1 (de) | 2012-03-30 | 2019-07-24 | ICU Medical, Inc. | Luftdetektionssystem und verfahren zum nachweis von luft in einer pumpe eines infusionssystems |
US9129221B2 (en) | 2012-05-07 | 2015-09-08 | Brain Corporation | Spiking neural network feedback apparatus and methods |
US9224090B2 (en) | 2012-05-07 | 2015-12-29 | Brain Corporation | Sensory input processing apparatus in a spiking neural network |
US9412041B1 (en) | 2012-06-29 | 2016-08-09 | Brain Corporation | Retinal apparatus and methods |
US9256215B2 (en) | 2012-07-27 | 2016-02-09 | Brain Corporation | Apparatus and methods for generalized state-dependent learning in spiking neuron networks |
US9256823B2 (en) | 2012-07-27 | 2016-02-09 | Qualcomm Technologies Inc. | Apparatus and methods for efficient updates in spiking neuron network |
CA3089257C (en) | 2012-07-31 | 2023-07-25 | Icu Medical, Inc. | Patient care system for critical medications |
US9186793B1 (en) | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9440352B2 (en) | 2012-08-31 | 2016-09-13 | Qualcomm Technologies Inc. | Apparatus and methods for robotic learning |
US9367798B2 (en) | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
US8793205B1 (en) | 2012-09-20 | 2014-07-29 | Brain Corporation | Robotic learning and evolution apparatus |
US9311594B1 (en) | 2012-09-20 | 2016-04-12 | Brain Corporation | Spiking neuron network apparatus and methods for encoding of sensory data |
US9189730B1 (en) | 2012-09-20 | 2015-11-17 | Brain Corporation | Modulated stochasticity spiking neuron network controller apparatus and methods |
US9082079B1 (en) | 2012-10-22 | 2015-07-14 | Brain Corporation | Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields |
US9183493B2 (en) | 2012-10-25 | 2015-11-10 | Brain Corporation | Adaptive plasticity apparatus and methods for spiking neuron network |
US9111226B2 (en) | 2012-10-25 | 2015-08-18 | Brain Corporation | Modulated plasticity apparatus and methods for spiking neuron network |
US9218563B2 (en) | 2012-10-25 | 2015-12-22 | Brain Corporation | Spiking neuron sensory processing apparatus and methods for saliency detection |
US9275326B2 (en) | 2012-11-30 | 2016-03-01 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
US9123127B2 (en) | 2012-12-10 | 2015-09-01 | Brain Corporation | Contrast enhancement spiking neuron network sensory processing apparatus and methods |
US9195934B1 (en) | 2013-01-31 | 2015-11-24 | Brain Corporation | Spiking neuron classifier apparatus and methods using conditionally independent subsets |
US9177245B2 (en) | 2013-02-08 | 2015-11-03 | Qualcomm Technologies Inc. | Spiking network apparatus and method with bimodal spike-timing dependent plasticity |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US8996177B2 (en) | 2013-03-15 | 2015-03-31 | Brain Corporation | Robotic training apparatus and methods |
US9262671B2 (en) | 2013-03-15 | 2016-02-16 | Nito Inc. | Systems, methods, and software for detecting an object in an image |
US9008840B1 (en) | 2013-04-19 | 2015-04-14 | Brain Corporation | Apparatus and methods for reinforcement-guided supervised learning |
WO2014204615A2 (en) | 2013-05-22 | 2014-12-24 | Neurala, Inc. | Methods and apparatus for iterative nonspecific distributed runtime architecture and its application to cloud intelligence |
WO2014190208A2 (en) | 2013-05-22 | 2014-11-27 | Neurala, Inc. | Methods and apparatus for early sensory integration and robust acquisition of real world knowledge |
AU2014268355B2 (en) | 2013-05-24 | 2018-06-14 | Icu Medical, Inc. | Multi-sensor infusion system for detecting air or an occlusion in the infusion system |
CA2913918C (en) | 2013-05-29 | 2022-02-15 | Hospira, Inc. | Infusion system and method of use which prevents over-saturation of an analog-to-digital converter |
ES2838450T3 (es) | 2013-05-29 | 2021-07-02 | Icu Medical Inc | Sistema de infusión que utiliza uno o más sensores e información adicional para hacer una determinación de aire en relación con el sistema de infusión |
US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US9314924B1 (en) * | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US9239985B2 (en) | 2013-06-19 | 2016-01-19 | Brain Corporation | Apparatus and methods for processing inputs in an artificial neuron network |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
US9552546B1 (en) | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
US9489623B1 (en) | 2013-10-15 | 2016-11-08 | Brain Corporation | Apparatus and methods for backward propagation of errors in a spiking neuron network |
US9597797B2 (en) | 2013-11-01 | 2017-03-21 | Brain Corporation | Apparatus and methods for haptic training of robots |
US9463571B2 (en) | 2013-11-01 | 2016-10-11 | Brian Corporation | Apparatus and methods for online training of robots |
US9248569B2 (en) | 2013-11-22 | 2016-02-02 | Brain Corporation | Discrepancy detection apparatus and methods for machine learning |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
AU2015222800B2 (en) | 2014-02-28 | 2019-10-17 | Icu Medical, Inc. | Infusion system and method which utilizes dual wavelength optical air-in-line detection |
US9987743B2 (en) | 2014-03-13 | 2018-06-05 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9533413B2 (en) | 2014-03-13 | 2017-01-03 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9364950B2 (en) | 2014-03-13 | 2016-06-14 | Brain Corporation | Trainable modular robotic methods |
EP3120300A4 (de) * | 2014-03-19 | 2017-11-22 | Neurala Inc. | Verfahren und vorrichtung zur steuerung von autonomem roboter |
US9626566B2 (en) | 2014-03-19 | 2017-04-18 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
US9613308B2 (en) | 2014-04-03 | 2017-04-04 | Brain Corporation | Spoofing remote control apparatus and methods |
US9630317B2 (en) | 2014-04-03 | 2017-04-25 | Brain Corporation | Learning apparatus and methods for control of robotic devices via spoofing |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US10194163B2 (en) * | 2014-05-22 | 2019-01-29 | Brain Corporation | Apparatus and methods for real time estimation of differential motion in live video |
US9713982B2 (en) | 2014-05-22 | 2017-07-25 | Brain Corporation | Apparatus and methods for robotic operation using video imagery |
US9939253B2 (en) | 2014-05-22 | 2018-04-10 | Brain Corporation | Apparatus and methods for distance estimation using multiple image sensors |
US11344673B2 (en) | 2014-05-29 | 2022-05-31 | Icu Medical, Inc. | Infusion system and pump with configurable closed loop delivery rate catch-up |
EP2960906A1 (de) | 2014-06-26 | 2015-12-30 | Thomson Licensing | Verfahren zur Verarbeitung einer Videoszene sowie entsprechende Vorrichtung |
US9848112B2 (en) | 2014-07-01 | 2017-12-19 | Brain Corporation | Optical detection apparatus and methods |
US10057593B2 (en) | 2014-07-08 | 2018-08-21 | Brain Corporation | Apparatus and methods for distance estimation using stereo imagery |
US9579790B2 (en) | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
US9821470B2 (en) | 2014-09-17 | 2017-11-21 | Brain Corporation | Apparatus and methods for context determination using real time sensor data |
US9849588B2 (en) | 2014-09-17 | 2017-12-26 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
US9860077B2 (en) | 2014-09-17 | 2018-01-02 | Brain Corporation | Home animation apparatus and methods |
US10055850B2 (en) | 2014-09-19 | 2018-08-21 | Brain Corporation | Salient features tracking apparatus and methods using visual initialization |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
US9881349B1 (en) | 2014-10-24 | 2018-01-30 | Gopro, Inc. | Apparatus and methods for computerized object identification |
US9426946B2 (en) | 2014-12-02 | 2016-08-30 | Brain Corporation | Computerized learning landscaping apparatus and methods |
US11344668B2 (en) | 2014-12-19 | 2022-05-31 | Icu Medical, Inc. | Infusion system with concurrent TPN/insulin infusion |
US9717387B1 (en) | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
US10850024B2 (en) | 2015-03-02 | 2020-12-01 | Icu Medical, Inc. | Infusion system, device, and method having advanced infusion features |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
US10197664B2 (en) | 2015-07-20 | 2019-02-05 | Brain Corporation | Apparatus and methods for detection of objects using broadband signals |
JP6041331B1 (ja) * | 2016-02-26 | 2016-12-07 | 国立大学法人山口大学 | 情報処理装置と情報処理プログラム並びに情報処理方法 |
US10295972B2 (en) | 2016-04-29 | 2019-05-21 | Brain Corporation | Systems and methods to operate controllable devices with gestures and/or noises |
ES2912378T3 (es) | 2016-05-13 | 2022-05-25 | Icu Medical Inc | Sistema de bomba de infusión con purga automática de línea común |
WO2017214441A1 (en) | 2016-06-10 | 2017-12-14 | Icu Medical, Inc. | Acoustic flow sensor for continuous medication flow measurements and feedback control of infusion |
KR20180068578A (ko) | 2016-12-14 | 2018-06-22 | 삼성전자주식회사 | 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법 |
IL250253B (en) | 2017-01-24 | 2021-10-31 | Arbe Robotics Ltd | A method for separating targets and echoes from noise, in radar signals |
DE102017211038A1 (de) * | 2017-06-29 | 2019-01-03 | Robert Bosch Gmbh | Verfahren zum Einstellen einer Kamera |
IL255982A (en) | 2017-11-29 | 2018-01-31 | Arbe Robotics Ltd | Detection, mitigation and prevention of mutual interference between fixed water radars in vehicles |
US10089055B1 (en) | 2017-12-27 | 2018-10-02 | Icu Medical, Inc. | Synchronized display of screen content on networked devices |
IL259190A (en) | 2018-05-07 | 2018-06-28 | Arbe Robotics Ltd | System and method for frequency hopping MIMO FMCW imaging radar |
IL260694A (en) | 2018-07-19 | 2019-01-31 | Arbe Robotics Ltd | Method and device for two-stage signal processing in a radar system |
IL260696A (en) | 2018-07-19 | 2019-01-31 | Arbe Robotics Ltd | Method and device for structured self-testing of radio frequencies in a radar system |
IL260695A (en) | 2018-07-19 | 2019-01-31 | Arbe Robotics Ltd | Method and device for eliminating waiting times in a radar system |
IL261636A (en) | 2018-09-05 | 2018-10-31 | Arbe Robotics Ltd | Deflected MIMO antenna array for vehicle imaging radars |
US11278671B2 (en) | 2019-12-04 | 2022-03-22 | Icu Medical, Inc. | Infusion pump with safety sequence keypad |
IL271269A (en) | 2019-12-09 | 2021-06-30 | Arbe Robotics Ltd | Radom for a planar antenna for car radar |
US11399591B2 (en) | 2020-03-16 | 2022-08-02 | Robert Lyden | Article of footwear, method of making the same, and method of conducting retail and internet business |
US11711638B2 (en) | 2020-06-29 | 2023-07-25 | The Nielsen Company (Us), Llc | Audience monitoring systems and related methods |
CA3189781A1 (en) | 2020-07-21 | 2022-01-27 | Icu Medical, Inc. | Fluid transfer devices and methods of use |
US11135360B1 (en) | 2020-12-07 | 2021-10-05 | Icu Medical, Inc. | Concurrent infusion with common line auto flush |
US11823476B2 (en) | 2021-05-25 | 2023-11-21 | Bank Of America Corporation | Contextual analysis for digital image processing |
US11860704B2 (en) | 2021-08-16 | 2024-01-02 | The Nielsen Company (Us), Llc | Methods and apparatus to determine user presence |
US11758223B2 (en) | 2021-12-23 | 2023-09-12 | The Nielsen Company (Us), Llc | Apparatus, systems, and methods for user presence detection for audience monitoring |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1255144A (en) * | 1916-06-28 | 1918-02-05 | John B Ekeley | Process of obtaining tungstates. |
US3373097A (en) * | 1965-02-16 | 1968-03-12 | Interior Usa | Method for separation of a metalcontaining halide phase from a gangue-containing silicate phase and electrolysis of halide phase to obtain the metal |
US3932594A (en) * | 1973-12-28 | 1976-01-13 | Union Carbide Corporation | Process for the preparation of fine grain metal carbide powders |
US3947833A (en) * | 1974-11-20 | 1976-03-30 | The United States Of America As Represented By The Secretary Of The Navy | Automatic target detection system |
US3970841A (en) * | 1974-11-25 | 1976-07-20 | Green James E | Method and apparatus for dual resolution analysis of a scene |
US4175860A (en) * | 1977-05-31 | 1979-11-27 | Rush-Presbyterian-St. Luke's Medical Center | Dual resolution method and apparatus for use in automated classification of pap smear and other samples |
US4385322A (en) * | 1978-09-01 | 1983-05-24 | View Engineering, Inc. | Pattern recognition apparatus and method |
US4620318A (en) * | 1983-04-18 | 1986-10-28 | Eye-D Development Ii Ltd. | Fovea-centered eye fundus scanner |
DE3486194T2 (de) * | 1983-06-03 | 1993-11-18 | Fondazione Pro Juventute Don C | Modular ausbaufähiges System zur Echtzeit-Verarbeitung einer TV-Anzeige, besonders brauchbar zur Koordinatenerfassung von Objekten von bekannter Form und Verfahren zur Benutzung dieses Systems bei Röntgenaufnahmen. |
GB8518803D0 (en) * | 1985-07-25 | 1985-08-29 | Rca Corp | Locating target patterns within images |
US4834963A (en) * | 1986-12-16 | 1989-05-30 | Kennametal Inc. | Macrocrystalline tungsten monocarbide powder and process for producing |
US4858000A (en) * | 1988-09-14 | 1989-08-15 | A. C. Nielsen Company | Image recognition audience measurement system and method |
-
1989
- 1989-11-06 US US07/432,013 patent/US5063603A/en not_active Expired - Lifetime
-
1990
- 1990-11-05 JP JP50078491A patent/JP3178719B2/ja not_active Expired - Fee Related
- 1990-11-05 WO PCT/US1990/006236 patent/WO1991006921A1/en active IP Right Grant
- 1990-11-05 EP EP91900556A patent/EP0499627B1/de not_active Expired - Lifetime
- 1990-11-05 ES ES91900556T patent/ES2116284T3/es not_active Expired - Lifetime
- 1990-11-05 DE DE69032326T patent/DE69032326T2/de not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3021256A1 (de) * | 2014-11-11 | 2016-05-18 | OSRAM GmbH | Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem |
US11308324B2 (en) | 2019-08-26 | 2022-04-19 | Samsung Electronics Co., Ltd. | Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof |
Also Published As
Publication number | Publication date |
---|---|
WO1991006921A1 (en) | 1991-05-16 |
EP0499627A1 (de) | 1992-08-26 |
JP3178719B2 (ja) | 2001-06-25 |
ES2116284T3 (es) | 1998-07-16 |
DE69032326D1 (de) | 1998-06-25 |
EP0499627A4 (en) | 1994-07-20 |
JPH05501770A (ja) | 1993-04-02 |
US5063603A (en) | 1991-11-05 |
EP0499627B1 (de) | 1998-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69032326T2 (de) | Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafür | |
DE69132156T2 (de) | Verfolgung eines sich bewegenden Objektes | |
DE69612700T2 (de) | Merkmallokalisierung in einem Bild | |
DE69707886T2 (de) | Verfahren und gerät zum lokalisieren einer sich bewegenden zone und bestimmung der schnellheit und richtung der bewegung eines gebietes von relativer bewegung in einer szene | |
DE69935437T2 (de) | Visuelle vorrichtung | |
DE69922752T2 (de) | Verfahren zum Detektieren eines menschlichen Gesichtes | |
DE60313941T2 (de) | Personendetektion durch Gesichtsdetektion und Bewegungsdetektion | |
DE602004002180T2 (de) | Objekterkennung | |
DE69223155T2 (de) | Mischung von videosignalen unter benutzung eines pattern-keys | |
DE69833999T2 (de) | Verfahren zur automatischen erkennung menschlicher augen in digitalbildern | |
DE69326394T2 (de) | Videokamera mit farbbasiertem Zielverfolgungssystem | |
DE69906403T2 (de) | Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets | |
DE69332397T2 (de) | Mustererkennungsgerät | |
DE69231809T2 (de) | Verfahren und Vorrichtung zur Kantendetektion und Abtrennung eines gegebenen Subjekts aus einem Bild | |
DE60215743T2 (de) | Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen | |
DE69516959T2 (de) | Stabilisierungsabschätzung einer zielbereichlokalisierung, abgeleitet von mehrfacherfassten marksteinbereichen auf einem videobild | |
DE102005000646B4 (de) | Vorrichtung und Verfahren zum Erfassen von sich bewegenden Objekten | |
DE69938173T2 (de) | Automatische voreingestellte teilnehmerpositionsbestimmung für videokonferenzsysteme | |
DE69226551T2 (de) | System und Verfahren zur Einordnung und Gewinnung hervorstehender Konturen für Zielerkennung | |
DE10081029B4 (de) | Bildbearbeitung zur Vorbereitung einer Texturnalyse | |
DE69428686T2 (de) | Bildaufnahmevorrichtung und verfahren zur bestimmung von fokusinformationen | |
DE19609455C2 (de) | Gesichtsbild-Verarbeitungssystem | |
DE19955714A1 (de) | Verfahren und Vorrichtung zum Fotografieren/Erkennen eines Gesichts | |
DE4406020C1 (de) | Verfahren zur automatisierten Erkennung von Objekten | |
DE69032588T2 (de) | Verfahren und Gerät zur Bewegungserkennung eines sich bewegenden Bildes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |