DE19534230A1 - Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern - Google Patents
Verfahren zur Erkennung von Objekten in zeitveränderlichen BildernInfo
- Publication number
- DE19534230A1 DE19534230A1 DE19534230A DE19534230A DE19534230A1 DE 19534230 A1 DE19534230 A1 DE 19534230A1 DE 19534230 A DE19534230 A DE 19534230A DE 19534230 A DE19534230 A DE 19534230A DE 19534230 A1 DE19534230 A1 DE 19534230A1
- Authority
- DE
- Germany
- Prior art keywords
- motion
- color
- areas
- objects
- recordings
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
Die Erfindung betrifft ein Verfahren zum Erkennen von Ob
jekten in zeitveränderlichen Bildern einer optisch über
wachten Szene.
Die optische Überwachung einer Szene und die Erkennung
darin befindlicher Objekte sind von wesentlicher Bedeutung
bei verschiedenen Formen der Verkehrleittechnik, insbeson
dere der automatischen Hinderniserkennung zur Kollisions
verhütung. Für solche Anwendungsfälle kann die Anordnung
eines bildaufnehmenden optischen Sensors (Kamera) in einem
bewegten Fahrzeug zur Überwachung des in Fahrtrichtung
vorausliegenden Teilraums
als Ausgangssituation angenommen werden. Relevant sind
dann insbesondere bewegte andere Fahrzeuge sowie festste
hende Objekte wie Fahrbahnbegrenzungen und -markierungen,
Schilder, Hindernisse auf der Fahrbahn. Die feststehenden
Objekte sind aufgrund der Eigengeschwindigkeit des Fahr
zeugs diesem gegenüber bewegt und verändern dadurch stän
dig ihre Position in dem von der Kamera aufgenommenen
Bild.
Die Aufnahmen liegen im Regelfall als digitalisierte Bild
daten zeitlich aufeinanderfolgender zweidimensionaler Ra
sterbilder mit Helligkeits- und/oder Farbinformationen zu
den einzelnen Pixeln vor. Die relevanten Objekte nehmen
dabei im Regelfall nur einen geringen Anteil an dem ge
samten Bildinhalt ein. Die Objekterkennung muß daher einen
geringen Anteil relevanter Information von einem weit
überwiegenden Anteil irrelevanter Information trennen.
Hierfür ist es z. B. bekannt, für Objekte oder Objektklas
sen charakteristische Linienanordnungen oder Symmetrieei
genschaften, z. B. für den Heckbereich vorausfahrender
Fahrzeuge vorzugeben und in den aufgenommenen Bildern zu
detektieren [1], [2]. Während solche Vorgehensweisen in Um
gebungen mit einfach strukturierter Umgebung wie z. B. auf
Autobahnen teilweise gute Ergebnisse liefern, ist die
Funktion in variationsreicherer Umgebung wie Landstraßen
eher unbefriedigend.
Ein anderer Ansatz [3], [4] benutzt eine Stereo-Bildaufnahme
und schätzt über die Verknüpfung räumlich getrennt aufge
nommener Einzelbilder die Entfernung für signifikante
Bildteile wie Kanten und Ecken. Eine so entstehende räum
liche Merkmalskarte weist aber häufig zuwenige Einträge
für die zuverlässige Erkennung und Klassifizierung auf.
Davon verschieden sind Verfahren, welche Objekte aufgrund
ihrer Bewegung in den aufgenommenen Bildern detektieren.
Eine einfache Methode, welche die Differenz zwischen aktu
ellen Aufnahmen und Hintergrundbildern auswertet [5], ist
wegen der stationär einzusetzenden Kamera für die meisten
Anwendungen nicht geeignet. Die meisten auf Bewegungsin
formation basierenden Verfahren werten dagegen Bildver
schiebungen aus. Hierbei sind wiederum kontinuierliche und
diskrete Vorgehensweisen zu unterscheiden.
Die kontinuierlichen Verfahren erzeugen üblicherweise für
jeden Pixel einen Verschiebungsvektor durch Berechnung ei
nes räumlich-zeitlichen Gradienten einer lokalen Intensi
tätsverteilung [6]. Die dabei benutzte Glättung führt zu
Fehlern an Diskontinuitäten des Bewegungsvektorfeldes und
erschwert eine bewegungsbasierte Segmentierung.
Die diskreten Verfahren greifen auf signifikante Bildteile
wie Ecken [7] und lokale Intensitätsmaxima und -minima zu
rück, deren Lage in zeitlich aufeinanderfolgenden Aufnah
men verfolgt wird, um Verschiebungsvektoren zu erzeugen.
Die so gewonnenen Verschiebungsvektoren sind zwar sehr ge
nau, das Vektorfeld ist aber häufig nicht dicht genug be
setzt, um eine zuverlässige Objekterkennung und -klassifi
kation zu gewährleisten.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein
Verfahren zur Erkennung von Objekten in zeitveränderlichen
Aufnahmen einer optisch überwachten Szene anzugeben, das
mit vertretbarem Verarbeitungsaufwand eine zuverlässige
Erkennung von Objekten ermöglicht.
Die Erfindung ist im Patentanspruch 1 beschrieben. Die Un
teransprüche enthalten vorteilhafte Ausgestaltungen und
Weiterbildungen der Erfindung.
Die Erfindung ermöglicht mit geringem Bildverarbeitungs
aufwand eine zuverlässige Erkennung und Separation von Ob
jekten. Die Farbe als Merkmal ist einfach auszuwerten und
ist gegenüber der Bewegung eines Objekts eine in beson
derem Maße beständige Eigenschaft. Die Erfindung liefert
präzise Bewegungsvektoren für die farblich einheitlichen
Flächen. Vorteilhaft ist die einfache und zuverlässige Be
stimmung von Bewegungsobjekten durch Zusammenfassung von
benachbarten Flächen mit übereinstimmenden oder ähnlichen
Bewegungsvektoren. Die Beschreibung der farblich einheit
lichen Flächen durch Parameter ermöglicht eine besonders
einfache Zuordnung entsprechender Flächen in zeitlich auf
einanderfolgenden Aufnahmen und insbesondere über einen
Flächenschwerpunkt oder ein ähnliches Merkmal eine einfa
che und präzise Bestimmung der Bewegungsvektoren.
Die Farbinformation liegt in den digitalisierten Bilddaten
in Form von diskreten Farbwerten vor, die z. B. als Farb
vektor w mit rot-, Grün- und Blau-Komponenten w = (r,g,b)
darstellbar sind. Die Anzahl verschiedener Farben bei der
Ermittlung farbig einheitlicher Flächen bestimmt den Auf
wand bei der Verarbeitung der Bilddaten und die Flächen
auflösung einer Aufnahme. Während bei einer zu geringen
Anzahl verschiedener Farben u. U. verschiedene Objekte
nicht mehr zuverlässig getrennt werden, kann eine große
Anzahl verschiedener Farben zu einer sehr starken Flächen
zergliederung der Aufnahme mit entsprechend hohem
Verarbeitungsaufwand führen. Die Anzahl der Farben kann im
Einzelfall zur Optimierung der Objekterkennung anpaßbar
sein. Als vorteilhaft hat sich z. B. die Wahl von sechzehn
verschiedenen Farben erwiesen.
Die Farbauflösung nach der Anzahl möglicher diskreter
Farbwerte ist für gebräuchliche farbfähige Bildaufnah
mesensoren wesentlich höher als die für die Ermittlung
farblich einheitlicher Flächen zweckmäßige Anzahl ver
schiedener Farben. Es ist in einem solchen Fall vorteil
haft, jeweils eine Mehrzahl von Farbwerten gruppenweise zu
einer Farbe im Sinne der Bestimmung einheitlich gefärbter
Flächen zusammenzufassen. Vorzugsweise wird hierfür die
Art der Zusammenfassung nicht durch eine feste Zuordnung
einzelner Farbwerte zu einer von mehreren Gruppen vorgege
ben, sondern aus der Farbverteilung einer oder mehrerer
Original-Aufnahmen des jeweiligen Einsatzfalles adaptiv
bestimmt. So kann z. B. eine Zusammenfassung von mehreren
Farbwerten zu einer Farbe dadurch erfolgen, daß in dem
mehrdimensionalen Farbraum mehrere Referenz-Farben defi
niert werden und die einzelnen Farbwerte derjenigen Refe
renz-Farbe zugeordnet werden, zu welcher der Vektorabstand
im Farbraum am geringsten ist. Die Referenz-Farben sind
vorzugsweise adaptiv so gelegt, daß sie eine optimale Re
präsentation der gegebenen Farbverteilung darstellen. Dies
kann als Cluster-Bildung im mehrdimensionalen Farbraum be
trachtet werden, wobei insbesondere der technische bedeut
same 3-dimensionale Farbraum mit Rot-, Grün- und Blau-Wer
ten in Betracht kommt. Eine für Echtzeit-Bildverarbeitung
geeignete Cluster-Technik ist z. B. in [10] beschrieben.
Vorteilhaft ist auch, die Anzahl der verschiedenen Farben
adaptiv auf der Basis der gegebenen Farbverteilung in den
Original-Aufnahmen festzulegen, wodurch die je nach Situa
tion unterschiedliche Anzahl signifikanter, zur Repräsen
tation geeigneter Farben berücksichtigt werden kann.
Zur Ermittlung zusammenhängender Flächen einheitlicher
Farbe sind geeignete Verfahren an sich bekannt, z. B. ein
in [11] beschriebener schneller Algorithmus, mit dem je
weils die Randlinie einer einheitlich gefärbten Fläche be
stimmbar ist. Mit geringem Zusatzaufwand können dabei auch
weitere Merkmale der jeweiligen einheitlich gefärbten Flä
che, insbesondere Flächenschwerpunkt, Flächeninhalt und
ein durch Zeilen- und Spaltengrenzen umbeschriebenes
Rechteck als Parameter der jeweiligen Fläche ermittelt
werden. Ebenso können räumliche Nachbarschaftsbeziehungen
festgestellt und gespeichert werden.
Für die Gewinnung der Bewegungsinformation aus zeitlich
aufeinanderfolgenden Aufnahmen ist die richtige Zuordnung
von einander entsprechenden Flächen in verschiedenen Auf
nahmen von wesentlicher Bedeutung. Die Flächenbeschreibung
durch Parameter ist hierfür besonders vorteilhaft. Die Zu
ordnung von Flächen erfolgt dann vorzugsweise durch Bil
dung von Differenzen gleichartiger Parameter und Schwell
wertsetzung für die einzelnen Differenzen oder für Kombi
nationen mehrerer Differenzwerte, ggf. mit unterschiedli
cher Gewichtung. Zur Entscheidung, ob eine Fläche A aus
einer ersten Aufnahme und eine Fläche B aus einer zweiten,
zeitlich verschobenen Aufnahme einander entsprechen, kom
men als Bewertungsgrößen insbesondere in Betracht
- a) die Farbdifferenz DCAB ausgedrückt z. B. als Betrag der Differenz der Farbvektoren WA und WB DCAB = | WA - WB | W = (r, g, b)
- b) relative Differenz DAAB der Flächeninhalte AA und AB
- c) Abweichung DS der Seitenverhältnis SA, SB der um schreibenden Rechtecke, z. B.
jeweils mit durch Indizes A bzw. B ausgedruckter Flächen
zugehörigkeit, sowie Kombinationen davon, z. B.
DAB = WC · DCAB + WA · DAAB + WS · DSAB
mit Wi als Gewichtungsfaktoren für die einzelnen Bewer
tungsgrößen. Das wichtigste Ähnlichkeitsmerkmal ist in
Folge der erfindungsgemäßen Flächenermittlung die Farbe
der verglichenen Flächen, so daß die Farbdifferenz als
vorrangiges Bewertungskriterium separat eine Schwell
wertvergleich unterzogen wird oder mit starker relativer
Gewichtung in eine kombinierte Bewertungsgröße, z. B. DAB,
eingeht.
Es ist ferner zweckmäßig, nur solche Flächen nach Krite
rien der vorstehenden Art auf ihre gegenseitige Entspre
chung zu überprüfen, deren Flächenschwerpunkte in zeitlich
aufeinanderfolgenden Aufnahmen nicht um mehr als einen
vorgebbaren Maximalabstand d auseinanderliegen. Die Flä
chenschwerpunkte können durch zweidimensionale Vektoren
gA, gB und der Abstand DF durch den Differenzbetrag
DFAB = |gA-gB| ausgedrückt werden. Der Wert für den
Maximalabstand d hängt sowohl von der maximal für zu de
tektierende Objekte zu erwartenden Bildverschiebungsge
schwindigkeit als auch von der räumlichen Auflösung der
Aufnahmen und dem Zeittakt aufeinanderfolgender Aufnahmen
ab.
Eine Zuordnung einer bestimmten Flächen A in einer ersten
Aufnahme zu einer Fläche B in einer zeitlich benachbarten
zweiten Aufnahme kann unter Vorgabe eines Maxiinalabstands
d wie vorstehend geschildert z. B. in der Weise erfolgen,
daß aus der Gesamtmenge aller Flächen der zweiten Aufnahme
eine Teilmenge der Flächen X, welche die Abstandsbedingung
|gA - gx| d erfüllen ausgewählt wird, daß für alle
Flächen dieser Teilmenge die Bewertungsgröße DAX für die
Abweichung wie oben als DAB angegeben bestimmt wird und
diejenige Fläche mit der geringsten Abweichung als die der
Fläche A entsprechende Fläche B mit DAB = min {DAX}
festgestellt wird.
Aus der Differenz der Schwerpunktvektoren ergibt sich di
rekt ein Bewegungsvektor bAB = gB-gA für die Fläche A
nach B, der die Information über Betrag und Richtung der
Flächenverschiebung enthält. Vorzugsweise werden die Bewe
gungsvektoren über mehrere aufeinanderfolgende Aufnahmen
für die Bildung von Bewegungstrajektorien aneinanderge
reiht. Die Bewegungsvektoren und Bewegungstrajektorien re
präsentieren nur die Flächenverschiebungen in der Bildflä
che der Aufnahmen, nicht jedoch die davon zu unterschei
dende räumliche Bewegung von beobachteten Objekten.
Das Verschmelzen, Einschließen, Teilen usw. von Flächen
von einer Aufnahme zu einer folgenden kann eine Zuordnung
entsprechender Flächen unmöglich machen. Dies kann zur
Folge haben, daß sich die Anzahl der Flächen immer wieder
ändert und daß die Verfolgung von zuvor bearbeiteten Flä
chen abgebrochen und die Verfolgung neu erkannter Flächen
aufgenommen wird. Um eine falsche Zuordnung bei derartigen
Umgestaltungen zu vermeiden, können für die Bewertungs
größen DCAB, DSAB, DAAB, DAB u.ä. Schwellwerte vorgegeben
werden, bei deren überschreiten keine Zuordnung vorgenom
men wird. Durch Zuordnungsvergleich über mehrere Aufnahme
takte können lediglich in einer Aufnahme auftretende Flä
chenänderungen der vorstehenden Art überbrückt und ausge
glichen werden.
Mit der nach der Erfindung präzise ermittelbaren Bewe
gungsinformation zu zuverlässig separierten Bildteilen
liegt ein wichtiges Unterscheidungsmerkmal als Vorverar
beitungsergebnis für eine nachfolgende Klassifikation vor.
Vorzugsweise werden zusammengehörige Flächen zu einem Be
wegungsobjekt zusammengefaßt und als solches gemeinsam ei
ner Objektklassifikation unterzogen. Für die Entscheidung
oder die Zusammengehörigkeit zweier zuvor getrennt bear
beiteter Flächen zu demselben Bewegungsobjekt ist vorran
gig von Bedeutung, ob
- a) die beiden Flächen unmittelbar oder in geringem Abstand benachbart sind; hierfür kann eine unmit telbare Nachbarschaft mit teilweise gemeinsamer Randlinie, eine mittelbare Nachbarschaft mit einer gemeinsamen unmittelbaren Nachbarschaftsfläche oder, vorzugsweise, die Überlappung der durch Zei len- und Spaltengrenzen umbeschriebenen Rechtecke zur Bedingung gemacht werden
- b) die Verschiebung der beiden Flächen hinreichend ähnlich ist; hierfür können die Bewegungsvektoren der beiden Flächen z. B. korreliert werden, wobei die Korrelation vorzugsweise über mehrere Aufnah metakte hin vorgenommen wird; das Maß der Korre liertheit wird durch einen numerischen Wert ausge drückt, der mit einem Schwellwert verglichen wird.
Aus den Bewegungsvektoren oder Bewegungstrajektorien aller
zu demselben Objekt gehörenden Flächen kann durch mit Flä
cheninhalten gewichtete Mittelwertbildung ein objektbezo
gener Bewegungsvektor bzw. eine objektbezogene Bewegungs
trajektorie gebildet werden, in gleicher Weise kann ein
objektbezogener Flächenschwerpunkt gebildet werden. Eine
von einem Bewegungsobjekt umfaßte Fläche kann aus dem Be
wegungsobjekt herausgenommen werden, wenn sie die Bedin
gungen für die Zugehörigkeit nicht mehr erfüllt. Ebenso
kann eine zuvor unabhängige Fläche in ein bestehendes Be
wegungsobjekt mit aufgenommen werden. Ein Bewegungsobjekt
kann in zwei oder mehr getrennte Objekte zerfallen, was
insbesondere bei Annäherung an eine von größerer Distanz
einheitlich erscheinende Objektgruppe auftritt.
Objekte oder Flächen mit vernachlässigbarer oder ver
schwindender Verschiebung in der Bildfläche können für die
Hinderniserkennung als irrelevant eingestuft und von der
heiteren Bearbeitung ausgenommen werden.
In Fig. 1 ist ein Ausschnitt aus einem Bild mit in Zeilen
Z und Spalten Sp rasterförmig angeordneten Pixeln skiz
ziert, in welchem vier Flächen A1, A2, A3, A4 mit durch
unterschiedliche Schraffur dargestellten verschiedenen
Farben erkennbar sind. Die Flächen sind durch Randlinien L
eingegrenzt. Unmittelbar benachbarte Flächen haben gemein
same Randlinienabschnitte, z. B. A1 und A2, A1 und A4, A2
und A4, A2 und A3. Für die Fläche F4 ist ein durch die
Spaltengrenzen und Zeilengrenzen bestimmtes umbeschriebe
nes Rechteck R4 eingezeichnet. Jede der Flächen weist
einen Flächenschwerpunkt S1 usw. auf. Die über mehrere
Aufnahmetakte gemittelte Verschiebung der jeweiligen Flä
chenschwerpunkte ist durch Bewegungstrajektorien b1 usw.
zu den Flächenschwerpunkten dargestellt. Bei der Bildung
von Bewegungsobjekten erweisen sich die Bewegungstrajekto
rien zu den benachbarten Flächen F1 und F2 als sehr ähn
lich, während die Bewegungstrajektorien zu F3 und zu F4
mit denen der übrigen Flächen unkorreliert erscheinen. Die
Flächen F1 und F2 werden daher zu einem Bewegungsobjekt
zusammengefaßt und z. B. bei einer nachfolgenden Objekt
klassifikation gemeinsam bearbeitet.
Die Erfindung ist nicht auf die vorliegend im Detail gege
benen Beispiele beschränkt. Insbesondere sind bezüglich
der Flächenbeschreibung durch Parameter, der Entscheidung
über die gegenseitige Zuordnung von Flächen aus zeitlich
getrennt gewonnenen Bildern der Bildung von Bewegungsob
jekten und der Verknüpfung von Bilddaten zur Gewinnung der
Bewegungsvektoren zahlreiche Abwandlungen im Bereich fach
männischen Könnens möglich.
Literatur
[1] Thomanek, F., Dickmanns, E.D. and Dickmanns, D., "Multiple Object Recognition and Scene Interpreta tion for Autonomous Road Vehicle Guidance", IEEE Symposium on Intelligent Vehicles, pp. 231-236, Paris, 1994
[2] Schwarzinger, M, Zielke, T., Noll, D., Brauckmann, M., von Seelen, W., "Vision-Based Car-Following: Detection, Tracking, and Identification", IEEE Symposium on Intelligent Vehicles, pp. 24-29, De troit, 1992
[3] Saneyoshi, K., Hanawa, K., Kise, K., Sogawa Y., "3-D Recognition System for Drive Assist", IEEE Symposium on Intelligent Vehicles, pp. 60-65, To kyo, 1993
[4] Brauckmann, M.E. Goerick, C., Groß, J. and Zielke, T., "Towards All Around Automatic Visual Obstacle Sensing for Cars", IEEE Symposium on Intelligent Vehicles, pp. 79-84, Paris, 1994
[5] Kilger, M., "A shadow handler in a video-based real-time traffic monitoring system", Proc. IEEE Workshop on Applications of Computer Vision, Palm Springs, CA, pp. 1060-1066, 1992
[6] Horn, B.K.P. and Schunck, B., "Determining optical flow", Artificial Intell., vol. 17, pp. 185-203, 1981
[7] Weng, J., Ahuja, N., Huang, T.S., "Matching two perspective views", IEEE Trans. Pattern Analysis and Machine Intelligence, vol. PAMI 14, no. 8, pp. 806-825, 1992
[8] Koller, D., Heinz, N.; Nagel, H.-H., "Algorithmic characterization of vehicle trajectories from image sequences by motion verbs", Proc. IEEE Conf. Computer Vision and Pattern Recognition, Maui, HI, pp. 90-95, 1991
[9] Wu, X., and Witten, I.H., "A fast k-means type clustering algorithm", Dept Computer Science, Univ. of Calgary, Canada, 1985
[10] Mandler, E. and Oberländer, M., "One-pass Encoding of Connected Components in Multi-Valued Images", 10th International Conference on Pattern Recogni tion (ICPR), pp. 64-69, Atlantic City, 1990.
[1] Thomanek, F., Dickmanns, E.D. and Dickmanns, D., "Multiple Object Recognition and Scene Interpreta tion for Autonomous Road Vehicle Guidance", IEEE Symposium on Intelligent Vehicles, pp. 231-236, Paris, 1994
[2] Schwarzinger, M, Zielke, T., Noll, D., Brauckmann, M., von Seelen, W., "Vision-Based Car-Following: Detection, Tracking, and Identification", IEEE Symposium on Intelligent Vehicles, pp. 24-29, De troit, 1992
[3] Saneyoshi, K., Hanawa, K., Kise, K., Sogawa Y., "3-D Recognition System for Drive Assist", IEEE Symposium on Intelligent Vehicles, pp. 60-65, To kyo, 1993
[4] Brauckmann, M.E. Goerick, C., Groß, J. and Zielke, T., "Towards All Around Automatic Visual Obstacle Sensing for Cars", IEEE Symposium on Intelligent Vehicles, pp. 79-84, Paris, 1994
[5] Kilger, M., "A shadow handler in a video-based real-time traffic monitoring system", Proc. IEEE Workshop on Applications of Computer Vision, Palm Springs, CA, pp. 1060-1066, 1992
[6] Horn, B.K.P. and Schunck, B., "Determining optical flow", Artificial Intell., vol. 17, pp. 185-203, 1981
[7] Weng, J., Ahuja, N., Huang, T.S., "Matching two perspective views", IEEE Trans. Pattern Analysis and Machine Intelligence, vol. PAMI 14, no. 8, pp. 806-825, 1992
[8] Koller, D., Heinz, N.; Nagel, H.-H., "Algorithmic characterization of vehicle trajectories from image sequences by motion verbs", Proc. IEEE Conf. Computer Vision and Pattern Recognition, Maui, HI, pp. 90-95, 1991
[9] Wu, X., and Witten, I.H., "A fast k-means type clustering algorithm", Dept Computer Science, Univ. of Calgary, Canada, 1985
[10] Mandler, E. and Oberländer, M., "One-pass Encoding of Connected Components in Multi-Valued Images", 10th International Conference on Pattern Recogni tion (ICPR), pp. 64-69, Atlantic City, 1990.
Claims (9)
1. Verfahren zur Erkennung von Objekten in zeitveränder
lichen Aufnahmen einer optisch überwachten Szene, dadurch
gekennzeichnet, daß die Bilder mehrfarbig aufgenommen wer
den, daß innerhalb eines Bildes zusammenhängende Flächen
einheitlicher Farbe ermittelt werden und daß für einander
entsprechende Flächen in zeitlich aufeinanderfolgenden
Bildern jeweils ein Bewegungsvektor ermittelt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
für die zusammenhängenden Flächen Parameter ermittelt und
zur Bildfolgenauswertung herangezogen werden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß
als Parameter neben Farbe der Flächeninhalt und/oder der
Flächenschwerpunkt bestimmt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch
gekennzeichnet, daß aus den Bewegungsvektoren einander
entsprechender Flächen über mehrere aufeinanderfolgende
Bilder Bewegungstrajektorien gebildet werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, daß angrenzende Flächen mit ähnlichen
Bewegungsvektoren oder Bewegungstrajektorien zu Bewegungs
objekten zusammengefaßt werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß
zu einem Bewegungsobjekt jeweils ein Bewegungsvektor oder
eine Bewegungstrajektorie aus den Bewegungsvektoren bzw.
Bewegungstrajektorien der objektbildenden Flächen abgelei
tet wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch
gekennzeichnet, daß die Aufnahmen mit einer eine erste An
zahl diskreter Farbwerte umfassenden Farbauflösung aufge
nommen und jeweils mehrere Farbwerte in gruppenweiser Zu
sammenfassung als gleichfarbig weiterverarbeitet werden.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß
die Art der gruppenweisen Zusammenfassung aus der Farb
wertverteilung einer oder mehrerer Aufnahmen abgeleitet
wird.
9. Verfahren nach einem der Ansprüche 5 bis 8, dadurch
gekennzeichnet, daß ein Klassifikator auf die Bewegungsob
jekte angewandt wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19534230A DE19534230A1 (de) | 1995-09-15 | 1995-09-15 | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern |
EP96113045A EP0763800A3 (de) | 1995-09-15 | 1996-08-14 | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19534230A DE19534230A1 (de) | 1995-09-15 | 1995-09-15 | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19534230A1 true DE19534230A1 (de) | 1997-03-20 |
Family
ID=7772255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19534230A Withdrawn DE19534230A1 (de) | 1995-09-15 | 1995-09-15 | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP0763800A3 (de) |
DE (1) | DE19534230A1 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10065180A1 (de) * | 2000-12-23 | 2002-07-11 | Eads Deutschland Gmbh | Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung |
DE10029866B4 (de) * | 1999-06-16 | 2006-06-08 | Honda Giken Kogyo K.K. | Objekterkennungssystem |
AT414056B (de) * | 2001-03-13 | 2006-08-15 | Siemens Ag Oesterreich | Verfahren zur überwachung einer lifttrasse und ihrer umgebung |
DE10030421B4 (de) * | 1999-06-23 | 2006-10-05 | Honda Giken Kogyo K.K. | Fahrzeugumgebungsüberwachungssystem |
DE102007006885A1 (de) * | 2007-02-08 | 2008-08-21 | Siemens Ag | Verfahren und Anordnung zur Erfassung vorbeifahrender Züge |
DE102013021840A1 (de) * | 2013-12-21 | 2015-06-25 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug |
DE19842827B4 (de) * | 1998-09-18 | 2015-08-06 | Volkswagen Ag | Precrashsensierungssystem |
DE102015006569A1 (de) | 2015-05-21 | 2015-12-17 | Daimler Ag | Verfahren zur bildbasierten Erkennung des Straßentyps |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0542091A2 (de) * | 1991-11-04 | 1993-05-19 | Hughes Aircraft Company | Videobildverarbeitungssystem und Verfahren zur Fahrzeugerfassung |
EP0560610A2 (de) * | 1992-03-13 | 1993-09-15 | Canon Kabushiki Kaisha | Bewegungsvektornachweisgerät |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5473369A (en) * | 1993-02-25 | 1995-12-05 | Sony Corporation | Object tracking apparatus |
-
1995
- 1995-09-15 DE DE19534230A patent/DE19534230A1/de not_active Withdrawn
-
1996
- 1996-08-14 EP EP96113045A patent/EP0763800A3/de not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0542091A2 (de) * | 1991-11-04 | 1993-05-19 | Hughes Aircraft Company | Videobildverarbeitungssystem und Verfahren zur Fahrzeugerfassung |
EP0560610A2 (de) * | 1992-03-13 | 1993-09-15 | Canon Kabushiki Kaisha | Bewegungsvektornachweisgerät |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19842827B4 (de) * | 1998-09-18 | 2015-08-06 | Volkswagen Ag | Precrashsensierungssystem |
DE10029866B4 (de) * | 1999-06-16 | 2006-06-08 | Honda Giken Kogyo K.K. | Objekterkennungssystem |
DE10030421B4 (de) * | 1999-06-23 | 2006-10-05 | Honda Giken Kogyo K.K. | Fahrzeugumgebungsüberwachungssystem |
DE10065180A1 (de) * | 2000-12-23 | 2002-07-11 | Eads Deutschland Gmbh | Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung |
AT414056B (de) * | 2001-03-13 | 2006-08-15 | Siemens Ag Oesterreich | Verfahren zur überwachung einer lifttrasse und ihrer umgebung |
DE102007006885A1 (de) * | 2007-02-08 | 2008-08-21 | Siemens Ag | Verfahren und Anordnung zur Erfassung vorbeifahrender Züge |
DE102013021840A1 (de) * | 2013-12-21 | 2015-06-25 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug |
DE102015006569A1 (de) | 2015-05-21 | 2015-12-17 | Daimler Ag | Verfahren zur bildbasierten Erkennung des Straßentyps |
Also Published As
Publication number | Publication date |
---|---|
EP0763800A3 (de) | 2000-02-23 |
EP0763800A2 (de) | 1997-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69511620T2 (de) | Videoverarbeitungssystem | |
EP0385384B1 (de) | Verfahren zur Detektion bewegter Objekte in digitaler Bildfolge | |
DE19636028C1 (de) | Verfahren zur Stereobild-Objektdetektion | |
EP2467828B1 (de) | Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform | |
DE60036082T2 (de) | Verfahren und vorrichtung zur wiederauffindung von texturbildern | |
AT506928B1 (de) | Verfahren zur videoanalyse | |
DE69032146T2 (de) | System zur Auffindung eines beweglichen Objekts | |
DE69226512T2 (de) | Verfahren zur Bildverarbeitung | |
WO1992002894A1 (de) | Verfahren zur analyse zeitlicher folgen digitaler bilder | |
DE112009000949T5 (de) | Detektion eines freien Fahrpfads für ein Fahrzeug | |
DE102014216794A1 (de) | Robuste und recheneffiziente videobasierte Objektverfolgung in kontrollierten Bewegungsumgebungen | |
DE112011103690T5 (de) | Erkennung und Verfolgung sich bewegender Objekte | |
EP2005361A1 (de) | Multisensorieller hypothesen-basierter objektdetektor und objektverfolger | |
DE102015115786B4 (de) | An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern | |
DE102012000459A1 (de) | Verfahren zur Objektdetektion | |
DE102017215718B4 (de) | Verfahren zum Auswerten eines optischen Erscheinungsbildes in einer Fahrzeugumgebung und Fahrzeug | |
DE102016014783A1 (de) | Verfahren zur Detektion von Objekten | |
DE102018123393A1 (de) | Erkennung von Parkflächen | |
EP3931798B1 (de) | Schätzung der bewegung einer bildposition | |
DE19534230A1 (de) | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern | |
EP0564858B1 (de) | Verfahren zur Auflösung von Clustern bewegter Segmente | |
EP3857304B1 (de) | Verfahren zum fokussieren einer kamera | |
DE102019209473A1 (de) | Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene | |
EP2115699B1 (de) | Verfahren zur selbsttätigen analyse von objektbewegungen | |
DE10136649B4 (de) | Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE |
|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE |
|
8127 | New person/name/address of the applicant |
Owner name: DAIMLER AG, 70327 STUTTGART, DE |
|
R120 | Application withdrawn or ip right abandoned |
Effective date: 20121024 |