DE69031589T2 - Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge - Google Patents

Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge

Info

Publication number
DE69031589T2
DE69031589T2 DE69031589T DE69031589T DE69031589T2 DE 69031589 T2 DE69031589 T2 DE 69031589T2 DE 69031589 T DE69031589 T DE 69031589T DE 69031589 T DE69031589 T DE 69031589T DE 69031589 T2 DE69031589 T2 DE 69031589T2
Authority
DE
Germany
Prior art keywords
straight line
coordinate
line
point
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69031589T
Other languages
English (en)
Other versions
DE69031589D1 (de
Inventor
Shigeto Nakayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE69031589D1 publication Critical patent/DE69031589D1/de
Application granted granted Critical
Publication of DE69031589T2 publication Critical patent/DE69031589T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen oder Erkennen der Konfiguration eines Wegs für Kraftfahrzeuge durch Bildbearbeitung, und insbesondere ein Verfahren zum Erkennen von Begrenzungen eines Wegs unabhängig von der Konfiguration des Wegs.
  • Das Erkennen der Konfiguration eines Wegs für Kraftfahrzeuge erfordert, daß Begrenzungen des Wegs an dessen Ende bestimmt werden. Zur Bestimmung der Begrenzungen eines Wegs an dessen Ende ist es erforderlich, Daten des Wegs an dessen Ende zu bearbeiten, die durch eine Fernsehkamera oder der gleichen erzeugt werden, um Liniensegmente aus den bearbeiteten Bilddaten am Ende des Wegs zu extrahieren. Ein Bildbearbeitungsverfahren verwendet Hough-Transformation, wie in dem japanischen Patent-Offenlegungsschriften Nr. 62(1987)-24310 und 62(1987)-7096 offenbart. Nach diesen offenbarten Verfahren werden Merkmalspunkte auf einem durch die Bilddaten erzeugten Bild der Hough-Transformation unterzogen, um hierdurch eine Gruppe gerader Linien zu erzeugen, die der Verteilung der Merkmalspunkte entsprechen.
  • Wenn der zu erkennende Weg gerade ist, dann kann das obige, auf Bildbearbeitung beruhende herkömmliche Verfahren die erfaßten geraden Linien, die mittels der Hough-Transformation erzeugt sind, direkt verwenden. Wenn jedoch der Weg gekrümmt oder verzweigt ist, können die erfaßten geraden Linien, die mittels der Hough-Transformation erzeugt sind, nicht so verwendet werden wie sie sind. In diesem Fall war es üblich, ein durch eine Fernsehkamera erzeugtes Bild in eine Mehrzahl kleiner Bearbeitungsflächen zu unterteilen und Liniensegmente in den Bearbeitungsflächen nacheinander, ausgehend von einer engsten kleinen Fläche in dem Bild, wiederholt zu erfassen, so daß man Information erhalten kann, die die Begrenzungen tatsächlichen Wegs genau darstellt.
  • Das IEEE Journal of Robotics and Automation, Vol RA-3 Nr.2, April 1987, Seiten 124-141, A.M. Waxmann et al.; "A Visual Navigation System for Autonomous Land Vehicles", über das Anspruch 1 gekennzeichnet ist, diskutiert eine modulare System-Architektur. Während sich das Fahrzeug bewegt, wird die Aufmerksamkeit auf kleine Teile des Sichffelds fokussiert, um die interessierende Gegenstände zu verfolgen und als Modell zu entwickeln.
  • Mit den herkömmlichen Verfahren sind daher sequentielle Schritte erforderlich, um die Konfiguration eines Wegs zu bestimmen, und die Gesamtbearbeitung ist zeitaufwendig. Demzufolge war es schwierig, das herkömmliche Verfahren bei der Fahrtsteuerung eines Automobils entlang von Wegen anzuwenden, weil der Autofahrsteuer- oder Führungsprozeß schnelle Datenverarbeitung erfordert.
  • Ein Hauptziel der vorliegenden Erfindung ist es, ein Verfahren zum Bestimmen der Konfiguration eines Wegs für Kraftfahrzeuge vorzusehen, wobei das Verfahren in der Lage ist, Begrenzungen des Wegs leicht und schnell zu bestimmen.
  • Nach der vorliegenden Erfindung wird ein Verfahren zum Bestimmen der Konfiguration eines Wegs für Kraftfahrzeuge angegeben, das die Schritte umfaßt: Erzeugen von Ursprungsbilddaten des Wegs; Bestimmen von in den Ursprungsbilddaten enthaltenen Randdatenpunkten; Bestimmen einer Gruppe gerader Linien, die der Anordnung der Randdatenpunkte angenähert sind; Extrahieren gerader Linien, die zur Bestimmung von Begrenzungen des Wegs wirksam sind, aus der Gruppe gerader Linien, wobei das Verfahren durch die Schritte gekennzeichnet ist: Teilen der extrahierten geraden Linien in eine Mehrzahl von Liniensegmenten durch Schnittpunkte zwischen den geraden Linien; Prüfen der Liniensegmente gegenüber den Randdatenpunkten der Ursprungsbilddaten zur Bestimmung, ob die Liniensegmente den Begrenzungen des Wegs entsprechen; und Entfernen jener Liniensegmente, die einen geringen Übereinstimmungsgrad mit den Randdatenpunkten aufweisen.
  • Der Schritt des Bestimmens von Merkmalspunkten umfaßt bevorzugt den Schritt, Randdaten durch Differenzieren der Ursprungsbilddaten zu erzeugen.
  • Der Schritt der Bestimmung einer Gruppe gerader Linien umfaßt bevorzugt den Schritt, die Randdaten der Hough-Transformation zu unterziehen.
  • Der Schritt des Extrahierens gerader Linien umfaßt bevorzugt die Schritte: Bestimmen, ob die X Koordinate des Anfangspunkts einer geraden Linie größer ist als die X Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die X Koordinate des Endpunkts der einen geraden Linie größer ist als die X Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die den Anfangspunkt der einen geraden Linie mit dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die X Koordinate des Anfangspunkts der einen geraden Linie größer ist als die X Koordinate des Anfangspunkts der anderen geraden Linie und die X Koordinate des Endpunkts der einen geraden Linie größer ist als die X Koordinate des Endpunkts der anderen geraden Linie.
  • Der Schritt des Extrahierens gerader Linien umfaßt bevorzugt die Schritte: Bestimmen, ob die Y Koordinate des Anfangspunkts einer geraden Linie größer ist als die Y Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie größer ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die das Anfangsende der einen geraden Linie mit dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die Y Koordinate des Anfangspunkts der einen geraden Linie größer ist als die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y Koordinate des Endpunkts der einen geraden Linie größer ist als die Y Koordinate des Endpunkts der anderen geraden Linie.
  • Der Schritt des Extrahierens gerader Linien umfaßt bevorzugt die Schritte: Bestimmen, ob die Y Koordinate des Anfangspunkts einer geraden Linie kleiner ist als die Y Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie kleiner ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die den Endpunkt der einen geraden Linie mit dem Anfangspunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die Y Koordinate des Anfangspunkts der einen geraden Linie kleiner ist als die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y Koordinate des Endpunkts der einen geraden Linie kleiner ist als die Y Koordinate des Endpunkts der anderen geraden Linie.
  • Der Schritt des Teilens der extrahierten geraden Linien umfaßt bevorzugt die Schritte: Definieren einer geraden Linie als Hauptliniensegment und einer anderen geraden Linie als Nebenliniensegment, Bestimmen, ob die Haupt- und Nebenliniensegmente zueinander parallel sind, Bestimmen eines Schnittpunkts zwischen den Haupt- und Nebenliniensegmenten, wenn die Haupt- und Nebenliniensegmente nicht zueinander parallel sind, Bestimmen, ob der Schnittpunkt zwischen den Anfangs- und Endpunkten der Haupt- und Nebenliniensegmente angeordnet ist, und Teilen der Haupt- und Nebenliniensegmente durch den Schnittpunkt, wenn der Schnittpunkt zwischen den Anfangs- und Endpunkten der Haupt- und Nebenliniensegmente angeordnet ist.
  • Der Schritt des Prüfens der Liniensegmente umfaßt bevorzugt die Schritte: Abtasten eines Randbilds über eine vorbestimmte Breite quer zu einem Liniensegment, Vergleichen der Intensität des Randpunkts jedes abgetasteten Flecks mit einem vorbestimmten Schwellenwert, Zählen von Randpunkten, deren Intensität höher ist als der vorbestimmte Schwellenwert, Berechnen des Verhältnisses der Anzahl gezählter Randpunkte zur Länge des Liniensegments, und Bestimmen, ob das Liniensegment einer Begrenzung des Wegs entspricht, auf Basis des berechneten Verhältnisses.
  • Nach einer bevorzugten Ausführung der vorliegenden Erfindung umfaßt das Verfahren ferner die Schritte: Teilen der Ursprungsbilddaten in eine Mehrzahl von Flächen nach dem Schritt der Erzeugung von Ursprungsbilddaten des Wegs, wobei die Schritte des Bestimmens von Randdatenpunkten und des Bestimmens einer Gruppe gerader Linien auf jeder der Mehrzahl von Flächen durchgeführt wird; Vereinigen der extrahierten geraden Linien in jeder der Flächen zu einer einzelnen Kombination von Bliddaten, die eine einzelne gerade Linie darstellen; wobei der anschließende Schritt des Teilens an der einzelnen geraden Linie durchgeführt wird.
  • Die obigen und anderen Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung in Verbindung mit den beigefügten Zeichnungen näher ersichtlich, in denen eine bevorzugte Ausführung der vorliegenden Erfindung als Illustrationsbeispiel gezeigt ist.
  • Figuren 1(a) bis 1(g) zeigen in Diagrammen das Grundkonzept eines Verfahrens nach der vorliegenden Erfindung;
  • Figur 2 zeigt graphisch die Expression eines repräsentativen Liniensegments, das im Verfahren der vorliegenden Erfindung verwendet wird;
  • Figur 3 ist ein Flußdiagramm eines Prozesses der Vereinigung repräsentativer Liniensegmente miteinander;
  • Figur 4 zeigt graphisch einen Schwellenwert θTH, der im in Figur 3 gezeigten Flußdiagramm verwendet wird;
  • Figur 5 ist ein Flußdiagramm eines Vereinigungsprozesses A;
  • Figuren 6(a) bis 6(c) zeigen graphisch die Zustände von Liniensegmenten in dem Vereinigungsprozeß A;
  • Figur 7 ist ein Flußdiagramm eines Vereinigungsprozesses B;
  • Figuren 8(a) bis 8(c) zeigen graphisch die Zustände von Liniensegmenten in dem Vereinigungsprozeß B;
  • Figuren 9(a) und 9(b) sind Flußdiagramme eines Vereinigungsprozesses C;
  • Figuren 10(a) bis 10(f) zeigen graphisch die Zustände von Liniensegmenten in dem Vereinigungsprozeß C;
  • Figur 11 ist ein Flußdiagramm eines Prozesses der Teilung repräsentativer Liniensegmente;
  • Figuren 12(a) und 12(b) zeigen graphisch die Zustände von Liniensegmenten in dem Teilungsprozeß;
  • Figuren 13(a) bis 13(d) zeigen graphisch die Trennung geteilter Liniensegmente;
  • Figuren 14(a) bis 14(b) zeigen graphisch die Prüfung geteilter Liniensegmente gegen Randdaten;
  • Figur 15 ist ein Flußdiagramm eines Prozesses zur Bestimmung des Übereinstimmungsgrads zwischen den geteilten Liniensegmenten und den Randdaten und auch zur Bestimmung der Längen der Liniensegmente;
  • Figuren 16(a) bis 16(d) zeigen graphisch die Klassifizierung der Zustände der geteilten Liniensegmente, während sie gegenüber den Randdaten geprüft werden;
  • Figuren 17(a) und 17(b) zeigen graphisch Liniensegmente, die von Daten ausgeschlossen sind, die im in Figur 15 gezeigten Flußdiagramm zum Zeichnen von Begrenzungen gewählt sind;
  • Figuren 18(a) bis 18(d) zeigen graphisch die Art, in der die geteilten Liniensegmente verbunden werden.
  • Figuren 1(a) bis 1(g) zeigen das bevorzugte Grundkonzept der vorliegenden Erfindung in Anwendung bei einem Verfahren der Bestimmung oder Erkennung der Konfiguration eines Wegs für Kraftfahrzeuge.
  • Angenommen sei, daß eine in Figur 1(a) gezeigte Szene von einer Fernsehkamera aufgenommen wird, die an einem entlang einem Weg 1 fahrenden Kraftfahrzeug angebracht ist. Wie in Figur 1(a) gezeigt, hat der Weg 1 Begrenzungen 2a, 2b, die an einen Gehweg 4 angrenzen, Begrenzungen 3a, 3b, die an einen Gehweg 5 angrenzen, und eine Begrenzung 6, die an einen jenseits der Begrenzung 6 angeordneten Gehweg 7 angrenzt. Die Szene beinhaltet ferner einen Horizont 8 mit einer Anordnung 9 eines dahinter befindlichen Gebirges. Die aufgenommene Szene wird als Ursprungsbild bezeichnet, und das Ursprungsbild wird durch eine zentrale Vertikallinie in zwei Bilder unterteilt. Jedes der zweigeteilten Bilder wird in Randdaten gewandelt, die durch Differenzierung in jeder Fläche derselben erzeugt werden. Unter Verwendung der Randdaten wird das Ursprungsbild durch Flecken (nicht gezeigt) ausgedrückt. In jeder Fläche werden die Randdaten der Hough- Transformation unterzogen, um hierdurch eine Gruppe gerader Linien zu erzeugen, die der Anordnung oder Verteilung von Merkmalspunkten angenähert sind. Die geraden Linien in jeder Fläche werden dann statistisch durch Clusterbildung in Gruppen klassifiziert, und repräsentative gerade Linien in den jeweiligen Gruppen sind als gerade Linien verfügbar, die zur Bestimmung der Wegbegrenzungen wirksam sind. Das Ursprungsbild wird in zwei Bilder unterteilt, weil die geraden Linien mittels der Hough-Transformation besonders genau erfaßt werden können.
  • Die repräsentativen geraden Linien sind in den Figuren 1(b) und 1(c) gezeigt. In Figur 1(b) entsprechen die mit L1, L2, L3 bezeichneten repräsentativen geraden Linien jeweils den Begrenzungen 2a, 2b, 6. In Figur 1(c) entsprechen die mit L4, L5, L6 bezeichneten repräsentativen geraden Linien jeweils den Begrenzungen 3a, 3b, 6. Die geraden Linien L1 bis L6 werden, wie später beschrieben wird zu einer einzelnen Kombination von Bilddaten miteinander vereinigt, wie in Figur 1(d) gezeigt. Insbesondere werden die geraden Linien L2, L5 zu einer geraden Linie L7 vereinigt, und die geraden Linien L3, L6 werden zu einer geraden Linie L8 vereinigt.
  • Dann werden die Schnittpunkte zwischen den geraden Linien bestimmt, wie später beschrieben wird, und die geraden Linien werden an den Schnittpunkten in Linien-Segmente unterteilt. Wie insbesondere in Figur 1(e) gezeigt, wird die gerade Linie L1 in Liniensegmente l1a, l1b, l1c geteilt, die gerade Linie L4 in Liniensegmente l4a, l4b, l4c, die gerade Linie L7 in Liniensegmente l7a, l7b, l7c und die gerade Linie L8 in Liniensegmente l8a, lBb, lBc. Die Liniensegmente werden gegen Randdaten aus dem Ursprungsbild geprüft, wie später beschrieben wird, um den Übereinstimmungsgrad zwischen den Liniensegmenten und den Randdaten zu messen. Das Ergebnis der Messung ist in Figur 1(f) gezeigt. In Figur 1(f) werden die in Figur 1(e) gezeigten Liniensegmente l1b, lc, l4b, l4c, l7b entfernt, weil der Übereinstimmungsgrad zwischen diesen Liniensegmenten und den Randdaten gering ist. Jedoch bleiben die Liniensegmente l1a, l7a, die den Begrenzungen 2a, 2b (Figur 1(a)) entsprechen, die Liniensegmente l4a, l7c, die Begrenzungen 3a, 3b entsprechen, und die Liniensegmente l8a, l8b, l8c, die der Begrenzung 6 entsprechen, bestehen, weil der Übereinstimmungsgrad zwischen diesen Liniensegmenten und den Randdaten hoch ist.
  • Dann wird die später zu beschreibende Art, in der die verbleibenden Liniensegmente verbunden werden, bestimmt, um somit Information über das Ende des Wegs zu erzeugen, welche die aktuellen Wegbegrenzungen genau darstellt, wie in Figur 1(g) gezeigt.
  • Nun werden die im obigen Grundkonzept verwendeten arithmetischen Hauptschritte beschrieben.
  • Die beiden geteilten Bilder, die in den Figuren 1(b) und 1(c) gezeigt sind, werden zu einer einzigen Kombination von Bilddaten vereinigt, die in Figur 1(d) gezeigt ist, wie folgt: zuerst wird bestimmt, ob die repräsentativen Liniensegmente in der linken Fläche (Figur 1(b)) und die repräsentativen Liniensegmente in der rechten Fläche (Figur 1(c)), die beide durch Clusterbildung ausgedrückt sind, vereinigt werden kännen oder nicht. Wenn diese repräsentativen Liniensegmente vereinigt werden können, werden sie vereinigt. Wie in Figur 2 gezeigt, wird jedes der repräsentativen Liniensegmente durch die Länge einer geraden Linie ausgedrückt, die vom Ursprung eines X-Y Koordinatensystems oder eines Hough-transformierten Koordinatensystems ortogonal zu dem repräsentativen Liniensegment verläuft, und einen Winkel θ zwischen der X-Achse und der Linie, deren Länge beträgt.
  • Die Möglichkeit der Vereinigung der repräsentativen Liniensegmente wird durch die Prüfung bestimmt, ob Werte der Längen und Winkel θ in den jeweiligen Flächen dicht beieinander liegen oder nicht. Wenn sie dicht beieinander liegende Werte haben, dann können die Liniensegmente miteinander vereinigt werden, und sie werden in Abhängigkeit von den Gradienten der Liniensegmente vereinigt. Ob ein repräsentatives Liniensegment ( L, θL) in der linken Fläche und ein repräsentatives Liniensegment ( R, θR) in der rechten Fläche miteinander vereinigt werden können, wird gemäß dem in Figur 3 gezeigten Flußdiagramm bestimmt.
  • Wenn die Differenz zwischen den Längen L, R der repräsentativen Liniensegmente in den linken und rechten Flächen in Δ fällt, dann wird bestimmt, daß die repräsentativen Liniensegmente bezüglich der Längen L, R miteinander vereinigt werden können. Somit wird in einem Schritt 301 bestimmt, ob die Längen L, R der repräsentativen Liniensegmente die folgenden Beziehungen erfüllen:
  • L - &Delta; < R und R < L + &Delta; .
  • Wenn die obigen Ungleichungen erfüllt sind, dann wird in einem Schritt 302 bestimmt, ob die die repräsentativen Liniensegmente betreffenden Winkel &theta;L, &theta;R die folgenden Beziehungen erfüllen:
  • &theta;L - &Delta;&theta; < &theta;R und &theta;R < &theta;L + &Delta;&theta;.
  • Wenn die Differenz zwischen den Winkeln &theta;L, &theta;R bezüglich der repräsentativen Liniensegmente in den linken und rechten Flächen in &theta;&Delta; fällt, dann wird bestimmt, daß die repräsentativen Liniensegmente bezüglich der Winkel &theta;L,&theta;R miteinander vereinigt werden können.
  • Wenn die Längen L, R und die Winkel &theta;L,&theta;R der repräsentativen Liniensegmente die Ungleichungen in den Schritten 301, 302 nicht erfüllen, dann wird der in Figur 3 gezeigte Prozeß beendet. Wenn die Winkel &theta;L,&theta;R bezüglich der repräsentativen Liniensegmente die Ungleichungen in Schritt 302 erfüllen, dann wird in einem Schritt 304 bestimmt, ob der Winkel &theta;L des repräsentativen Liniensegments in der linken Fläche nahe am rechten Winkel liegt oder nicht, durch Vergleich des Winkels &theta;L mit einem vorbestimmten Referenz- oder einem Schwellenwert &theta;TH und auch durch Vergleich des Winkels &theta;L mit ( ai - &theta;TH) gemäß folgenden Ungleichungen:
  • &theta;TH < &theta;L und &theta;L < ( ai - &theta;TH)
  • wobei &theta;TH und ( ai - &theta;TH) in dem XY Koordinatensystem angegeben sind, das in Figur 4 gezeigt ist.
  • Wenn der Winkel &theta;L bezüglich des repräsentativen Liniensegments in der linken Fläche die obigen Ungleichungen erfüllt, dann wird in einem Schritt 305 bestimmt, ob der Winkel &theta;L kleiner als 90º ist oder nicht (&theta;L < 90º). Wenn der Winkel &theta;L kleiner als 90º ist, dann wird in einem Schritt 306 ein Vereinigungsprozeß A durchgeführt. Wenn der Winkel &theta;L größer als 90º ist, dann wird in einem Schritt 307 ein Vereinigungsprozeß B durchgeführt. Wenn der Winkel &theta;L die Ungleichungen in Schritt 304 nicht erfüllt, dann wird in einem Schritt 308 ein Vereinigungsprozeß C durchgeführt.
  • Der Vereinigungsprozeß A wird nachfolgend anhand der Figuren 5 und 6(a) bis 6(c) beschrieben.
  • Wenn der Winkel &theta;L bezüglich des repräsentativen Liniensegments in der linken Fläche im Bereich von &theta;TH < &theta;L < 90º liegt, wie in Figur 6(a) gezeigt, dann wird der Vereinigungsprozeß A durchgeführt. Es wird angenommen, daß ein repräsentatives Liniensegment L in der linken Fläche und ein repräsentatives Liniensegment R in der rechten Fläche relativ zueinander so positioniert sind, wie in Figur in Figur 6(b) gezeigt, und daß das repräsentative Liniensegment L einen Anfangspunkt XSL als X Koordinate und einen Endpunkt XEL als X Koordinate aufweist und das repräsentative Liniensegment R einen Anfangspunkt XSR als X Koordinate und einen Endpunkt XER als X Koordinate aufweist.
  • Wie in Figur 5 gezeigt, bestimmt zuerst ein Schritt 601, ob der Endpunkt XER des Liniensegments R kleiner ist als der Anfangspunkt XSL des Liniensegments L, in dem geprüft wird, ob diese Liniensegmente irgendeinen überlappenden Abschnitt haben.
  • Wenn XER < XSL und somit die Liniensegmente R, L einander überlappen, dann stellt ein Schritt 602 fest, ob die folgenden Ungleichungen erfüllt sind:
  • XSR > XSL und XER > XEL.
  • Wenn die obigen Ungleichungen erfüllt sind, dann werden in einem Schritt 603 die X und Y Koordinaten des Anfangspunkts des Liniensegments L durch die X und Y Koordinaten des Anfangspunkts des Liniensegments R ersetzt. Dann wird in einem Schritt 604 das repräsentative Liniensegment R in der rechten Fläche entfernt. Im Ergebnis werden die Liniensegmente LR zu einem Liniensegment miteinander vereinigt, wie in Figur 6(c) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments R, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments L. Wenn die Ungleichungen in den Schritten 601, 602 nicht erfüllt sind, dann wird der Vereinigungsprozeß A sofort beendet.
  • Der Vereinigungsprozeß B wird nun anhand der Figuren 7 und 8(a) bis 8(c) beschrieben.
  • Wenn der Winkel &theta;L bezüglich des repräsentativen Liniensegments in der linken Fläche im Bereich von 90º &le; &theta;L < (180º - &theta;TH) liegt, wie in Figur 8(a) gezeigt, dann wird der Vereinigungsprozeß B durchgeführt. Angenommen sei, daß ein repräsentatives Liniensegment L in der linken Fläche und ein repräsentatives Liniensegment R in der rechten Fläche relativ zueinander so positioniert sind, wie in Figur 8(b) gezeigt. Die repräsentativen Liniensegmente L, R haben Anfangs- und Endpunkte, die genauso wie in Figur 6(b) gezeigt, als X Koordinaten ausgedrückt sind.
  • Wie in Figur 7 gezeigt, bestimmt zuerst ein Schritt 801, ob der Endpunkt XEL des Liniensegments L kleiner als der Anfangspunkt XSR des Liniensegments R ist, um hierdurch zu prüfen, ob diese Liniensegmente irgendeinen überlappenden Teil haben. Wenn XEL < XSR und daher die Liniensegmente L, R einander überlappen, dann bestimmt ein Schritt 802, ob die folgenden Ungleichungen erfüllt sind:
  • XER > XEL und XSR > XSL.
  • Wenn die obigen Ungleichungen erfüllt sind, dann werden in einem Schritt 803 die X und Y Koordinaten des Endpunkts des Liniensegments L durch die X und Y Koordinaten des Endpunkts des Liniensegments R ersetzt. Dann wird in einem Schritt 804 das repr sentative Liniensegment R in der rechten Fläche entfernt. Infolge dessen werden die Liniensegmente L, R zu einem Liniensegment miteinander vereinigt, wie in Figur 8(c) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments L, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments R. Wenn die Ungleichungen in den Schritten 801, 802 nicht erfüllt sind, dann wird der Vereinigungsprozeß A sofort beendet.
  • Der Vereinigungsprozeß C wird nun anhand der Figuren 9(a) und 9(b) und 10(a) bis 10(f) beschrieben.
  • Wenn der Winkel &theta;L bezüglich des repräsentativen Liniensegments in der linken Fläche im Bereich von 0 &le; &theta;L < &theta;TH oder (180º - &theta;TH) &le; &theta;L < 180º liegt, wie in Figur 10(a) gezeigt, dann wird der Vereinigungsprozeß B durchgeführt. Die repräsentativen Liniensegmente L, R haben Anfangs- und Endpunkte, die genauso wie in Figur 6(b) gezeigt, als X Koordinaten ausgedrückt sind. Ferner wird angenommen, daß das repräsentative Liniensegment L einen Anfangspunkt YSL als eine Y Koordinate und einen Endpunkt YEL als eine Y Koordinate aufweist, und das repräsentative Liniensegment R einen Anfangspunkt YSR als eine Y Koordinate und einen Endpunkt YER als eine Y Koordinate aufweist.
  • Ferner sei angenommen, daß die repräsentativen Liniensegmente so positioniert sind, wie in Figur 10(b) gezeigt, wobei zum Beispiel das repräsentative Liniensegment L in der linken Fläche und das repräsentative Liniensegment R in der rechten Fläche relativ so positioniert sind, wie in Figur 10(c) gezeigt. In diesen Fall wird der Vereinigungsprozeß C1 durchgeführt, wie in Figur 9(a) gezeigt.
  • Zuerst bestimmt ein Schritt 1001, ob der Anfangspunkt YSL des Liniensegments L größer ist als der Anfangspunkt YSR des Liniensegments R. Wenn YSL > YSR (wie in Figur 10(c) gezeigt), dann wird in einem Schritt 1002 der Anfangspunkt des Liniensegments L durch den Anfangspunkt des Liniensegments R ersetzt. Insbesondere wird der Anfangspunkt XSL als eine X Koordinate des Liniensegments L durch den Anfangspunkt XSR als eine X Koordinate des Liniensegments R ersetzt, und der Anfangspunkt YSL als eine Y Koordinate des Liniensegments L wird durch den Anfangspunkt YSR als eine Y Koordinate des Liniensegments R ersetzt. Dann wird in einem Schritt 1003 das Liniensegment R entfernt. Die Liniensegmente L,R werden nun zu einem Liniensegment vereinigt, wie in Figur 10(b) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments R, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments L. Wenn in dem Schritt 1001 YSL nicht kleiner als YSR ist, dann wird in einem Schritt 1004 der Anfangspunkt des Liniensegments L als der Anfangspunkt des vereinigten Segments verwendet, und dann wird in dem Schritt 1003 das Liniensegment R entfernt, so daß die Liniensegmente vereinigt sind.
  • Angenommen sei, daß die reprasentativen Liniensegmente so positioniert sind, wie in Figur 10(a) gezeigt, wobei zum Beispiel das repräsentative Liniensegment L in der linken Fläche und das repräsentative Liniensegment R in der rechten Fläche relativ zueinander so positioniert sind, wie in Figur 10(e) gezeigt. In diesen Fall wird ein Vereinigungsprozeß C2 durchgeführt, wie in Figur 9(b) gezeigt.
  • Zuerst bestimmt ein Schritt 1005, ob der Endpunkt YEL des Liniensegments L kleiner ist als der Endpunkt YER des Liniensegments R. Wenn YEL < YER (wie in Figur 10(e) gezeigt), dann wird in einem Schritt 1006 der Endpunkt des Liniensegments L durch den Endpunkt des Liniensegments R ersetzt. Insbesondere wird der Endpunkt XEL als eine X Koordinate des Liniensegments L durch den Endpunkt XER als eine X Koordinate des Liniensegments R ersetzt, und der Endpunkt YEL als eine Y Koordinate des Liniensegments L wird durch den Endpunkt YER als eine Y Koordinate des Liniensegments R ersetzt. Dann wird in einem Schritt 1007 das Liniensegment R entfernt. Die Liniensegmente L, R werden nun zu einem Liniensegment vereinigt, wie in Figur 10(f) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments L, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments R. Wenn in Schritt 1005 YEL nicht größer als YER ist, dann wird in einem Schritt 1008 der Endpunkt des Liniensegments L als der Endpunkt des vereinigten Segments verwendet, und dann wird in Schritt 1007 das Liniensegment R entfernt, so daß die Liniensegmente vereinigt sind.
  • Die Teilung der geraden Linien in die Liniensegmente, wie in Figur 10(e) gezeigt, wird nun anhand der Figuren 11,12(a) und 12(b) beschrieben. Angenommen sei, daß die in Figur 12(a) gezeigten repräsentativen Liniensegmente L1, L2 als Ergebnis eines der oben beschriebenen Vereinigungsprozesse erhalten werden. In diesem Fall wird ein Linienteilungsprozeß durchgeführt, wie er in Figur 11 gezeigt ist. In einem Schritt 1201 wird das repräsentative Liniensegment L1 als Hauptliniensegment definiert, und das andere repräsentative Liniensegment L2 wird als Nebenliniensegment definiert. Dann bestimmt ein Schritt 1202, ob das Hauptliniensegment L1 und das Nebeniniensegment L2 zueinander parallel sind oder nicht. Wenn die Haupt- und Nebenliniensegmente L1, L2 zueinander parallel sind wird, weil kein Schnittpunkt zwischen diesen Liniensegmenten vorhanden ist, der Linienteilungsprozeß beendet. Wenn jedoch die Haupt- und Nebenliniensegmente L1, L2 nicht zueinander parallel sind, wie in Figur 12(a) gezeigt, dann schneiden sie sich an einem Punkt C. Ein Schritt 1204 bestimmt die X und Y Koordinaten (XC, YC) des Schnittpunkts C. Dann wird in einem Schritt 1205 bestimmt, ob der Schnittpunkt C zwischen den Anfangs- und Endpunkten des Hauptliniensegments L1 und zwischen den Anfangs- und Endpunkten des Nebenliniensegments L2 angeordnet ist.
  • Wenn der Schnittpunkt C nicht auf den Haupt- und Nebenliniensegmenten L1, L2 liegt, dann wird der Linienteilungsprozeß beendet. Wenn der Schnittpunkt C auf den Haupt- und Nebenliniensegmenten L1, L2 liegt, dann wird in einem Schritt 1206, wie in Figur 12(b) gezeigt, das repräsentative Liniensegment L1 durch den Schnittpunkt C in Liniensegmente l1, l2 unterteilt, und wird das repräsentative Liniensegment L2 in Liniensegmente l3, l4 unterteilt. Auf diese Weise werden die Schnittpunkte zwischen verschiedenen repräsentativen Liniensegmenten bestimmt und werden Daten der bestimmten Schnittpunkte gespeichert. Der obige Prozeß wird bezüglich der repräsentativen Liniensegmente durchgeführt, die so angezeigt werden, wie in Figur 1(e) gezeigt, um hierdurch die Daten der Schnittpunkte bezüglich der jeweiligen repräsentativen Liniensegmente zu sammeln.
  • Aufgrund der somit bestimmten Schnittpunkte wird jedes der repräsentativen Liniensegmente in eine Mehrzahl von Liniensegmenten unterteilt. Beispielsweise sei angenommen, daß ein repräsentatives Liniensegment L Schnittpunkte C1, C2 aufweist, wie in Figur 13(a) gezeigt. Das repräsentative Liniensegment L wird durch die Schnittpunkte C1, C2 in drei Liniensegmente La, Lb, Lc unterteilt, wie in den Figuren 13(b), 13(c) und 13(d) gezeigt.
  • Die geteilten Liniensegmente werden dann gegenüber den aus dem Ursprungsbild (Figur 1(a)) erzeugten Randdaten wie folgt geprüft: angenommen sei, daß ein geteiltes Liniensegment d, wie in Figur 14(a) gezeigt, einen Anfangspunkt S mit X und Y Koordinaten (SX, SY), einen Endpunkt E mit X und Y Koordinaten (EX, EY), einen Gradienten A sowie einen Abschnitt B aufweist und mit einem Winkel &theta; bezüglich der X-Achse geneigt ist.
  • Das geteilte Liniensegment d wird gegenüber den Randdaten des Ursprungsbilds geprüft, indem ein Randbild über eine konstante Breite W von Flecken über das Liniensegment d in der Richtung abgetastet wird, die in Figur 14(b) mit den Pfeilen bezeichnet ist. Insbesondere wird die Intensität des Randpunkts jedes abgetasteten Flecks mit einem vorbestimmten Schwellenwert verglichen, und die Randpunkte, deren Intensität höher ist als der vorbestimmte Schwellenwert, werden gezählt. Wenn das Verhältnis des Zählers zu der Länge c des Liniensegments d größer ist als das vorbestimmte Verhältnis, dann wird bestimmt, daß das Liniensegment d einer Begrenzung des tatsächlichen Wegs entspricht. Der Übereinstimmungsgrad zwischen dem geteilten Liniensegment d und den Randdaten wird wie folgt ausgedrückt:
  • Übereinstimmungsgrad = [Anzahl der Randpunkte, deren Intensität höher ist als der Schwellenwert] /[die Länge l des Liniensegments d) ...(1).
  • Weil das Liniensegment d durch quantifizierte Daten ausgedrückt wird, läßt sich die Länge l des Liniensegments d aus der Anzahl der Abtastlinien über die Breite W bestimmen.
  • Alternativ läßt die Länge l ausdrücken durch das jeweils größere von SX - EX oder SY - EY , oder läßt sich angeben durch:
  • l = [(SX - EX)² + (SY - EY)²]1/2 ...(2)
  • Der Übereinstimmungsgrad wird bezüglich verschiedener zu messender Liniensegmente berechnet, deren Zustände klassifiziert werden, wie in den Figuren 16(a) bis 16(d) gezeigt. Der Übereinstimmungsgrad wird gemäß den in Figur 15 gezeigten Flußdiagramm berechnet. Angenommen sei, daß der Randpunkt jedes Liniensegments, dessen Übereinstimmungsgrad zu messen ist, X und Y Koordinaten (RX, RY) hat.
  • Ein Zähler zum Zählen von Randpunkten, deren Intensität höher als der vorbestimmte Schwellenwert ist, wird in einem Schritt 1601 gelöscht. Dann bestimmt ein Schritt 1602, ob der Neigungswinkel &theta; des zu prüfenden Liniensegments d bezüglich der X-Achse 90º beträgt oder nicht. Wenn der Winkel &theta; 90º beträgt und somit das Liniensegment d vertikal ist, dann hat das Liniensegment d einen Zustand, wie er in Figur 16(a) gezeigt ist. In diesem Fall ändert sich in einem Schritt 1603 die Y Koordinate RY des zu messenden Randpunkts von EY zu SY, und in einem Schritt 1604 ändert sich die X Koordinate RX mit der Breite W über einen Konstantwert RXO. Dann bestimmt ein Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche außerhalb des Bilds liegt, dann wird der Prozeß beendet. Wenn die abgetastete Fläche in dem Bild liegt, wird die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen. Wenn die Intensität höher als ein vorbestimmter Schwellenwert ist, dann wird der Zähler zum Zählen von Randpunkten in einem Schritt 1607 hochgezählt Der Schritt 1607 wird für jeden Randpunkt durchgeführt, der in der abgetasteten Fläche vorhanden ist, so daß die Anzahl aller Randpunkte, deren Intensität höher als der Schwellenwert ist, entlang des Liniensegments d gemessen wird.
  • Wenn im Schritt 1602 der Winkel &theta; des Liniensegments d nicht 90º beträgt, dann bestimmt ein Schritt 1608, ob der Winkel &theta; kleiner als 450 (0 < 45º) oder größer als 135º (&theta; > 135º) ist, um hierdurch zu bestimmen, ob das Liniensegment d eine Vertikaltendenz hat oder nicht. Wenn das Liniensegment d eine Vertikaltendenz hat, dann ist das Liniensegment d in einem Zustand, wie er in Figur 16(b) gezeigt ist, und in einem Schritt 1609 ändert sich die Y Koordinate RY des zu prüfenden Randpunkts von EY zu SY. Ein Wert D wird erzeugt, indem der Abschnitt B des Liniensegments d durch den Gradienten A geteilt wird (D = B/A), und ein Wert RXO wird gemäß RXO = RY/A + D bestimmt. In einem Schritt 1610 ändert sich die X Koordinate RX des Randpunkts mit der Breite W über den Wert RXO. Dann bestimmt der Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche in dem Bild liegt, wird die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen, und wenn die Intensität höher als ein vorbestimmter Schwellenwert ist, dann wird in Schritt 1607 der Zähler zum Zählen von Randpunkten hochgezählt.
  • Wenn der Winkel &theta; nicht den Bedingungen in Schritt 1608 genügt und somit das Liniensegment d keine Vertikaltendenz hat, dann bestimmt ein Schritt 1611, ob die X Koordinate SX des Anfangspunkts des Liniensegments d kleiner ist als die X Koordinate EX seines Endpunkts E ist oder nicht (SX < EX). Wenn die X Koordinate SX des Anfangspunkts S kleiner ist als die X Koordinate EX des Endpunkts E, dann ist das Liniensegment d in einem Zustand, wie er in Figur 16(c) gezeigt ist. In diesem Fall ändert sich in einem Schritt 1612 die X Koordinate RX des zu prüfenden Randpunkts von SX zu EX. In einem Schritt 1613 ändert sich die Y Koordinate RX mit der Breite W über einen Wert RYO = RX A + B. Dann bestimmt der Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche in dem Bild liegt, wird in dem Schritt 1607 die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen, und wenn die Intensität höher als der vorbestimmte Schwellenwert ist, dann wird der Zähler zum Zählen von Randpunkten hochgezählt.
  • Wenn in Schritt 1611 die X Koordinate SX des Anfangspunkts X größer ist als die X Koordinate EX des Endpunkts E, dann ist das Liniensegment d in einem Zustand, wie er in Figur 16(d) gezeigt ist. In diesem Fall ändert sich in einem Schritt 1614 die X Koordinate RX des zu prüfenden Randpunkts von EX zu SX. In einem Schritt 1615 ändert sich die Y Koordinate RY mit der Breite W über einen Wert RYO = RX A + B. Dann bestimmt der Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche in dem Bild liegt, wird im Schritt 1607 die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen, und wenn die Intensität höher als ein vorbestimmter Schwellenwert ist, dann wird der Zähler zum Zählen von Randpunkten hochgezählt.
  • Nach dem die Randpunkte, deren Intensität höher als der vorbestimmte Schwellenwert ist, durch den Zähler gezählt wurden, wird in einem Schritt 1616 die Länge l des Liniensegments d gemäß Gleichung (2) oder einem der alternativen Prozesse bestimmt. Dann bestimmt ein Schritt 1617, ob die Länge l kleiner ist als ein vorbestimmter Minimawert oder nicht. Wenn die Länge l größer als der Minimalwert ist, wird der Prozeß beendet. Wenn die Länge l kleiner als der Minimalwert ist, dann bestimmt ein Schritt 1619, ob keines der entgegengesetzten Enden des Liniensegments d einen Verbindungspunkt zu einem anderen Liniensegment hat. Wenn eines der entgegengesetzten Enden des Liniensegments d einen Verbindungspunkt hat, dann wird das Liniensegment d in einen Schritt 1620 so bestimmt, daß es zum Extrahieren einer Begrenzung des Wegs wirsam ist.
  • Wenn keines der entgegengesetzten Enden des Liniensegments einen Verbindungspunkt zu einem anderen Liniensegment hat, dann wird in einem Schritt 1621 bestimmt, daß ein Liniensegment d nicht zum Extrahieren einer Wegbegrenzung wirksam ist und wird aus der auszuwählenden Gruppe von Liniensgementen ausgeschlossen. Auszuschließende Liniensegmente sind beispielsweise in den Figuren 17(a) und 17(b) gezeigt. Insbesondere wird ein in Figur 17(a) gezeigtes Liniensegment dl aus der auszuwählenden Gruppe von Liniensegmenten ausgeschlossen, weil eines seiner entgegengesetzten Enden keinen Verbindungspunkt hat. Ein in Figur 17(b) gezeigtes Liniensegment dl wird ebenfalls aus der auszuwählenden Gruppe von Liniensegmenten ausgeschlossen, weil seine beiden Enden keinen Verbindungspunkt haben.
  • Dann wird das Verhältnis der Anzahl von Randpunkten, deren Intensität höher als der vorbestimmte Schwellenwert ist, zu der Länge l des Liniensegments d gemäß Gleichung (1) berechnet, um hierdurch in einem Schritt 1622 den Übereinstimmungsgrad zu bestimmen. Auf Basis des bestimmten Übereinstimmungsgrads wird die Wirksamkeit des Liniensegments d sichergestellt, das heißt es wird bestimmt, ob das Liniensegment d einer Begrenzung des aktuellen Wegs entspricht.
  • Die Art, in der die geteilten Liniensegmente gemäß Figur 1(g) verbunden werden, wird gemäß folgender Beschreibung bestimmt.
  • Die gewählten Liniensegmente lassen sich mit anderen in verschiedenen Mustern verbinden, wie sie in den Figuren 18(a) bis 18(d) gezeigt sind. Figur 18(a) zeigt ein Muster, in dem gewählte Liniensegmente La, Lb ursprünglich von einem repräsentativen Liniensegment kommen. Die in Figur 18(a) gezeigten Liniensegmente La, Lb werden zu einem Liniensegment verbunden. Figur 18(b) zeigt ein Muster, in dem gewählte Liniensegmente La, Lb von verschiedenen repräsentativen Liniensegmenten ausgehen. In diesem Fall wird die Beziehung, mit der die Liniensegmente La, Lb verbunden sind, in Daten gewandelt, die gespeichert werden. Gemäß dem in Figur 18(c) gezeigten Muster werden die gewählten Liniensegmente La, Lb, die von einem repräsentativen Liniensegment hergeleitet werden, miteinander an einem Schnittpunkt verbunden, mit dem ein anderes gewähltes Liniensegment Lc verbunden ist. Mit diesem Muster wird die Beziehung, mit der die Liniensegmente La, Lb, Lc verbunden sind, in Daten gewandelt, die gespeichert werden. Figur 18(d) zeigt ein Muster, in dem gewählte Liniensegmente La, Lb ursprünglich nicht verbunden sind, sondern getrennt. Die Beziehung, mit der diese Liniensegmente La, Lb verbunden sind, wird ebenfalls in Daten gewandelt, die gespeichert werden. In dem Muster von Figur 18(d) ist die Anzahl von Verbindungspunkten zwischen Liniensegmenten null.
  • In der obigen Ausführung wird das Ursprungsbild in zwei Bildflächen geteilt, und werden die Daten der zwei Bildflächen bearbeitet. Jedoch braucht das Ursprungsbild nicht geteilt werden, sondern es kann die Anordnung oder Verteilung von Merkmalspunkten direkt aus dem Ursprungsbild bestimmt werden, und es kann eine Gruppe gerader Linien, die der bestimmten Anordnung von Merkmalspunkten angenähert ist, zur Wegerkennung bestimmt werden. Bei einer solchen Modifikation werden der Schritt des Teilens des Ursprungsbilds in eine Mehrzahl von Bildflächen und der Schritt des Kombinierens der geteilten Bildflächen zu einem Einzelbild weggelassen. Die modifizierte Anordnung bietet auch die gleichen Vorteile wie jene der dargestellten Ausführung.
  • Weil mit der vorliegenden Ausführung, wie oben beschrieben, die geteilten Liniensegmente gegenüber den Merkmalspunkten der Ursprungsbilddaten geprüft werden, lassen sich die Begrenzungen des Wegs unabhängig von der Konfiguration des Wegs leicht und schnell erkennen.
  • Auch wenn daher der Weg gekrümmt oder verzweigt ist, erfordert das Verfahren der vorliegenden Ausführung keine Folgeschritte, die andernfalls erforderlich wären, um die Konfiguration des Wegs zu bestimmen, sondern es kann die Begrenzungen des Wegs leicht und schnell bestimmen. Das Verfahren zur Bestimmung der Konfiguration eines Wegs für Kraftfahrzeuge nach der vorliegenden Ausführung ist somit gut bei der Fahrtsteuerung oder Führung von Kraftfahrzeugen wie etwa Automobilen anwendbar, die eine Datenbearbeitung in einer kurzen Zeitperiode erfordert.

Claims (9)

1. Verfahren zum Bestimmen der Konfiguration eines Wegs für Kraftfahrzeuge, das die Schritte umfaßt:
Erzeugen von Ursprungsbilddaten des Wegs;
Bestimmen von in den Ursprungsbilddaten enthaltenen Randdatenpunkten;
Bestimmen einer Gruppe gerader Linien, die der Anordnung der Randdatenpunkte angenähert sind;
Extrahieren gerader Linien, die zur Bestimmung von Begrenzungen des Wegs wirksam sind, aus der Gruppe gerader Linien, wobei das Verfahren durch die Schritte gekennzeichnet ist:
Teilen der extrahierten geraden Linien in eine Mehrzahl von Liniensegmenten durch Schnittpunkte zwischen den geraden Linien;
Prüfen der Liniensegmente gegenüber den Randdatenpunkten der Ursprungsbilddaten zur Bestimmung, ob die Liniensegmente den Begrenzungen des Wegs entsprechen; und
Entfernen jener Liniensegmente, die einen geringen Übereinstimmungsgrad mit den Randdatenpunkten aufweisen.
2. Verfahren nach Anspruch 1, in dem der Schritt des Bestimmens von Randdatenpunkten den Schritt umfaßt, Randdaten durch Differenzieren der Ursprungsbilddaten zu erzeugen.
3. Verfahren nach Anspruch 2, in dem der Schritt des Bestimmens einer Gruppe gerader Linien den Schritt umfaßt, die Randdaten der Hough-Transformation zu unterziehen.
4. Verfahren nach Anspruch 1, in dem der Schritt des Extrahierens gerader Linien die Schritte umfaßt: Bestimmen, ob die X Koordinate des Anfangspunkts einer geraden Linie größer ist als die X Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die X Koordinate des Endpunkts der einen geraden Linie größer ist als die X Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die den Anfangspunkt der einen geraden Linie mit dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die X Koordinate des Anfangspunkts der einen geraden Linie größer ist als die X Koordinate des Anfangspunkts der anderen geraden Linie und die X Koordinate des Endpunkts der einen geraden Linie größer ist als die X Koordinate des Endpunkts der anderen geraden Linie.
5. Verfahren nach Anspruch 1, in dem der Schritt des Extrahierens gerader Linien die Schritte umfaßt: Bestimmen, ob die Y Koordinate des Anfangspunkts einer geraden Linie größer ist als die Y Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie größer ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die das Anfangsende der einen geraden Linie mit dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die Y Koordinate des Anfangspunkts der einen geraden Linie größer ist als die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y Koordinate des Endpunkts der einen geraden Linie größer ist als die Y Koordinate des Endpunkts der anderen geraden Linie.
6. Verfahren nach Anspruch 1, in dem der Schritt des Extrahierens gerader Linien die Schritte umfaßt: Bestimmen, ob die Y Koordinate des Anfangspunkts einer geraden Linie kleiner ist als die Y Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie kleiner ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die den Endpunkt der einen geraden Linie mit dem Anfangspunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die Y Koordinate des Anfangspunkts der einen geraden Linie kleiner ist als die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y Koordinate des Endpunkts der einen geraden Linie kleiner ist als die Y Koordinate des Endpunkts der anderen geraden Linie.
7. Verfahren nach Anspruch 1, in dem der Schritt des Teilens der extrahierten geraden Linien die Schritte umfaßt: Definieren einer geraden Linie als Hauptliniensegment und einer anderen geraden Linie als Nebenliniensegment, Bestimmen, ob die Haupt- und Nebenliniensegmente zueinander parallel sind, Bestimmen eines Schnittpunkts zwischen den Haupt- und Nebenliniensegmenten, wenn die Haupt- und Nebenliniensegmente nicht zueinander parallel sind, Bestimmen, ob der Schnittpunkt zwischen den Anfangs- und Endpunkten der Haupt- und Nebenliniensegmente angeordnet ist, und Teilen der Haupt- und Nebenliniensegmente durch den Schnittpunkt, wenn der Schnittpunkt zwischen den Anfangs- und Endpunkten der Haupt- und Nebenliniensegmente angeordnet ist.
8. Verfahren nach Anspruch 1, in dem der Schritt des Prüfens der Liniensegmente die Schritte umfaßt: Abtasten eines Randbilds über eine vorbestimmte Breite quer zu einem Liniensegment, Vergleichen der Intensität des Randpunkts jedes abgetasteten Flecks mit einem vorbestimmten Schwellenwert, Zählen von Randpunkten, deren Intensität höher ist als der vorbestimmte Schwellenwert, Berechnen des Verhältnisses der Anzahl gezählter Randpunkte zur Länge des Liniensegments, und Bestimmen, ob das Liniensegment einer Begrenzung des Wegs entspricht, auf Basis des berechneten Verhältnisses.
9. Verfahren nach einem der vorhergehenden Ansprüche, das ferner die Schritte umfaßt: Teilen der Ursprungsbilddaten in eine Mehrzahl von Flächen nach dem Schritt der Erzeugung von Ursprungsbilddaten des Wegs, wobei die Schritte des Bestimmens von Randdatenpunkten und des Bestimmens einer Gruppe gerader Linien auf jeder der Mehrzahl von Flächen durchgeführt wird; Vereinigen der extrahierten geraden Linien in jeder der Flächen zu einer einzelnen Kombination von Bilddaten, die eine einzelne gerade Linie darstellen; wobei der anschließende Schritt des Teilens an der einzelnen geraden Linie durchgeführt wird.
DE69031589T 1989-12-22 1990-12-21 Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge Expired - Fee Related DE69031589T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1334127A JP2843079B2 (ja) 1989-12-22 1989-12-22 走行路判別方法

Publications (2)

Publication Number Publication Date
DE69031589D1 DE69031589D1 (de) 1997-11-20
DE69031589T2 true DE69031589T2 (de) 1998-02-12

Family

ID=18273824

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69031589T Expired - Fee Related DE69031589T2 (de) 1989-12-22 1990-12-21 Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge

Country Status (4)

Country Link
US (1) US5341437A (de)
EP (1) EP0434455B1 (de)
JP (1) JP2843079B2 (de)
DE (1) DE69031589T2 (de)

Families Citing this family (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06213660A (ja) * 1993-01-19 1994-08-05 Aisin Seiki Co Ltd 像の近似直線の検出方法
JP3374570B2 (ja) * 1995-01-31 2003-02-04 いすゞ自動車株式会社 車線逸脱警報装置
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6498620B2 (en) 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5631982A (en) * 1993-06-10 1997-05-20 International Business Machines Corporation System using parallel coordinates for automated line detection in noisy images
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
JP3431962B2 (ja) * 1993-09-17 2003-07-28 本田技研工業株式会社 走行区分線認識装置を備えた自動走行車両
US5668663A (en) 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
JP3357749B2 (ja) * 1994-07-12 2002-12-16 本田技研工業株式会社 車両の走行路画像処理装置
US5509486A (en) * 1994-08-12 1996-04-23 Loral Corporation Method of steering an agricultural vehicle
US5621645A (en) * 1995-01-24 1997-04-15 Minnesota Mining And Manufacturing Company Automated lane definition for machine vision traffic detector
DE69635569T2 (de) * 1995-04-25 2006-08-10 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Bestimmen der lokalen Position eines Autos auf einer Strasse
WO1996034363A1 (fr) * 1995-04-26 1996-10-31 Hitachi, Ltd. Processeur d'images pour vehicule
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US5675489A (en) * 1995-07-06 1997-10-07 Carnegie Mellon University System and method for estimating lateral position
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JPH10302050A (ja) * 1997-04-30 1998-11-13 Fujitsu Ltd データ変換処理回路
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
DE19738764A1 (de) * 1997-09-04 1999-03-11 Bayerische Motoren Werke Ag Vorrichtung zur graphischen Darstellung einer vorausliegenden Straße
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6690268B2 (en) 2000-03-02 2004-02-10 Donnelly Corporation Video mirror systems incorporating an accessory module
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
US6396408B2 (en) 2000-03-31 2002-05-28 Donnelly Corporation Digital electrochromic circuit with a vehicle network
JP3904840B2 (ja) * 2000-08-15 2007-04-11 富士通株式会社 多値画像から罫線を抽出する罫線抽出装置
ATE363413T1 (de) 2001-01-23 2007-06-15 Donnelly Corp Verbessertes fahrzeugbeleuchtungssystem
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
US7581859B2 (en) 2005-09-14 2009-09-01 Donnelly Corp. Display device for exterior rearview mirror
US6882287B2 (en) 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
FR2837813B1 (fr) 2002-03-29 2004-06-11 Omnium Traitement Valorisa Installation circulaire pour le traitement biologique des eaux usees
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
WO2003093857A2 (en) 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
EP1514246A4 (de) 2002-06-06 2008-04-16 Donnelly Corp Innenrückspiegelsystem mit kompass
US20060061008A1 (en) 2004-09-14 2006-03-23 Lee Karner Mounting assembly for vehicle interior mirror
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
US10144353B2 (en) 2002-08-21 2018-12-04 Magna Electronics Inc. Multi-camera vision system for a vehicle
WO2004103772A2 (en) 2003-05-19 2004-12-02 Donnelly Corporation Mirror assembly for vehicle
EP1543358A2 (de) 2002-09-20 2005-06-22 Donnelly Corporation Spiegelreflexionselementbaugruppe
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
US7103222B2 (en) * 2002-11-01 2006-09-05 Mitsubishi Electric Research Laboratories, Inc. Pattern discovery in multi-dimensional time series using multi-resolution matching
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
JP4162618B2 (ja) 2004-03-12 2008-10-08 株式会社豊田中央研究所 車線境界判定装置
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4703136B2 (ja) * 2004-06-02 2011-06-15 トヨタ自動車株式会社 線図形化処理装置
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
US7626749B2 (en) 2005-05-16 2009-12-01 Donnelly Corporation Vehicle mirror assembly with indicia at reflective element
EP1949666B1 (de) 2005-11-01 2013-07-17 Magna Mirrors of America, Inc. Innen-rückspiegel mit display
JP4232794B2 (ja) * 2006-05-31 2009-03-04 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
EP3624086A1 (de) 2007-01-25 2020-03-18 Magna Electronics Inc. Radarerfassungssystem für fahrzeug
US7914187B2 (en) 2007-07-12 2011-03-29 Magna Electronics Inc. Automatic lighting system with adaptive alignment function
US8017898B2 (en) 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
EP2191457B1 (de) 2007-09-11 2014-12-10 Magna Electronics Bildgebungssystem für fahrzeuge
US8446470B2 (en) 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
US20100020170A1 (en) 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System
US9487144B2 (en) 2008-10-16 2016-11-08 Magna Mirrors Of America, Inc. Interior mirror assembly with display
US9126525B2 (en) 2009-02-27 2015-09-08 Magna Electronics Inc. Alert system for vehicle
US8376595B2 (en) 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
WO2011014497A1 (en) 2009-07-27 2011-02-03 Magna Electronics Inc. Vehicular camera with on-board microcontroller
EP2459416B2 (de) 2009-07-27 2019-12-25 Magna Electronics Inc. Parkhilfesystem
US9041806B2 (en) 2009-09-01 2015-05-26 Magna Electronics Inc. Imaging and display system for vehicle
US8890955B2 (en) 2010-02-10 2014-11-18 Magna Mirrors Of America, Inc. Adaptable wireless vehicle vision system based on wireless communication error
US9117123B2 (en) 2010-07-05 2015-08-25 Magna Electronics Inc. Vehicular rear view camera display system with lifecheck function
WO2012068331A1 (en) 2010-11-19 2012-05-24 Magna Electronics Inc. Lane keeping system and lane centering system
WO2012075250A1 (en) 2010-12-01 2012-06-07 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
WO2012103193A1 (en) 2011-01-26 2012-08-02 Magna Electronics Inc. Rear vision system with trailer angle detection
US9194943B2 (en) 2011-04-12 2015-11-24 Magna Electronics Inc. Step filter for estimating distance in a time-of-flight ranging system
US9547795B2 (en) 2011-04-25 2017-01-17 Magna Electronics Inc. Image processing method for detecting objects using relative motion
US10793067B2 (en) 2011-07-26 2020-10-06 Magna Electronics Inc. Imaging system for vehicle
WO2013043661A1 (en) 2011-09-21 2013-03-28 Magna Electronics, Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
US9681062B2 (en) 2011-09-26 2017-06-13 Magna Electronics Inc. Vehicle camera image quality improvement in poor visibility conditions by contrast amplification
US9146898B2 (en) 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching
US10071687B2 (en) 2011-11-28 2018-09-11 Magna Electronics Inc. Vision system for vehicle
JP5601332B2 (ja) * 2012-02-08 2014-10-08 村田機械株式会社 搬送車
US8694224B2 (en) 2012-03-01 2014-04-08 Magna Electronics Inc. Vehicle yaw rate correction
US10609335B2 (en) 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
WO2013158592A2 (en) 2012-04-16 2013-10-24 Magna Electronics, Inc. Vehicle vision system with reduced image color data processing by use of dithering
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
US9340227B2 (en) 2012-08-14 2016-05-17 Magna Electronics Inc. Vehicle lane keep assist system
DE102013217430A1 (de) 2012-09-04 2014-03-06 Magna Electronics, Inc. Fahrerassistenzsystem für ein Kraftfahrzeug
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
US9446713B2 (en) 2012-09-26 2016-09-20 Magna Electronics Inc. Trailer angle detection system
US9090234B2 (en) 2012-11-19 2015-07-28 Magna Electronics Inc. Braking control system for vehicle
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
US10025994B2 (en) 2012-12-04 2018-07-17 Magna Electronics Inc. Vehicle vision system utilizing corner detection
US9481301B2 (en) 2012-12-05 2016-11-01 Magna Electronics Inc. Vehicle vision system utilizing camera synchronization
US20140218529A1 (en) 2013-02-04 2014-08-07 Magna Electronics Inc. Vehicle data recording system
US9092986B2 (en) 2013-02-04 2015-07-28 Magna Electronics Inc. Vehicular vision system
US10027930B2 (en) 2013-03-29 2018-07-17 Magna Electronics Inc. Spectral filtering for vehicular driver assistance systems
US9327693B2 (en) 2013-04-10 2016-05-03 Magna Electronics Inc. Rear collision avoidance system for vehicle
US10232797B2 (en) 2013-04-29 2019-03-19 Magna Electronics Inc. Rear vision system for vehicle with dual purpose signal lines
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US10567705B2 (en) 2013-06-10 2020-02-18 Magna Electronics Inc. Coaxial cable with bidirectional data transmission
US9260095B2 (en) 2013-06-19 2016-02-16 Magna Electronics Inc. Vehicle vision system with collision mitigation
US20140375476A1 (en) 2013-06-24 2014-12-25 Magna Electronics Inc. Vehicle alert system
US10326969B2 (en) 2013-08-12 2019-06-18 Magna Electronics Inc. Vehicle vision system with reduction of temporal noise in images
US9619716B2 (en) 2013-08-12 2017-04-11 Magna Electronics Inc. Vehicle vision system with image classification
US9988047B2 (en) 2013-12-12 2018-06-05 Magna Electronics Inc. Vehicle control system with traffic driving control
US10160382B2 (en) 2014-02-04 2018-12-25 Magna Electronics Inc. Trailer backup assist system
US9623878B2 (en) 2014-04-02 2017-04-18 Magna Electronics Inc. Personalized driver assistance system for vehicle
US9487235B2 (en) 2014-04-10 2016-11-08 Magna Electronics Inc. Vehicle control system with adaptive wheel angle correction
JP6539958B2 (ja) 2014-08-28 2019-07-10 村田機械株式会社 搬送車
US10286855B2 (en) 2015-03-23 2019-05-14 Magna Electronics Inc. Vehicle vision system with video compression
CN106157283A (zh) * 2015-04-01 2016-11-23 株式会社理光 道路分割物的检测方法和装置
US10819943B2 (en) 2015-05-07 2020-10-27 Magna Electronics Inc. Vehicle vision system with incident recording function
US10078789B2 (en) 2015-07-17 2018-09-18 Magna Electronics Inc. Vehicle parking assist system with vision-based parking space detection
US10086870B2 (en) 2015-08-18 2018-10-02 Magna Electronics Inc. Trailer parking assist system for vehicle
US10875403B2 (en) 2015-10-27 2020-12-29 Magna Electronics Inc. Vehicle vision system with enhanced night vision
US11277558B2 (en) 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
US11433809B2 (en) 2016-02-02 2022-09-06 Magna Electronics Inc. Vehicle vision system with smart camera video output
US10132971B2 (en) 2016-03-04 2018-11-20 Magna Electronics Inc. Vehicle camera with multiple spectral filters
US10055651B2 (en) 2016-03-08 2018-08-21 Magna Electronics Inc. Vehicle vision system with enhanced lane tracking
US10908614B2 (en) * 2017-12-19 2021-02-02 Here Global B.V. Method and apparatus for providing unknown moving object detection
US11087469B2 (en) 2018-07-12 2021-08-10 Here Global B.V. Method, apparatus, and system for constructing a polyline from line segments
JP2020135776A (ja) * 2019-02-26 2020-08-31 プラス株式会社 撮影装置
WO2020219303A1 (en) * 2019-04-26 2020-10-29 Nvidia Corporation Intersection pose detection in autonomous machine applications
US11968639B2 (en) 2020-11-11 2024-04-23 Magna Electronics Inc. Vehicular control system with synchronized communication between control units

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3709207A1 (de) * 1987-02-28 1988-09-08 Standard Elektrik Lorenz Ag Schaltungsanordnung zum umwandeln von digitalen tonsignalwerten in ein analoges tonsignal
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles

Also Published As

Publication number Publication date
JP2843079B2 (ja) 1999-01-06
EP0434455B1 (de) 1997-10-15
JPH03194670A (ja) 1991-08-26
US5341437A (en) 1994-08-23
EP0434455A3 (en) 1993-02-03
EP0434455A2 (de) 1991-06-26
DE69031589D1 (de) 1997-11-20

Similar Documents

Publication Publication Date Title
DE69031589T2 (de) Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE69512709T2 (de) Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung
DE69610689T2 (de) System zum Klassifizieren von Fingerabdrücken
DE69505214T2 (de) System zur Verarbeitung von Fahrbahnbildsignalen für Fahrzeuge
DE10029423B4 (de) Objekterkennungssystem
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
DE69231826T2 (de) Vorrichtung zur Erkennung eines sich bewegenden Körpers
DE69530566T2 (de) Hough-Transform mit Fuzzy-Gradient und Wahl
EP3529561B1 (de) System und verfahren zur erzeugung von digitalen strassenmodellen aus luft- oder satellitenbildern und von fahrzeugen erfassten daten
EP2028605A1 (de) Detektionsverfahren für symmetrische Muster
DE112009003648B4 (de) Verfahren und Vorrichtung zur Barrierentrennung
DE102018123393A1 (de) Erkennung von Parkflächen
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
EP2736017A2 (de) Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs
DE10148060A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE10161967A1 (de) Verfahren zum Erfassen einer gekrümmten Fahrspur für ein Straßen-Modellier-System
DE102018116922A1 (de) Verfahren zum Bestimmen einer realen Position eines Anhängerkugelkopfs einer Anhängerkupplung eines Kraftfahrzeugs mittels eines Assistenzsystems des Kraftfahrzeugs, Assistenzsystem sowie Kraftfahrzeug
DE102008059551B4 (de) Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
DE102006007550A1 (de) Vorrichtung und Verfahren zur Erkennung einer Fahrbahnmarkierung für ein Kraftfahrzeug
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
DE102022107907A1 (de) Sensorfusion-basierte dreidimensionale Stixel-Darstellung in einer Ansicht von oben zur Detektion eines allgemeinen Hindernisses in einem Fahrzeug
DE19549216C2 (de) Verfahren zur Bildauswertung
DE102020105676A1 (de) Verfahren zum betreiben eines parkassistenzsystems

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee