DE69031589T2 - Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge - Google Patents
Verfahren zur Wegekonfigurationsbestimmung für KraftfahrzeugeInfo
- Publication number
- DE69031589T2 DE69031589T2 DE69031589T DE69031589T DE69031589T2 DE 69031589 T2 DE69031589 T2 DE 69031589T2 DE 69031589 T DE69031589 T DE 69031589T DE 69031589 T DE69031589 T DE 69031589T DE 69031589 T2 DE69031589 T2 DE 69031589T2
- Authority
- DE
- Germany
- Prior art keywords
- straight line
- coordinate
- line
- point
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 59
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
- Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen oder Erkennen der Konfiguration eines Wegs für Kraftfahrzeuge durch Bildbearbeitung, und insbesondere ein Verfahren zum Erkennen von Begrenzungen eines Wegs unabhängig von der Konfiguration des Wegs.
- Das Erkennen der Konfiguration eines Wegs für Kraftfahrzeuge erfordert, daß Begrenzungen des Wegs an dessen Ende bestimmt werden. Zur Bestimmung der Begrenzungen eines Wegs an dessen Ende ist es erforderlich, Daten des Wegs an dessen Ende zu bearbeiten, die durch eine Fernsehkamera oder der gleichen erzeugt werden, um Liniensegmente aus den bearbeiteten Bilddaten am Ende des Wegs zu extrahieren. Ein Bildbearbeitungsverfahren verwendet Hough-Transformation, wie in dem japanischen Patent-Offenlegungsschriften Nr. 62(1987)-24310 und 62(1987)-7096 offenbart. Nach diesen offenbarten Verfahren werden Merkmalspunkte auf einem durch die Bilddaten erzeugten Bild der Hough-Transformation unterzogen, um hierdurch eine Gruppe gerader Linien zu erzeugen, die der Verteilung der Merkmalspunkte entsprechen.
- Wenn der zu erkennende Weg gerade ist, dann kann das obige, auf Bildbearbeitung beruhende herkömmliche Verfahren die erfaßten geraden Linien, die mittels der Hough-Transformation erzeugt sind, direkt verwenden. Wenn jedoch der Weg gekrümmt oder verzweigt ist, können die erfaßten geraden Linien, die mittels der Hough-Transformation erzeugt sind, nicht so verwendet werden wie sie sind. In diesem Fall war es üblich, ein durch eine Fernsehkamera erzeugtes Bild in eine Mehrzahl kleiner Bearbeitungsflächen zu unterteilen und Liniensegmente in den Bearbeitungsflächen nacheinander, ausgehend von einer engsten kleinen Fläche in dem Bild, wiederholt zu erfassen, so daß man Information erhalten kann, die die Begrenzungen tatsächlichen Wegs genau darstellt.
- Das IEEE Journal of Robotics and Automation, Vol RA-3 Nr.2, April 1987, Seiten 124-141, A.M. Waxmann et al.; "A Visual Navigation System for Autonomous Land Vehicles", über das Anspruch 1 gekennzeichnet ist, diskutiert eine modulare System-Architektur. Während sich das Fahrzeug bewegt, wird die Aufmerksamkeit auf kleine Teile des Sichffelds fokussiert, um die interessierende Gegenstände zu verfolgen und als Modell zu entwickeln.
- Mit den herkömmlichen Verfahren sind daher sequentielle Schritte erforderlich, um die Konfiguration eines Wegs zu bestimmen, und die Gesamtbearbeitung ist zeitaufwendig. Demzufolge war es schwierig, das herkömmliche Verfahren bei der Fahrtsteuerung eines Automobils entlang von Wegen anzuwenden, weil der Autofahrsteuer- oder Führungsprozeß schnelle Datenverarbeitung erfordert.
- Ein Hauptziel der vorliegenden Erfindung ist es, ein Verfahren zum Bestimmen der Konfiguration eines Wegs für Kraftfahrzeuge vorzusehen, wobei das Verfahren in der Lage ist, Begrenzungen des Wegs leicht und schnell zu bestimmen.
- Nach der vorliegenden Erfindung wird ein Verfahren zum Bestimmen der Konfiguration eines Wegs für Kraftfahrzeuge angegeben, das die Schritte umfaßt: Erzeugen von Ursprungsbilddaten des Wegs; Bestimmen von in den Ursprungsbilddaten enthaltenen Randdatenpunkten; Bestimmen einer Gruppe gerader Linien, die der Anordnung der Randdatenpunkte angenähert sind; Extrahieren gerader Linien, die zur Bestimmung von Begrenzungen des Wegs wirksam sind, aus der Gruppe gerader Linien, wobei das Verfahren durch die Schritte gekennzeichnet ist: Teilen der extrahierten geraden Linien in eine Mehrzahl von Liniensegmenten durch Schnittpunkte zwischen den geraden Linien; Prüfen der Liniensegmente gegenüber den Randdatenpunkten der Ursprungsbilddaten zur Bestimmung, ob die Liniensegmente den Begrenzungen des Wegs entsprechen; und Entfernen jener Liniensegmente, die einen geringen Übereinstimmungsgrad mit den Randdatenpunkten aufweisen.
- Der Schritt des Bestimmens von Merkmalspunkten umfaßt bevorzugt den Schritt, Randdaten durch Differenzieren der Ursprungsbilddaten zu erzeugen.
- Der Schritt der Bestimmung einer Gruppe gerader Linien umfaßt bevorzugt den Schritt, die Randdaten der Hough-Transformation zu unterziehen.
- Der Schritt des Extrahierens gerader Linien umfaßt bevorzugt die Schritte: Bestimmen, ob die X Koordinate des Anfangspunkts einer geraden Linie größer ist als die X Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die X Koordinate des Endpunkts der einen geraden Linie größer ist als die X Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die den Anfangspunkt der einen geraden Linie mit dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die X Koordinate des Anfangspunkts der einen geraden Linie größer ist als die X Koordinate des Anfangspunkts der anderen geraden Linie und die X Koordinate des Endpunkts der einen geraden Linie größer ist als die X Koordinate des Endpunkts der anderen geraden Linie.
- Der Schritt des Extrahierens gerader Linien umfaßt bevorzugt die Schritte: Bestimmen, ob die Y Koordinate des Anfangspunkts einer geraden Linie größer ist als die Y Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie größer ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die das Anfangsende der einen geraden Linie mit dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die Y Koordinate des Anfangspunkts der einen geraden Linie größer ist als die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y Koordinate des Endpunkts der einen geraden Linie größer ist als die Y Koordinate des Endpunkts der anderen geraden Linie.
- Der Schritt des Extrahierens gerader Linien umfaßt bevorzugt die Schritte: Bestimmen, ob die Y Koordinate des Anfangspunkts einer geraden Linie kleiner ist als die Y Koordinate des Anfangspunkts einer anderen geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie kleiner ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und Bestimmen einer geraden Linie, die den Endpunkt der einen geraden Linie mit dem Anfangspunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie, wenn die Y Koordinate des Anfangspunkts der einen geraden Linie kleiner ist als die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y Koordinate des Endpunkts der einen geraden Linie kleiner ist als die Y Koordinate des Endpunkts der anderen geraden Linie.
- Der Schritt des Teilens der extrahierten geraden Linien umfaßt bevorzugt die Schritte: Definieren einer geraden Linie als Hauptliniensegment und einer anderen geraden Linie als Nebenliniensegment, Bestimmen, ob die Haupt- und Nebenliniensegmente zueinander parallel sind, Bestimmen eines Schnittpunkts zwischen den Haupt- und Nebenliniensegmenten, wenn die Haupt- und Nebenliniensegmente nicht zueinander parallel sind, Bestimmen, ob der Schnittpunkt zwischen den Anfangs- und Endpunkten der Haupt- und Nebenliniensegmente angeordnet ist, und Teilen der Haupt- und Nebenliniensegmente durch den Schnittpunkt, wenn der Schnittpunkt zwischen den Anfangs- und Endpunkten der Haupt- und Nebenliniensegmente angeordnet ist.
- Der Schritt des Prüfens der Liniensegmente umfaßt bevorzugt die Schritte: Abtasten eines Randbilds über eine vorbestimmte Breite quer zu einem Liniensegment, Vergleichen der Intensität des Randpunkts jedes abgetasteten Flecks mit einem vorbestimmten Schwellenwert, Zählen von Randpunkten, deren Intensität höher ist als der vorbestimmte Schwellenwert, Berechnen des Verhältnisses der Anzahl gezählter Randpunkte zur Länge des Liniensegments, und Bestimmen, ob das Liniensegment einer Begrenzung des Wegs entspricht, auf Basis des berechneten Verhältnisses.
- Nach einer bevorzugten Ausführung der vorliegenden Erfindung umfaßt das Verfahren ferner die Schritte: Teilen der Ursprungsbilddaten in eine Mehrzahl von Flächen nach dem Schritt der Erzeugung von Ursprungsbilddaten des Wegs, wobei die Schritte des Bestimmens von Randdatenpunkten und des Bestimmens einer Gruppe gerader Linien auf jeder der Mehrzahl von Flächen durchgeführt wird; Vereinigen der extrahierten geraden Linien in jeder der Flächen zu einer einzelnen Kombination von Bliddaten, die eine einzelne gerade Linie darstellen; wobei der anschließende Schritt des Teilens an der einzelnen geraden Linie durchgeführt wird.
- Die obigen und anderen Ziele, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung in Verbindung mit den beigefügten Zeichnungen näher ersichtlich, in denen eine bevorzugte Ausführung der vorliegenden Erfindung als Illustrationsbeispiel gezeigt ist.
- Figuren 1(a) bis 1(g) zeigen in Diagrammen das Grundkonzept eines Verfahrens nach der vorliegenden Erfindung;
- Figur 2 zeigt graphisch die Expression eines repräsentativen Liniensegments, das im Verfahren der vorliegenden Erfindung verwendet wird;
- Figur 3 ist ein Flußdiagramm eines Prozesses der Vereinigung repräsentativer Liniensegmente miteinander;
- Figur 4 zeigt graphisch einen Schwellenwert θTH, der im in Figur 3 gezeigten Flußdiagramm verwendet wird;
- Figur 5 ist ein Flußdiagramm eines Vereinigungsprozesses A;
- Figuren 6(a) bis 6(c) zeigen graphisch die Zustände von Liniensegmenten in dem Vereinigungsprozeß A;
- Figur 7 ist ein Flußdiagramm eines Vereinigungsprozesses B;
- Figuren 8(a) bis 8(c) zeigen graphisch die Zustände von Liniensegmenten in dem Vereinigungsprozeß B;
- Figuren 9(a) und 9(b) sind Flußdiagramme eines Vereinigungsprozesses C;
- Figuren 10(a) bis 10(f) zeigen graphisch die Zustände von Liniensegmenten in dem Vereinigungsprozeß C;
- Figur 11 ist ein Flußdiagramm eines Prozesses der Teilung repräsentativer Liniensegmente;
- Figuren 12(a) und 12(b) zeigen graphisch die Zustände von Liniensegmenten in dem Teilungsprozeß;
- Figuren 13(a) bis 13(d) zeigen graphisch die Trennung geteilter Liniensegmente;
- Figuren 14(a) bis 14(b) zeigen graphisch die Prüfung geteilter Liniensegmente gegen Randdaten;
- Figur 15 ist ein Flußdiagramm eines Prozesses zur Bestimmung des Übereinstimmungsgrads zwischen den geteilten Liniensegmenten und den Randdaten und auch zur Bestimmung der Längen der Liniensegmente;
- Figuren 16(a) bis 16(d) zeigen graphisch die Klassifizierung der Zustände der geteilten Liniensegmente, während sie gegenüber den Randdaten geprüft werden;
- Figuren 17(a) und 17(b) zeigen graphisch Liniensegmente, die von Daten ausgeschlossen sind, die im in Figur 15 gezeigten Flußdiagramm zum Zeichnen von Begrenzungen gewählt sind;
- Figuren 18(a) bis 18(d) zeigen graphisch die Art, in der die geteilten Liniensegmente verbunden werden.
- Figuren 1(a) bis 1(g) zeigen das bevorzugte Grundkonzept der vorliegenden Erfindung in Anwendung bei einem Verfahren der Bestimmung oder Erkennung der Konfiguration eines Wegs für Kraftfahrzeuge.
- Angenommen sei, daß eine in Figur 1(a) gezeigte Szene von einer Fernsehkamera aufgenommen wird, die an einem entlang einem Weg 1 fahrenden Kraftfahrzeug angebracht ist. Wie in Figur 1(a) gezeigt, hat der Weg 1 Begrenzungen 2a, 2b, die an einen Gehweg 4 angrenzen, Begrenzungen 3a, 3b, die an einen Gehweg 5 angrenzen, und eine Begrenzung 6, die an einen jenseits der Begrenzung 6 angeordneten Gehweg 7 angrenzt. Die Szene beinhaltet ferner einen Horizont 8 mit einer Anordnung 9 eines dahinter befindlichen Gebirges. Die aufgenommene Szene wird als Ursprungsbild bezeichnet, und das Ursprungsbild wird durch eine zentrale Vertikallinie in zwei Bilder unterteilt. Jedes der zweigeteilten Bilder wird in Randdaten gewandelt, die durch Differenzierung in jeder Fläche derselben erzeugt werden. Unter Verwendung der Randdaten wird das Ursprungsbild durch Flecken (nicht gezeigt) ausgedrückt. In jeder Fläche werden die Randdaten der Hough- Transformation unterzogen, um hierdurch eine Gruppe gerader Linien zu erzeugen, die der Anordnung oder Verteilung von Merkmalspunkten angenähert sind. Die geraden Linien in jeder Fläche werden dann statistisch durch Clusterbildung in Gruppen klassifiziert, und repräsentative gerade Linien in den jeweiligen Gruppen sind als gerade Linien verfügbar, die zur Bestimmung der Wegbegrenzungen wirksam sind. Das Ursprungsbild wird in zwei Bilder unterteilt, weil die geraden Linien mittels der Hough-Transformation besonders genau erfaßt werden können.
- Die repräsentativen geraden Linien sind in den Figuren 1(b) und 1(c) gezeigt. In Figur 1(b) entsprechen die mit L1, L2, L3 bezeichneten repräsentativen geraden Linien jeweils den Begrenzungen 2a, 2b, 6. In Figur 1(c) entsprechen die mit L4, L5, L6 bezeichneten repräsentativen geraden Linien jeweils den Begrenzungen 3a, 3b, 6. Die geraden Linien L1 bis L6 werden, wie später beschrieben wird zu einer einzelnen Kombination von Bilddaten miteinander vereinigt, wie in Figur 1(d) gezeigt. Insbesondere werden die geraden Linien L2, L5 zu einer geraden Linie L7 vereinigt, und die geraden Linien L3, L6 werden zu einer geraden Linie L8 vereinigt.
- Dann werden die Schnittpunkte zwischen den geraden Linien bestimmt, wie später beschrieben wird, und die geraden Linien werden an den Schnittpunkten in Linien-Segmente unterteilt. Wie insbesondere in Figur 1(e) gezeigt, wird die gerade Linie L1 in Liniensegmente l1a, l1b, l1c geteilt, die gerade Linie L4 in Liniensegmente l4a, l4b, l4c, die gerade Linie L7 in Liniensegmente l7a, l7b, l7c und die gerade Linie L8 in Liniensegmente l8a, lBb, lBc. Die Liniensegmente werden gegen Randdaten aus dem Ursprungsbild geprüft, wie später beschrieben wird, um den Übereinstimmungsgrad zwischen den Liniensegmenten und den Randdaten zu messen. Das Ergebnis der Messung ist in Figur 1(f) gezeigt. In Figur 1(f) werden die in Figur 1(e) gezeigten Liniensegmente l1b, lc, l4b, l4c, l7b entfernt, weil der Übereinstimmungsgrad zwischen diesen Liniensegmenten und den Randdaten gering ist. Jedoch bleiben die Liniensegmente l1a, l7a, die den Begrenzungen 2a, 2b (Figur 1(a)) entsprechen, die Liniensegmente l4a, l7c, die Begrenzungen 3a, 3b entsprechen, und die Liniensegmente l8a, l8b, l8c, die der Begrenzung 6 entsprechen, bestehen, weil der Übereinstimmungsgrad zwischen diesen Liniensegmenten und den Randdaten hoch ist.
- Dann wird die später zu beschreibende Art, in der die verbleibenden Liniensegmente verbunden werden, bestimmt, um somit Information über das Ende des Wegs zu erzeugen, welche die aktuellen Wegbegrenzungen genau darstellt, wie in Figur 1(g) gezeigt.
- Nun werden die im obigen Grundkonzept verwendeten arithmetischen Hauptschritte beschrieben.
- Die beiden geteilten Bilder, die in den Figuren 1(b) und 1(c) gezeigt sind, werden zu einer einzigen Kombination von Bilddaten vereinigt, die in Figur 1(d) gezeigt ist, wie folgt: zuerst wird bestimmt, ob die repräsentativen Liniensegmente in der linken Fläche (Figur 1(b)) und die repräsentativen Liniensegmente in der rechten Fläche (Figur 1(c)), die beide durch Clusterbildung ausgedrückt sind, vereinigt werden kännen oder nicht. Wenn diese repräsentativen Liniensegmente vereinigt werden können, werden sie vereinigt. Wie in Figur 2 gezeigt, wird jedes der repräsentativen Liniensegmente durch die Länge einer geraden Linie ausgedrückt, die vom Ursprung eines X-Y Koordinatensystems oder eines Hough-transformierten Koordinatensystems ortogonal zu dem repräsentativen Liniensegment verläuft, und einen Winkel θ zwischen der X-Achse und der Linie, deren Länge beträgt.
- Die Möglichkeit der Vereinigung der repräsentativen Liniensegmente wird durch die Prüfung bestimmt, ob Werte der Längen und Winkel θ in den jeweiligen Flächen dicht beieinander liegen oder nicht. Wenn sie dicht beieinander liegende Werte haben, dann können die Liniensegmente miteinander vereinigt werden, und sie werden in Abhängigkeit von den Gradienten der Liniensegmente vereinigt. Ob ein repräsentatives Liniensegment ( L, θL) in der linken Fläche und ein repräsentatives Liniensegment ( R, θR) in der rechten Fläche miteinander vereinigt werden können, wird gemäß dem in Figur 3 gezeigten Flußdiagramm bestimmt.
- Wenn die Differenz zwischen den Längen L, R der repräsentativen Liniensegmente in den linken und rechten Flächen in Δ fällt, dann wird bestimmt, daß die repräsentativen Liniensegmente bezüglich der Längen L, R miteinander vereinigt werden können. Somit wird in einem Schritt 301 bestimmt, ob die Längen L, R der repräsentativen Liniensegmente die folgenden Beziehungen erfüllen:
- L - Δ < R und R < L + Δ .
- Wenn die obigen Ungleichungen erfüllt sind, dann wird in einem Schritt 302 bestimmt, ob die die repräsentativen Liniensegmente betreffenden Winkel θL, θR die folgenden Beziehungen erfüllen:
- θL - Δθ < θR und θR < θL + Δθ.
- Wenn die Differenz zwischen den Winkeln θL, θR bezüglich der repräsentativen Liniensegmente in den linken und rechten Flächen in θΔ fällt, dann wird bestimmt, daß die repräsentativen Liniensegmente bezüglich der Winkel θL,θR miteinander vereinigt werden können.
- Wenn die Längen L, R und die Winkel θL,θR der repräsentativen Liniensegmente die Ungleichungen in den Schritten 301, 302 nicht erfüllen, dann wird der in Figur 3 gezeigte Prozeß beendet. Wenn die Winkel θL,θR bezüglich der repräsentativen Liniensegmente die Ungleichungen in Schritt 302 erfüllen, dann wird in einem Schritt 304 bestimmt, ob der Winkel θL des repräsentativen Liniensegments in der linken Fläche nahe am rechten Winkel liegt oder nicht, durch Vergleich des Winkels θL mit einem vorbestimmten Referenz- oder einem Schwellenwert θTH und auch durch Vergleich des Winkels θL mit ( ai - θTH) gemäß folgenden Ungleichungen:
- θTH < θL und θL < ( ai - θTH)
- wobei θTH und ( ai - θTH) in dem XY Koordinatensystem angegeben sind, das in Figur 4 gezeigt ist.
- Wenn der Winkel θL bezüglich des repräsentativen Liniensegments in der linken Fläche die obigen Ungleichungen erfüllt, dann wird in einem Schritt 305 bestimmt, ob der Winkel θL kleiner als 90º ist oder nicht (θL < 90º). Wenn der Winkel θL kleiner als 90º ist, dann wird in einem Schritt 306 ein Vereinigungsprozeß A durchgeführt. Wenn der Winkel θL größer als 90º ist, dann wird in einem Schritt 307 ein Vereinigungsprozeß B durchgeführt. Wenn der Winkel θL die Ungleichungen in Schritt 304 nicht erfüllt, dann wird in einem Schritt 308 ein Vereinigungsprozeß C durchgeführt.
- Der Vereinigungsprozeß A wird nachfolgend anhand der Figuren 5 und 6(a) bis 6(c) beschrieben.
- Wenn der Winkel θL bezüglich des repräsentativen Liniensegments in der linken Fläche im Bereich von θTH < θL < 90º liegt, wie in Figur 6(a) gezeigt, dann wird der Vereinigungsprozeß A durchgeführt. Es wird angenommen, daß ein repräsentatives Liniensegment L in der linken Fläche und ein repräsentatives Liniensegment R in der rechten Fläche relativ zueinander so positioniert sind, wie in Figur in Figur 6(b) gezeigt, und daß das repräsentative Liniensegment L einen Anfangspunkt XSL als X Koordinate und einen Endpunkt XEL als X Koordinate aufweist und das repräsentative Liniensegment R einen Anfangspunkt XSR als X Koordinate und einen Endpunkt XER als X Koordinate aufweist.
- Wie in Figur 5 gezeigt, bestimmt zuerst ein Schritt 601, ob der Endpunkt XER des Liniensegments R kleiner ist als der Anfangspunkt XSL des Liniensegments L, in dem geprüft wird, ob diese Liniensegmente irgendeinen überlappenden Abschnitt haben.
- Wenn XER < XSL und somit die Liniensegmente R, L einander überlappen, dann stellt ein Schritt 602 fest, ob die folgenden Ungleichungen erfüllt sind:
- XSR > XSL und XER > XEL.
- Wenn die obigen Ungleichungen erfüllt sind, dann werden in einem Schritt 603 die X und Y Koordinaten des Anfangspunkts des Liniensegments L durch die X und Y Koordinaten des Anfangspunkts des Liniensegments R ersetzt. Dann wird in einem Schritt 604 das repräsentative Liniensegment R in der rechten Fläche entfernt. Im Ergebnis werden die Liniensegmente LR zu einem Liniensegment miteinander vereinigt, wie in Figur 6(c) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments R, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments L. Wenn die Ungleichungen in den Schritten 601, 602 nicht erfüllt sind, dann wird der Vereinigungsprozeß A sofort beendet.
- Der Vereinigungsprozeß B wird nun anhand der Figuren 7 und 8(a) bis 8(c) beschrieben.
- Wenn der Winkel θL bezüglich des repräsentativen Liniensegments in der linken Fläche im Bereich von 90º ≤ θL < (180º - θTH) liegt, wie in Figur 8(a) gezeigt, dann wird der Vereinigungsprozeß B durchgeführt. Angenommen sei, daß ein repräsentatives Liniensegment L in der linken Fläche und ein repräsentatives Liniensegment R in der rechten Fläche relativ zueinander so positioniert sind, wie in Figur 8(b) gezeigt. Die repräsentativen Liniensegmente L, R haben Anfangs- und Endpunkte, die genauso wie in Figur 6(b) gezeigt, als X Koordinaten ausgedrückt sind.
- Wie in Figur 7 gezeigt, bestimmt zuerst ein Schritt 801, ob der Endpunkt XEL des Liniensegments L kleiner als der Anfangspunkt XSR des Liniensegments R ist, um hierdurch zu prüfen, ob diese Liniensegmente irgendeinen überlappenden Teil haben. Wenn XEL < XSR und daher die Liniensegmente L, R einander überlappen, dann bestimmt ein Schritt 802, ob die folgenden Ungleichungen erfüllt sind:
- XER > XEL und XSR > XSL.
- Wenn die obigen Ungleichungen erfüllt sind, dann werden in einem Schritt 803 die X und Y Koordinaten des Endpunkts des Liniensegments L durch die X und Y Koordinaten des Endpunkts des Liniensegments R ersetzt. Dann wird in einem Schritt 804 das repr sentative Liniensegment R in der rechten Fläche entfernt. Infolge dessen werden die Liniensegmente L, R zu einem Liniensegment miteinander vereinigt, wie in Figur 8(c) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments L, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments R. Wenn die Ungleichungen in den Schritten 801, 802 nicht erfüllt sind, dann wird der Vereinigungsprozeß A sofort beendet.
- Der Vereinigungsprozeß C wird nun anhand der Figuren 9(a) und 9(b) und 10(a) bis 10(f) beschrieben.
- Wenn der Winkel θL bezüglich des repräsentativen Liniensegments in der linken Fläche im Bereich von 0 ≤ θL < θTH oder (180º - θTH) ≤ θL < 180º liegt, wie in Figur 10(a) gezeigt, dann wird der Vereinigungsprozeß B durchgeführt. Die repräsentativen Liniensegmente L, R haben Anfangs- und Endpunkte, die genauso wie in Figur 6(b) gezeigt, als X Koordinaten ausgedrückt sind. Ferner wird angenommen, daß das repräsentative Liniensegment L einen Anfangspunkt YSL als eine Y Koordinate und einen Endpunkt YEL als eine Y Koordinate aufweist, und das repräsentative Liniensegment R einen Anfangspunkt YSR als eine Y Koordinate und einen Endpunkt YER als eine Y Koordinate aufweist.
- Ferner sei angenommen, daß die repräsentativen Liniensegmente so positioniert sind, wie in Figur 10(b) gezeigt, wobei zum Beispiel das repräsentative Liniensegment L in der linken Fläche und das repräsentative Liniensegment R in der rechten Fläche relativ so positioniert sind, wie in Figur 10(c) gezeigt. In diesen Fall wird der Vereinigungsprozeß C1 durchgeführt, wie in Figur 9(a) gezeigt.
- Zuerst bestimmt ein Schritt 1001, ob der Anfangspunkt YSL des Liniensegments L größer ist als der Anfangspunkt YSR des Liniensegments R. Wenn YSL > YSR (wie in Figur 10(c) gezeigt), dann wird in einem Schritt 1002 der Anfangspunkt des Liniensegments L durch den Anfangspunkt des Liniensegments R ersetzt. Insbesondere wird der Anfangspunkt XSL als eine X Koordinate des Liniensegments L durch den Anfangspunkt XSR als eine X Koordinate des Liniensegments R ersetzt, und der Anfangspunkt YSL als eine Y Koordinate des Liniensegments L wird durch den Anfangspunkt YSR als eine Y Koordinate des Liniensegments R ersetzt. Dann wird in einem Schritt 1003 das Liniensegment R entfernt. Die Liniensegmente L,R werden nun zu einem Liniensegment vereinigt, wie in Figur 10(b) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments R, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments L. Wenn in dem Schritt 1001 YSL nicht kleiner als YSR ist, dann wird in einem Schritt 1004 der Anfangspunkt des Liniensegments L als der Anfangspunkt des vereinigten Segments verwendet, und dann wird in dem Schritt 1003 das Liniensegment R entfernt, so daß die Liniensegmente vereinigt sind.
- Angenommen sei, daß die reprasentativen Liniensegmente so positioniert sind, wie in Figur 10(a) gezeigt, wobei zum Beispiel das repräsentative Liniensegment L in der linken Fläche und das repräsentative Liniensegment R in der rechten Fläche relativ zueinander so positioniert sind, wie in Figur 10(e) gezeigt. In diesen Fall wird ein Vereinigungsprozeß C2 durchgeführt, wie in Figur 9(b) gezeigt.
- Zuerst bestimmt ein Schritt 1005, ob der Endpunkt YEL des Liniensegments L kleiner ist als der Endpunkt YER des Liniensegments R. Wenn YEL < YER (wie in Figur 10(e) gezeigt), dann wird in einem Schritt 1006 der Endpunkt des Liniensegments L durch den Endpunkt des Liniensegments R ersetzt. Insbesondere wird der Endpunkt XEL als eine X Koordinate des Liniensegments L durch den Endpunkt XER als eine X Koordinate des Liniensegments R ersetzt, und der Endpunkt YEL als eine Y Koordinate des Liniensegments L wird durch den Endpunkt YER als eine Y Koordinate des Liniensegments R ersetzt. Dann wird in einem Schritt 1007 das Liniensegment R entfernt. Die Liniensegmente L, R werden nun zu einem Liniensegment vereinigt, wie in Figur 10(f) gezeigt. Der Anfangspunkt des vereinigten Liniensegments entspricht dem Anfangspunkt des Liniensegments L, und der Endpunkt des vereinigten Liniensegments entspricht dem Endpunkt des Liniensegments R. Wenn in Schritt 1005 YEL nicht größer als YER ist, dann wird in einem Schritt 1008 der Endpunkt des Liniensegments L als der Endpunkt des vereinigten Segments verwendet, und dann wird in Schritt 1007 das Liniensegment R entfernt, so daß die Liniensegmente vereinigt sind.
- Die Teilung der geraden Linien in die Liniensegmente, wie in Figur 10(e) gezeigt, wird nun anhand der Figuren 11,12(a) und 12(b) beschrieben. Angenommen sei, daß die in Figur 12(a) gezeigten repräsentativen Liniensegmente L1, L2 als Ergebnis eines der oben beschriebenen Vereinigungsprozesse erhalten werden. In diesem Fall wird ein Linienteilungsprozeß durchgeführt, wie er in Figur 11 gezeigt ist. In einem Schritt 1201 wird das repräsentative Liniensegment L1 als Hauptliniensegment definiert, und das andere repräsentative Liniensegment L2 wird als Nebenliniensegment definiert. Dann bestimmt ein Schritt 1202, ob das Hauptliniensegment L1 und das Nebeniniensegment L2 zueinander parallel sind oder nicht. Wenn die Haupt- und Nebenliniensegmente L1, L2 zueinander parallel sind wird, weil kein Schnittpunkt zwischen diesen Liniensegmenten vorhanden ist, der Linienteilungsprozeß beendet. Wenn jedoch die Haupt- und Nebenliniensegmente L1, L2 nicht zueinander parallel sind, wie in Figur 12(a) gezeigt, dann schneiden sie sich an einem Punkt C. Ein Schritt 1204 bestimmt die X und Y Koordinaten (XC, YC) des Schnittpunkts C. Dann wird in einem Schritt 1205 bestimmt, ob der Schnittpunkt C zwischen den Anfangs- und Endpunkten des Hauptliniensegments L1 und zwischen den Anfangs- und Endpunkten des Nebenliniensegments L2 angeordnet ist.
- Wenn der Schnittpunkt C nicht auf den Haupt- und Nebenliniensegmenten L1, L2 liegt, dann wird der Linienteilungsprozeß beendet. Wenn der Schnittpunkt C auf den Haupt- und Nebenliniensegmenten L1, L2 liegt, dann wird in einem Schritt 1206, wie in Figur 12(b) gezeigt, das repräsentative Liniensegment L1 durch den Schnittpunkt C in Liniensegmente l1, l2 unterteilt, und wird das repräsentative Liniensegment L2 in Liniensegmente l3, l4 unterteilt. Auf diese Weise werden die Schnittpunkte zwischen verschiedenen repräsentativen Liniensegmenten bestimmt und werden Daten der bestimmten Schnittpunkte gespeichert. Der obige Prozeß wird bezüglich der repräsentativen Liniensegmente durchgeführt, die so angezeigt werden, wie in Figur 1(e) gezeigt, um hierdurch die Daten der Schnittpunkte bezüglich der jeweiligen repräsentativen Liniensegmente zu sammeln.
- Aufgrund der somit bestimmten Schnittpunkte wird jedes der repräsentativen Liniensegmente in eine Mehrzahl von Liniensegmenten unterteilt. Beispielsweise sei angenommen, daß ein repräsentatives Liniensegment L Schnittpunkte C1, C2 aufweist, wie in Figur 13(a) gezeigt. Das repräsentative Liniensegment L wird durch die Schnittpunkte C1, C2 in drei Liniensegmente La, Lb, Lc unterteilt, wie in den Figuren 13(b), 13(c) und 13(d) gezeigt.
- Die geteilten Liniensegmente werden dann gegenüber den aus dem Ursprungsbild (Figur 1(a)) erzeugten Randdaten wie folgt geprüft: angenommen sei, daß ein geteiltes Liniensegment d, wie in Figur 14(a) gezeigt, einen Anfangspunkt S mit X und Y Koordinaten (SX, SY), einen Endpunkt E mit X und Y Koordinaten (EX, EY), einen Gradienten A sowie einen Abschnitt B aufweist und mit einem Winkel θ bezüglich der X-Achse geneigt ist.
- Das geteilte Liniensegment d wird gegenüber den Randdaten des Ursprungsbilds geprüft, indem ein Randbild über eine konstante Breite W von Flecken über das Liniensegment d in der Richtung abgetastet wird, die in Figur 14(b) mit den Pfeilen bezeichnet ist. Insbesondere wird die Intensität des Randpunkts jedes abgetasteten Flecks mit einem vorbestimmten Schwellenwert verglichen, und die Randpunkte, deren Intensität höher ist als der vorbestimmte Schwellenwert, werden gezählt. Wenn das Verhältnis des Zählers zu der Länge c des Liniensegments d größer ist als das vorbestimmte Verhältnis, dann wird bestimmt, daß das Liniensegment d einer Begrenzung des tatsächlichen Wegs entspricht. Der Übereinstimmungsgrad zwischen dem geteilten Liniensegment d und den Randdaten wird wie folgt ausgedrückt:
- Übereinstimmungsgrad = [Anzahl der Randpunkte, deren Intensität höher ist als der Schwellenwert] /[die Länge l des Liniensegments d) ...(1).
- Weil das Liniensegment d durch quantifizierte Daten ausgedrückt wird, läßt sich die Länge l des Liniensegments d aus der Anzahl der Abtastlinien über die Breite W bestimmen.
- Alternativ läßt die Länge l ausdrücken durch das jeweils größere von SX - EX oder SY - EY , oder läßt sich angeben durch:
- l = [(SX - EX)² + (SY - EY)²]1/2 ...(2)
- Der Übereinstimmungsgrad wird bezüglich verschiedener zu messender Liniensegmente berechnet, deren Zustände klassifiziert werden, wie in den Figuren 16(a) bis 16(d) gezeigt. Der Übereinstimmungsgrad wird gemäß den in Figur 15 gezeigten Flußdiagramm berechnet. Angenommen sei, daß der Randpunkt jedes Liniensegments, dessen Übereinstimmungsgrad zu messen ist, X und Y Koordinaten (RX, RY) hat.
- Ein Zähler zum Zählen von Randpunkten, deren Intensität höher als der vorbestimmte Schwellenwert ist, wird in einem Schritt 1601 gelöscht. Dann bestimmt ein Schritt 1602, ob der Neigungswinkel θ des zu prüfenden Liniensegments d bezüglich der X-Achse 90º beträgt oder nicht. Wenn der Winkel θ 90º beträgt und somit das Liniensegment d vertikal ist, dann hat das Liniensegment d einen Zustand, wie er in Figur 16(a) gezeigt ist. In diesem Fall ändert sich in einem Schritt 1603 die Y Koordinate RY des zu messenden Randpunkts von EY zu SY, und in einem Schritt 1604 ändert sich die X Koordinate RX mit der Breite W über einen Konstantwert RXO. Dann bestimmt ein Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche außerhalb des Bilds liegt, dann wird der Prozeß beendet. Wenn die abgetastete Fläche in dem Bild liegt, wird die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen. Wenn die Intensität höher als ein vorbestimmter Schwellenwert ist, dann wird der Zähler zum Zählen von Randpunkten in einem Schritt 1607 hochgezählt Der Schritt 1607 wird für jeden Randpunkt durchgeführt, der in der abgetasteten Fläche vorhanden ist, so daß die Anzahl aller Randpunkte, deren Intensität höher als der Schwellenwert ist, entlang des Liniensegments d gemessen wird.
- Wenn im Schritt 1602 der Winkel θ des Liniensegments d nicht 90º beträgt, dann bestimmt ein Schritt 1608, ob der Winkel θ kleiner als 450 (0 < 45º) oder größer als 135º (θ > 135º) ist, um hierdurch zu bestimmen, ob das Liniensegment d eine Vertikaltendenz hat oder nicht. Wenn das Liniensegment d eine Vertikaltendenz hat, dann ist das Liniensegment d in einem Zustand, wie er in Figur 16(b) gezeigt ist, und in einem Schritt 1609 ändert sich die Y Koordinate RY des zu prüfenden Randpunkts von EY zu SY. Ein Wert D wird erzeugt, indem der Abschnitt B des Liniensegments d durch den Gradienten A geteilt wird (D = B/A), und ein Wert RXO wird gemäß RXO = RY/A + D bestimmt. In einem Schritt 1610 ändert sich die X Koordinate RX des Randpunkts mit der Breite W über den Wert RXO. Dann bestimmt der Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche in dem Bild liegt, wird die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen, und wenn die Intensität höher als ein vorbestimmter Schwellenwert ist, dann wird in Schritt 1607 der Zähler zum Zählen von Randpunkten hochgezählt.
- Wenn der Winkel θ nicht den Bedingungen in Schritt 1608 genügt und somit das Liniensegment d keine Vertikaltendenz hat, dann bestimmt ein Schritt 1611, ob die X Koordinate SX des Anfangspunkts des Liniensegments d kleiner ist als die X Koordinate EX seines Endpunkts E ist oder nicht (SX < EX). Wenn die X Koordinate SX des Anfangspunkts S kleiner ist als die X Koordinate EX des Endpunkts E, dann ist das Liniensegment d in einem Zustand, wie er in Figur 16(c) gezeigt ist. In diesem Fall ändert sich in einem Schritt 1612 die X Koordinate RX des zu prüfenden Randpunkts von SX zu EX. In einem Schritt 1613 ändert sich die Y Koordinate RX mit der Breite W über einen Wert RYO = RX A + B. Dann bestimmt der Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche in dem Bild liegt, wird in dem Schritt 1607 die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen, und wenn die Intensität höher als der vorbestimmte Schwellenwert ist, dann wird der Zähler zum Zählen von Randpunkten hochgezählt.
- Wenn in Schritt 1611 die X Koordinate SX des Anfangspunkts X größer ist als die X Koordinate EX des Endpunkts E, dann ist das Liniensegment d in einem Zustand, wie er in Figur 16(d) gezeigt ist. In diesem Fall ändert sich in einem Schritt 1614 die X Koordinate RX des zu prüfenden Randpunkts von EX zu SX. In einem Schritt 1615 ändert sich die Y Koordinate RY mit der Breite W über einen Wert RYO = RX A + B. Dann bestimmt der Schritt 1605, ob die abgetastete Fläche im Bereich des Bilds liegt. Wenn die abgetastete Fläche in dem Bild liegt, wird im Schritt 1607 die Intensität des Randpunkts an den Koordinaten (RX, RY) eingelesen, und wenn die Intensität höher als ein vorbestimmter Schwellenwert ist, dann wird der Zähler zum Zählen von Randpunkten hochgezählt.
- Nach dem die Randpunkte, deren Intensität höher als der vorbestimmte Schwellenwert ist, durch den Zähler gezählt wurden, wird in einem Schritt 1616 die Länge l des Liniensegments d gemäß Gleichung (2) oder einem der alternativen Prozesse bestimmt. Dann bestimmt ein Schritt 1617, ob die Länge l kleiner ist als ein vorbestimmter Minimawert oder nicht. Wenn die Länge l größer als der Minimalwert ist, wird der Prozeß beendet. Wenn die Länge l kleiner als der Minimalwert ist, dann bestimmt ein Schritt 1619, ob keines der entgegengesetzten Enden des Liniensegments d einen Verbindungspunkt zu einem anderen Liniensegment hat. Wenn eines der entgegengesetzten Enden des Liniensegments d einen Verbindungspunkt hat, dann wird das Liniensegment d in einen Schritt 1620 so bestimmt, daß es zum Extrahieren einer Begrenzung des Wegs wirsam ist.
- Wenn keines der entgegengesetzten Enden des Liniensegments einen Verbindungspunkt zu einem anderen Liniensegment hat, dann wird in einem Schritt 1621 bestimmt, daß ein Liniensegment d nicht zum Extrahieren einer Wegbegrenzung wirksam ist und wird aus der auszuwählenden Gruppe von Liniensgementen ausgeschlossen. Auszuschließende Liniensegmente sind beispielsweise in den Figuren 17(a) und 17(b) gezeigt. Insbesondere wird ein in Figur 17(a) gezeigtes Liniensegment dl aus der auszuwählenden Gruppe von Liniensegmenten ausgeschlossen, weil eines seiner entgegengesetzten Enden keinen Verbindungspunkt hat. Ein in Figur 17(b) gezeigtes Liniensegment dl wird ebenfalls aus der auszuwählenden Gruppe von Liniensegmenten ausgeschlossen, weil seine beiden Enden keinen Verbindungspunkt haben.
- Dann wird das Verhältnis der Anzahl von Randpunkten, deren Intensität höher als der vorbestimmte Schwellenwert ist, zu der Länge l des Liniensegments d gemäß Gleichung (1) berechnet, um hierdurch in einem Schritt 1622 den Übereinstimmungsgrad zu bestimmen. Auf Basis des bestimmten Übereinstimmungsgrads wird die Wirksamkeit des Liniensegments d sichergestellt, das heißt es wird bestimmt, ob das Liniensegment d einer Begrenzung des aktuellen Wegs entspricht.
- Die Art, in der die geteilten Liniensegmente gemäß Figur 1(g) verbunden werden, wird gemäß folgender Beschreibung bestimmt.
- Die gewählten Liniensegmente lassen sich mit anderen in verschiedenen Mustern verbinden, wie sie in den Figuren 18(a) bis 18(d) gezeigt sind. Figur 18(a) zeigt ein Muster, in dem gewählte Liniensegmente La, Lb ursprünglich von einem repräsentativen Liniensegment kommen. Die in Figur 18(a) gezeigten Liniensegmente La, Lb werden zu einem Liniensegment verbunden. Figur 18(b) zeigt ein Muster, in dem gewählte Liniensegmente La, Lb von verschiedenen repräsentativen Liniensegmenten ausgehen. In diesem Fall wird die Beziehung, mit der die Liniensegmente La, Lb verbunden sind, in Daten gewandelt, die gespeichert werden. Gemäß dem in Figur 18(c) gezeigten Muster werden die gewählten Liniensegmente La, Lb, die von einem repräsentativen Liniensegment hergeleitet werden, miteinander an einem Schnittpunkt verbunden, mit dem ein anderes gewähltes Liniensegment Lc verbunden ist. Mit diesem Muster wird die Beziehung, mit der die Liniensegmente La, Lb, Lc verbunden sind, in Daten gewandelt, die gespeichert werden. Figur 18(d) zeigt ein Muster, in dem gewählte Liniensegmente La, Lb ursprünglich nicht verbunden sind, sondern getrennt. Die Beziehung, mit der diese Liniensegmente La, Lb verbunden sind, wird ebenfalls in Daten gewandelt, die gespeichert werden. In dem Muster von Figur 18(d) ist die Anzahl von Verbindungspunkten zwischen Liniensegmenten null.
- In der obigen Ausführung wird das Ursprungsbild in zwei Bildflächen geteilt, und werden die Daten der zwei Bildflächen bearbeitet. Jedoch braucht das Ursprungsbild nicht geteilt werden, sondern es kann die Anordnung oder Verteilung von Merkmalspunkten direkt aus dem Ursprungsbild bestimmt werden, und es kann eine Gruppe gerader Linien, die der bestimmten Anordnung von Merkmalspunkten angenähert ist, zur Wegerkennung bestimmt werden. Bei einer solchen Modifikation werden der Schritt des Teilens des Ursprungsbilds in eine Mehrzahl von Bildflächen und der Schritt des Kombinierens der geteilten Bildflächen zu einem Einzelbild weggelassen. Die modifizierte Anordnung bietet auch die gleichen Vorteile wie jene der dargestellten Ausführung.
- Weil mit der vorliegenden Ausführung, wie oben beschrieben, die geteilten Liniensegmente gegenüber den Merkmalspunkten der Ursprungsbilddaten geprüft werden, lassen sich die Begrenzungen des Wegs unabhängig von der Konfiguration des Wegs leicht und schnell erkennen.
- Auch wenn daher der Weg gekrümmt oder verzweigt ist, erfordert das Verfahren der vorliegenden Ausführung keine Folgeschritte, die andernfalls erforderlich wären, um die Konfiguration des Wegs zu bestimmen, sondern es kann die Begrenzungen des Wegs leicht und schnell bestimmen. Das Verfahren zur Bestimmung der Konfiguration eines Wegs für Kraftfahrzeuge nach der vorliegenden Ausführung ist somit gut bei der Fahrtsteuerung oder Führung von Kraftfahrzeugen wie etwa Automobilen anwendbar, die eine Datenbearbeitung in einer kurzen Zeitperiode erfordert.
Claims (9)
1. Verfahren zum Bestimmen der Konfiguration eines Wegs für Kraftfahrzeuge, das
die Schritte umfaßt:
Erzeugen von Ursprungsbilddaten des Wegs;
Bestimmen von in den Ursprungsbilddaten enthaltenen Randdatenpunkten;
Bestimmen einer Gruppe gerader Linien, die der Anordnung der Randdatenpunkte
angenähert sind;
Extrahieren gerader Linien, die zur Bestimmung von Begrenzungen des Wegs
wirksam sind, aus der Gruppe gerader Linien, wobei das Verfahren durch die Schritte
gekennzeichnet ist:
Teilen der extrahierten geraden Linien in eine Mehrzahl von Liniensegmenten durch
Schnittpunkte zwischen den geraden Linien;
Prüfen der Liniensegmente gegenüber den Randdatenpunkten der
Ursprungsbilddaten zur Bestimmung, ob die Liniensegmente den Begrenzungen des Wegs
entsprechen; und
Entfernen jener Liniensegmente, die einen geringen Übereinstimmungsgrad mit den
Randdatenpunkten aufweisen.
2. Verfahren nach Anspruch 1, in dem der Schritt des Bestimmens von
Randdatenpunkten den Schritt umfaßt, Randdaten durch Differenzieren der
Ursprungsbilddaten zu erzeugen.
3. Verfahren nach Anspruch 2, in dem der Schritt des Bestimmens einer Gruppe
gerader Linien den Schritt umfaßt, die Randdaten der Hough-Transformation zu
unterziehen.
4. Verfahren nach Anspruch 1, in dem der Schritt des Extrahierens gerader Linien
die Schritte umfaßt: Bestimmen, ob die X Koordinate des Anfangspunkts einer
geraden Linie größer ist als die X Koordinate des Anfangspunkts einer anderen
geraden Linie, und ob die X Koordinate des Endpunkts der einen geraden Linie
größer ist als die X Koordinate des Endpunkts der anderen geraden Linie, und
Bestimmen einer geraden Linie, die den Anfangspunkt der einen geraden Linie mit
dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade
Linie, wenn die X Koordinate des Anfangspunkts der einen geraden Linie größer ist
als die X Koordinate des Anfangspunkts der anderen geraden Linie und die X
Koordinate des Endpunkts der einen geraden Linie größer ist als die X Koordinate des
Endpunkts der anderen geraden Linie.
5. Verfahren nach Anspruch 1, in dem der Schritt des Extrahierens gerader Linien
die Schritte umfaßt: Bestimmen, ob die Y Koordinate des Anfangspunkts einer
geraden Linie größer ist als die Y Koordinate des Anfangspunkts einer anderen
geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie
größer ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und
Bestimmen einer geraden Linie, die das Anfangsende der einen geraden Linie mit
dem Endpunkt der anderen geraden Linie verbindet, als eine wirksame gerade
Linie, wenn die Y Koordinate des Anfangspunkts der einen geraden Linie größer ist
als die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y
Koordinate des Endpunkts der einen geraden Linie größer ist als die Y Koordinate des
Endpunkts der anderen geraden Linie.
6. Verfahren nach Anspruch 1, in dem der Schritt des Extrahierens gerader Linien
die Schritte umfaßt: Bestimmen, ob die Y Koordinate des Anfangspunkts einer
geraden Linie kleiner ist als die Y Koordinate des Anfangspunkts einer anderen
geraden Linie, und ob die Y Koordinate des Endpunkts der einen geraden Linie
kleiner ist als die Y Koordinate des Endpunkts der anderen geraden Linie, und
Bestimmen einer geraden Linie, die den Endpunkt der einen geraden Linie mit dem
Anfangspunkt der anderen geraden Linie verbindet, als eine wirksame gerade Linie,
wenn die Y Koordinate des Anfangspunkts der einen geraden Linie kleiner ist als
die Y Koordinate des Anfangspunkts der anderen geraden Linie und die Y
Koordinate des Endpunkts der einen geraden Linie kleiner ist als die Y Koordinate des
Endpunkts der anderen geraden Linie.
7. Verfahren nach Anspruch 1, in dem der Schritt des Teilens der extrahierten
geraden Linien die Schritte umfaßt: Definieren einer geraden Linie als
Hauptliniensegment und einer anderen geraden Linie als Nebenliniensegment, Bestimmen, ob die
Haupt- und Nebenliniensegmente zueinander parallel sind, Bestimmen eines
Schnittpunkts zwischen den Haupt- und Nebenliniensegmenten, wenn die
Haupt- und Nebenliniensegmente nicht zueinander parallel sind, Bestimmen, ob der
Schnittpunkt zwischen den Anfangs- und Endpunkten der Haupt- und
Nebenliniensegmente angeordnet ist, und Teilen der Haupt- und Nebenliniensegmente durch
den Schnittpunkt, wenn der Schnittpunkt zwischen den Anfangs- und Endpunkten
der Haupt- und Nebenliniensegmente angeordnet ist.
8. Verfahren nach Anspruch 1, in dem der Schritt des Prüfens der Liniensegmente
die Schritte umfaßt: Abtasten eines Randbilds über eine vorbestimmte Breite quer
zu einem Liniensegment, Vergleichen der Intensität des Randpunkts jedes
abgetasteten Flecks mit einem vorbestimmten Schwellenwert, Zählen von Randpunkten,
deren Intensität höher ist als der vorbestimmte Schwellenwert, Berechnen des
Verhältnisses der Anzahl gezählter Randpunkte zur Länge des Liniensegments, und
Bestimmen, ob das Liniensegment einer Begrenzung des Wegs entspricht, auf
Basis des berechneten Verhältnisses.
9. Verfahren nach einem der vorhergehenden Ansprüche, das ferner die Schritte
umfaßt: Teilen der Ursprungsbilddaten in eine Mehrzahl von Flächen nach dem
Schritt der Erzeugung von Ursprungsbilddaten des Wegs, wobei die Schritte des
Bestimmens von Randdatenpunkten und des Bestimmens einer Gruppe gerader
Linien auf jeder der Mehrzahl von Flächen durchgeführt wird; Vereinigen der
extrahierten geraden Linien in jeder der Flächen zu einer einzelnen Kombination von
Bilddaten, die eine einzelne gerade Linie darstellen; wobei der anschließende
Schritt des Teilens an der einzelnen geraden Linie durchgeführt wird.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1334127A JP2843079B2 (ja) | 1989-12-22 | 1989-12-22 | 走行路判別方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69031589D1 DE69031589D1 (de) | 1997-11-20 |
DE69031589T2 true DE69031589T2 (de) | 1998-02-12 |
Family
ID=18273824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69031589T Expired - Fee Related DE69031589T2 (de) | 1989-12-22 | 1990-12-21 | Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge |
Country Status (4)
Country | Link |
---|---|
US (1) | US5341437A (de) |
EP (1) | EP0434455B1 (de) |
JP (1) | JP2843079B2 (de) |
DE (1) | DE69031589T2 (de) |
Families Citing this family (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06213660A (ja) * | 1993-01-19 | 1994-08-05 | Aisin Seiki Co Ltd | 像の近似直線の検出方法 |
JP3374570B2 (ja) * | 1995-01-31 | 2003-02-04 | いすゞ自動車株式会社 | 車線逸脱警報装置 |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US6498620B2 (en) | 1993-02-26 | 2002-12-24 | Donnelly Corporation | Vision system for a vehicle including an image capture device and a display system having a long focal length |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
US5910854A (en) | 1993-02-26 | 1999-06-08 | Donnelly Corporation | Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices |
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US5631982A (en) * | 1993-06-10 | 1997-05-20 | International Business Machines Corporation | System using parallel coordinates for automated line detection in noisy images |
JP3169483B2 (ja) * | 1993-06-25 | 2001-05-28 | 富士通株式会社 | 道路環境認識装置 |
JP3431962B2 (ja) * | 1993-09-17 | 2003-07-28 | 本田技研工業株式会社 | 走行区分線認識装置を備えた自動走行車両 |
US5668663A (en) | 1994-05-05 | 1997-09-16 | Donnelly Corporation | Electrochromic mirrors and devices |
JP3357749B2 (ja) * | 1994-07-12 | 2002-12-16 | 本田技研工業株式会社 | 車両の走行路画像処理装置 |
US5509486A (en) * | 1994-08-12 | 1996-04-23 | Loral Corporation | Method of steering an agricultural vehicle |
US5621645A (en) * | 1995-01-24 | 1997-04-15 | Minnesota Mining And Manufacturing Company | Automated lane definition for machine vision traffic detector |
DE69635569T2 (de) * | 1995-04-25 | 2006-08-10 | Matsushita Electric Industrial Co., Ltd., Kadoma | Vorrichtung zum Bestimmen der lokalen Position eines Autos auf einer Strasse |
WO1996034363A1 (fr) * | 1995-04-26 | 1996-10-31 | Hitachi, Ltd. | Processeur d'images pour vehicule |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US5675489A (en) * | 1995-07-06 | 1997-10-07 | Carnegie Mellon University | System and method for estimating lateral position |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
JPH10302050A (ja) * | 1997-04-30 | 1998-11-13 | Fujitsu Ltd | データ変換処理回路 |
US6124886A (en) | 1997-08-25 | 2000-09-26 | Donnelly Corporation | Modular rearview mirror assembly |
US6172613B1 (en) | 1998-02-18 | 2001-01-09 | Donnelly Corporation | Rearview mirror assembly incorporating vehicle information display |
US6326613B1 (en) | 1998-01-07 | 2001-12-04 | Donnelly Corporation | Vehicle interior mirror assembly adapted for containing a rain sensor |
US8294975B2 (en) | 1997-08-25 | 2012-10-23 | Donnelly Corporation | Automotive rearview mirror assembly |
DE19738764A1 (de) * | 1997-09-04 | 1999-03-11 | Bayerische Motoren Werke Ag | Vorrichtung zur graphischen Darstellung einer vorausliegenden Straße |
US6445287B1 (en) | 2000-02-28 | 2002-09-03 | Donnelly Corporation | Tire inflation assistance monitoring system |
US8288711B2 (en) | 1998-01-07 | 2012-10-16 | Donnelly Corporation | Interior rearview mirror system with forwardly-viewing camera and a control |
US6690268B2 (en) | 2000-03-02 | 2004-02-10 | Donnelly Corporation | Video mirror systems incorporating an accessory module |
US6477464B2 (en) | 2000-03-09 | 2002-11-05 | Donnelly Corporation | Complete mirror-based global-positioning system (GPS) navigation solution |
US6693517B2 (en) | 2000-04-21 | 2004-02-17 | Donnelly Corporation | Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants |
US6329925B1 (en) | 1999-11-24 | 2001-12-11 | Donnelly Corporation | Rearview mirror assembly with added feature modular display |
JP2000161915A (ja) * | 1998-11-26 | 2000-06-16 | Matsushita Electric Ind Co Ltd | 車両用単カメラ立体視システム |
US7167796B2 (en) | 2000-03-09 | 2007-01-23 | Donnelly Corporation | Vehicle navigation system for use with a telematics system |
US7370983B2 (en) | 2000-03-02 | 2008-05-13 | Donnelly Corporation | Interior mirror assembly with display |
US6396408B2 (en) | 2000-03-31 | 2002-05-28 | Donnelly Corporation | Digital electrochromic circuit with a vehicle network |
JP3904840B2 (ja) * | 2000-08-15 | 2007-04-11 | 富士通株式会社 | 多値画像から罫線を抽出する罫線抽出装置 |
ATE363413T1 (de) | 2001-01-23 | 2007-06-15 | Donnelly Corp | Verbessertes fahrzeugbeleuchtungssystem |
US7255451B2 (en) | 2002-09-20 | 2007-08-14 | Donnelly Corporation | Electro-optic mirror cell |
US7581859B2 (en) | 2005-09-14 | 2009-09-01 | Donnelly Corp. | Display device for exterior rearview mirror |
US6882287B2 (en) | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
US7697027B2 (en) | 2001-07-31 | 2010-04-13 | Donnelly Corporation | Vehicular video system |
FR2837813B1 (fr) | 2002-03-29 | 2004-06-11 | Omnium Traitement Valorisa | Installation circulaire pour le traitement biologique des eaux usees |
US6918674B2 (en) | 2002-05-03 | 2005-07-19 | Donnelly Corporation | Vehicle rearview mirror system |
WO2003093857A2 (en) | 2002-05-03 | 2003-11-13 | Donnelly Corporation | Object detection system for vehicle |
EP1514246A4 (de) | 2002-06-06 | 2008-04-16 | Donnelly Corp | Innenrückspiegelsystem mit kompass |
US20060061008A1 (en) | 2004-09-14 | 2006-03-23 | Lee Karner | Mounting assembly for vehicle interior mirror |
US7329013B2 (en) | 2002-06-06 | 2008-02-12 | Donnelly Corporation | Interior rearview mirror system with compass |
US10144353B2 (en) | 2002-08-21 | 2018-12-04 | Magna Electronics Inc. | Multi-camera vision system for a vehicle |
WO2004103772A2 (en) | 2003-05-19 | 2004-12-02 | Donnelly Corporation | Mirror assembly for vehicle |
EP1543358A2 (de) | 2002-09-20 | 2005-06-22 | Donnelly Corporation | Spiegelreflexionselementbaugruppe |
US7310177B2 (en) | 2002-09-20 | 2007-12-18 | Donnelly Corporation | Electro-optic reflective element assembly |
US7103222B2 (en) * | 2002-11-01 | 2006-09-05 | Mitsubishi Electric Research Laboratories, Inc. | Pattern discovery in multi-dimensional time series using multi-resolution matching |
US7446924B2 (en) | 2003-10-02 | 2008-11-04 | Donnelly Corporation | Mirror reflective element assembly including electronic component |
US7308341B2 (en) | 2003-10-14 | 2007-12-11 | Donnelly Corporation | Vehicle communication system |
JP4162618B2 (ja) | 2004-03-12 | 2008-10-08 | 株式会社豊田中央研究所 | 車線境界判定装置 |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
JP4703136B2 (ja) * | 2004-06-02 | 2011-06-15 | トヨタ自動車株式会社 | 線図形化処理装置 |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
US7626749B2 (en) | 2005-05-16 | 2009-12-01 | Donnelly Corporation | Vehicle mirror assembly with indicia at reflective element |
EP1949666B1 (de) | 2005-11-01 | 2013-07-17 | Magna Mirrors of America, Inc. | Innen-rückspiegel mit display |
JP4232794B2 (ja) * | 2006-05-31 | 2009-03-04 | アイシン・エィ・ダブリュ株式会社 | 運転支援方法及び運転支援装置 |
US7972045B2 (en) | 2006-08-11 | 2011-07-05 | Donnelly Corporation | Automatic headlamp control system |
EP3624086A1 (de) | 2007-01-25 | 2020-03-18 | Magna Electronics Inc. | Radarerfassungssystem für fahrzeug |
US7914187B2 (en) | 2007-07-12 | 2011-03-29 | Magna Electronics Inc. | Automatic lighting system with adaptive alignment function |
US8017898B2 (en) | 2007-08-17 | 2011-09-13 | Magna Electronics Inc. | Vehicular imaging system in an automatic headlamp control system |
EP2191457B1 (de) | 2007-09-11 | 2014-12-10 | Magna Electronics | Bildgebungssystem für fahrzeuge |
US8446470B2 (en) | 2007-10-04 | 2013-05-21 | Magna Electronics, Inc. | Combined RGB and IR imaging sensor |
US8154418B2 (en) | 2008-03-31 | 2012-04-10 | Magna Mirrors Of America, Inc. | Interior rearview mirror system |
US20100020170A1 (en) | 2008-07-24 | 2010-01-28 | Higgins-Luthman Michael J | Vehicle Imaging System |
US9487144B2 (en) | 2008-10-16 | 2016-11-08 | Magna Mirrors Of America, Inc. | Interior mirror assembly with display |
US9126525B2 (en) | 2009-02-27 | 2015-09-08 | Magna Electronics Inc. | Alert system for vehicle |
US8376595B2 (en) | 2009-05-15 | 2013-02-19 | Magna Electronics, Inc. | Automatic headlamp control |
WO2011014497A1 (en) | 2009-07-27 | 2011-02-03 | Magna Electronics Inc. | Vehicular camera with on-board microcontroller |
EP2459416B2 (de) | 2009-07-27 | 2019-12-25 | Magna Electronics Inc. | Parkhilfesystem |
US9041806B2 (en) | 2009-09-01 | 2015-05-26 | Magna Electronics Inc. | Imaging and display system for vehicle |
US8890955B2 (en) | 2010-02-10 | 2014-11-18 | Magna Mirrors Of America, Inc. | Adaptable wireless vehicle vision system based on wireless communication error |
US9117123B2 (en) | 2010-07-05 | 2015-08-25 | Magna Electronics Inc. | Vehicular rear view camera display system with lifecheck function |
WO2012068331A1 (en) | 2010-11-19 | 2012-05-24 | Magna Electronics Inc. | Lane keeping system and lane centering system |
WO2012075250A1 (en) | 2010-12-01 | 2012-06-07 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
US9264672B2 (en) | 2010-12-22 | 2016-02-16 | Magna Mirrors Of America, Inc. | Vision display system for vehicle |
WO2012103193A1 (en) | 2011-01-26 | 2012-08-02 | Magna Electronics Inc. | Rear vision system with trailer angle detection |
US9194943B2 (en) | 2011-04-12 | 2015-11-24 | Magna Electronics Inc. | Step filter for estimating distance in a time-of-flight ranging system |
US9547795B2 (en) | 2011-04-25 | 2017-01-17 | Magna Electronics Inc. | Image processing method for detecting objects using relative motion |
US10793067B2 (en) | 2011-07-26 | 2020-10-06 | Magna Electronics Inc. | Imaging system for vehicle |
WO2013043661A1 (en) | 2011-09-21 | 2013-03-28 | Magna Electronics, Inc. | Vehicle vision system using image data transmission and power supply via a coaxial cable |
US9681062B2 (en) | 2011-09-26 | 2017-06-13 | Magna Electronics Inc. | Vehicle camera image quality improvement in poor visibility conditions by contrast amplification |
US9146898B2 (en) | 2011-10-27 | 2015-09-29 | Magna Electronics Inc. | Driver assist system with algorithm switching |
US10071687B2 (en) | 2011-11-28 | 2018-09-11 | Magna Electronics Inc. | Vision system for vehicle |
JP5601332B2 (ja) * | 2012-02-08 | 2014-10-08 | 村田機械株式会社 | 搬送車 |
US8694224B2 (en) | 2012-03-01 | 2014-04-08 | Magna Electronics Inc. | Vehicle yaw rate correction |
US10609335B2 (en) | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
WO2013158592A2 (en) | 2012-04-16 | 2013-10-24 | Magna Electronics, Inc. | Vehicle vision system with reduced image color data processing by use of dithering |
US10089537B2 (en) | 2012-05-18 | 2018-10-02 | Magna Electronics Inc. | Vehicle vision system with front and rear camera integration |
US9340227B2 (en) | 2012-08-14 | 2016-05-17 | Magna Electronics Inc. | Vehicle lane keep assist system |
DE102013217430A1 (de) | 2012-09-04 | 2014-03-06 | Magna Electronics, Inc. | Fahrerassistenzsystem für ein Kraftfahrzeug |
US9558409B2 (en) | 2012-09-26 | 2017-01-31 | Magna Electronics Inc. | Vehicle vision system with trailer angle detection |
US9446713B2 (en) | 2012-09-26 | 2016-09-20 | Magna Electronics Inc. | Trailer angle detection system |
US9090234B2 (en) | 2012-11-19 | 2015-07-28 | Magna Electronics Inc. | Braking control system for vehicle |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
US10025994B2 (en) | 2012-12-04 | 2018-07-17 | Magna Electronics Inc. | Vehicle vision system utilizing corner detection |
US9481301B2 (en) | 2012-12-05 | 2016-11-01 | Magna Electronics Inc. | Vehicle vision system utilizing camera synchronization |
US20140218529A1 (en) | 2013-02-04 | 2014-08-07 | Magna Electronics Inc. | Vehicle data recording system |
US9092986B2 (en) | 2013-02-04 | 2015-07-28 | Magna Electronics Inc. | Vehicular vision system |
US10027930B2 (en) | 2013-03-29 | 2018-07-17 | Magna Electronics Inc. | Spectral filtering for vehicular driver assistance systems |
US9327693B2 (en) | 2013-04-10 | 2016-05-03 | Magna Electronics Inc. | Rear collision avoidance system for vehicle |
US10232797B2 (en) | 2013-04-29 | 2019-03-19 | Magna Electronics Inc. | Rear vision system for vehicle with dual purpose signal lines |
US9508014B2 (en) | 2013-05-06 | 2016-11-29 | Magna Electronics Inc. | Vehicular multi-camera vision system |
US10567705B2 (en) | 2013-06-10 | 2020-02-18 | Magna Electronics Inc. | Coaxial cable with bidirectional data transmission |
US9260095B2 (en) | 2013-06-19 | 2016-02-16 | Magna Electronics Inc. | Vehicle vision system with collision mitigation |
US20140375476A1 (en) | 2013-06-24 | 2014-12-25 | Magna Electronics Inc. | Vehicle alert system |
US10326969B2 (en) | 2013-08-12 | 2019-06-18 | Magna Electronics Inc. | Vehicle vision system with reduction of temporal noise in images |
US9619716B2 (en) | 2013-08-12 | 2017-04-11 | Magna Electronics Inc. | Vehicle vision system with image classification |
US9988047B2 (en) | 2013-12-12 | 2018-06-05 | Magna Electronics Inc. | Vehicle control system with traffic driving control |
US10160382B2 (en) | 2014-02-04 | 2018-12-25 | Magna Electronics Inc. | Trailer backup assist system |
US9623878B2 (en) | 2014-04-02 | 2017-04-18 | Magna Electronics Inc. | Personalized driver assistance system for vehicle |
US9487235B2 (en) | 2014-04-10 | 2016-11-08 | Magna Electronics Inc. | Vehicle control system with adaptive wheel angle correction |
JP6539958B2 (ja) | 2014-08-28 | 2019-07-10 | 村田機械株式会社 | 搬送車 |
US10286855B2 (en) | 2015-03-23 | 2019-05-14 | Magna Electronics Inc. | Vehicle vision system with video compression |
CN106157283A (zh) * | 2015-04-01 | 2016-11-23 | 株式会社理光 | 道路分割物的检测方法和装置 |
US10819943B2 (en) | 2015-05-07 | 2020-10-27 | Magna Electronics Inc. | Vehicle vision system with incident recording function |
US10078789B2 (en) | 2015-07-17 | 2018-09-18 | Magna Electronics Inc. | Vehicle parking assist system with vision-based parking space detection |
US10086870B2 (en) | 2015-08-18 | 2018-10-02 | Magna Electronics Inc. | Trailer parking assist system for vehicle |
US10875403B2 (en) | 2015-10-27 | 2020-12-29 | Magna Electronics Inc. | Vehicle vision system with enhanced night vision |
US11277558B2 (en) | 2016-02-01 | 2022-03-15 | Magna Electronics Inc. | Vehicle vision system with master-slave camera configuration |
US11433809B2 (en) | 2016-02-02 | 2022-09-06 | Magna Electronics Inc. | Vehicle vision system with smart camera video output |
US10132971B2 (en) | 2016-03-04 | 2018-11-20 | Magna Electronics Inc. | Vehicle camera with multiple spectral filters |
US10055651B2 (en) | 2016-03-08 | 2018-08-21 | Magna Electronics Inc. | Vehicle vision system with enhanced lane tracking |
US10908614B2 (en) * | 2017-12-19 | 2021-02-02 | Here Global B.V. | Method and apparatus for providing unknown moving object detection |
US11087469B2 (en) | 2018-07-12 | 2021-08-10 | Here Global B.V. | Method, apparatus, and system for constructing a polyline from line segments |
JP2020135776A (ja) * | 2019-02-26 | 2020-08-31 | プラス株式会社 | 撮影装置 |
WO2020219303A1 (en) * | 2019-04-26 | 2020-10-29 | Nvidia Corporation | Intersection pose detection in autonomous machine applications |
US11968639B2 (en) | 2020-11-11 | 2024-04-23 | Magna Electronics Inc. | Vehicular control system with synchronized communication between control units |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3709207A1 (de) * | 1987-02-28 | 1988-09-08 | Standard Elektrik Lorenz Ag | Schaltungsanordnung zum umwandeln von digitalen tonsignalwerten in ein analoges tonsignal |
US4970653A (en) * | 1989-04-06 | 1990-11-13 | General Motors Corporation | Vision method of detecting lane boundaries and obstacles |
-
1989
- 1989-12-22 JP JP1334127A patent/JP2843079B2/ja not_active Expired - Lifetime
-
1990
- 1990-12-21 DE DE69031589T patent/DE69031589T2/de not_active Expired - Fee Related
- 1990-12-21 EP EP90314123A patent/EP0434455B1/de not_active Expired - Lifetime
-
1993
- 1993-02-09 US US08/016,656 patent/US5341437A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2843079B2 (ja) | 1999-01-06 |
EP0434455B1 (de) | 1997-10-15 |
JPH03194670A (ja) | 1991-08-26 |
US5341437A (en) | 1994-08-23 |
EP0434455A3 (en) | 1993-02-03 |
EP0434455A2 (de) | 1991-06-26 |
DE69031589D1 (de) | 1997-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69031589T2 (de) | Verfahren zur Wegekonfigurationsbestimmung für Kraftfahrzeuge | |
DE102018116111B4 (de) | Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung | |
DE102014209137B4 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs | |
DE69512709T2 (de) | Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung | |
DE69610689T2 (de) | System zum Klassifizieren von Fingerabdrücken | |
DE69505214T2 (de) | System zur Verarbeitung von Fahrbahnbildsignalen für Fahrzeuge | |
DE10029423B4 (de) | Objekterkennungssystem | |
EP2394234B1 (de) | Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung | |
DE69231826T2 (de) | Vorrichtung zur Erkennung eines sich bewegenden Körpers | |
DE69530566T2 (de) | Hough-Transform mit Fuzzy-Gradient und Wahl | |
EP3529561B1 (de) | System und verfahren zur erzeugung von digitalen strassenmodellen aus luft- oder satellitenbildern und von fahrzeugen erfassten daten | |
EP2028605A1 (de) | Detektionsverfahren für symmetrische Muster | |
DE112009003648B4 (de) | Verfahren und Vorrichtung zur Barrierentrennung | |
DE102018123393A1 (de) | Erkennung von Parkflächen | |
DE102015207903A1 (de) | Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem | |
EP2736017A2 (de) | Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs | |
DE10148060A1 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
DE10161967A1 (de) | Verfahren zum Erfassen einer gekrümmten Fahrspur für ein Straßen-Modellier-System | |
DE102018116922A1 (de) | Verfahren zum Bestimmen einer realen Position eines Anhängerkugelkopfs einer Anhängerkupplung eines Kraftfahrzeugs mittels eines Assistenzsystems des Kraftfahrzeugs, Assistenzsystem sowie Kraftfahrzeug | |
DE102008059551B4 (de) | Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern | |
DE102006007550A1 (de) | Vorrichtung und Verfahren zur Erkennung einer Fahrbahnmarkierung für ein Kraftfahrzeug | |
DE102018121158A1 (de) | Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen | |
DE102022107907A1 (de) | Sensorfusion-basierte dreidimensionale Stixel-Darstellung in einer Ansicht von oben zur Detektion eines allgemeinen Hindernisses in einem Fahrzeug | |
DE19549216C2 (de) | Verfahren zur Bildauswertung | |
DE102020105676A1 (de) | Verfahren zum betreiben eines parkassistenzsystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |