-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung betrifft Fahrzeuge und Verfahren zum Parken von Fahrzeugen.
-
HINTERGRUND
-
Ein Fahrzeug kann ein automatisches Parksystem beinhalten, das das Fahrzeug unabhängig von einer Fahrereingabe von manuellen Steuerungen (z. B. Lenkrad, Gaspedal, Bremspedal usw.) parken kann.
-
KURZDARSTELLUNG
-
Ein Verfahren zum Parken eines Fahrzeugs wird bereitgestellt. Das Verfahren beinhaltet das Erkennen eines Zielobjekts in einem Parkplatz mit einer Kamera und das Vorfahren des Fahrzeugs in den Parkplatz auf der Basis eines Winkels zwischen dem Zielobjekt und einer Senkrechte eines Kamerasichtfelds und eines Abstands von der Kamera zu dem Zielobjekt. Der Abstand von der Kamera zu dem Zielobjekt basiert auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt.
-
Ein Fahrzeug wird bereitgestellt. Das Fahrzeug beinhaltet eine Kamera, die dazu konfiguriert ist, ein Zielobjekt in einem Parkplatz zu erkennen, und einen Controller, der dazu programmiert ist, das Fahrzeug in den Parkplatz auf der Basis eines Gierwinkels des Fahrzeugs und eines Abstands zu dem Zielobjekt als Reaktion auf das Erkennen der Gegenwart des Zielobjekts durch die Kamera vorzufahren. Der Abstand zu dem Zielobjekt basiert auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt.
-
Ein Fahrzeug wird bereitgestellt. Das Fahrzeug beinhaltet eine Kamera, die dazu konfiguriert ist, ein Signal auszugeben, das die Gegenwart eines Zielobjekts in einem Parkplatz anzeigt, und einen Controller, der in Kommunikation mit der Kamera ist. Der Controller ist dazu programmiert, das Fahrzeug in den Parkplatz auf der Basis eines Winkels zwischen dem Zielobjekt und einer Senkrechte eines Kamerasichtfelds und eines Abstands von der Kamera zu dem Zielobjekt als Reaktion auf das Empfangen des Signals von der Kamera, das die Gegenwart des Zielobjekts anzeigt, vorzufahren. Der Abstand von der Kamera zu dem Zielobjekt basiert auf einem Vektor, der eine Abgrenzung des Zielobjekts darstellt, einem Winkel zwischen dem Vektor, der die Abgrenzung des Zielobjekts darstellt, und einer horizontalen Projektion eines ersten Segments der Abgrenzung des Zielobjekts, und einer Position des Zielobjekts in dem Kamerasichtfeld.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist ein schematisches Diagramm, das eine Draufsicht eines Fahrzeugs in Bezug auf einen Parkplatz darstellt;
-
2 stellt ein Sichtfeld einer Kamera, die an dem Fahrzeug angebracht ist, und ein Zielobjekt, das in dem Sichtfeld der Kamera erkannt wird, dar;
-
3 stellt eine Nahansicht des Zielobjekts in dem Sichtfeld der Kamera im Verhältnis zu einem von der Kamera erkannten Flächenschwerpunkt des Zielobjekts und einem erwarteten Flächenschwerpunkt des Zielobjekts dar;
-
4 stellt eine Nahansicht des Zielobjekts in dem Sichtfeld der Kamera im Verhältnis zu einem Vektor, der eine tatsächliche Abgrenzung des Zielobjekts darstellt, und einem Vektor, der eine projizierte Abgrenzung des Zielobjekts entlang der X-Achse darstellt, dar;
-
5 stellt ein Verfahren zum Verwenden einer Regressionsanalyse dar, um den Abstand von der Kamera zu dem Zielobjekt zu bestimmen; und
-
6 stellt ein Verfahren zum Parken eines Fahrzeugs nach Erkennen eines Zielobjekts in einem Parkplatz dar.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Ausführungsformen der vorliegenden Offenbarung sind hierin beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht unbedingt maßstabgetreu; einige Merkmale könnten übertrieben oder minimiert sein, um Einzelheiten bestimmter Komponenten zu zeigen. Folglich sollten hierin offenbarte spezifische strukturelle und funktionelle Einzelheiten nicht als einschränkend betrachtet werden, sondern lediglich als eine repräsentative Grundlage, um einem Fachmann das verschiedenartige Einsetzen der vorliegenden Erfindung zu lehren. Wie Durchschnittsfachmänner verstehen werden, können verschiedene Merkmale, die unter Bezugnahme auf eine beliebige der Figuren dargestellt und beschrieben sind, mit Merkmalen kombiniert werden, die in einer oder mehreren anderen Figuren dargestellt sind, um Ausführungsformen zu ergeben, die nicht ausdrücklich dargestellt oder beschrieben sind. Die Kombinationen von dargestellten Merkmalen stellen repräsentative Ausführungsformen für typische Anwendungen bereit. Verschiedene Kombinationen und Modifizierungen der Merkmale, die mit den Lehren dieser Offenbarung vereinbar sind, könnten jedoch für bestimmte Anwendungen oder Umsetzungen erwünscht sein.
-
Unter Bezugnahme auf 1 ist eine Draufsicht eines Fahrzeugs 10 in Bezug auf einen Parkplatz 12 dargestellt. Das Fahrzeug 10 kann eine Kamera 14 beinhalten, die dazu konfiguriert ist, ein Zielobjekt 16 zu erkennen, das sich in dem Parkplatz 12 befindet. Die Kamera 14 kann auch dazu konfiguriert sein, ein Ausgabesignal, das die Gegenwart des Zielobjekts 16 anzeigt, und Informationen in Bezug auf die Gegenwart des Zielobjekts 16 zu erzeugen. Die Kamera 14 kann eine beliebige Art von Kamera sein, ist vorzugsweise jedoch eine Digitalkamera. Obwohl die Kamera 14 als von dem Vorderwagen des Fahrzeugs 10 abgewandt gezeigt ist, kann sie umpositioniert werden, um von dem Hinterwagen des Fahrzeugs 10 abgewandt zu sein. Die Kamera 14 kann in Kommunikation mit einem Controller 18 sein, der dazu programmiert ist, das Fahrzeug 10 in den Parkplatz 12 auf der Basis eines Gierwinkels Θ (bei dem es sich um einen Winkel zwischen dem Zielobjekt 16 und einer Senkrechte zu dem Kamerasichtfeld handelt) und eines Abstands von der Kamera 14 zu dem Zielobjekt 16 als Reaktion auf das Empfangen des Signals von der Kamera 14, das die Gegenwart des Zielobjekts anzeigt, vorzufahren. Die Senkrechte zu dem Sichtfeld der Kamera kann durch einen ersten Vektor 20 dargestellt werden und der Abstand von der Kamera 14 zu dem Zielobjekt 16 kann durch einen zweiten Vektor 22 dargestellt werden.
-
Obwohl er als ein Controller dargestellt ist, kann der Controller 18 Teil eines größeren Steuersystems sein und kann von verschiedenen anderen Controllern überall im Fahrzeug 10, wie einem Fahrzeugsystem-Controller (vehicle system controller, VSC), gesteuert werden. Es ist folglich zu verstehen, dass der Controller 18 und ein oder mehrere andere Controller zusammenfassend als ein „Controller” bezeichnet werden können, der verschiedene Funktionen des Fahrzeugs 10 und/oder Aktoren als Reaktion auf Signale von verschiedenen Sensoren steuert. Der Controller 18 kann einen Mikroprozessor oder einen Zentralprozessor (CPU) in Kommunikation mit verschiedenen Arten von computerlesbaren Speichergeräten oder -medien beinhalten. Computerlesbare Speichergeräte oder -medien können flüchtigen und nichtflüchtigen Speicher in beispielsweise einem Festwertspeicher (read-only memory, ROM), einem Direktzugriffsspeicher (random-access memory, ROM) und einem Haltespeicher (keepalive memory, KAM) beinhalten. Ein KAM ist ein permanenter oder nichtflüchtiger Speicher, der dazu verwendet werden kann, verschiedene Betriebsvariablen zu speichern, während der CPU abgeschaltet ist. Computerlesbare Speichergeräte oder -medien können unter Verwendung eines beliebigen einer Reihe bekannter Speichergeräte umgesetzt werden, wie PROM (programmable read-only memories, programmierbare Festwertspeicher, EPROM (elektrische PROM), EEPROM (elektrisch löschbare PROM), ein Flash-Speicher oder beliebige andere elektrische, magnetische, optische oder Kombinationsspeichergeräte, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von dem Controller beim Steuern des Fahrzeugs verwendet werden.
-
Nun unter Bezugnahme auf die 2–5 wird eine Reihe von Schritten dazu verwendet, den Gierwinkel Θ und den Abstand von der Kamera 14 zu dem Zielobjekt 16 zu extrapolieren. Die Schritte können von einem Programm durchgeführt werden, das in dem Controller 18 gespeichert ist und das einen Algorithmus oder eine Reihe von Algorithmen beinhaltet, die dazu verwendet werden, den Gierwinkel Θ und den Abstand von der Kamera 14 zu dem Zielobjekt 16 auf der Basis von Informationen, die vom Beobachten des Zielobjekts 16 in dem Sichtfeld der Kamera abgeleitet sind, abzuleiten.
-
Unter Bezugnahme auf 2 ist das Sichtfeld der Kamera 24 dargestellt. Die Kamera 14 erkennt zunächst das Zielobjekt 16. Dies kann unter Verwendung von Objekterkennungssoftware erzielt werden, die dazu konfiguriert ist, spezifische Objekte zu erkennen. Die Objekterkennungssoftware, die in einer Bibliothek in dem Controller 18 oder einer anderen adäquaten Hardware, die einen Datenspeicher enthalten kann, gespeichert sein kann. Als Nächstes der erste Vektor 20, der die Senkrechte zu dem Sichtfeld der Kamera 24 darstellt, und der zweite Vektor 22, der den Abstand von der Kamera 14 zu dem Zielobjekt 16 auf der Basis der Stelle des Zielobjekts 16 im Sichtfeld der Kamera 24 darstellt. In diesem Schritt werden jedoch nur die Richtungen des ersten Vektors 20 und des zweiten Vektors 22 (nicht die Größenordnungen) erzeugt. Der beobachtbare Winkel zwischen dem ersten Vektor 20 und dem zweiten Vektor 22 entspricht dem Gierwinkel Θ.
-
Unter Bezugnahme auf 3 ist eine Nahansicht des Zielobjekts 16 in dem Sichtfeld der Kamera 24 dargestellt. Ein erkannter Flächenschwerpunkt 26 und ein erwarteter Flächenschwerpunkt 28 des Zielobjekts 16 werden erzeugt. Der erwartete Flächenschwerpunkt 28 kann in Bezug auf ein Segment einer Abgrenzung des Zielobjekts 16 auf der Basis einer erwarteten Form des Zielobjekts 16 erzeugt werden. Der erkannte Flächenschwerpunkt 26 kann auf der Basis der Mitte der Segmente, die die Abgrenzung des Zielobjekts 16 definieren, erzeugt werden.
-
In dem dargestellten Beispiel beinhaltet die Abgrenzung des Zielobjekts 16 vier Segmente, eine rechte Seite 30, eine linke Seite 32, eine Oberseite 34 und eine Unterseite 36. Zudem ist die erwartete Form des Zielobjekts 16 in dem dargestellten Beispiel ein Rechteck. Der erwartete Flächenschwerpunkt 28 wird auf der Basis einer Erkennung der rechten Seite 30 der Abgrenzung des Zielobjekts 16 und der erwarteten rechteckigen Form des Zielobjekts 16 erzeugt. Der erkannte Flächenschwerpunkt 26 wird auf der Basis einer Mitte der rechten Seite 30, der linken Seite 32, der Oberseite 34 und der Unterseite 36 der Abgrenzung des Zielobjekts 16 erzeugt. Der Positionsunterschied zwischen dem erwarteten Flächenschwerpunkt 28 und dem erkannten Flächenschwerpunkt 26 definiert eine Verzerrung des Zielobjekts 16 in dem Sichtfeld der Kamera 24 (die Verzerrung des Zielobjekts 16 kann auch als der Versatz bezeichnet werden). Der erkannte Flächenschwerpunkt 26 und der erwartete Flächenschwerpunkt 28 können unter Verwendung von Software erzeugt werden, die geometrische Muster, Formen, Konfigurationen usw. erkennt und zuordnet.
-
Obwohl das Zielobjekt 16 ein Rechteck ist und die rechte Seite 30 der Abgrenzung des Zielobjekts 16 dazu verwendet wird, den erwarteten Flächenschwerpunkt 28 in dem dargestellten Beispiel zu erzeugen, sollte beachtet werden, dass das Zielobjekt 16 aus anderen Formen bestehen kann und der erwartete Flächenschwerpunkt 28 in Bezug auf beliebige der Segmente, die die Abgrenzung des Zielobjekts 16 umfassen, erzeugt werden kann.
-
Ein Beispiel eines Verfahrens, das dazu verwendet werden kann, die Verzerrung (den Versatz) zu quantifizieren, kann Kantenerkennung, Filterung/Schwellenwertbildung, Verwendung einer Hough-Transformation (die auch als eine Hough-Umwandlung bezeichnet werden kann), um einen Winkel von der Senkrechte einer Linie auf einer Ebene zu der horizontalen Achse der Ebene (die Ebene wird hierin im Folgenden als die XY-Ebene bezeichnet und die horizontale Achse wird als die X-Achse bezeichnet) zu berechnen, und Vergleich des Winkels von der Senkrechte der Linie auf der XY-Ebene zu der X-Achse (die unter Verwendung der Hough-Transformation berechnet wurde) mit einem erwarteten Winkel von der Senkrechte eines Segments des Zielobjekts 16 zu der Horizontalen des Sichtfelds der Kamera 24 beinhalten.
-
Kanten des Zielobjekts 16 können unter Verwendung von Kantenerkennungssoftware erkannt werden. Kantenerkennungssoftware wird dazu verwendet, einen Gradienten zu erzeugen, indem die Werte benachbarter Pixel in dem Sichtfeld der Kamera 24 eines Graustufen- oder monochromatischen Bilds verglichen werden. Sobald der Vergleich der benachbarten Pixel in dem Sichtfeld der Kamera 24 vorgenommen wurde, wird ein resultierendes Bild erzeugt, das einen Satz von Unterschieden anzeigt, die die erkannten Kanten darstellen, wobei Kanten mit hohem Kontrast als größere Unterschiede dargestellt werden.
-
Ein Kantenerkennungsalgorithmus kann auf den folgenden Gleichungen (1)–(3) basieren:
Bh(j, k) = A(j, k + 1) – A(j, k – 1) (2) Bv(j, k) = A(j + 1, k) – A(j – 1, k) (3) - A
- ist eine Matrix mit j Zeilen und k Spalten, die ein Graustufen- oder monochromatisches Bild darstellt.
- B
- ist eine Matrix, die den resultierenden Gradienten aus dem Vergleichen der Werte benachbarter Pixel in dem Graustufen- oder monochromatischen Bild darstellt.
-
Die Kantenerkennungssoftware kann auch Filterung/Schwellenwertbildung beinhalten. Ein Schwellenwert kann beispielsweise derart eingestellt werden, dass nur die markantesten Änderungen des resultierenden Gradienten, der durch die Matrix B dargestellt wird, in dem resultierenden Bild gezeigt werden, das die Kanten darstellt, die in dem Graustufen- oder monochromatischen Bild erkannt wurden. Darüber hinaus kann die Matrix A vorverarbeitet werden, um einen spezifischen Farbkanal oder eine spezifische Farbregion von Interesse in dem Sichtfeld einer Kamera zu zeigen.
-
Eine einzige Kante, die unter Verwendung der Kantenerkennungssoftware erkannt wurde, bildet eine Reihe von Punkten entlang einer Linie auf der XY-Ebene in dem Sichtfeld der Kamera
24. Eine Hough-Transformation kann an der Reihe von Punkten (oder Pixeln) durchgeführt werden, die an der erkannten Kante gebildet wurde. Die Hough-Transformation beinhaltet das Erzeugen einer Reihe von Linien durch jeden Punkt (oder eine Gruppe ausgewählter Punkte), der von einer einzigen erkannten Kante gebildet wurde. Jede Linie der Reihe von Linien, die durch jeden Punkt gezeichnet wurden, der von der erkannten Kante gebildet wurde, hängt mit der XY-Ebene durch eine senkrechte Linie zusammen. Als Nächstes werden ein Winkel zwischen der senkrechten Linie und der X-Achse und die Länge der senkrechten Linie von dem Ausgangspunkt zu dem Punkt, an dem die senkrechte Linie die einzige Kante von Interesse kreuzt, erzeugt. Jeder Punkt der erkannten Kante kann dann in einem Hough-Raum als eine sinusförmige Kurve dargestellt werden, die als der Winkel im Vergleich zu dem Abstand der senkrechten Linien von dem Ausgangspunkt zu der einzigen Kante von Interesse gezeichnet wird. Wenn die sinusförmigen Kurven gezeichnet werden, wird die Linie, die durch alle Punkte verläuft, die von einer erkannten Kante auf der XY-Ebene in dem Sichtfeld der Kamera
24 gebildet wurden, durch den Punkt im Hough-Raum dargestellt, wo die sinusförmigen Kurven sich überschneiden. Der Punkt im Raum, wo die sinusförmigen Kurven sich überschneiden, ergibt die Koordinaten (Länge vom Ausgangspunkt zur erkannten Kante, die eine Reihe von Punkten bildet, und Winkel von der X-Achse) einer Linie, die senkrecht zu der erkannten Kante ist, die die Reihe von Punkten bildet. Der Versatz kann dann durch den Unterschied des Winkels an dem Punkt im Hough-Raum, wo die sinusförmigen Kurven sich überschneiden, und des erwarteten Winkels von der Senkrechte eines Segments des Zielobjekts
16 zu der Horizontale des Sichtfelds der Kamera
24 bestimmt werden. Beispiele der Hough-Transformation werden in Hough,
US-Patent Nr. 3,069,654 , und R. O. Duda und P. E. Hart, „Use of the Hough Transformation to Detect Lines and Curves in Pictures”, Communications of the ACM, Bd. 16, Nr. 1, S. 11–15 (Januar 1972), gezeigt, wobei der jeweilige Inhalt dieser hiermit in seiner Gesamtheit durch Bezugnahme hierin aufgenommen ist.
-
Es sollte beachtet werden, dass andere Verfahren, bei denen es sich nicht um die Hough-Transformation handelt, dazu verwendet werden können, den Versatz (die Verzerrung) des Zielobjekts 16 zu erkennen, einschließlich, jedoch nicht darauf beschränkt, die Fourier-Methode, das Projektionsprofilverfahren, das Verfahren des Clusterings nächster Nachbarn und das Korrelationsverfahren.
-
Wenn der Versatz des Zielobjekts 16 bestimmt wird, kann der Vorgang auch die internen Eigenschaften der Linse berücksichtigen, die eine Verzerrung (einschließlich einer radialen und/oder tangentialen Verzerrung) des projizierten Bilds auf der Bildebene der Kamera berücksichtigen. Es gibt mehrere Algorithmen und Gleichungen, die in der Technik bekannt sind, die als hierin offenbart aufgefasst werden sollen und die dazu verwendet werden, eine Verzerrung einer Kameralinse entweder vom Tonnentyp oder vom Kissentyp zu korrigieren.
-
Unter Bezugnahme auf 4 ist eine andere Nahansicht des Zielobjekts 16 in dem Sichtfeld der Kamera 24 dargestellt. Sobald der Versatz des Zielobjekts 16 bestimmt wurde, ist es möglich, die Richtung und die Größenordnung eines Vektors 38 zu bestimmen, der ein Segment der Abgrenzung des Zielobjekts 16 darstellt. Zum Zwecke der Veranschaulichung entspricht der Vektor 38 dem Segment, das die Unterseite 36 des Zielobjekts 16 darstellt. Es ist jedoch zu verstehen, dass das Verfahren dazu verwendet werden kann, die Richtung und die Größenordnung eines Vektors zu bestimmen, der ein beliebiges der Segmente darstellt, die die Abgrenzung des Zielobjekts 16 umfassen, einschließlich der rechten Seite 30, der linken Seite 32, der Oberseite 34 und der Unterseite 36 in diesem Beispiel. Darüber hinaus könnte das Verfahren auf eine beliebige Seite eines Zielobjekts angewendet werden, das eine beliebige bestimmte Form hat. Sobald die Abgrenzung des Zielobjekts 16 durch das oben beschriebene Kantenerkennungsverfahren erkannt wurde, ist es möglich, eine Richtung und eine Größenordnung eines Vektors 40 zu erzeugen, der eine Projektion eines Segments der Abgrenzung des Zielobjekts 16 entlang einer bekannten Achse ist. Der Vektor 40, der eine Projektion eines Segments der Abgrenzung des Zielobjekts 16 ist, kann unter Verwendung von Software erzeugt werden, die geometrische Muster, Formen, Konfigurationen usw. erkennt und zuordnet. Hier entspricht der Vektor 40 einer horizontalen Projektion der Unterseite 36 des Zielobjekts 16. Sobald der Vektor 40, der die horizontale Projektion der Unterseite 36 des Zielobjekts darstellt, erzeugt wurde, wird der vorher bestimmte Versatz (die vorher bestimmte Verzerrung) auf den Vektor 40 angewendet, was zu dem Vektor 38 führt, der einer Richtung und einer Größenordnung des Segments der Abgrenzung des Zielobjekts 16 entspricht, das der Unterseite 36 des Zielobjekts 16 entspricht. Sobald die zwei Vektoren 38, 40 bestimmt wurden, kann dann der Winkel Θ, der sich zwischen den zwei Vektoren 38, 40 befindet, bestimmt werden.
-
Unter Bezugnahme auf 5 ist ein Verfahren zum Verwenden einer Regressionsanalyse dargestellt, um den Abstand von der Kamera 14 zu dem Zielobjekt 16 zu bestimmen. Das Verfahren zum Verwenden einer Regressionsanalyse beinhaltet das Eingeben einer Reihe von Variablen in den Regressionsanalysenalgorithmus 42. Die Reihe von Variablen kann eine erste Eingabe 44, die dem Vektor 38 entspricht, der die Richtung und die Größenordnung eines Segments der Abgrenzung des Zielobjekts 16 darstellt, eine zweite Eingabe 46, die dem Winkel entspricht, der sich zwischen den Vektoren 38, 40 befindet, und eine dritte Eingabe 48, die der Position des Zielobjekts 16 in dem Sichtfeld der Kamera 24 entspricht, beinhalten. Die Ausgabe 50 des Regressionsanalysenalgorithmus 42 entspricht einem Abstand von der Kamera 14 zu dem Zielobjekt 16. Der Abstand von der Kamera 14 zu dem Zielobjekt entspricht der Größenordnung des zweiten Vektors 22, der in 1 gezeigt ist. In Verbindung mit dem Winkel Θ, bei dem es sich um einen Winkel zwischen dem Zielobjekt 16 und dem ersten Vektor 20 handelt, der die Senkrechte zu dem Sichtfeld der Kamera darstellt, sind jetzt die Richtung und die Größenordnung des zweiten Vektors 22 bekannt. Wenn die Kamera 14 sich auf einer bekannten Höhe über der Straßenoberfläche befindet, kann der Satz des Pythagoras angewendet werden (wobei der zweite Vektor 22 die Hypotenuse des rechten Dreiecks umfasst), um den Abstand entlang einer Straßenoberfläche (der einem horizontalen Abstand entsprechen kann) von der Kamera 14 zu dem Zielobjekt 16 zu bestimmen.
-
Der Regressionsanalysenalgorithmus 42 kann in dem Vergleichen neuer Daten mit zuvor akkumulierten Daten (die auch als Schulungsdaten bezeichnet werden können) bestehen. Die Schulungsdaten werden dazu genutzt, eine Karte von Eingaben und Ausgaben zu erzeugen, und sollten derart entworfen sein, dass neue Daten im Vergleich zu den Schulungsdaten mit minimalem Fehler skalieren. Hier können die Schulungsdaten und die neuen Daten eine Pixelstelle in dem Sichtfeld der Kamera 24 einem Abstand von der Kamera 14 zuordnen. Sobald die Richtung und die Größenordnung des Vektors 38, der ein Segment der Abgrenzung des Zielobjekts 16 darstellt, bestimmt wurden, ist es folglich möglich, den Abstand zu dem Vektor 38 (d. h. den Abstand von der Kamera 14 zu dem Zielobjekt 16) durch Vergleichen der Pixelstelle des Vektors 38 zu den zuvor gelernten Daten, die eine Pixelstelle und einen Abstand darstellen, zu bestimmen.
-
Der Regressionsanalysenalgorithmus 42 kann aus einer Hypothesefunktion, die dazu verwendet wird, die Datenpunkte zu kartieren, und einer Kostenfunktion, die dazu verwendet wird, die Genauigket der Hypothesefunktion zu errechnen, bestehen. Beispiele des Regressionsanalysealgorithmus 42 können lineare Modelle, polynomiale Modelle, logistische Modelle und neurale Netze beinhalten, sind jedoch nicht darauf beschränkt.
-
Eine lineare Regressionsanalyse kann auf der folgenden Hypothesenfunktionsgleichung (4) und der folgenden Kostenfunktionsgleichung (5) basieren: H(θ) = θTx = θ0 + θ1·x (4) J(θ) = 1 / 2·DatensatzΣ Datensatz / i(Hθ(xi) – yi)2 (5)
-
Eine polynomiale Regressionsanalyse kann auf der folgenden Hypothesenfunktionsgleichung (6) und der folgenden Kostenfunktionsgleichung (7) basieren: H(θ) = θTx = θ0 + θ1·x + θ2x2 + θ3·x3 (6) J(θ) = 1 / 2·DatensatzΣ Datensatz / i(Hθ(xi) – yi)2 + λΣ polynomialeTerme / iθ 2 / i (7)
-
Eine logistische Regressionsanalyse kann auf der folgenden Hypothesenfunktionsgleichung (8) und der folgenden Kostenfunktionsgleichung (9) basieren:
J(θ) = 1 / DatensatzΣ Datensatz / iyilog(hθ(xi)) + (1 – yi)log(1 – hθ(xi)) (9)
-
Unter Bezugnahme auf 6 ist ein Verfahren 100 zum Parken eines Fahrzeugs nach Erkennen eines Zielobjekts in einem Parkplatz dargestellt. Der erste Schritt 102 in dem Verfahren 100 beinhaltet das Erkennen des Zielobjekts 16 in dem Parkplatz 12 mit der Kamera 14, die an dem Fahrzeug 10 angebracht ist. Sobald das Zielobjekt 16 erkannt wurde, geht das Verfahren 100 zu Schritt 104 weiter, wo der Gierwinkel Θ zwischen der Senkrechte zu dem Sichtfeld der Kamera und dem Zielobjekt 16 bestimmt wird. Das Verfahren 100 geht dann zu Schritt 106 weiter, wo ein Abstand von der Kamera 14 zu dem Zielobjekt 16 auf der Basis des oben in Bezug auf die 2–5 beschriebenen Verfahrens bestimmt wird. Das Fahrzeug 10 kann dann in Schritt 108 in den Parkplatz 12 auf der Basis des Gierwinkels Θ in dem Abstand von der Kamera 14 zu dem Zielobjekt 16 vorgefahren werden.
-
Die in der Spezifikation verwendeten Wörter sind vielmehr beschreibende als einschränkende Wörter und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Sinn und Schutzumfang der Offenbarung abzuweichen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen der Erfindung zu bilden, die nicht ausdrücklich beschrieben oder dargestellt sind. Während verschiedene Ausführungsformen möglicherweise als Vorteile bereitstellend oder gegenüber anderen Ausführungsformen oder Umsetzungen nach dem Stand der Technik in Bezug auf ein oder mehrere gewünschte Charakteristika bevorzugt beschrieben wurden, erkennen Durchschnittsfachmänner, dass bei einem oder mehreren Merkmalen oder Charakteristika ein Kompromiss geschlossen werden kann, um gewünschte Gesamtsystemattribute zu erzielen, die von der spezifischen Anwendung und Umsetzung abhängen. Diese Attribute können Kosten, Festigkeit, Dauerhaftigkeit, Lebenszykluskosten, Marktfähigkeit, Aussehen, Verpackung, Größe, Bedienbarkeit, Gewicht, Herstellbarkeit, Einbaufreundlichkeit usw. beinhalten, sind jedoch nicht darauf beschränkt. Dabei liegen Ausführungsformen, die als weniger wünschenswert als andere Ausführungsformen oder Umsetzungen nach dem Stand der Technik in Bezug auf ein oder mehrere Charakteristika beschrieben wurden, nicht außerhalb des Schutzumfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-