DE102019109937A1 - Messungen über Fahrzeugsensoren - Google Patents

Messungen über Fahrzeugsensoren Download PDF

Info

Publication number
DE102019109937A1
DE102019109937A1 DE102019109937.4A DE102019109937A DE102019109937A1 DE 102019109937 A1 DE102019109937 A1 DE 102019109937A1 DE 102019109937 A DE102019109937 A DE 102019109937A DE 102019109937 A1 DE102019109937 A1 DE 102019109937A1
Authority
DE
Germany
Prior art keywords
distance
edges
image
vehicle
computing platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019109937.4A
Other languages
English (en)
Inventor
Danielle ROSENBLATT
Hamid M. Golgiri
Anthony MELATTI
Patrick Lawrence Jackson Van Hoecke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102019109937A1 publication Critical patent/DE102019109937A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Diese Offenbarung stellt Messungen über Fahrzeugsensoren bereit. Ein System für ein Fahrzeug umfasst eine Kamera, die dazu konfiguriert ist, ein Bild eines Vorwärtswegs des Fahrzeugs aufzunehmen; einen Bildschirm, der dazu konfiguriert ist, das Bild anzuzeigen; und einen Prozessor, der dazu konfiguriert ist, als Reaktion auf eine Eingabe in den Bildschirm zwei Kanten von mindestens einem Objekt des Bildes zu identifizieren, einen ersten Abstand zwischen den zwei Kanten zu messen und den ersten Abstand auszugeben.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft im Allgemeinen Abstandsmesssysteme. Insbesondere betrifft die vorliegende Offenbarung ein System für einen Fahrzeugnutzer, um einen Abstand zwischen zwei Objekten zu messen.
  • ALLGEMEINER STAND DER TECHNIK
  • Wenn ein Fahrzeug auf engem Raum betrieben wird, ist der Fahrer oder Bediener des Fahrzeugs womöglich nicht in der Lage, einzuschätzen, ob das Fahrzeug passt. Wenn beispielsweise ein Fahrzeug zu einer engen Gasse fährt, ist der Fahrer womöglich nicht in der Lage, zu identifizieren, ob die Gasse breit genug ist, damit das Fahrzeug sicher dadurch passt. Oftmals muss der Fahrer aus dem Fahrzeug steigen, um die Situation ferner zu beurteilen, was unpraktisch ist. Ähnliche Situationen beinhalten auch das Betreiben des Fahrzeugs in einer Parklücke oder entlang einer Straße mit naheliegenden Hindernissen.
  • KURZDARSTELLUNG
  • In einer oder mehreren veranschaulichenden Ausführungsformen umfasst ein System für ein Fahrzeug eine Kamera, die dazu konfiguriert ist, ein Bild eines Vorwärtswegs des Fahrzeugs aufzunehmen; einen Bildschirm, der dazu konfiguriert ist, das Bild anzuzeigen; und einen Prozessor, der dazu konfiguriert ist, als Reaktion auf eine Eingabe in den Bildschirm zwei Kanten von mindestens einem Objekt des Bildes zu identifizieren, einen ersten Abstand zwischen den zwei Kanten zu messen und den ersten Abstand auszugeben.
  • In einer oder mehreren veranschaulichenden Ausführungsformen umfasst ein Verfahren Identifizieren von zwei Kanten von mindestens einem Objekt, das auf einem Bild angezeigt wird, das von einer Kamera aufgenommen wurde, als Reaktion auf eine Eingabe; Messen einer ersten Tiefe zwischen der Kamera und dem mindestens einen Objekt; und Berechnen eines ersten Abstands zwischen den zwei Kanten unter Verwendung der ersten Tiefe durch Bildverarbeitung.
  • Figurenliste
  • Für ein besseres Verständnis der Erfindung und um zu zeigen, wie diese umgesetzt werden kann, werden nun Ausführungsformen davon ausschließlich als nicht einschränkende Beispiele beschrieben, wobei auf die beigefügten Zeichnungen Bezug genommen wird, in denen gilt:
    • 1 veranschaulicht eine beispielhafte Blockstruktur eines Fahrzeugsystems einer Ausführungsform der vorliegenden Offenbarung;
    • 2 veranschaulicht ein beispielhaftes Ablaufdiagramm einer Ausführungsform der vorliegenden Offenbarung;
    • 3 veranschaulicht ein beispielhaftes Ablaufdiagramm zur Kantendetektion und Abstandsmessung einer Ausführungsform der vorliegenden Offenbarung;
    • 4 veranschaulicht ein beispielhaftes Bilddiagramm einer Ausführungsform der vorliegenden Offenbarung; und
    • 5 veranschaulicht ein beispielhaftes Bilddiagramm einer anderen Ausführungsform der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Nach Bedarf werden in der vorliegenden Schrift detaillierte Ausführungsformen der vorliegenden Erfindung offenbart; dabei versteht es sich jedoch, dass die offenbarten Ausführungsformen lediglich beispielhaft für die Erfindung sind, die in verschiedenen und alternativen Formen ausgeführt sein kann. Die Figuren sind nicht zwingend maßstabsgetreu; einige Merkmale können vergrößert oder verkleinert dargestellt sein, um Details bestimmter Komponenten zu zeigen. Demnach sind hierin offenbarte konkrete strukturelle und funktionelle Details nicht als einschränkend auszulegen, sondern lediglich als repräsentative Grundlage, um einen Fachmann die vielfältige Verwendung der vorliegenden Erfindung zu lehren.
  • Die vorliegende Offenbarung stellt im Allgemeinen eine Vielzahl von Schaltungen oder anderen elektrischen Vorrichtungen bereit. Alle Bezugnahmen auf die Schaltungen und anderen elektrischen Vorrichtungen und die Funktionalität, die jeweils durch diese bereitgestellt wird, sollen nicht darauf beschränkt sein, dass sie lediglich das hierin Veranschaulichte und Beschriebene umschließen. Wenngleich den verschiedenen Schaltungen oder anderen elektrischen Vorrichtungen bestimmte Kennzeichnungen zugewiesen sein können. Können derartige Schaltungen und andere elektrische Vorrichtungen auf Grundlage der konkreten Art der elektrischen Umsetzung, die gewünscht ist, auf beliebige Weise miteinander kombiniert und/oder voneinander getrennt sein. Es liegt auf der Hand, dass alle hierin offenbarten Schaltungen oder anderen elektrischen Vorrichtungen eine beliebige Anzahl von Mikroprozessoren, integrierten Schaltungen, Speichervorrichtungen (z. B. FLASH, Direktzugriffsspeicher (random access memory - RAM), Festwertspeicher (read only memory - ROM), elektrisch programmierbaren Festwertspeicher (electrically programmable read only memory - EPROM), elektrisch löschbaren programmierbaren Festwertspeicher (electrically erasable programmable read only memory - EEPROM) oder andere geeignete Varianten davon) und Software beinhalten können, die miteinander zusammenwirken, um den/die hierin offenbarten Vorgang/Vorgänge durchzuführen. Zusätzlich kann eine beliebige oder können mehrere beliebige der elektrischen Vorrichtungen dazu konfiguriert sein, ein Computerprogramm auszuführen, das in einem nichttransitorischen computerlesbaren Medium umgesetzt ist, das dazu programmiert ist, eine beliebige Anzahl der offenbarten Funktionen durchzuführen.
  • Die vorliegende Offenbarung schlägt unter anderem ein Fahrzeugsystem zum Messen eines Abstands zwischen zwei Kanten vor. Konkret schlägt die vorliegende Offenbarung ein System vor, das einem Fahrzeugnutzer/-insassen ermöglicht, zwei Kanten auszuwählen, die auf einer Anzeige visualisiert sind, und den Abstand zwischen den zwei Kanten zu messen. Weitere Aspekte der Offenbarung werden in dieser Schrift ausführlich erörtert.
  • Unter Bezugnahme auf 1 ist eine beispielhafte Blockstruktur eines Fahrzeugsystems 100 einer Ausführungsform der vorliegenden Offenbarung veranschaulicht. Bei dem Fahrzeug 102 kann es sich um verschiedene Arten von Automobilen, Softroadern (crossover utility vehicle - CUV), Geländewagen (sport utility vehicle - SUV), Trucks, Wohnmobilen (recreational vehicle - RV), Booten, Flugzeugen oder anderen mobilen Maschinen zum Befördern von Personen oder Gütern handeln. In vielen Fällen kann das Fahrzeug 102 durch eine Brennkraftmaschine angetrieben werden. Als eine weitere Möglichkeit kann das Fahrzeug 102 ein Hybridelektrofahrzeug (hybrid electric vehicle - HEV) sein, das sowohl durch eine Brennkraftmaschine als auch einen oder mehrere Elektromotoren angetrieben wird, wie etwa ein Serienhybrid-Elektrofahrzeug (series hybrid electric vehicle - SHEV), ein Parallelhybrid-Elektrofahrzeug (parallel hybrid electrical vehicle - PHEV) oder ein Parallel-/Serienhybrid-Elektrofahrzeug (parallel/series hybrid electric vehicle - PSHEV), ein Boot, ein Flugzeug oder eine andere mobile Maschine zum Befördern von Personen oder Gütern. Das Fahrzeug 102 kann ein Telematiksystem oder eine andere Rechenplattform 104, wie etwas das SYNC-System, beinhalten, das durch The Ford Motor Company in Dearborn, Michigan, hergestellt wird. Es ist anzumerken, dass es sich bei dem veranschaulichten System 100 lediglich um ein Beispiel handelt und mehr, weniger und/oder anders angeordnete Elemente verwendet werden können.
  • Wie in 1 veranschaulicht, kann die Rechenplattform 104 einen oder mehrere Prozessoren 112 beinhalten, die dazu konfiguriert sind, Anweisungen, Befehle und andere Routinen durchzuführen, um die hier beschriebenen Prozesse zu unterstützen. Beispielsweise kann die Rechenplattform 104 dazu konfiguriert sein, Anweisungen von Fahrzeuganwendungen 108 auszuführen, um Merkmale wie etwa Navigation, Satellitenradioentschlüsselung und Bildverarbeitung bereitzustellen. Derartige Anweisungen und andere Daten können in nichtflüchtiger Weise unter Verwendung vielfältiger Arten computerlesbarer Speichermedien 106 aufbewahrt werden. Das computerlesbare Medium 106 (auch als prozessorlesbares Medium oder Speicher bezeichnet) beinhaltet ein beliebiges nichttransitorisches Medium (z. B. physisches Medium), das an der Bereitstellung von Anweisungen oder anderen Daten beteiligt ist, die durch den Prozessor 112 der Rechenplattform 104 gelesen werden können. Computerausführbare Anweisungen können von Computerprogrammen kompiliert oder ausgelegt werden, die unter Verwendung vielfältiger Programmiersprachen und/oder -techniken, einschließlich unter anderem und entweder allein oder in Kombination Java, C, C++, C#, Objective C, Fortran, Pascal, Java Script, Python, Perl und PL/SQL, erstellt wurden.
  • Die Rechenplattform 104 kann mit verschiedenen Merkmalen bereitgestellt sein, die es den Fahrzeuginsassen/-benutzern ermöglichen, über eine Schnittstelle mit der Rechenplattform 104 zu interagieren. Beispielsweise kann die Rechenplattform 104 Eingaben von einer Eingabevorrichtung 128 mittels Steuerungen 126 einer Mensch-Maschine-Schnittstelle (humanmachine interface - HMI) empfangen, die dazu konfiguriert sind, eine Interaktion zwischen Insassen und Fahrzeug 102 bereitzustellen. Als ein Beispiel kann die Eingabevorrichtung 128 eine oder mehrere Tasten, ein Touchpad, einen Drehknopf, einen Touchscreen oder andere Hardware mit Eingabefähigkeit beinhalten, die dazu konfiguriert ist, Funktionen an der Rechenplattform 104 über die HMI-Steuerungen 126 aufzurufen.
  • Die Rechenplattform 104 kann zudem eine oder mehrere Anzeigen 116 antreiben, die dazu konfiguriert sind, über eine Videosteuerung 114 visuelle Ausgaben für Fahrzeuginsassen bereitzustellen, oder anderweitig mit diesen kommunizieren. In einigen Fällen kann die Anzeige 116 in die Eingabevorrichtung 128 als ein Touchscreen integriert sein, der ferner dazu konfiguriert ist, Berührungseingaben des Benutzers über die Videosteuerung 114 zu empfangen, während die Anzeige 116 in anderen Fällen lediglich eine Anzeige ohne die Möglichkeit zur Berührungseingabe sein kann. Die Rechenplattform 104 kann zudem einen oder mehrere Lautsprecher 122 antreiben, die dazu konfiguriert sind, über eine Audiosteuerung 120 Audioausgaben für Fahrzeuginsassen bereitzustellen, oder anderweitig mit diesen kommunizieren.
  • Die Rechenplattform 104 kann auch mit Navigations- und Routenplanungsfunktionen durch eine Navigationssteuerung 124 versehen werden, die dazu konfiguriert ist, Navigationsrouten als Reaktion auf eine Benutzereingabe z. B. über die HMI-Steuerungen 126 zu planen und geplante Routen und Anweisungen über den Lautsprecher 122 und die Anzeige 116 auszugeben. Positionsdaten, die zur Navigation benötigt werden, können von einer Steuerung des globalen Positionssystems (GPS) 124, die dazu konfiguriert ist, mit mehreren GPS-Satelliten zu kommunizieren und die Position des Fahrzeugs 102 zu berechnen, gesammelt werden. Navigationssoftware kann im Speicher 106 als Teil der Fahrzeuganwendungen 108 gespeichert werden. Kartendaten, die zur Routenplanung verwendet werden, können im Speicher 106 als Teil der Fahrzeugdaten 110 gespeichert werden. Zum Beispiel können die Kartendaten Zustände einer bestimmten Straße, wie etwa die Länge und Breite einer Gasse, beinhalten.
  • Die Rechenplattform 104 kann ferner dazu konfiguriert sein, über ein oder mehrere fahrzeuginterne Netzwerke 170 mit verschiedenen Sensoren 180 zu kommunizieren. Das fahrzeuginterne Netzwerk 170 kann als einige Beispiele eines oder mehrere von einem Controller Area Network (CAN), einem Ethernet-Netzwerk und einer mediengebundenen Systemübertragung (media oriented system transport - MOST) beinhalten, ist aber nicht auf diese beschränkt.
  • Die Sensoren 180 können eine Kamera 182 beinhalten, die dazu konfiguriert ist, Bilder nahe dem Fahrzeug 102 aufzunehmen. Als ein Beispiel kann sich die Kamera 182 hinter der Windschutzscheibe des Fahrzeugs 102 befinden, die nach vorn gerichtet ist, um ein Bild vor dem Fahrzeug 102 aufzunehmen. Alternativ kann die nach vorn gerichtete Kamera 182 an anderer Stelle installiert werden, wie etwa auf dem Kühlergrill oder innerhalb des Motorraums des Fahrzeugs 102. Zusätzlich oder alternativ kann sich die Kamera 182 an der Rückseite des Fahrzeugs 102 befinden, um als eine Rückfahrkamera zu dienen. Die Kamera 182 kann dazu konfiguriert sein, sich automatisch einzuschalten, z. B. als Reaktion auf den Start/die Aktivierung des Fahrzeugs 102. Alternativ kann die Kamera 182 manuell über die Eingabevorrichtung 128 mittels der HMI-Steuerungen 126 ein-/ausgeschaltet werden. Die Bilddaten, die von der Kamera 182 aufgenommen wurden, können über das fahrzeuginterne Netzwerk 170 der Rechenplattform 104 zugeführt und über die Videosteuerung 114 auf der Anzeige 116 angezeigt werden, was dem Benutzer/Insassen ermöglicht, Objekt vor und/oder hinter dem Fahrzeug 102 zu sehen.
  • Die Sensoren 180 können ferner einen Ultraschallsensor 184, einen Radarsensor 186 und einen Lidarsensor 188 beinhalten, von denen alle dazu konfiguriert sind, Objekte nahe dem Fahrzeug 102 zu detektieren und zu messen. Einzelheiten zu diesen Sensoren sind nachfolgend beschrieben.
  • Die Rechenplattform 104 kann dazu konfiguriert sein, über eine drahtlose Verbindung 172 mit einer mobilen Vorrichtung 140 des Fahrzeuginsassen/-nutzers zu kommunizieren. Alternativ kann die mobile Vorrichtung 1440 über eine drahtgebundene Verbindung (nicht gezeigt) mit der Rechenplattform 104 verbunden sein. Bei der mobilen Vorrichtung 140 kann es sich um eine beliebige von verschiedenen Arten tragbarer Rechenvorrichtungen handeln, wie etwa Mobiltelefone, Tablet-Computer, Smartwatches, Laptop-Computer, tragbare Musikabspielvorrichtungen oder andere Vorrichtungen, die zur Kommunikation mit der Rechenplattform 104 in der Lage sind. In vielen Beispielen kann die Rechenplattform 104 einen drahtlosen Sendeempfänger 132 beinhalten, der in Kommunikation mit einer WLAN-Steuerung 130, einer Bluetooth-Steuerung 134 und anderen Steuerungen steht, wie etwa einen Zigbee-Sendeempfänger, einen IrDA-Sendeempfänger, einen RFID-Sendeempfänger (nicht gezeigt), der dazu konfiguriert ist, mit einem kompatiblen drahtlosen Sendeempfänger 162 der mobilen Vorrichtung 140 zu kommunizieren.
  • Die mobile Vorrichtung 140 kann mit einem Prozessor 148 versehen sein, der dazu konfiguriert ist, Anweisungen, Befehle und andere Routinen durchzuführen, um die Prozesse, wie etwa Navigation, Anrufe, drahtlose Kommunikation und Multimedia-Verarbeitung, zu unterstützen. Zum Beispiel kann der Prozessor 148 dazu konfiguriert sein, Anweisungen von mobilen Anweisungen 144 auszuführen, um die vorstehenden Merkmale und Funktionen bereitzustellen.
  • Die mobile Vorrichtung 140 kann mit einem drahtlosen Sendeempfänger 162 versehen sein, der mit einer WiFi-Steuerung 158, einer Bluetooth-Steuerung 160 und anderen Kommunikationssteuerungen (nicht gezeigt) steht, die dazu konfiguriert sind, mit dem drahtlosen Sendeempfänger 132 der Rechenplattform 104 über eine drahtlose Verbindung 172 zu kommunizieren. Alternativ kann die mobile Vorrichtung 140 über eine drahtgebundene Verbindung (nicht gezeigt) mit der Rechenplattform 104 verbunden sein.
  • Die mobile Vorrichtung 140 kann mit verschiedenen Merkmalen versehen sein, die den Nutzern ermöglichen, mit der mobilen Vorrichtung 140 eine Schnittstelle zu bilden. Zum Beispiel kann die mobile Vorrichtung 140 eine Eingabe von HMI-Steuerungen 156 empfangen, die dazu konfiguriert sind, eine Benutzerinteraktion mit der mobilen Vorrichtung 140 bereitzustellen. Zum Beispiel kann die mobile Vorrichtung 140 dazu konfiguriert sein, über eine Videosteuerung 150 mit einem Touchscreen 152 eine Schnittstelle zu bilden, um Interaktionen mit dem Benutzer bereitzustellen.
  • Die mobile Vorrichtung 140 kann auch mit Navigations- und Routenplanungsfunktionen durch eine Navigationssteuerung 164 versehen sein, die dazu konfiguriert ist, Navigationsrouten als Reaktion auf eine Benutzereingabe z. B. über den Touchscreen 152 mittels der HMI-Steuerungen 156 zu planen und geplante Routen und Anweisungen über den Anzeige-Touchscreen 152 auszugeben. Positionsdaten, die zur Navigation benötigt werden, können von einer GPS-Steuerung 154, die dazu konfiguriert ist, mit mehreren GPS-Satelliten zu kommunizieren und die Position der mobilen Vorrichtung 140 zu berechnen, gesammelt werden. Navigationssoftware kann im Speicher 142 als Teil der mobilen Anwendungen 144 gespeichert werden. Kartendaten, die zur Routenplanung verwendet werden, können im Speicher 142 als Teil der mobilen Daten 146 gespeichert werden. Zum Beispiel können die Kartendaten einen Zustand einer bestimmten Straße, die von dem Fahrzeug 102 zu überqueren ist, beinhalten, wobei der Zustand Informationen beinhaltet, wie etwa die Länge und Breite einer Gasse.
  • 2 veranschaulicht ein beispielhaftes Ablaufdiagramm 200 einer Ausführungsform der vorliegenden Offenbarung. Bei Vorgang 202 empfängt die Rechenplattform 104 ein Bild, das von der Kamera 182 aufgenommen wurde, über das fahrzeuginterne Netzwerk 170 und zeigt das Bild mittels der Videosteuerung 114 auf der Anzeige 116 an. Als ein Beispiel kann es sich bei der Kamera 182 um eine nach vorn gerichtete Kamera handeln, die dazu konfiguriert ist, Bildvideo bei einer spezifischen Bildwechselfrequenz (z. B. 30 fps) aufzunehmen und das Video in Echtzeit zur Anzeige zur Rechenplattform 104 auszugeben. Zusätzlich oder alternativ kann die Rechenplattform 104 dazu konfiguriert sein, das Bildvideo über die drahtlose Verbindung 172 zur Anzeige zur mobilen Vorrichtung 140 auszugeben. Zusätzlich kann das von der Kamera 182 aufgenommene Bildvideo im Speicher 106 der Rechenplattform 104 und/oder Speicher 142 der mobilen Vorrichtung 140 für eine vorbestimmte Zeitdauer für zukünftige Bezugnahmen gespeichert werden.
  • Bei Vorgang 204 empfängt die Rechenplattform 104 eine Eingabe, die für die Absicht eines Benutzers, einen Abstand auf dem auf der Anzeige 116 angezeigten Bild zu messen, hinweisend ist. Die Benutzereingabe kann von der Eingabevorrichtung 128 über die HMI-Steuerungen 126 empfangen werden. Als ein Beispiel kann in die Anzeige 116 eine Touchscreen-Fähigkeit integriert sein und der Benutzer kann die Touchscreen-Fähigkeit verwenden, um die Eingabe durchzuführen, wie etwa durch Drücken auf ein Symbol, das auf dem Touchscreen angezeigt wird. Zusätzlich oder alternativ, wenn der Benutzer dies vorzieht, kann er die Eingabe unter Verwendung des Touchscreens 152 der mobilen Vorrichtung, die über die drahtlose Verbindung 172 mit der Rechenplattform 104 verbunden ist, durchführen.
  • Bei Vorgang 206 empfängt die Rechenplattform eine Eingabe, die zwei Kanten identifizieren, zwischen denen der Benutzer den Abstand messen möchte. Zum Beispiel kann die Eingabe von der Anzeige 116 empfangen werden, in die eine Touchscreen-Fähigkeit integriert ist. Einzelheiten zum Vorgang 206 werden unter Bezugnahme auf die 3 und 4 unten erörtert. Als ein allgemeines Beispiel kann die Rechenplattform 104 dazu konfiguriert sein, den Benutzer dazu zu motivieren, auf die zwei Kanten zu tippen, die er messen möchte, und die zwei Kanten als Reaktion auf die Benutzereingabe bei Vorgang 208 identifizieren. Zum Beispiel können die zwei Kanten unter Verwendung von Bildverarbeitungsalgorithmen identifiziert werden. Zusätzlich oder alternativ kann die Rechenplattform Signale verwenden, die von anderen Sensoren 180 empfangen wurden, um die zwei Kanten zu identifizieren, die der Benutzer auswählen möchte.
  • Bei Vorgang 210 misst die Rechenplattform 104 den Abstand zwischen den zwei Kanten. Einzelheiten zum Vorgang 210 werden unter Bezugnahme auf die 3 und 4 unten erörtert. Als ein allgemeines Beispiel kann die Rechenplattform 104 dazu konfiguriert sein, den Abstand der zwei Kanten durch Analysieren des aufgenommenen Bildes der Kamera 182 unter Verwendung von Bildverarbeitungsalgorithmen, die als Teil der Fahrzeuganwendung 108 gespeichert sind, zu bestimmen. Die Bildverarbeitungsalgorithmen können dazu konfiguriert sein, Kantendetektion unter Verwendung verschiedener Charakteristika des Bildes durchzuführen, wie etwa eine oder mehrere von Unregelmäßigen bei der Tiefe, Unregelmäßigkeit bei der Oberflächenausrichtung, Veränderungen der Materialeigenschaften und Variationen der Szenenbeleuchtung in einem Bild. Kantendetektionsalgorithmen können suchbasierte Ansätze unter Verwendung von ableitenden Ausdrücken erster Ordnung von dem Bild oder nulldurchgangbasierte Ansätze unter Verwendung von ableitenden Ausdrücken zweiter Ordnung, die anhand des Bildes berechnet wurden, beinhalten. Zusätzlich oder alternativ kann die Rechenplattform Signale verwenden, die von anderen Sensoren 180 empfangen wurden, um den Abstand zwischen den identifizierten zwei Kanten zu messen. Zusätzlich, wenn die Rechenplattform 104 bestimmt, dass der Benutzer die Breite einer Gasse messen möchte, und die Daten für solch eine Gasse als Teil der Kartendaten 110, die im Speicher 106 gespeichert sind, verfügbar sind, können solche Daten verwendet werden, um dem Benutzer die Breiteninformationen bereitzustellen.
  • Bei Vorgang 212 gibt die Rechenplattform 104 den Messabstand aus. Zum Beispiel kann die Rechenplattform 104 dazu konfiguriert sein, den gemessenen Abstand unter Verwendung der Anzeige 116 mittels der Videosteuerung 114 und/oder des Lautsprechers 122 mittels der Audiosteuerung 120 auszugeben. Zusätzlich oder alternativ kann die Rechenplattform 104 dazu konfiguriert sein, den gemessenen Abstand zur mobilen Vorrichtung 140 zur Ausgabe zu senden.
  • Bei Vorgang 214 vergleicht die Rechenplattform 104 den gemessenen Abstand mit einem voreingestellten Wert, wie etwa der Breite des Fahrzeugs 102, um zu bestimmen, ob es sicher ist, zwischen den zwei identifizierten Kanten hindurchzufahren, wie etwa eine enge Gasse. Bei Vorgang 216 gibt die Rechenplattform 104 das Vergleichsergebnis aus, um den Benutzer des Fahrzeugs 102 zu informieren.
  • Die Durchführung des Prozesses 200 kann auf verschiedene Situationen angewendet werden. In einem Beispiel fährt das Fahrzeug 102 vor eine enge Gasse und der Benutzer ist sich nicht sicher, ob die Gasse breit genug ist, damit das Fahrzeug 102 hindurchpasst. Die Kamera 182 wird aktiviert und nimmt das Bild der Gasse vor dem Fahrzeug 102 auf. Das Bild wird zur der Rechenplattform 104 zur Anzeige auf der Anzeige 116 übertragen. Dadurch, dass er das Bild der Gasse sieht, das auf der Anzeige 116 angezeigt wird, nimmt der Benutzer eine Eingabe in die Rechenplattform 104 mittels der HMI-Steuerungen 126 vor, um das Messen der Breite der Gasse zu beginnen, um zu bestimmen, ob das Fahrzeug 102 hindurchfahren kann. Als Reaktion darauf startet die Rechenplattform 104 die Messsoftware als Teil der Fahrzeuganwendung 108, die im Speicher 106 gespeichert ist. Wenn das Fahrzeug 102 mit anderen Sensoren 180 ausgestattet ist, wie etwa dem Ultraschallsensor 184, dem Radarsensor 186 und/oder dem Lidarsensor 188, aktiviert die Rechenplattform 104 ferner diese Sensoren, um zusätzliche Daten zu sammeln.
  • Als nächstes wählt der Benutzer zwei Kanten aus, die die Breite der Gasse definieren, um sie zu messen. Wenngleich die Rechenplattform 104 dazu konfiguriert sein kann, die Kanten der Gasse automatisch zu identifizieren und die Breite zu messen, kann die Rechenplattform 104 für eine bessere Identifizierung und genauere Messung den Benutzern motivieren, dies manuell über die HMI-Steuerungen 126 durchzuführen. Zum Beispiel kann eine Nachricht, wie etwa „Bitte tippen Sie auf zwei Kanten auf dem Bildschirm, um die Messung durchzuführen.“, auf der Anzeige 116 angezeigt oder über den Lautsprecher 122 ausgestrahlt werden, vorausgesetzt, dass die Anzeige 116 eine Touchscreen-Fähigkeit aufweist. Nach der Anweisung kann der Benutzer auf die linke und rechte Kante der Gasse tippen. Wenngleich es möglich ist, dass die Rechenplattform die Kanten auf einem sich bewegenden Video identifiziert, während sich das Fahrzeug 102 noch bewegt, wird das Fahrzeug 102 für die beste Identifizierung und besten Messergebnisse angehalten und die Eingabe erfolgt auf einem Standbild. Alternativ kann das Bild zu einer mobilen Vorrichtung 140 des Benutzers über die drahtlose Verbindung 172 übertragen werden, wodurch dem Benutzer ermöglicht wird, die Kanten auf dem Touchscreen 152 der mobilen Vorrichtung 140 auszuwählen. Da der Touchscreen 152 der mobilen Vorrichtung 140 in vielen Fällen empfindlicher und genauer ist als die Anzeige 116 der Rechenplattform 104, kann diese Konfiguration vorteilhaft sein, da der Benutzer die zwei Kanten genauer auswählen und identifizieren kann.
  • Um den Abstand zwischen den zwei Kanten der Gasse zu identifizieren und zu messen, kann die Rechenplattform 104 das Bild analysieren, um die zwei zu messenden Kanten zu identifizieren, und einen Abstand zwischen den zwei Kanten unter Verwendung von Bildverarbeitungssoftware, die im Speicher 106 als Teil der Fahrzeuganwendung 108 gespeichert ist, berechnen. Obwohl diese Konfiguration einfach ist und keine anderen Sensoren als die Kamera 182 erforderlich sind, kann die Verwendung von anderen Sensoren 180 die Genauigkeit der Messung und Berechnung verbessern.
  • Zum Beispiel kann das Fahrzeug 102 mit einem oder mehreren Ultraschallsensoren 184 ausgestattet sein, die vorn am Fahrzeug 102 (z. B. am vorderen Stoßfänger) angebracht sind, die dazu konfiguriert sind, Objekte innerhalb ihrer Reichweite zu detektieren und den Abstand von diesen Objekten zu berechnen. Die Verwendung von Ultraschallsensoren 184 kann die Genauigkeit der Abstandsmessung zusätzlich zu dem Bild, das von der Kamera 182 aufgenommen wurde, erheblich verbessern. Jedoch erfordern die Ultraschallsensoren normalerweise, dass die zu detektierenden Objekte (z. B. die Kanten) ziemlich nahe sind (z. B. innerhalb von 15 Fuß) und dass keine anderen Hindernisse zwischen den Ultraschallsensoren 184 und dem Objekt vorhanden sind. In der Praxis kann die Rechenplattform 104 dazu konfiguriert sein, das Bild, das von der Kamera 182 aufgenommen wurde, zuerst zu verwenden, um einen ungefähren Abstand zwischen dem Fahrzeug 102 und dem Objekt zu bestimmen. Wenn die Reichweite innerhalb der Reichweite der Ultraschallsensoren 184 liegt, kann die Rechenplattform 104 die Sensoren 184 zur weiteren Beurteilung aktivieren. Im Falle von mehreren Ultraschallsensoren 184 kann jedem der Sensoren 184 ein bestimmtes Sichtfeld in Bezug auf das Bild zugeordnet werden, wodurch der Rechenplattform 104 eine bessere Beurteilung des Abstands ermöglicht wird.
  • Zusätzlich oder alternativ kann das Fahrzeug 102 mit einem Radarsensor 186 an der Vorderseite ausgestattet sein. Im Allgemeinen weist der Radarsensor 186 eine größere Reichweite als die Ultraschallsensoren 184 auf. Jedoch erfordert der Radarsensor normalerweise, dass das zu detektierende Objekt aus Metall ist. Dies ist unter Umständen für das Beispiel der engen Gasse nicht sehr hilfreich, da die Straßen- und Wandkanten normalerweise nicht aus Metall bestehen. Jedoch kann der Radarsensor zum Detektieren von Metallobjekten nützlich sein. Zum Beispiel können die Radarsensoren 186 verwendet werden, um die Breite einer engen Parklücke zwischen zwei Fahrzeugen zu bestimmen, da die Fahrzeuge aus Metall bestehen.
  • Zusätzlich oder alternativ kann das Fahrzeug 102 mit einem Lidarsensor 188 ausgestattet sein. Der Lidarsensor 188 ähnelt der Wirkungsweise nach dem Radarsensor 186, beseitigt jedoch die Anforderung, dass das Objekt aus Metall bestehen muss, was eine der besten Lösungen darstellt. Jedoch sind Lidarsensoren im Allgemeinen teuer und erhöhen die Kosten des Systems.
  • Unter Bezugnahme auf 3 wird ein Ablaufdiagramm 300 des Prozesses zur Kantendetektion und Abstandsmessung einer Ausführungsform der vorliegenden Offenbarung veranschaulicht. Die Beschreibung von 3 erfolgt unter Bezugnahme auf 4, die ein beispielhaftes Bild 400 veranschaulicht, das von der Kamera 182 aufgenommen wurde. In diesem Beispiel beabsichtigt der Benutzer des Fahrzeugs 102, die Breite der Gasse 402 zu messen, die zwischen einer linken Kante 404 und einer rechten Kante 406 definiert ist.
  • Bei Vorgang 302 empfängt die Rechenplattform 104 zwei Berührungseingaben 408, 414 auf der Anzeige 116, die mit einer Touchscreen-Fähigkeit versehen ist, während das Bild 400 angezeigt wird. Wie unter Bezugnahme auf 4 veranschaulicht, befindet sich die erste Berührungseingabe 408 in unmittelbarer Nähe zur linken Kante 404, und die zweite Berührungseingabe 412 befindet sich in unmittelbarer Nähe zur rechten Kante 406. Bei Vorgang 304 identifiziert die Rechenplattform 104 zwei Kantendetektionsbereiche nahe der Position der zwei Berührungseingaben 408 und 412. Als ein Beispiel können die Bereiche in einem Kreis berechnet werden, der um die Positionen der zwei Berührungseingaben 408, 412 innerhalb eines Radius mit voreingestellter Anzahl an Pixeln (z. B. Radius mit 200 Pixeln) zentriert ist. Wie unter Bezugnahme auf 4 veranschaulicht, wird ein erster kreisförmiger Kantendetektionsbereich 410 identifiziert, der um die erste Berührungseingabe 408 mit einem Radius von 200 Pixeln zentriert ist; ein zweiter kreisförmiger Kantendetektionsbereich 414 wird identifiziert, der um die zweite Berührungseingabe 412 mit einem Radius von 200 Pixeln zentriert ist. Es ist anzumerken, dass die Form und Größe des vorliegend beschriebenen Kantendetektionsbereichs lediglich ein Beispiel sind und andere Formen und Größen verwendet werden können. Zusätzlich oder alternativ kann der Vorgang 302 über den Touchscreen 152 der mobilen Vorrichtung 140, die drahtlos mit der Rechenplattform 104 verbunden ist, durchgeführt werden. Aufgrund der Bildschirmauflösungsdifferenz zwischen der Anzeige 116 und dem Touchscreen 152 können die Kantendetektionsbereiche unterschiedliche Größen in Abhängigkeit davon aufweisen, auf welcher Vorrichtung die Berührungseingaben 408, 412 vorgenommen werden. Wenn beispielsweise der Kantendetektionsbereich mit einem Radius von 200 Pixeln für die Anzeige 116 verwendet wird, die eine Lösung von 1200x800 aufweist, kann ein Radius von 400 Pixeln für den Touchscreen 152 verwendet werden, der eine Auflösung von 2400x1600 aufweist, um einen im Wesentlichen gleichen Bereich auf dem Bild zu beinhalten.
  • Bei Vorgang 306 startet die Rechenplattform 104 das Bildverarbeitungsprogramm, das im Speicher 106 als Teil der Fahrzeuganwendung 108 gespeichert ist, um alle Kanten innerhalb der Kantendetektionsbereich 410, 414, die bei Vorgang 304 identifiziert wurden, zu detektieren. Als ein paar nicht einschränkende Beispiele können die bei Vorgang 306 verwendeten Kantendetektionsalgorithmen Folgendes beinhalten: Sobel-, Canny-, Prewitt-, Roberts- oder Fuzzy-Logik-Verfahren. Die Rechenplattform 104 wählt eine Kante aus, die im Kantendetektionsbereich detektiert wurde. Unter Bezugnahme auf 4 gibt es beispielsweise nur eine Kante 404, die im ersten Kantendetektionsbereich 410 detektiert wurde, und die Kante 404 wird ausgewählt. Jedoch detektiert die Rechenplattform 104 für den zweiten Kantendetektionsbereich 414 sowohl eine horizontale Kante 406 als auch eine vertikale Kante 418. In diesem Fall kann die Rechenplattform 104 dazu konfiguriert sein, die eine mit der größten Nähe zur Berührungseingabe 414 auszuwählen, und in diesem Fall wird die horizontale Kante 406 ausgewählt. Dies führt zu dem richtigen Auswahlergebnis, da der Benutzer den Abstand 420 zwischen der linken horizontalen Kante 404 und der rechten horizontalen Kante 406, die die Breite 420 der Gasse 402 definieren, messen möchte. Für den Fall, dass der Benutzer den Bildschirm weniger genau berührt hat und die Position der Berührungseingabe 412 näher an der vertikalen Kante 418 ist, wird jedoch unter dieser Konfiguration die vertikale Kante 418 anstelle der horizontalen Kante 406 ausgewählt. Dies führt zu einer Messung eines falschen Abstands 422. Es gibt ein paar Möglichkeiten, um dies zu vermeiden. Als ein Beispiel können die zu messenden Kanten auf dem Bild 400 hervorgehoben werden. Der Benutzer, der sieht, dass die falschen Kanten ausgewählt wurden, kann sich dazu entschließen, die zwei Kanten sorgfältiger neu auszuwählen. Alternativ kann die Rechenplattform 104 dazu konfiguriert sein, die horizontalen Kanten standardmäßig auszuwählen, da in den meisten Fällen die zu messenden Kanten horizontal sind. Alternativ kann die Rechenplattform 104 dazu konfiguriert sein, der Ausrichtung der zwei Kanten zu entsprechen, sodass sie gleich sind. Unter Einbeziehung des Beispiels, das in 4 veranschaulicht ist, kann die Rechenplattform 104 die horizontale rechte Kante 406, die im zweiten Detektionsbereich 414 detektiert wurde, auswählen, um der Ausrichtung der linken Kante 404 zu entsprechen, da die linke Kante 404, die im ersten Detektionsbereich 410 detektiert wurde, horizontal ist.
  • Bei Vorgang 308 berechnet die Rechenplattform 104 den Abstand 420 zwischen der linken Kante 404 und der rechten Kante 406 unter Verwendung von Bildverarbeitungssoftware, die im Speicher 106 als Teil der Fahrzeuganwendungen 108 gespeichert ist. Wenngleich verschiedene Algorithmen zum Messen des Abstands 420 verwendet werden können, ist das allgemeine Prinzip, dass die Rechenplattform 104 zuerst einen Tiefenabstand zwischen der Kamera 182 und den zu messenden Objektkanten 404, 406 bestimmt. Als nächstes überträgt die Rechenplattform 104 die Pixelabmessungen zwischen den Kanten 404, 406 auf dem Bild 400 in einen tatsächlichen Abstand unter Verwendung der voreingestellten Konfigurationen und Algorithmen.
  • Bei Vorgang 310 detektiert die Rechenplattform 104, ob das Fahrzeug 102 mit anderen Sensoren 180 als der Kamera 182 ausgestattet ist. Wenn das Ergebnis Nein ist, geht der Prozess zu Vorgang 320 über und die Rechenplattform 104 gibt das Messergebnis aus, das die Breite 420 der Gasse 402 ist. Die Rechenplattform 104 kann das Messergebnis über die Anzeige 116 durch Einbringen eines Segments, das für den Abstand 420 repräsentativ ist, mit der Länge daneben ausgeben. Zusätzlich oder alternativ kann die Rechenplattform 104 das Messergebnis über den Lautsprecher 122 akustisch ausgeben.
  • Wenn andere Sensoren 180 verfügbar sind, geht der Prozess zu Vorgang 312 über und die Rechenplattform 104 bestimmt ferner, ob die zu messenden Kanten sich innerhalb der Reichweite der Sensoren 180 befinden. Wie bereits erörtert, können verschiedene Sensoren unterschiedliche Reichweiten aufweisen. Wenn die Rechenplattform 104 bestimmt, dass die zu detektierende Kante sich innerhalb der Reichweite der Sensoren 180 befindet, geht der Prozess zu Vorgang 314 über. Es ist anzumerken, dass die Kamera 182 und andere Sensoren 180 an unterschiedlichen Bereichen des Fahrzeugs 102 angebracht werden können. Zum Beispiel kann die Kamera 182 an der Windschutzscheibe angebracht sein und die Ultraschallsensoren 184 können nahe dem vorderen Motorkühlergrill angebracht sein. In diesem Fall befinden sich die Ultraschallsensoren 184 näher an den zu detektierenden Kanten als die Kamera 182. Die versetzten Abstände zwischen der Kamera 182 und den Ultraschallsensoren 184 können in der Rechenplattform 104 vorkonfiguriert sein und bei Vorgang 312 berücksichtigt werden.
  • Bei Vorgang 314 aktiviert die Rechenplattform 104 die Sensoren 180, um die Kanten 404, 406 zu detektieren. Bei Vorgang 316 berechnet die Rechenplattform 104 den Abstand 420 zwischen der linken Kante 404 und der rechten Kante 406. Aufgrund des Fakts, dass die Genauigkeit der verschiedenen Sensoren variieren kann, kann die Rechenplattform 104 verschiedene Ergebnisse für die Messung erhalten. Aus diesem Grund bringt die Rechenplattform 104 bei Vorgang 318 die Messergebnisse, die unter Verwendung der Daten von der Kamera 182 und anderen Sensoren 180 berechnet wurden, in Einklang. Als ein Beispiel kann die Rechenplattform 104 den Durchschnitt der mehreren Messungen als das Endergebnis verwenden. Alternativ kann die Rechenplattform 104 während des Vorgangs des Ineinklangbringens 318 ein höheres Gewicht auf genauere Sensoren (z. B. den Lidarsensor 188) legen. Bei Vorgang 320 gibt die Rechenplattform 104 das in Einklang gebrachte Messergebnis aus.
  • Es ist anzumerken, dass der von der Rechenplattform 104 durchgeführte Prozess 400, wie vorstehend erörtert, ebenfalls vollständig oder teilweise von der mobilen Vorrichtung 140 unter Verwendung der mobilen Anwendung 144, die im Speicher 142 gespeichert ist, durchgeführt werden kann. Daten, die notwendig sind, um die vorstehenden Vorgänge durchzuführen, können drahtlos zwischen der Rechenplattform 104 und der mobilen Vorrichtung 140 über die drahtlose Verbindung 172 kommuniziert werden.
  • Unter Bezugnahme auf 5 wird eine andere Ausführungsform des Messsystems der vorliegenden Offenbarung veranschaulicht. Anders als das unter Bezugnahme auf die 3 und 4 veranschaulichte Beispiel misst die Rechenplattform 104 in dem vorliegenden Beispiel die Abmessung eines Objekts 518. Wie in 5 veranschaulicht, erscheint das Objekt 518, bei dem es sich um einen Traktor handelt, im Bild 500, das von der Kamera 182 des Fahrzeugs 102 aufgenommen wurde. In diesem Beispiel beabsichtigt der Benutzer des Fahrzeugs 102, die Länge 502 und die Höhe 504 des Objekts 518 zu messen.
  • Als erstes kann die Rechenplattform 104 dazu konfiguriert sein, den Benutzer dazu zu motivieren, zwei Messkanten durch Empfangen von zwei Berührungseingaben auf der Anzeige 116 zu identifizieren. Zum Beispiel kann der Benutzer ähnlich wie in den Vorgängen 302 und 304, die in 3 veranschaulicht sind, Berührungseingaben in der Nähe der Kante 514 und der Kante 516 vornehmen, um die zwei Kanten, die er messen möchte, zu identifizieren. Es ist anzumerken, dass die zu identifizierenden Kanten nicht die äußersten sein müssen und der Benutzer einen Abstand unter Verwendung von inneren Kanten messen kann. Alternativ kann die Rechenplattform 104 dazu konfiguriert sein, die Messkanten durch Empfangen einer Benutzereingabe auf der Anzeige 116 zu identifizieren, beginnend mit der Position 506, wobei eine Einfassung 508 gezogen wird, und abschließend mit der im Wesentlichen gleichen Position wie der Startpunkt 506. Die Einfassung 508 definiert einen Objektdetektionsbereich (nachfolgend Objektdetektionsbereich 508). Als nächstes detektiert die Rechenplattform 104, ob sich ein Objekt innerhalb des Objektdetektionsbereichs 508 befindet, unter Verwendung von Bildverarbeitungsalgorithmen, die im Wesentlichen die gleichen wie in Vorgang 306 sind, der in 3 veranschaulicht ist. Es ist anzumerken, dass in Wirklichkeit einige Hintergrundbilder (nicht gezeigt) vorhanden sein können, die innerhalb des Objektdetektionsbereichs 158 eingeschlossen sein können, und das Hintergrundbild kann Bildrauschen verursachen und die Genauigkeit der Objektdetektion beeinflussen. Das Bildrauschen kann unter Verwendung von Bildfilteralgorithmen, wie etwa Gaußschem Weichzeichner, Han-Filter, Medianfilter, morphologischen Vorgängen, Raumfilter oder Zeitfilter als ein paar nicht einschränkende Beispiele, gefiltert werden. Zusätzlich, wenn das Fahrzeug 102 mit anderen Sensoren 180 ausgestattet ist, kann die Rechenplattform 104 außerdem andere Sensoren verwenden, um das Objekt 518 ferner zu identifizieren.
  • Sobald das Objekt 518 identifiziert wurde, ist der folgende Prozess im Wesentlichen der gleiche wie die Vorgänge 306-320, de unter Bezugnahme auf 3 veranschaulicht sind. Im Wesentlichen identifiziert die Rechenplattform 104 die äußersten Kanten des Objekts 518 und misst die Abstände zwischen den gegenüberliegenden Kanten, um die Länge 502 und Höhe 504 des Objekts 518 zu bestimmen. Insbesondere identifiziert die Rechenplattform 104 die äußerste linke Kante 510 und die äußerste rechte Kante 512, um die Länge 502 zu berechnen; und die oberste Kante 514 und die unterste Kante 516, um die Höhe 504 zu berechnen. Letztendlich gibt die Rechenplattform 104 die Ergebnisse aus.
  • Wenngleich vorstehend Ausführungsbeispiele beschrieben sind, sollen diese Ausführungsformen nicht alle möglichen Formen der Erfindung beschreiben. Vielmehr sind die in der Beschreibung verwendeten Ausdrücke beschreibende und keine einschränkenden Ausdrücke und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Geist und Umfang der Erfindung abzuweichen. Zusätzlich können die Merkmale unterschiedlicher umsetzender Ausführungsformen miteinander kombiniert werden, um weitere erfindungsgemäße Ausführungsformen zu bilden.
  • Gemäß der vorliegenden Erfindung wird ein System für ein Fahrzeug bereitgestellt, aufweisend: eine Kamera, die dazu konfiguriert ist, ein Bild eines Vorwärtswegs des Fahrzeugs aufzunehmen; einen Bildschirm, der dazu konfiguriert ist, das Bild anzuzeigen; und einen Prozessor, der dazu konfiguriert ist, als Reaktion auf eine Eingabe in den Bildschirm zwei Kanten von mindestens einem Objekt des Bildes zu identifizieren, einen ersten Abstand zwischen den zwei Kanten zu messen und den ersten Abstand auszugeben.
  • Gemäß einer Ausführungsform ist der Bildschirm ein Touchscreen und der Prozessor ist ferner dazu konfiguriert, die Eingabe über den Touchscreen zu empfangen.
  • Gemäß einer Ausführungsform ist der Prozessor ferner zu Folgendem konfiguriert: Identifizieren der zwei Kanten auf dem Bild durch Empfangen von zwei Berührungseingaben, die zwei Kantendetektionsbereiche auf dem Bild definieren; und Detektieren von Kanten des Bildes innerhalb der zwei Kantendetektionsbereiche.
  • Gemäß einer Ausführungsform ist der Prozessor ferner dazu konfiguriert, die zwei Kanten auf dem Bild als Reaktion auf dem Empfang der Berührungseingabe zu identifizieren, die ein Objekt des Bildes einschließen.
  • Gemäß einer Ausführungsform ist der Prozessor ferner dazu konfiguriert, Ausrichtungen der zwei Kanten derart abzustimmen, dass sie im Wesentlichen parallel sind.
  • Gemäß einer Ausführungsform ist der Prozessor ferner zu Folgendem konfiguriert: Vergleichen des ersten Abstands, der zwischen den zwei Messkanten gemessen wurde, mit einem voreingestellten Wert; und Ausgeben eines Ergebnisses des Vergleichs.
  • Gemäß einer Ausführungsform ist der Prozessor ferner dazu konfiguriert, die Eingabe von einer mobilen Vorrichtung, die drahtlos mit dem Prozessor verbunden ist, zu empfangen.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch einen Abstandssensor, der dazu konfiguriert ist, mindestens ein Objekt zu detektieren und eine Tiefe zwischen dem Abstandssensor und dem detektierten Objekt zu messen.
  • Gemäß einer Ausführungsform ist der Prozessor ferner dazu konfiguriert, einen zweiten Abstand zwischen den zwei Kanten unter Verwendung der von dem Abstandssensor detektierten Tiefe zu messen und den ersten Abstand und den zweiten Abstand in Einklang bringen, um einen Abstand als Endergebnis zu erhalten.
  • Gemäß einer Ausführungsform beinhaltet der Abstandssensor mindestens eines von Folgenden: einem Ultraschallsensor; einem Radarsensor; oder einem Lidarsensor.
  • Gemäß einer Ausführungsform ist der Prozessor ferner dazu konfiguriert, die nächsten zwei PUnkte zwischen den zwei Kanten zu messen.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren: Identifizieren von zwei Kanten von mindestens einem Objekt, das auf einem Bild angezeigt wird, das von einer Kamera aufgenommen wurde, als Reaktion auf eine Eingabe; Messen einer ersten Tiefe zwischen der Kamera und dem mindestens einen Objekt; und Berechnen eines ersten Abstands zwischen den zwei Kanten unter Verwendung der ersten Tiefe durch Bildverarbeitung.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch: Anzeigen des Bildes, das von der Kamera aufgenommen wurde, auf einer Touchscreen-Anzeige; Empfangen der Eingabe, die die zwei Kanten identifiziert, über die Touchscreen-Anzeige.
  • Gemäß einer Ausführungsform erfolgt die Eingabe in die Touchscreen-Anzeige durch zwei Berührungseingaben in unmittelbarer Nähe zu den zwei zu identifizierenden Kanten.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch: Ziehen einer Linie, die ein Objekt im Wesentlichen einschließt, auf der Touchscreen-Anzeige; und Messen des Abstands zwischen mindestens zwei äußersten Kanten des Objekts einander gegenüberliegend.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch: Hervorheben der identifizierten Kanten auf der Touchscreen-Anzeige; Anzeigen eines Segments, das den Abstand simuliert, der zwischen den Kanten gemessen wurde, auf der Anzeige; und Anzeigen des gemessenen Abstands nahe dem Segment.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch: Messen einer zweiten Tiefe zwischen einem Abstandssensor und mindestens einem des Objekts unter Verwendung des Abstandssensors; Berechnen eines zweiten Abstands zwischen den zwei Kanten unter Verwendung der zweiten Tiefe; und Ineinklangbringen des ersten Abstands und des zweiten Abstands, um einen Abstand als Endergebnis zu erhalten.

Claims (15)

  1. System für ein Fahrzeug, umfassend: eine Kamera, die dazu konfiguriert ist, ein Bild eines Vorwärtswegs des Fahrzeugs aufzunehmen; einen Bildschirm, der dazu konfiguriert ist, das Bild anzuzeigen; und einen Prozessor, der dazu konfiguriert ist, als Reaktion auf eine Eingabe in den Bildschirm zwei Kanten von mindestens einem Objekt des Bildes zu identifizieren, einen ersten Abstand zwischen den zwei Kanten zu messen und den ersten Abstand auszugeben.
  2. System nach Anspruch 1, wobei der Bildschirm ein Touchscreen ist und der Prozessor ferner dazu konfiguriert ist, die Eingabe über den Touchscreen zu empfangen.
  3. System nach Anspruch 2, wobei der Prozessor ferner zu Folgendem konfiguriert ist: Identifizieren der zwei Kanten auf dem Bild durch Empfangen von zwei Berührungseingaben, die zwei Kantendetektionsbereiche auf dem Bild definieren; und Detektieren von Kanten des Bildes innerhalb der zwei Kantendetektionsbereiche.
  4. System nach Anspruch 2, wobei der Prozessor ferner dazu konfiguriert ist, die zwei Kanten auf dem Bild als Reaktion auf dem Empfang der Berührungseingabe zu identifizieren, die ein Objekt des Bildes einschließen.
  5. System nach Anspruch 1, wobei der Prozessor ferner dazu konfiguriert ist, Ausrichtungen der zwei Kanten derart abzustimmen, dass sie im Wesentlichen parallel sind.
  6. System nach Anspruch 1, wobei der Prozessor ferner zu Folgendem konfiguriert ist: Vergleichen des ersten Abstands, der zwischen den zwei Messkanten gemessen wurde, mit einem voreingestellten Wert; und Ausgeben eines Ergebnisses des Vergleichs.
  7. System nach Anspruch 1, wobei der Prozessor ferner dazu konfiguriert ist, die Eingabe von einer mobilen Vorrichtung, die drahtlos mit dem Prozessor verbunden ist, zu empfangen.
  8. System nach Anspruch 1, ferner umfassend einen Abstandssensor, der dazu konfiguriert ist, mindestens ein Objekt zu detektieren und eine Tiefe zwischen dem Abstandssensor und dem detektierten Objekt zu messen.
  9. System nach Anspruch 8, wobei der Prozessor ferner dazu konfiguriert ist, einen zweiten Abstand zwischen den zwei Kanten unter Verwendung der von dem Abstandssensor detektierten Tiefe zu messen und den ersten Abstand und den zweiten Abstand in Einklang bringen, um einen Abstand als Endergebnis zu erhalten.
  10. System nach Anspruch 9, wobei der Abstandssensor mindestens eines von Folgenden beinhaltet: einem Ultraschallsensor; einem Radarsensor; oder einem Lidarsensor.
  11. Verfahren, umfassend: Identifizieren von zwei Kanten von mindestens einem Objekt, das auf einem Bild angezeigt wird, das von einer Kamera aufgenommen wurde, als Reaktion auf eine Eingabe; Messen einer ersten Tiefe zwischen der Kamera und dem mindestens einen Objekt; und Berechnen eines ersten Abstands zwischen den zwei Kanten unter Verwendung der ersten Tiefe durch Bildverarbeitung.
  12. Verfahren nach Anspruch 11, ferner umfassend: Anzeigen des Bildes, das von der Kamera aufgenommen wurde, auf einer Touchscreen-Anzeige; Empfangen der Eingabe, die die zwei Kanten identifiziert, über die Touchscreen-Anzeige.
  13. Verfahren nach Anspruch 12, wobei die Eingabe in die Touchscreen-Anzeige durch zwei Berührungseingaben in unmittelbarer Nähe zu den zwei zu identifizierenden Kanten erfolgt.
  14. Verfahren nach Anspruch 12, ferner umfassend: Ziehen einer Linie, die ein Objekt im Wesentlichen einschließt, auf der Touchscreen-Anzeige; und Messen des Abstands zwischen mindestens zwei äußersten Kanten des Objekts einander gegenüberliegend.
  15. Verfahren nach Anspruch 11, ferner umfassend: Messen einer zweiten Tiefe zwischen einem Abstandssensor und mindestens einem des Objekts unter Verwendung des Abstandssensors; Berechnen eines zweiten Abstands zwischen den zwei Kanten unter Verwendung der zweiten Tiefe; und Ineinklangbringen des ersten Abstands und des zweiten Abstands, um einen Abstand als Endergebnis zu erhalten.
DE102019109937.4A 2018-04-18 2019-04-15 Messungen über Fahrzeugsensoren Pending DE102019109937A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/955,892 US10404909B1 (en) 2018-04-18 2018-04-18 Measurements via vehicle sensors
US15/955,892 2018-04-18

Publications (1)

Publication Number Publication Date
DE102019109937A1 true DE102019109937A1 (de) 2019-10-24

Family

ID=67770116

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019109937.4A Pending DE102019109937A1 (de) 2018-04-18 2019-04-15 Messungen über Fahrzeugsensoren

Country Status (3)

Country Link
US (1) US10404909B1 (de)
CN (1) CN110386068A (de)
DE (1) DE102019109937A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019135189A1 (de) * 2019-12-19 2021-06-24 Connaught Electronics Ltd. Verfahren zum Bestimmen eines Kameraparameters für eine Kamera einesPritschenfahrzeugs mittels eines Regressions-Analyse Algorithmus,Computerprogrammprodukt, elektronische Recheneinrichtung sowie Kamerasystem

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521860B2 (ja) * 2000-10-02 2004-04-26 日産自動車株式会社 車両の走行路認識装置
US7590261B1 (en) * 2003-07-31 2009-09-15 Videomining Corporation Method and system for event detection by analysis of linear feature occlusion
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
DE102005008874A1 (de) * 2005-02-24 2006-09-07 Daimlerchrysler Ag Bedien- und Anzeigekonzept für die Bildgestützte Navigation bei Fahrzeugen
KR101562589B1 (ko) * 2010-04-30 2015-10-23 엘지전자 주식회사 영상 표시 장치 및 그 방법
DE102010051204A1 (de) * 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Darstellen eines Hindernisses und Abbildungsvorrichtung
US20140309876A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Universal vehicle voice command system
DE102012022336A1 (de) * 2012-11-14 2014-05-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
US9313951B2 (en) * 2013-04-02 2016-04-19 Deere & Company Optical image capture for controlling a position of a harvester transfer device
DE102014116292A1 (de) * 2014-11-07 2016-05-12 Visteon Global Technologies, Inc. System zur Informationsübertragung in einem Kraftfahrzeug
US9691152B1 (en) * 2015-08-14 2017-06-27 A9.Com, Inc. Minimizing variations in camera height to estimate distance to objects
KR101860610B1 (ko) * 2015-08-20 2018-07-02 엘지전자 주식회사 디스플레이 장치 및 이를 포함하는 차량
US9895945B2 (en) * 2015-12-08 2018-02-20 Ford Global Technologies, Llc Trailer backup assist system with hitch assist
JP6341191B2 (ja) 2015-12-16 2018-06-13 トヨタ自動車株式会社 情報演算装置
US20170287217A1 (en) * 2016-03-30 2017-10-05 Kahyun Kim Preceding traffic alert system and method
US10266023B2 (en) * 2017-05-01 2019-04-23 Ford Global Technologies, Llc System to automate hitching a trailer

Also Published As

Publication number Publication date
US10404909B1 (en) 2019-09-03
CN110386068A (zh) 2019-10-29

Similar Documents

Publication Publication Date Title
DE102017201852B4 (de) Parkassistenzsystem für ein Fahrzeug und ein Verfahren zu dessen Nutzung
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE102012223865A1 (de) Gerät und Verfahren zum Unterstützen des Parkens in einem Bereich ohne Parklinie
DE102017130041A1 (de) Automatische leckerkennung bei fahrzeugen
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE102019118595A1 (de) Beifahrer-frontanzeigen für fahrzeuge
DE102018100192A1 (de) Erzeugen von Trainingsdaten zur automatischen Leckerkennung bei Fahrzeugen
DE102017116088A1 (de) Vorrichtung und Verfahren zum Abschätzen einer Position eines Fahrzeugs
DE102018107196A1 (de) Verfahren und vorrichtung zur bereitstellung von anhängerinformationen
DE102015108498A1 (de) Bereitstellen einer fahrzeugbenutzerhandbuchinformation unter verwendung einer objekterkennung an einer mobilen einrichtung
DE102012223730A1 (de) Vorrichtung und verfahren zum einstellen einer parkposition auf basis eines av-bildes
DE112017007184T5 (de) Unterstützungsvorrichtung, unterstützungsverfahren und programm
DE102017112567A1 (de) Totwinkel-erkennungssysteme und verfahren
DE102017210899B4 (de) Projektionsorientierungs-Korrektursystem und -Verfahren für Fahrzeug
DE102018109951A1 (de) Erfassung von wasser auf der strasse
DE112015001336T5 (de) Fahrzeugfahrer-assistenzvorrichtung, die einem fahrzeugfahrer beim manövrieren des fahrzeugs relativ zu einem objekt assistiert
DE102016112987B4 (de) Direkte kommunikation zwischen fahrzeugen
DE102017210801A1 (de) Projektionsorientierungs-Korrektursystem für ein eine Projektionsvorrichtung verwendendes Fahrzeug
DE112015007066T5 (de) Fahrunterstützungsvorrichtung
DE102018214510A1 (de) Parkplatzkartenerzeugung auf der Straße
DE102016216339A1 (de) Fahrunterstützungsvorrichtung und fahrunterstützungssystem
DE102016212404A1 (de) Fahrzeugstopp-Führungssystem und Fahrzeugstopp-Führungsverfahren
DE102019125567A1 (de) Fahrzeugsystem und verfahren zum festlegen einer variablen virtuellen grenze
DE102016203710B4 (de) Abstands- und Richtungsschätzung eines Zielpunkts von einem Fahrzeug unter Verwendung einer monokularen Videokamera
DE102018106842B4 (de) Vorrichtung zum Auslösen einer Kupplungsansicht

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE