DE112015002194T5 - Verbesserte Reihenführungsparameterisierung mit Hough-Transformation - Google Patents

Verbesserte Reihenführungsparameterisierung mit Hough-Transformation Download PDF

Info

Publication number
DE112015002194T5
DE112015002194T5 DE112015002194.9T DE112015002194T DE112015002194T5 DE 112015002194 T5 DE112015002194 T5 DE 112015002194T5 DE 112015002194 T DE112015002194 T DE 112015002194T DE 112015002194 T5 DE112015002194 T5 DE 112015002194T5
Authority
DE
Germany
Prior art keywords
intermediate value
value
anchor
erf
mouse tail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112015002194.9T
Other languages
English (en)
Inventor
Robert Leonard Jr. Nelson
Edwin Ernest Wilson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raven Industries Inc
Original Assignee
Raven Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raven Industries Inc filed Critical Raven Industries Inc
Publication of DE112015002194T5 publication Critical patent/DE112015002194T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • B62D6/002Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits computing target steering angles for front or rear wheels
    • B62D6/003Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits computing target steering angles for front or rear wheels in order to control vehicle yaw movement, i.e. around a vertical axis
    • B62D6/005Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits computing target steering angles for front or rear wheels in order to control vehicle yaw movement, i.e. around a vertical axis treating sensor outputs to obtain the actual yaw rate
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K2207/00Other aspects
    • G06K2207/1016Motor control or optical moving unit control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Es werden Systeme und Techniken zur verbesserten Reihenführungsparameterisierung mit einer Hough-Transformation beschrieben. Eine elektronische Darstellung eines Feldes (ERF) kann empfangen werden. Eine Lenkvariablenberechnung kann durchgeführt werden durch Ausführen einer kaskadierten Hough-Transformation bei der ERF. Ein Zwischenwert, der bei der Berechnung der Lenkvariablen verwendet wird, kann ausgewählt werden. Ein verbesserter Zwischenwert kann von dem Zwischenwert identifiziert werden durch Messen einer Differenz zwischen dem Zwischenwert und einem Ankerwert. Die Lenkvariablenberechnung kann unter Verwendung des verbesserten Zwischenwerts eingestellt werden.

Description

  • BEANSPRUCHUNG DER PRIORITÄT
  • Diese Patentanmeldung beansprucht den Nutzten der Priorität der provisorischen US-Patentanmeldung Nr. 61/991065, die unter dem Titel "VERBESSERTE REIHENFÜHRUNGSPARAMETERISIERUNG MIT HOUGH-TRANSFORMATION" am 9. Mai 2014 eingereicht wurde und die hierdurch in ihrer Gesamtheit einbezogen wird.
  • HINTERGRUND
  • Viele Feldfrüchte, die angepflanzt werden, sind Reihenfeldfrüchte. Reihenfeldfrüchte sind in Reihen angeordnet, die im Allgemeinen parallele Reihen in gleichem Abstand auf einem Feld sind und die durch Furchen getrennt sind. Die Pflege von Reihenfeldfrüchten enthält im Allgemeinen das Bewegen von landwirtschaftlichen Geräten (z.B. Traktoren, Pflanzvorrichtungen, Erntevorrichtungen, Bewässerungsvorrichtungen, Düngemittelstreuer, usw.) über das Feld. Im Allgemeinen sollten landwirtschaftliche Geräte den Reihen folgen, derart, dass Stützstrukturen (z.B. Räder, Reifen, Kufen, usw.) in den Furchen bleiben, um die Feldfrüchte nicht zu beschädigen. Weiterhin sollten Geräte, die die Feldfrüchte direkt behandeln, der Mittellinie der Feldfruchtreihen folgen.
  • Navigationssysteme, die einen externen Lokalisierungsmechanismus verwenden, wurden verwendet, um die automatische Navigation von landwirtschaftlichen Geräten zu erleichtern. Diese Systeme enthalten Einheiten eines globalen Positionierungssystems (GPS), um die Position von landwirtschaftlichen Geräten mit Bezug auf Feldfruchtreihen zu lokalisieren. Im Allgemeinen verwenden diese Systeme eine Initialisierungsoperation, um Positionen zu bestimmen, durch die die landwirtschaftlichen Geräte hindurchgehen sollten, und liefern dann Informationen über die gegenwärtige Position der landwirtschaftlichen Geräte in einem Feld, um die Navigation zu erleichtern. Eine beispielhafte Initialisierungsoperation kann die Verwendung einer GPS-Einheit enthalten, um die Bewegung der landwirtschaftlichen Geräte aufzuzeichnen, wenn die Feldfruchtreihen gepflanzt werden. Diese Aufzeichnung kann später verwendet werden, um die landwirtschaftlichen Geräte für nachfolgende Operationen zu führen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • In den Zeichnungen, die nicht notwendigerweise maßstabsgerecht gezeichnet sind, können gleiche Zahlen ähnliche Komponenten in verschiedenen Ansichten beschreiben. Gleiche Zahlen mit unterschiedlichem Buchstabensuffix können verschiedene Fälle von ähnlichen Komponenten darstellen. Die Zeichnungen illustrieren im Allgemeinen beispielhaft, aber nicht einschränkend, verschiedene Ausführungsbeispiele, die in dem vorliegenden Dokument diskutiert werden.
  • 1 illustriert ein Beispiel für ein System zur verbesserten Reihenführungsparameterisierung mit Hough-Transformation gemäß einem Ausführungsbeispiel.
  • 2A und 2B illustrieren zwei Perspektiven eines Fahrzeugs in einem Feld und Reihenführungsparameter gemäß einem Ausführungsbeispiel.
  • 3 illustriert ein Beispiel für eine elektronische Darstellung eines Felds, die zur Reihenführungsparameterisierung mit Hough-Transformation verwendet wird, gemäß einem Ausführungsbeispiel.
  • 4 illustriert ein Beispiel für einen Hough-Transformationsparameterraum für Feldfruchtreihen gemäß einem Ausführungsbeispiel.
  • 5 illustriert ein Beispiel für bestimmte Feldfruchtreihenlinien, die einer elektronischen Darstellung eines Felds überlagert sind, gemäß einem Ausführungsbeispiel.
  • 6 illustriert ein Beispiel für einen Hough-Transformationsparameterraum für Furchen gemäß einem Ausführungsbeispiel.
  • 7 illustriert ein Beispiel für bestimmte Furchenlinien, die einer elektronischen Darstellung eines Felds überlagert sind, gemäß einem Ausführungsbeispiel.
  • 8 illustriert ein Beispiel für einen Hough-Transformationsparameterraum der Hough-Transformationsräume für Feldfrüchte und Furchen gemäß einem Ausführungsbeispiel.
  • 9 illustriert ein Beispiel für bestimmte Feldfruchtreihenlinien, Furchenlinien und Fluchtpunkt, die einer elektronischen Darstellung eines Felds überlagert sind, gemäß einem Ausführungsbeispiel.
  • 10 illustriert ein Beispiel zum Bestimmen eines Abstands zwischen einem gegenwärtigen Fluchtpunkt und einer Kombination von vorhergehendem Verschwinden.
  • 11 illustriert ein Beispiel für eine Spurquerabstandsnormierung gemäß einem Ausführungsbeispiel.
  • 12 illustriert ein Beispiel für Mausschwanzanalyse, um die Reihenführungsparameterisierung zu verbessern.
  • 13 illustriert ein Beispiel für ein Verfahren zur Reihenführungsparameterisierung mit Hough-Transformation gemäß einem Ausführungsbeispiel.
  • 14 illustriert ein Beispiel für ein Verfahren zum Bestimmen eines Spurquerabstands gemäß einem Ausführungsbeispiel.
  • 15 illustriert ein Beispiel für ein Verfahren zur verbesserten Reihenführungsparameterisierung mit Hough-Transformation gemäß einem Ausführungsbeispiel.
  • 16 ist ein Blockschaltbild, das ein Beispiel für eine Maschine zeigt, mit der ein oder mehrere Ausführungsbeispiele implementiert werden können.
  • DETAILLIERTE BESCHREIBUNG
  • Obgleich moderne GPS-Navigation sehr genau sein kann, erfordert sie die Durchführung der Initialisierungsoperation. In Fällen, in denen Reihenorte beim Pflanzen nicht aufgezeichnet wurden, oder diese Daten nicht verfügbar sind (z.B. verloren oder vernichtet), muss die Initialisierungsoperation durchgeführt werden (z.B. wieder oder zum ersten Mal), bevor GPS verwendet wird. Herkömmlich wurde die Initialisierungsoperation durch einen menschlichen Operator durchgeführt, der das landwirtschaftliche Gerät steuert und Positionierungsdaten aufzeichnet. Die Verwendung eines menschlichen Operators zum Führen des landwirtschaftlichen Geräts kann eine ermüdende Tätigkeit sein, die einen geschickten Operator erfordert; dies sind Faktoren, die zu Fehlern und höheren Kosten führen können.
  • Computerbilder können verwendet werden, um landwirtschaftliche Geräte entlang der Feldfruchtreihen zu führen. Ein Computerbild-Navigationssystem enthält im Allgemeinen einen Sensor wie eine Kamera, der an dem landwirtschaftlichen Gerät befestigt ist, um Merkmale (z.B. der Feldfruchtreihen oder Furchen) der Umgebung zu sammeln. Diese Merkmale können verwendet werden, um eine Position des landwirtschaftlichen Geräts relativ zur Reihen- oder Furchenposition festzustellen und diese Informationen als Variable zu einem Lenkmodul zu liefern, um das landwirtschaftliche Gerät zu steuern. Ein Problem, das auftreten kann, ist eine Zickzack-Wirkung, bei der sich das landwirtschaftliche Gerät zu der Zielreihe hin bewegt und entlang dieser fährt, nur um zu der Reihe zurückzukehren und sich wieder entlang dieser zu bewegen. Diese Situation tritt auf, weil der Winkel, unter dem sich das landwirtschaftliche Gerät der Zielreihe nähert, bei den Lenkberechnungen nicht berücksichtigt wird. Ein anderes Problem, das bei Computerbild-Navigationssystemen auftreten kann, kann die Auswahl einer anderen Reihe als eine Zielreihe enthalten, wenn die gegenwärtige Zielreihe unterbrochen ist (z.B. gebrochen oder an einem gegebenen Punkt für den Sensor nicht kontinuierlich ist).
  • Das Bestimmen von zwei Führungsvariablen kann sich der vorgenannten Probleme mit Computerbild-Navigationssystemen annehmen: Spurwinkelfehler und Spurquerabstand. Der Spurwinkelfehler bezieht den Winkel zwischen der Vorwärtsrichtung des landwirtschaftlichen Geräts und den Reihen derart ein, dass, wenn das landwirtschaftliche Gerät den Reihen folgt, der Spurwinkelfehler gleich 0° ist, und wenn das landwirtschaftliche Gerät sich senkrecht zu den Reihen bewegt, der Spurwinkelfehler 90° beträgt. Demgemäß kann der Spurwinkelfehler angesehen werden als der gegenwärtige Angriffswinkel für das landwirtschaftliche Gerät, das sich zu einer gegebenen Reihe hin bewegt. Die Computerbild-Navigationssystem-Sensordaten bewirken, dass die im Allgemeinen parallelen Feldfruchtreihen oder Furchen an einem Fluchtpunkt am Horizont zu konvergieren scheinen. Dieser Fluchtpunkt kann mit der gegenwärtigen Orientierung des landwirtschaftlichen Geräts verwendet werden, um den Spurwinkelfehler zu bestimmen.
  • Eine Neigungs-Unterbrechungs-Hough-Transformation (SLIHT) kann verwendet werden, um den Fluchtpunkt anhand von von dem Sensor erfassten Feldfruchtreihen- oder Furchenmerkmalen zu bestimmen. Die ursprüngliche Hough-Transformation verwendet einen Parameterraum mit einer Neigung einer Linie auf einer Achse und einer Unterbrechung einer Linie in einer zweiten Achse, wobei eine Linie als y = mx + b ausgedrückt wird, worin m die Neigung ist und b die x-Unterbrechung der Linie in einem kartesischen Koordinatensystem ist. Beispielsweise kann jedes Bildpixel, dessen Farbe mit der der gesuchten geraden Linien übereinstimmt, auf irgendeiner von einer Anzahl von möglichen Linien liegen, die in dem Parameterraum durch ihre Neigungs- und Unterbrechungsparameter dargestellt sind. Diese Linien können identifiziert werden durch Berechnen, für jeden möglichen Unterbrechungswert in dem Parameterraum, der Neigung einer Linie von dieser Unterbrechung zu dem betreffenden Pixel. Zusätzlich oder alternativ kann für jeden möglichen Neigungswert der Wert berechnet werden, bei dem eine Linie dieser Neigung die Bildachse schneidet. Beispielsweise können Neigungsparameter in dem Parameterraum verwendet werden in Verbindung mit dem Pixel, um entsprechende Unterbrechungsparameter in dem Parameterraum zu bestimmen. Für jede derartige Linie wird der Wert dieser Linie in dem Parameterraum erhöht. Somit können Pixel aus dem Bild zu zahlreichen Parameterraumpositionen beitragen (beispielsweise kann ein einzelnes Pixel bewirken, dass mehrere Parameterraumkoordinaten inkrementiert werden). Wenn jedoch mehrere Pixel auf eine Linie in dem Bild fallen, ist die entsprechende Parameterraumposition für diese Linie für jedes solcher Pixel erhöht. Demgemäß hat diese Parameterraumposition einen höheren Wert als andere Parameterraumpositionen, die Linien darstellen, die in dem Bild nicht gefunden werden.
  • Nachdem sämtliche Pixel der gesuchten Farbe zu der Parameterraumakkumulation beigetragen haben, kann der Parameterraum analysiert werden, um Linien zu bestimmen, die durch die Pixel in dem Bild dargestellt werden. Diese Linien erscheinen als Spitzen (Punkte mit hoher Inkrementierung relativ zu anderen Punkten) in dem Parameterraum aufgrund der kumulativen Wirkung des Inkrementierens für jedes auf der Linie liegende Pixel. Ein Problem des einfachen Anwendens der ursprünglichen Hough-Transformation schafft mit dem Anstieg von unbegrenzten Parameterwerten die Einschätzung vertikaler Linien, die gefunden werden, wenn Feldfruchtreihen gefolgt wird. Eine Lösung dieses Problems besteht darin, Polarkoordinaten als Parameter zu verwenden. Die Verwendung von Polarkoordinaten führt jedoch eine größere Rechenkomplexität und somit höhere Kosten ein. Stattdessen kann die ursprüngliche Hough-Transformation modifiziert werden, um sich des Problems der vertikalen Linien anzunehmen, die in folgenden Feldfruchtreihen dargestellt sind, durch Neuformulieren der Parameter von dy / dx und einer y-Unterbrechung zu einer Neigung von dx / dy und einer x-Unterbrechung; d.h., die durch den Parameterraum definierten Linien sind in der Form von x = my + b. Die hier verwendete Modifikation der ursprünglichen Hough-Transformation wird als eine vertikale SLIHT bezeichnet, und die ursprüngliche Hough-Transformation wird als eine horizontale SLIHT bezeichnet. Alternativ kann das Sensorbild der Feldfruchtreihen oder Furchen gedreht werden (z.B. 90°), um die vertikale Natur von Linien entsprechend den Feldfruchtreihen oder Furchen zu verringern und die Verwendung der ursprünglichen Hough-Transformation zu ermöglichen. Wie hier verwendet, ist jede Hough-Transformation, bei der die Parameter Neigung und Unterbrechung sind, eine SLIHT.
  • Nach der Anwendung der SLIHT auf das Sensorbild können Linien, die Feldfruchtreihen oder Furchen darstellen, durch Analysieren des Sensorbilds bestimmt werden. In einem Beispiel kann der verschwindende oder Fluchtpunkt bestimmt werden durch Bestimmen der Unterbrechung von zwei oder mehr dieser Linien. In einem Beispiel kann der Fluchtpunkt bestimmt werden durch Kaskadieren der SLIHT. In dem ersten Parameterraum fallen die Spitzen, die die konvergierenden Linien darstellen, selbst auf eine Linie in diesem Parameterraum. Durch Anwenden der SLIHT auf den ersten Parameterraum, um einen zweiten Parameterraum (bekannt als Kaskadieren der SLIHT) zu erzeugen, stellt eine Konvergenzspitze in dem zweiten Parameterraum die Linie dar. Die Koordinaten der Konvergenzspitze sind die Koordinaten des Fluchtpunkts in dem ursprünglichen Sensorbild mit dem negierten y-Parameter. Somit kann der Fluchtpunkt durch Kaskadieren der SLIHT bestimmt werden. Der bestimmte Fluchtpunkt kann den Spurwinkelfehler liefern, da die horizontale Versetzung des Fluchtpunkts proportional zu der Tangente des Spurwinkelfehlers ist. In einem Beispiel kann der Fluchtpunkt verwendet werden zum Bestimmen des Horizonts, um Fehler, die durch die bestimmte Perspektive des Sensors eingeführt werden, zu korrigieren.
  • Der Spurquerabstand ist der Abstand zwischen der gegenwärtigen Position des landwirtschaftlichen Geräts und der Zielreihe oder -furche. Im Allgemeinen ist die Zielreihe oder -furche diejenige, die dem landwirtschaftlichen Gerät am nächsten ist, obgleich eine andere ausgewählt werden kann. Da die Feldfruchtreihen im Allgemeinen einen gleichen gegenseitigen Abstand haben, können Abstände zwischen mehreren Linien, die die Feldfruchtreihen oder Furchen darstellen, verwendet werden, um die Genauigkeit durch Verringern von Fehlern bei einer gegebenen Abstandsmessung zu erhöhen. Beispielsweise kann ein Abstand zwischen jedem Paar von Spitzen bestimmt werden, wie zwischen Spitzen 1 und 2, 1 und 3, 1 und 2, 2 und 3, 2 und 4 und 3 und 4. Diese bestimmten Differenzen können auf der Grundlage ihrer Werte geordnet werden. Der kleinste Abstand kann als der Abstand zwischen Reihen oder Furchen betrachtet werden. Der größte Abstand kann durch den kleinsten Abstand geteilt werden, um die Anzahl von Reihen oder Furchen zu bestimmen, die die größte bestimmte Differenz umfasst. In einem Beispiel kann das Ergebnis der Teilung auf die nächste ganze Zahl gerundet werden, um die Anzahl von Reihen oder Furchen zu reflektieren. Die größte bestimmte Differenz kann durch die Anzahl von Reihen oder Furchen, die sie umfasst, geteilt werden. Somit kann der Fehler bei der Messung der Spitzen zwischen mehreren Reihen- oder Furchenberechnungen gestreut werden, wodurch sein Einfluss verringert wird. In einem Beispiel werden nur solche Spitzen, die auf die Linie fallen (innerhalb eines Schwellenwerts), die durch die Konvergenzspitze dargestellt ist, bei der Berechnung des Spuren-Querabstands berücksichtigt. In einem Beispiel ist ein sich ergebender einzelner Feldfruchtreihen-Abstandswert angenähert gleich dem Furchenabstand. Nachdem diese Berechnung des Feldfruchtreihenabstands in Einheiten von Unterbrechungspixeln beendet ist, können die Abstandsdifferenzen zwischen einer Linie von dem landwirtschaftlichen Gerät zu dem Fluchtpunkt, die eine Linie auf dem Feld parallel zu den Feldfruchtreihen darstellt, und den Unterbrechungen von Feldfruchtreihen oder Furchen modulo dem Feldfruchtreihenabstand verwendet werden, um den Spurquerabstand in Einheiten des Abstands in Unterbrechungspixeln zu bestimmen, dann skaliert zu dem bekannten Abstand der tatsächlichen Feldfruchtreihen. In einem Beispiel kann eine Spitze in dem ersten Parameterraum an einem Punkt auf der Linie, die durch die Fluchtpunktspitze dargestellt ist, zwischen anderen Spitzen an dem vorher bestimmten Feldfruchtreihenabstand addiert werden, um auf die Zielfeldfruchtreihenposition zu schließen, wenn sie unterbrochen wird. In einem anderen Beispiel kann der Durchschnitt der Reste des Unterbrechungsabstands von Feldfruchtreihen- oder Furchenlinien (Spitzen des ersten Parameterraums) in dem Sensorbild modulo dem Feldfruchtreihenabstand, in verschiedener Weise gebildet werden, um die Genauigkeit zu erhöhen und auf die Zielfeldfruchtreihenposition zu schließen, wenn sie unterbrochen wird.
  • Die Verwendung des Spurwinkelfehlers und des Spurquerabstands als Variable bei dem Lenkmodul kann ein effektives Reihenführungssystem für ein landwirtschaftliches Gerät unter Verwendung von Computerbildern ermöglichen. Somit können die Kosten und Fehler bei der Durchführung einer Initialisierungsoperation für Systeme auf GPS-Basis verringert werden, oder für automatische Navigation von landwirtschaftlichen Geräten, wenn GPS oder andere Navigationssysteme nicht verfügbar sind. Zusätzliche Einzelheiten und Beispiele werden nachfolgend gegeben.
  • Die vorstehend beschriebene Hough-Transformationstechnik für Berechnungen des Spurwinkelfehlers und des Spurquerabstands enthalten die Berechnung von einem oder mehreren Zwischenwerten. Beispielsweise kann bei der Spurquerabstandsberechnung eine Sammlung von Differenzen, die als Vektoren dargestellt sind, zwischen der Kameraunterbrechung und den Linienunterbrechungen (wie beispielsweise in 13 illustriert) in eine Mausschwanzdarstellung kombiniert und als der Zwischenwert verwendet werden. In einem Beispiel kann der Zwischenwert ein gegenwärtiger Fluchtpunkt sein. Die Zwischenwerte können verwendet werden, um einen verbesserten Zwischenwert für die Verbesserung der Ausgangswerte der hier beschriebenen Hough-Transformationsreihenführung zu erzeugen. Beispielsweise kann die Vektorsumme, die sich aus der Kombination der Differenzvektoren bei der Berechnung des Spurquerabstands ergibt, eingestellt werden – beispielsweise durch Manipulieren einer Komponente, die zu den Vektoren beiträgt –, um ihre Größe zu erhöhen, hier bezeichnet als die "Mausschwanzlänge", wodurch sich eine verbesserte Vektorsumme ergibt. Somit kann die verbesserte Vektorsumme in einer Rückführungsschleife verwendet werden, um mäßige Komponenten einzustellen für die Erzielung eines besseren Ergebnisses. Demgemäß kann eine genauere oder verbesserte Lenklösung erhalten werden.
  • Beispielsweise kann der gegenwärtige Fluchtpunkt ein Zwischenwert sein. Die Position des gegenwärtigen Fluchtpunkts kann mit der eines historischen Fluchtpunkts verglichen werden. Diese beiden Positionen können verglichen werden, um einen verbesserten Fluchtpunkt zu erzielen. In einem Beispiel kann der historische Fluchtpunkt ein Durchschnitt von vorher bestimmten gegenwärtigen Fluchtpunkten sein. In einem Beispiel kann das Vergleichen der Positionen das Messen eines Abstands zwischen den beiden Positionen enthalten. Der verbesserte Fluchtpunkt kann den gegenwärtigen Fluchtpunkt von verschiedenen Berechnungen weglassen (beispielsweise auf die gegenwärtige Messung verzichten, von historischen Fluchtpunkten, usw.), wenn der gemessene Abstand über einen vorbestimmten Qualitätsschwellenwert hinaus ist. Auf diese Weise können fehlerhafte Ergebnisse identifiziert und diese behandelt werden, was wieder zu verbesserten Lenklösungen führt.
  • Die Verarbeitung von Zwischenwerten in verbesserte Zwischenwerte kann Fehler in der beschriebenen Reihenführung verringern. Verringerte Fehler führen allgemein zu einem effizienteren Betrieb der Mechanismen, die von den Reihenführungsinformationen Gebrauch machen.
  • 1 illustriert ein Beispiel für ein System 100 für die Reihenführungsparameterisierung unter Verwendung von SLIHT. Das System 100 kann ein Szenemodul 105, ein Transformationsmodul 110 und ein Lenkparameter-Berechnungsmodul 135 (das entweder ein Spurenwinkelfehler-Modul 115 oder ein Spurquerabstands-Modul 120 enthalten kann), enthalten. In einem Beispiel kann das System 100 an einem landwirtschaftlichen Gerät befestigt und angeordnet sein, die Computerbildnavigation des landwirtschaftlichen Geräts zu erleichtern.
  • Das Szenemodul 105 kann angeordnet sein, um eine elektronische Darstellung eines Felds (ERF) zu empfangen. Die ERF kann jede elektronische Darstellung des Felds enthalten, enthaltend ein digitales Bild (unbearbeitet oder verdichtet), ein Vektorbild, eine Sammlung von Abstandsdaten (z.B. von Laserbereichsfindung, Radar, usw.), die in ein digitales Bild umgeformt wurden, oder Kombinationen von diesen (z.B. mehrere Rasterbilder von mehreren Quellen und Abstandsdaten). In einem Beispiel kann die ERF durch ein Sensormodul 125 erfasst sein, mit dem das Szenemodul 105 kommuniziert. In einem Beispiel kann das Sensormodul 125 mehrere Sensoren enthalten oder diese steuern. In einem Beispiel enthalten die mehreren Sensoren eine digitale Kamera (z.B. Video oder Standbild). In einem Beispiel kann eine digitale Kamera ein Filter enthalten, um zumindest eine von Farben für das erfasste Bild vorzuspannen, den Farbkontrast in dem erfassten Bild zu erhöhen oder Informationen in dem erfassten Bild zu verringern (z.B. Unschärfe). Ein Beispiel für die Farbvorspannung des erfassten Bilds ist die einer grünen Feldfrucht, die in rotgetönte Erde gepflanzt ist. Ein Rotfilter kann für einen ersten Sensor angewendet werden, der angeordnet ist, um ein Bild der Feldfrüchte zu erfassen, oder ein Grünfilter kann für einen zweiten Sensor angewendet werden, um ein Bild der Furchen zu erfassen. Das Modifizieren des erfassten Bilds an dem Sensor kann einen kosteneffektiven Weg ergeben, um eine verringerte Verarbeitung oder Fehler zu erleichtern, wenn SLIHT verwendet wird, wie nachfolgend diskutiert wird.
  • Die ERF kann einen Satz von Merkmalssätzen enthalten. Ein Merkmalssatz ist ein Satz von Elementen, der von der ERF unterschieden werden und etwas in der ERF darstellen kann. Beispielsweise kann ein Satz von Feldfruchtreihenmerkmalen Pixel, Linien, andere geometrische Formen, Farben, usw. von der ERF enthalten, die Feldfruchtreihen in der ERF darstellen (z.B. entsprechen). In einem Beispiel kann der Satz von Merkmalssätzen einen Satz von Feldfruchtreihenmerkmalen enthalten. In einem Beispiel kann der Satz von Merkmalssätzen einen Satz von Furchenmerkmalen enthalten.
  • In einem Beispiel kann das Szenemodul 105 angeordnet sein, ein digitales Bild des Felds (z.B. von dem Sensormodul 125) zu empfangen und eine Transformation bei dem digitalen Bild anzuwenden, um die ERF zu erzeugen. Da SLIHT Pixel in der ERF bearbeitet, kann das Modifizieren der ursprünglichen Quellensensordaten die Genauigkeit und Effizienz erhöhen. Demgemäß kann das Verringern der Anzahl von Pixeln oder das Erhalten einer größeren Klarheit, welche Pixel für Feldfruchtreihen oder Furchen anwendbar sind, SLIHT erleichtern.
  • In einem Beispiel kann die Transformation eine Farbmodellierung enthalten. Die hier verwendete Farbmodellierung ist die Manipulation von Farbinformationen von der Sensoreingabe zu einer Modellausgabe. Die Modellausgabe kann angeordnet sein, eine leichtere Verarbeitung von verschiedenen hier beschriebenen Techniken wie SLIHT zu ermöglichen. Beispielsweise können, wenn grüne Feldfrüchte in braunen Erdboden gepflanzt sind, die Farben des digitalen Quellenbilds verarbeitet werden, um den Kontrast zwischen diesen beiden Merkmalen zu erhöhen, um sie besser zu unterscheiden. In einem Beispiel können Einstellungen erfolgen, um verschiedene Beleuchtungseffekte durchzuführen (z.B. Beleuchten von Quellenfarbtemperatur oder Schatten), derart, dass beispielsweise beschattete Feldfrüchte in derselben Weise wie nicht beschattete Feldfrüchte erkannt werden können.
  • In einem Beispiel kann die Farbmodellierung eine Farbnormierung enthalten. Farbnormierung kann das Kompensieren von Beleuchtungsveränderungen (beispielsweise von Schatten aufgrund von Wolken, Gebäuden, landwirtschaftlichen Geräten, usw.) in den Eingangsinformationen (z.B. Entfernen von Helligkeitsinformationen aus nichtnormierten Pixeln ohne Änderung des Farbtons) enthalten. In einem Beispiel kann die Farbnormierung in drei Dimensionen das Finden eines Schnittpunkts von Farbvektorverlängerungen mit nichtnegativen Komponenten und einer Oberfläche (z.B. Kugel, Würfel, Ebene, usw.) enthalten. Beispielsweise kann die Farbe eines Pixels als ein kartesischer Vektor dargestellt werden, der nicht negative Komponenten, die verschiedene Wellenlängen betonen, aufweist. Die Wellenlängen können, jedoch nicht beschränkt hierauf, rote, grüne und blaue Komponenten von sichtbarem Licht, Infrarotlicht und ultraviolettes Licht enthalten. In einem Beispiel können ein oder mehrere der Farbvektoren durch den quadratischen Summenwert ihrer jeweiligen Komponenten geteilt werden. Bei diesem Ergebnis werden die Farbvektoren zu einem Oktant einer Kugel normiert. In einem Beispiel können der eine oder die mehreren Farbvektoren durch ihre jeweils größten Komponenten geteilt werden. Bei diesem Ergebnis werden der eine oder die mehreren Farbvektoren zu einem Würfel normiert, mit einer Ecke in dem Ursprung und mit den Farbkomponentenachsen ausgerichteten Seiten. In einem Beispiel können der eine oder die mehreren Farbvektoren durch die Summe ihrer jeweiligen Komponenten geteilt werden. Bei diesem Ergebnis werden der eine oder die mehreren Farbvektoren zu einem gleichseitigen dreieckigen Segment einer Ebene normiert, dessen Ecken symmetrisch auf den Farbkomponentenachsen angeordnet sind. In einem Beispiel können die beschriebenen Normierungen die Projektion eines normierten mehrdimensionalen Farbvektors in einen Raum mit einer Dimension weniger enthalten. Beispielsweise können die beschriebenen Normierungen in drei oder mehr Dimensionen eine zweidimensionale Projektion enthalten.
  • Wie vorstehend beschrieben ist, kann die Farbmodellierung auch das Auflösen der Farben in dem digitalen Quellenbild enthalten, um die ERF zu erzeugen. Beispielsweise können bei der grünen Feldfrucht die Farben, die nicht grün sind, reduziert oder eliminiert werden, und der Kontrast zwischen der grünen und anderen Farben kann erhöht werden. In einem Beispiel kann die Farbauflösung die Verwendung normierter Farbkomponentenvektoren (z.B. wie vorstehend beschrieben) enthalten. Bei einem Beispiel kann die Farbauflösung das Berechnen des jeweiligen Punktprodukts eines normierten Farbvektors mit einem jeweiligen Radiusvektor eines Punkts auf der Peripherie der Normierungsfläche (z.B. Kugel, Würfel, Ebene, usw.) enthalten. In einem Beispiel kann das Punktprodukt mit einem Schwellenwert verglichen werden, um zu bestimmen, ob es eine Zielfarbe ist oder nicht. In einem Beispiel kann der Schwellenwertvergleich bei einem Merkmalssatz (z.B. Feldfruchtreihen) durchgeführt werden, um Pixel zu bestimmen, die für diesen Merkmalssatz einschlägig sind. Für den zweiten Merkmalssatz einschlägige Pixel können bestimmt werden, indem einfach das komplementäre Ergebnis des ersten Merkmalssatzes, der dem Schwellenwertvergleich unterzogen wurde, genommen wird. Bei einem Beispiel können die Farbvektoren in ein einzelnes Bit umgewandelt werden, das ein durch den Schwellenwertvergleich erhaltenes Pixel darstellt. Der Schwellenwert kann einer von einem Durchschnitts-, mittleren, minimalen, maximalen oder anderen Wert der aufgelösten Farbkomponente, die durch die Farbvektoren dargestellt wird, sein.
  • In einem Beispiel kann die Farbauflösung das Umsetzen der Farbvektoren auf eine Kugel enthalten, wobei gesättigte Farben an dem Äquator sind und weiß an dem Nordpol ist (z.B. zentriert auf einer z-Achse des kartesischen Farbraums). Dreidimensionale Farbvektoren von der Mitte der Kugel können verwendet werden, um Pixelfarbwerte in der ERF festzustellen für eine Erhöhung des Kontrasts zwischen den Farben. In einem Fall kann die Farbauflösung das Projizieren der Farbwürfelflächen – geschaffen unter Verwendung der Farbdimensionsprojektionen auf den Farbwürfel – isometrisch auf ein regelmäßiges Sechseck und dann auf eine das Sechseck umgrenzende Halbkugel enthalten, wobei die Mitte des Sechsecks in der Ebene des Sechsecks ist und den Ursprung der projizierten Farbvektoren von gleicher Größe bildet.
  • In einem Beispiel können die Ergebnisse der Farbmodellierung (beispielsweise Farbvektoren, die sich von einer oder mehreren von der Farbnormierung oder Farbauflösung ergeben) verwendet werden, um ein oder mehrere digitale Bilder aufweisend die ERF zu schaffen. In einem Beispiel können individuelle digitale Bilder für jede Farbe geschaffen werden, um ein Bild für die grüne Feldfrucht und ein anderes Bild für die braunen Furchen zu erzeugen. Andere Farben können für jeden berücksichtigten Merkmalssatz aufgelöst werden. Beispielsweise können anstelle von grün, orange, rosa, gelb, rot, usw. aufgelöst werden, um verschiedene Feldfrüchte zu identifizieren. Weiterhin kann in dem Fall von unterscheidbaren Farben des Erdbodens (oder anderem Furchenmaterial) die unterscheidbare Farbe aufgelöst werden. In diesem Beispiel weist die Sammlung von digitalen Bildern die ERF auf.
  • In einem Beispiel kann die Transformation eine Heruntertastung des digitalen Bilds enthalten. Heruntertasten kann das Reduzieren der Auflösung des Quellenbilds durch Anwenden von einer oder mehreren Heruntertastungsoperationen enthalten. In einem Beispiel können die Heruntertastungsoperationen die Informationen von mehreren Pixeln verwenden, um den Wert eines einzelnen heruntergetasteten Pixels zu bestimmen. In einem Beispiel können die mehreren Pixel durch ihre Einbeziehung in eine auf das Quellenbild angewendete Pixelmaske und entsprechend dem heruntergetasteten Pixel bestimmt werden. Beispielsweise können vier Pixel, die in einem Quadrat in dem Quellenbild angeordnet sind, kombiniert werden, um den Wert des in der Mitte des Quadrats angeordneten, heruntergetasteten Pixels zu bestimmen. In einem Beispiel kann die Kombination der Pixel des Quellenbilds die Summierung der Quellenpixel enthalten. In einem Beispiel kann die Kombination die Bildung des Durchschnitts der Quellenpixel enthalten. In einem Beispiel kann das Ergebnis der Kombination einem Schwellenwertvergleich unterzogen werden, um den endgültigen Wert des heruntergetasteten Pixels zu bestimmen.
  • In einem Beispiel können die Heruntertastungsoperationen eine Verzerrungskorrektur enthalten. Beispielsweise kann eine kreisförmig symmetrische Linse einer Kamera eine kreisförmige Verzerrung erzeugen, die in dem Quellenbild zentriert ist und die eine Biegewirkung erzeugt, die als Trommelverzerrung bekannt ist. Dies kann problematisch sein, wenn versucht wird, Positionen für im Wesentlichen gerade Feldfruchtreihen oder Furchen zu bestimmen. In einem Beispiel kann die Verzerrungskorrektur die Linsenverzerrung korrigieren. In einem Beispiel kann die Verzerrungskorrektur Quellenbildpixel in einer solchen Weise auswählen, dass die Verzerrung in dem heruntergetasteten Bild korrigiert wird. Beispielsweise kann eine unabhängige Multiplikation von Quellenpixelkoordinaten durch eine ebene Funktion des radialen Abstands des Pixels von der Mitte des Quellenbilds durchgeführt werden, um das heruntergetastete Pixel zu bestimmen, das den Quellenpixelwert verwenden wird. Dies korrigiert die Trommelverzerrung ohne Verwendung einer Quadratwurzel, da eine Annäherung einer ebenen Polynomfunktion äquivalent einem Polynom in dem Quadrat von radialem Abstand ist, das die Summe der Quadrate der Pixelkoordinaten ist.
  • In einem Beispiel kann die Transformation das Entfernen von Gliedern eines Merkmalssatzes enthalten. Wie vorstehend erwähnt ist, sind Pixel in dem Quellenbild Merkmale in einem Merkmalssatz. Beispielsweise können grüne Pixel Merkmale in dem Merkmalssatz von Feldfruchtreihen sein, in denen die Feldfrucht grün ist. Auch wird, wie vorstehend erwähnt wird, die SLIHT unter Verwendung dieser Merkmale durchgeführt. Demgemäß kann die Verringerung der Anzahl von Merkmalen in einem Merkmalssatz die Rechenkomplexität herabsetzen und somit Kosten verringern oder das Leistungsvermögen des Systems 100 erhöhen. In einem Beispiel sind die relevanten Linien auf eine von Feldfruchtreihen oder Furchen zentriert. Demgemäß können Daten, die für die Mitte dieser Merkmale nicht relevant sind, entfernt werden. In einem Beispiel enthält das Entfernen von Gliedern des Merkmalssatzes das Identifizieren von Pixeln auf einer Farbübergangsgrenze und das Entfernen von diesen aus dem Merkmalssatz. Beispielsweise kann ein grünes Pixel, das neben einem braunen Pixel (oder leeren Pixel nach der Entfernung) angeordnet ist, aus dem Merkmalssatz entfernt werden. In einem Beispiel wird die Entfernung durchgeführt, wenn das Pixel einen Nachbarn mit demselben Wert hat, und anderenfalls verhindert. Beispielsweise kann ein braunes Pixel mit einem grünen Pixel auf seiner linken Seite und einem braunen Pixel auf seiner rechten Seite entfernt werden. Jedoch kann ein braunes Pixel mit einem leeren Pixel sowohl auf seiner rechten als auch seiner linken Seite nicht entfernt werden. Dies kann die Entfernung von Pixeln verhindern, die verwendet werden, um die Mitte eines Merkmals zu bestimmen. In einem Beispiel wird der Entfernungsnachbar in einer bestimmten Richtung bestimmt. In einem Beispiel ist die bestimmte Richtung parallel zu der Unterbrechungsachse in dem Parameterraum. In einem Beispiel ist die bestimmte Richtung horizontal.
  • Das Transformationsmodul 110 kann angeordnet sein, um einen ersten Parameterraum zu erzeugen durch Durchführen einer SLIHT bei Gliedern des Merkmalssatzes in dem Satz von Merkmalssätzen. Der erste Parameterraum enthält einen ersten Neigungsparameter und einen ersten Unterbrechungsparameter. Das Erzeugen des ersten Parameterraums unter Verwendung der SLIHT ist vorstehend eschrieben. Ein Beispiel für den ersten Parameterraum ist in 4 illustriert und nachfolgend beschrieben. Bei der Erzeugung des ersten Parameterraums kann eine vertikale SLIHT verwendet werden, wenn die Orientierung der ERF derart ist, dass die Feldfruchtreihen oder Furchen im Allgemeinen parallel zu der Richtung der in der ERF dargestellten Perspektive sind. In einem Beispiel kann eine horizontale SLIHT verwendet werden durch Drehen der ERF um 90°. Sofern dies nicht anders festgestellt wird, beziehen sich weitere Beispiele auf vertikale SLIHT, jedoch sind diese Beispiele allgemein auf horizontale SLIHT mit SLIHT-Modifikationen anwendbar.
  • Das Transformationsmodul 110 kann auch angeordnet sein, um Spitzen in dem ersten Parameterraum zu identifizieren. Wie vorstehend beschrieben ist, stellen Parameterraumspitzen Linien in der ERF dar. Wenn beispielsweise die Feldfruchtreihenmerkmale verwendet werden, stellen Spitzen in dem ersten Parameterraum Linien von Feldfruchtreihen in der ERF dar. Wie nachfolgend beschrieben wird, illustrieren die 4 und 5 diese Beziehung. Häufig enthält der erste Parameterraum viele Werte (z.B. Speicherbereiche, Pixel, usw.) von variierender Natur. Das heißt, bei einem Merkmalssatz, der eine breite Feldfruchtreihe darstellt, kann mehr als eine Reihe von ähnlichen Parametern in dieses Merkmal fallen. Dies erzeugt Cluster von Parameterraumwerten. In einem Beispiel werden, um eine Spitze zu bestimmen, Parameterraumwerte auf der Grundlage eines Schwellenwerts modifiziert. Wenn beispielsweise der Wert niedriger als ein Schwellenwert ist, wird er auf null gesetzt, oder wenn er oberhalb des Schwellenwerts ist, wird er maximiert. In einem Beispiel werden Werte oberhalb eines Schwellenwerts gruppiert, und eine geometrische Mitte der Gruppe wird verwendet, um die Spitze zu identifizieren.
  • Das Transformationsmodul 110 kann angeordnet sein, einen zweiten Parameterraum zu erzeugen, indem die SLIHT bei den Spitzen durchgeführt wird. Das heißt, SLIHT wird bei dem ersten Parameterraum unter Verwendung der Spitzen als Eingabe durchgeführt. Da die Feldfruchtreihen und Furchen zu einem Fluchtpunkt hin konvergieren, fallen die Spitzen in dem ersten Parameterraum auf eine Linie innerhalb des Parameterraums. Somit enthält der zweite Parameterraum eine Spitze, die diese Linie darstellt. Diese Spitze ist eine Fluchtpunktspitze, die verwendet werden kann, um den Fluchtpunkt in der ERF zu berechnen.
  • Das Addieren mehrerer Datenpunkte kann die Genauigkeit des Berechnens des Fluchtpunktspitzenorts unter Verwendung der zweiten SLIHT erhöhen. Die zusätzlichen Datenpunkte können von einem zweiten Merkmalssatz kommen. Wenn beispielsweise der erste Parameterraum von einem Feldfruchtreihenmerkmalssatz abgeleitet wurde, kann ein Furchenmerkmalssatz verwendet werden, um einen dritten Parameterraum mit Spitzen abzuleiten, der auch in der zweiten SLIHT verwendet werden kann, um den zweiten Parameterraum zu erzeugen. In einem Beispiel kann, um den zweiten Parameterraum zu erzeugen, das Transformationsmodul 110 angeordnet sein, den dritten Parameterraum zu erzeugen, indem die SLIHT bei Gliedern des zweiten Merkmalssatzes in dem Satz von Merkmalssätzen durchgeführt wird. In diesem Beispiel sind der Merkmalssatz und der zweite Merkmalssatz verschiedene Glieder des Satzes von Merkmalssätzen, wie der Feldfruchtreihenmerkmalssatz und der Furchenmerkmalssatz. Die 6 und 7 illustrieren die Erzeugung des dritten Parameterraums und entsprechender Linien in der ERF. Das Transformationsmodul 110 kann angeordnet sein, um zweite Spitzen in dem dritten Parameterraum zu identifizieren und den zweiten Parameterraum mit dem Ausgangswert des Durchführens der SLIHT bei den zweiten Spitzen einzustellen. Zusätzliche Merkmalssätze können verwendet werden, während sie Linien darstellen, die sich an dem Fluchtpunkt schneiden. In einem Beispiel können verschiedene Merkmalssätze verschiedene Prioritäten haben, derart, dass sie zuerst verarbeitet werden, oder ihnen ein größeres Gewicht in der zweiten SLIHT-Berechnung gegeben wird.
  • Das Spurwinkelfehlermodul 115 kann angeordnet sein, den Fluchtpunkt auf der Grundlage der Fluchtpunktspitze in dem zweiten Parameterraum zu berechnen. Wie vorstehend diskutiert ist, kann der Fluchtpunkt in der ERF durch die Fluchtpunktspitze bestimmt werden. Tatsächlich ist die x-Komponente der Fluchtpunktspitze in dem zweiten Parameterraum die x-Komponente des Fluchtpunkts in der ERF, und die y-Komponente der Fluchtpunktspitze ist die negierte Komponente des Fluchtpunkts in der ERF. Im Folgenden wird die Beziehung zwischen der Fluchtpunktspitze und dem Fluchtpunkt in der ERF illustriert.
  • Die SLIHT H(p,q) einer durch Punkte p und 2 in der ERF hindurchgehenden Linie ist:
    Figure DE112015002194T5_0002
  • Um den Fluchtpunkt in der ERF zu finden, können zwei verschiedene Feldfruchtreihen (oder Furchen) durch ihre x-Unterbrechungen, p und q, und den Fluchtpunkt v gekennzeichnet werden, was ergibt:
    Figure DE112015002194T5_0003
  • Die kaskadierte SLIHT, H(H(p,v), H(q,v)) der durch diese Punkte hindurchgehenden Linie ist:
    Figure DE112015002194T5_0004
  • Somit sind die Koordinaten des Fluchtpunkts in der ERF solche der Fluchtpunktspitze mit der negierten y-Komponente.
  • Alternativ zu der Erzeugung des zweiten Parameterraums kann das Spurwinkelfehlermodul 115 angeordnet sein, die durch die Spitzen in dem ersten Parameterraum dargestellten Linien auf die ERF aufzuzeichnen und ihre Schnittstellen zu bestimmen. In diesem Beispiel ist die Schnittstelle der Fluchtpunkt.
  • Das Spurwinkelfehlermodul 115 kann angeordnet sein, einen Spurwinkelfehler (Spurwinkelfehler) von dem Fluchtpunkt zu berechnen. Die ERF kann von dem tatsächlichen Feld verzerrt sein durch beispielsweise den Typ von verwendetem Sensor und die Perspektive des Sensors. Beispielsweise kann der Sensor an einem Abwärtswinkel positioniert sein, um eine klarere Perspektive der Feldfruchtreihen und Furchen zu erhalten. Diese Position kann jedoch Feldfruchtreihen nahe des Sensors ausdehnen und sie zu dem Horizont hin verengen. Da der Sensor seinen Winkel mit Bezug auf den Horizont (Sichteintauchwinkel) zeitlich ändern kann – wenn er sich beispielsweise auf unebenem Grund auf- und abwärts neigt – kann die Wirkung der Ausdehnung vor der Feststellung der Perspektive des Sensors mit Bezug auf den Horizont unbestimmt sein. Jedoch befindet sich der Fluchtpunkt an dem Horizont und kann die zum Einstellen des vertikalen Sensorwinkels erforderlichen Daten liefern. In einem Beispiel kann das Spurwinkelfehlermodul 115, um den Spurwinkelfehler von dem Fluchtpunkt zu berechnen, angeordnet sein, den Sichteintauchwinkel zu berechnen. Als der Sichteintauchwinkel wird hier die vertikale Neigung eines Sensors (z.B. einer Bilderfassungsvorrichtung) von der Horizontalen, wenn ein Bild des Felds aufgenommen wird, verwendet. Das Spurwinkelfehlermodul 115 kann angeordnet sein, um den ERF-Spurwinkelfehler unter Verwendung des Sichteintauchwinkels zu modifizieren, um Verzerrungen zwischen Elementen des Bilds und entsprechenden Elementen des Felds auszugleichen. In einem Beispiel kann das Folgende zum Ausgleichen der Verzerrungen verwendet werden:
    Eine horizontale Ebene durch den Sichtpunkt des Sensors und den Fluchtpunkt enthält ein Liniensegment von dem Sichtpunkt zu dem Bild. Die Spurquerkomponente dieses Liniensegments ist die x-Komponente des Fluchtpunkts in dem Bild. Die Spurlängskomponente ist die Quadratwurzel der Quadrate des Einheitsabstands von dem Sichtpunkt zu dem Bild und die y-Komponente des Fluchtpunkts in dem Bild. Daher ist das Verhältnis der y-Komponente zu dem quadratischen Summenwert das Negativ des Tangens des Spurwinkelfehlers:
    Figure DE112015002194T5_0005
  • In einem Beispiel kann das Spurwinkelfehlermodul 115 angeordnet sein, um den Spurwinkelfehler zu einem Lenkmodul 130 zu übermitteln. Das Lenkmodul 130 kann angeordnet sein, den Spurwinkelfehler als eine Variable zum Einstellen von Annäherungen an das Ziel (z.B. Feldfruchtreihe) zu verwenden.
  • Das Spurquerabstandsmodul 120 kann angeordnet sein, einen Subsatz von Spitzen in dem ersten Parameterraum auf der Grundlage einer Linie in dem ersten Parameterraum, die durch die Fluchtpunktspitze definiert ist, zu identifizieren. Dies kann einen Schutz gegen eine fehlerhaft identifizierte Spitze, die nicht eine Linie darstellt, die den Fluchtpunkt schneidet, bilden. Ein derartiges Beispiel ist in den 6 und 7 illustriert und nachfolgend beschrieben. In einem Beispiel, in welchem keine fehlerhaft identifizierten Spitzen vorliegen, ist der Subsatz von Spitzen gleich dem Satz von Spitzen in dem ersten Parameterraum. Dritte und nachfolgende Parameterräume können in einer gleichen Weise behandelt werden, um fehlerhaft identifizierte Spitzen in solchen Parameterräumen zu eliminieren.
  • Das Spurquerabstandsmodul 120 kann angeordnet sein, um einen Satz von Zwischenunterbrechungsdifferenzen zwischen Linien, die durch Glieder in dem Subsatz von Spitzen dargestellt werden, zu berechnen. Diese Unterbrechungsdifferenzen können auf einer Spurquerabstandslinie berechnet werden. Die Spurquerabstandslinie ist irgendeine Linie, die die durch den Subsatz von Spitzen dargestellten Linien schneidet. In einem Beispiel ist die Spurquerabstandslinie parallel zu dem Unterbrechungsachsenparameter des Parameterraums. Beispielsweise ist in der vertikalen SLIHT die Unterbrechungsachse die x-Achse. Die Linie parallel zu der x-Achse kann die Achse selbst oder eine andere sein. In einem Beispiel ist die Linie parallel zu der Unterbrechungsachse die Unterseite der ERF in der vertikalen SLIHT und die entsprechende Kante der ERF (beispielsweise rechts oder links in Abhängigkeit von der Drehung) in der horizontalen SLIHT. Im Allgemeinen werden, je senkrechter die Spurquerabstandslinie zu den Linien, die durch den Subsatz von Spitzen dargestellt sind, desto besser die Ergebnisse.
  • In einem Beispiel können Zwischenunterbrechungsdifferenzen berechnet werden, um Fehler zu verringern. Die Berechnung zum Verringern von Fehlern kann das Bestimmen einer Differenz zwischen einem oder mehreren, bis zu jedem, Paaren von Gliedern in dem Subsatz von Spitzen enthalten. Wenn beispielsweise der Subsatz von Spitzen Spitze1, Spitze2, Spitze3 und Spitze4 enthält, können die folgenden Differenzen (z.B. Differenzen zwischen entsprechenden Linien, die die Spurquerabstandslinie unterbrechen, berechnet werden: (Spitze1, Spitze2), (Spitze1, Spitze3), (Spitze1, Spitze4), (Spitze2, Spitze3), (Spitze2, Spitze4) und (Spitze3, Spitze4). Die Ergebnisse von benachbarten Spitzen können miteinander gespeichert werden. Beispielsweise können die Paare (Spitze1, Spitze3) und (Spitze2, und Spitze4) miteinander gespeichert werden. In einem Beispiel kann der Durchschnitt der Differenzen in jedem Speicher gebildet werden, um einen einzelnen Wert für den Speicher zu bestimmen.
  • Das Spurenquerabstandsmodul 120 kann angeordnet sein zum Berechnen einer einzelnen Unterbrechungsdifferenz in der ERF auf der Grundlage des Satzes von Zwischenunterbrechungsachsendifferenzen. Die Differenz (oder der Speicher), die die kleinste der Zwischenunterbrechungsdifferenzen ist, kann verwendet werden zum Darstellen eines einzelnen Abstands (z.B. zwischen entweder Feldfruchtreihen oder Furchen). Die nächstgrößere Differenz (oder Speicher) kann durch den einzelnen Abstand geteilt werden, um ein Verhältnis zu bestimmen. Dieses Verhältnis kann die Anzahl von Elementen darstellen, die von dieser nächstgrößeren Differenz umfasst werden. In einem Beispiel kann das Verhältnis zu der nächsten ganzen Zahl gerundet werden. Wenn beispielsweise das Verhältnis zwischen der kleinsten und der nächstgrößeren Differenz als 1:3,347 berechnet wird, kann es zu 1:3 gerundet werden, und diese nächstgrößere Differenz kann als drei Feldfruchtreihen umfassend angesehen werden. Die nächstgrößere Differenz kann durch die Anzahl von Elementen geteilt werden, die sie umfasst, um an einer verbesserten Schätzung der Unterbrechungsdifferenz anzukommen. Indem diese Teilung durchgeführt wird, wird der Fehler in den Zwischenunterbrechungsdifferenzen über die von der nächstgrößeren Differenz umfassten Elemente gestreut, was zu einem verringerten Fehler für die Spurenquerabstandsberechnung führt. In einem Beispiel wird diese verbesserte Schätzung der kleinsten Differenz wieder verwendet, um die Differenz zu teilen, die noch die nächstgrößere der gerade verwendeten Differenz ist, um die Einzeldifferenzschätzung zu verfeinern. Der Prozess wird wiederholt durch Teilen durch die Schätzung, Runden und Teilen der größeren Differenz durch den gerundeten Quotienten, wobei fortschreitend größere Differenzen bis zu der größten hin verwendet werden. Dies hat den Vorteil der Herabsetzung der Möglichkeit des Irrens in der Rundungsoperation, was möglich ist, wenn die größte Differenz unmittelbar durch die relativ störungsbehaftete anfängliche Schätzung der kleinsten Differenz geteilt würde. Somit können der allgemein gleiche Raum zwischen den Merkmalen (z.B. Feldfruchtreihen) bestimmt und die Genauigkeit erhöht werden durch Kombinieren der verschiedenen Datenpunkte von den Spitzen des ersten Parameterraums. In einem Beispiel kann das Vorstehende auch auf den dritten und nachfolgende Parameterräume angewendet werden, um beispielsweise den Abstand zwischen Furchen zu bestimmen.
  • Das Spurquerabstandsmodul 120 kann angeordnet sein, um den Spurquerabstand auf der Grundlage der Einzelunterbrechungsachsendifferenz zu berechnen. In einem Beispiel kann das Spurquerabstandsmodul 120 angeordnet sein, eine Kameraunterbrechung auf der Spurquerabstandslinie für eine Linie, die sowohl durch den Fluchtpunkt als auch eine Kameraposition hindurchgeht (Positionslinie), zu berechnen. Das Spurquerabstandsmodul 120 kann angeordnet sein, einen Satz von Differenzen zu berechnen, wo jedes Glied des Satzes von Differenzen eine Differenz zwischen der Kameraunterbrechung und einer Unterbrechung der Spurquerabstandslinie für Linien, die durch den Subsatz von Spitzen in dem ersten Parameterraum dargestellt sind, ist. In einem Beispiel kann das Spurquerabstandsmodul 120 angeordnet sein, eine Modulusoperation auf jedes Glied des Satzes von Differenzen unter Verwendung der Einzelunterbrechungsdifferenz als einer Variablen anzuwenden, um einen Satz von Ergebnissen zu erzeugen, und die Glieder des Satzes von Ergebnissen zu kombinieren. Die Modulusoperation kann die jeweiligen sich ergebenden Differenzen und die Einzelunterbrechungsachsendifferenz verwenden. In einem Beispiel kann der Durchschnitt der Ergebnisse gebildet werden, um den Spurquerabstand zu bestimmen.
  • Eine beispielhafte Modulusoperation kann das Summieren von Vektoren, die jede Spitze in dem Subsatz von Spitzen in dem ersten Parameterraum darstellen, enthalten, wobei der Winkel jedes Vektors der Abstand zwischen der Unterbrechung der jeweiligen Linie und der der Kameraunterbrechung, die 360° pro Einzelunterbrechungsdifferenz skaliert ist, ist. Somit würde eine zweite Linie von der Positionslinie weg als 720° skaliert werden. Der Spurquerabstand kann berechnet werden durch Summieren der Vektoren. In einem Beispiel kann eine ähnliche Operation auf den Subsatz von Spitzen in dem dritten Parameterraum angewendet werden, um jeweilige Vektoren zu erzeugen. Um der Zwischenposition von beispielsweise Furchen, die in dem dritten Parameterraum zwischen Feldfruchtreihen, die in dem ersten Parameterraum dargestellt sind, dargestellt sind, Rechnung zu tragen, können zusätzlich 180° für die vorbeschriebene 360°-Skalierung angewendet werden. Der Spurquerabstand ist der Winkel der Vektorsumme.
  • In einem Beispiel kann das Spurquerabstandsmodul angeordnet sein zum Bestimmen, anhand des ersten Parameterraums, einer fehlenden Spitze auf der Grundlage der Linie, die durch die Fluchtpunktspitze und die Einzelunterbrechungsdifferenz dargestellt wird. Beispielsweise sollte der Subsatz von Spitzen einen Abstand durch die Einzelunterbrechungsdifferenz auf der Fluchtpunktspitzenlinie haben. Wenn zwei Spitzen einen gegenseitigen Abstand um ein Mehrfaches größer als eins auf der Fluchtpunkt-Spitzenlinie haben, können eine oder mehrere fehlende Spitzen in Abständen der einzelnen Unterbrechungsdifferenz entlang der Fluchtpunktspitzenlinie gefolgert werden. In einem Beispiel können die fehlenden Spitzen zu dem Subsatz von Spitzen in dem ersten Parameterraum hinzugefügt werden. In einem Beispiel kann der Spurquerabstand, nachdem die fehlenden Spitzen hinzugefügt wurden, die Differenz zwischen der Kameraunterbrechung und der nächsten Unterbrechung von Linien, die durch den Subsatz von Spitzen dargestellt sind, sein. Das Verwenden der Modulusoperation oder das Ersetzen fehlender Spitzen kann eine Kontinuität für die Navigation des landwirtschaftlichen Geräts ergeben durch Schließen auf den Spurquerabstand zu dem Ziel, selbst wenn das Ziel momentan unterbrochen ist (z.B. verborgen, gebrochen, usw.).
  • In einem Beispiel kann das Spurquerabstandsmodul 120 angeordnet sein, den Spurquerabstand zu dem Lenkmodul 130 zu übermitteln. Das Lenkmodul 130 kann angeordnet sein zum Verwenden des Spurquerabstands als eine Variable zum Einstellen von Annäherungen an das Ziel (z.B. Feldfruchtreihe).
  • Das Lenkparameter-Berechnungsmodul 135 kann die Parameterraumbestimmungen des vorstehend beschriebenen Transformationsmoduls 110 verwenden zum Berechnen von einer oder mehreren Variablen, die zum Steuern eines Fahrzeugs verwendet werden. Spurwinkelfehler und Spurquerabstand sind zwei beispielhafte Lenkvariablen (jede vorstehend beschrieben mit Bezug auf das Spurwinkelfehlermodul 115 und das Spurquerabstandsmodul 120).
  • Das Lenkparameter-Berechnungsmodul 135 kann angeordnet sein zum Auswählen eines Zwischenwerts, der bei der Berechnung der Lenkvariablen verwendet wird. Das heißt, ein Zwischenwert wird im Wege des Ankommens an der Lenkvariablen berechnet.
  • In einem Beispiel kann der Zwischenwert eine Mausschwanzgröße aus mehreren für die Berechnung der Lenkvariablen berechneten Mausschwanzgrößen sein. Jede der mehreren Mausschwanzgrößen ist eine Größe einer Summe von Vektoren. In einem Beispiel haben die Vektoren jeweils einen Winkel, der einen Abstand einer entsprechenden Linienunterbrechung von einer Kameraunterbrechung, die in einem ersten Parameterraum der kaskadierten Hough-Transformation dargestellt ist, darstellt, wie diejenigen, die in 11 illustriert sind.
  • Das Lenkparameter-Berechnungsmodul 135 kann angeordnet sein zum Identifizieren eines verbesserten Zwischenwerts von dem Zwischenwert durch Messen einer Differenz zwischen dem Zwischenwert und einem Ankerwert. In einem Beispiel kann der Ankerwert eine Kombination von einem oder mehreren vorher berechneten Zwischenwerten sein. In einem Beispiel kann die Kombination von einem oder mehreren vorher berechneten Zwischenwerten ein Durchschnitt von dem einen oder den mehreren vorher berechneten Zwischenwerten sein. In einem Beispiel kann der Zwischenwert ein gegenwärtiger Fluchtpunkt sein. Ein gegenwärtiger Fluchtpunkt ist der Fluchtpunkt der anfänglich in einer gegebenen Lenkvariablenberechnung bestimmt wurde. In einem Beispiel kann der Ankerwert ein Durchschnittswert von einem oder mehreren vorherigen Fluchtpunkten sein, wie diejenigen, die in vorhergehenden lenkvariablen Berechnungen berechnet wurden. Somit wird bei diesen Beispielen die Differenz zwischen dem gegenwärtigen Fluchtpunkt und einer Kombination von vorhergehenden Fluchtpunkten gemessen.
  • In einem Beispiel kann das Messen des Zwischenwerts zu dem Ankerwert enthalten: Bestimmen einer Differenz zwischen dem Zwischenwert und dem Ankerwert; und Vergleichen der Differenz mit einem Schwellenwert. Beispielsweise kann, wieder unter Verwendung von Fluchtpunkten, die Differenz zwischen dem gegenwärtigen Fluchtpunkt und der Kombination von vorhergehenden Fluchtpunkten ein Abstand sein. Jegliche Messung kann zwischen zumindest zwei Punkten verwendet werden, wie geometrische Summe, Summe von Quadraten, durch die eine Abweichung des Zwischenwerts von dem Ankerwert festgestellt werden kann. IN einem Beispiel ist der Schwellenwert für die verwendete Abstandsmessung kalibriert (z.B. der Schwellenwert einer geometrischen Summe und der Schwellenwert einer Summe von Quadraten).
  • In einem Beispiel kann das Identifizieren der Lenkvariablen das Zurückweisen des Zwischenwerts enthalten, wenn seine Differenz zu dem Ankerwert über den Schwellenwert hinaus ist. In einem Beispiel kann das Zurückweisen des Zwischenwerts das Zurückfallen auf einen vorhergehenden Zwischenwert als den verbesserten Zwischenwert enthalten. Beispielsweise kann die Kombination von vorhergehenden Fluchtpunkten als der verbesserte Zwischenwert verwendet werden.
  • In einem Beispiel kann der Ankerwert ein vorhergehender Zwischenwert innerhalb derselben Lenkvariablenberechnung sein. Beispielsweise kann der Ankerwert die größte Mausschwanzgröße aus mehreren Mausschwanzgrößen innerhalb derselben Lenkvariablenberechnung sein. In einem Beispiel kann das Identifizieren des verbesserten Zwischenwerts das Modifizieren einer Komponente enthalten, die zu einem Vektor in dem vorbeschriebenen Satz von Vektoren beiträgt. Wenn das Ändern dieser Komponenten zu einem längeren Mausschwanz führt, ist der längere Mausschwanz der verbesserte Zwischenwert. Beispielhafte Komponenten können die Farbauswahlvariablen für Reihen, Schwellenwertvergleich für helle Punkte in den Hough-Parameterräumen, usw. enthalten. In einem Beispiel kann ein Störungen induzierender Mechanismus, wie Zittern, auf die ursprünglichen Komponentenwerte angewendet werden, um eine Modifizierung der jeweiligen Komponentenwerte zu erzielen. Somit können in einem Beispiel Variablen in einer früheren Verarbeitung optimiert werden auf der Grundlage eines Grads von Übereinstimmung durch Zittern einer spezifischen Variablen, um optimiert zu werden, von einem mittleren (z.B. anfänglichen) Wert und Ändern der spezifischen Variablen (z.B. langsam) in der Richtung, die einen größeren Grad von Übereinstimmung in einem Beispiel erzeugt, wobei der mittlere Werte der spezifischen Variablen gemäß einer sich monoton erhöhenden Funktion des resultierenden Grads von Übereinstimmung zunimmt, wenn die Zitterrichtung positiv ist, und abnimmt, wenn die Zitterrichtung negativ ist.
  • Das Lenkparameter-Berechnungsmodul 135 kann angeordnet sein zum Einstellen der Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts. In einem Beispiel kann das Einstellen der Lenkvariablenberechnung das Verlassen einer gegenwärtigen Berechnung und das Neustarten enthalten. Dieses Beispiel kann auftreten, wenn beispielsweise ein Fluchtpunkt über einen Toleranzschwellenwert von vorhergehenden Fluchtpunkten hinaus ist, was einen nicht akzeptierbaren Fehler bei der Lenkvariablenberechnung vermuten lässt. In einem Beispiel, in welchem der Zwischen- und der Ankerwert eine Intra-Berechnung sind im Gegensatz zu der vorbeschriebenen Inter-Berechnungsbeziehung mit Bezug auf Fluchtpunkte, kann das Einstellen der Lenkvariablen das Beenden der Lenkvariablenberechnung beispielsweise mit den modifizierten Komponenten enthalten, die zu einem längeren Mausschwanz führen.
  • Die 2A10 illustrieren ein Beispiel der vorher beschriebenen Merkmale des Systems 100. In diesem Beispiel sind die Merkmalssätze Feldfruchtreihenmerkmale und Furchenmerkmale.
  • 2A illustriert eine Draufsicht auf ein Fahrzeug 205 (z.B. landwirtschaftliches Gerät) in einem Feld. Das Feld enthält Feldfruchtreihen 210 und Furchen 215. Die Linie 220 stellt die Mittellinie einer Feldfruchtreihe dar und die Linie 225 stellt die gegenwärtige Orientierung des Fahrzeugs 205 dar. Der Winkel 230 ist der Spurwinkelfehler und der Abstand 235 ist der Spurquerabstand. Das Fahrzeug 205 enthält einen Sensor 240, der angeordnet ist zum Erzeugen eines Quellenbilds.
  • 2B illustriert eine Seitenansicht des Fahrzeugs 205 in einem Feld. Die Linie 245 stellt die vertikale Orientierung des Fahrzeugs 205 mit Bezug auf den Horizont dar und der Winkel 250 ist der gegenwärtige Sichttauchwinkel des Sensors 240.
  • 3 illustriert ein Beispiel einer ERF 300. Die ERF 300 enthält den Horizont 310, Feldfruchtreihen 210 (schattiert) und Furchen 215 (weiß). Auch ist eine Schattierungswirkung 305 illustriert, die durch die diagonalen Streifen dargestellt ist. Wie vorstehend diskutiert ist, kann die Schattierungswirkung 305 durch Farbmodellierung (z.B. Farbnormierung) beseitigt werden.
  • 4 illustriert ein Beispiel für einen Hough-Transformationsparameterraum 400 für Feldfruchtreihen (z.B. den ersten Parameterraum). Aus Gründen der Klarheit ist der Parameterraum 400 auf drei Werte vereinfacht: dunkel, leicht schattiert und weiß. Die dunklen Werte stellen wenige Pixel in der ERF 300 für die durch die Parameterraumposition dargestellte Linie dar, die leicht schattierten Werte stellen eine mittlere Anzahl von Pixeln dar, und die weißen Werte stellen eine hohe Anzahl von Pixeln dar. Wie vorstehend beschrieben ist, können Cluster von mittleren und hohen Positionen vermischt werden, um die Spitzen 405A405E zu bestimmen. Die Linie 410 illustriert, dass die Spitzen 405A405E auf einer einzelnen Linie liegen (und somit konvergieren).
  • 5 illustriert ein Beispiel für bestimmte Feldfruchtreihenlinien, die der ERF 300 überlagert sind, um eine ERF 500 zu bilden. Die Feldfruchtreihenlinien 505A505E entsprechen den jeweiligen Spitzen 405A405E. Die Sensorposition 510 relativ zu der ERF 500 ist auch gezeigt.
  • 6 illustriert ein Beispiel für einen Houh-Transformationsparameterraum 600 für Furchen (z.B. den dritten Parameterraum). Die Spitzen 605A605D sind in der gleichen Weise wie vorstehend mit Bezug auf 4 beschrieben bestimmt. Auch zeigt die Linie 610 in gleicher Weise die Konvergenz der durch die Spitzen 605A605D dargestellten Linien. Die Spitze 605E illustriert eine fehlerhaft identifizierte Spitze. Da die Spitze 605E nicht auf der Linie 610 liegt, wird sie bei künftigen Spurquerabstandsberechnungen nicht berücksichtigt.
  • 7 illustriert ein Beispiel von bestimmten Furchenlinien, die der ERF 300 überlagert sind, um eine ERF 700 zu erzeugen. Die Furchenlinien 705A705E entsprechen den jeweiligen Spitzen 605A605E. Es ist zu beachten, dass die Linie 705E nicht einer Feldfruchtreihe 210 oder einer Furche 215 entspricht, noch konvergiert sie mit den anderen Linien 705A705D. Somit sollte die Linie 705E von künftigen Berechnungen ausgeschlossen werden.
  • 8 illustriert ein Beispiel für einen Hough-Transformationsparameterraum 800 der Hough-Transformationsparameterräume 400 und 600 für Feldfruchtreihen und Furchen. Die Spitze 805 stellt die beiden Linien 410 und 610 dar. Die Sammlung von Werten 810 illustriert das Ergebnis der fehlerhaften Spitze 605E des Parameterraums 600.
  • 9 illustriert ein Beispiel 900 für bestimmte Feldfruchtreihenlinien 505A505E, Furchenlinien 705A705D und den Fluchtpunkt 905, die der ERF 300 überlagert sind, um eine ERF 900 zu erzeugen. Anhand dieser Daten können der Spurwinkelfehler und der Spurquerabstand bestimmt werden, wie vorstehend mit Bezug auf 1 beschrieben ist.
  • 10 illustriert ein Beispiel 1000 des Bestimmens eines Abstands zwischen einem gegenwärtigen Fluchtpunkt und einer Kombination von vorhergehenden Fluchtpunkten. Der gegenwärtige Fluchtpunkt 1005 ist gegenüber der Kombination von vorhergehenden Fluchtpunkten 1010 um den Abstand 1015 versetzt. Dieser Abstand wird mit dem Schwellenwert verglichen, wie vorstehend mit Bezug auf 1 beschrieben ist.
  • 11 illustriert ein Beispiel für ein Diagramm 1100 für Spurquerabstandsnormierung. Genauer gesagt, es wird eine Modulusdrehoperation illustriert. Die Vektoren 1105 stellen eine 360°-skalierte Winkeldifferenz von Feldfruchtreihenunterbrechungen zu der Kameraunterbrechung dar. Der Vektor 1110 ist die Summe der Vektoren 1105. In gleicher Weise stellen die Vektoren 1115 die skalierten Furchenreihendifferenzen zu der Kameraunterbrechung dar, bevor eine Drehung um zusätzlich 180° erfolgt, und der Vektor 1120 ist ihre Summe. Wie aus der Illustration ersichtlich ist, bewirkt die Ausübung einer 180°-Drehung der Vektoren 1115 oder des Vektors 1120, dass diese Vektoren allgemein mit den Vektoren 1105 und dem Vektor 1120 ausgerichtet sind. In einem Beispiel können alle Vektoren 1105, 1110, 1115 und 1120 summiert werden, um den Spurquerabstand zu erzeugen.
  • 12 illustriert ein Beispiel 1200 für die Mausschwanzanalyse zum Verbessern der Reihenführungsparameterisierung. Die Vektoren 1210 werden Ende-zu-Ende angeordnet, um den Mausschwanz-Zwischenwert mit der Mausschwanzgröße 1205 zu illustrieren. Die Vektoren 1220 illustrieren einen Mausschwanz mit der Mausschwanzgröße 1215, nachdem eine Komponente der Vektoren modifiziert ist. Wie illustriert ist, überschreitet die zweite Mausschwanzgröße 1215 die erste Mausschwanzgröße 1205 um eine Differenz 1225. Somit führt die größere Länge des zweiten Mausschwanzes zu der Einfügung der modifizierten Komponenten in die Reihenlenkberechnung.
  • 13 illustriert ein Beispiel für ein Verfahren 1300 für eine Reihenführungsparameterisierung mit einer Hough-Transformation. Eine oder mehrere vorstehend beschriebene Komponenten können verwendet werden, um eine oder mehrere Operationen des Verfahrens 1300 durchzuführen. Andere geeignete Hardware kann verwendet werden, um eine oder mehrere Operationen des Verfahrens 1300 durchzuführen.
  • In der Operation 1305 kann eine ERF empfangen werden. Die ERF kann einen Satz von Merkmalssätzen enthalten. Der Satz von Merkmalssätzen kann zumindest einen von einem Satz von Feldfruchtreihenmerkmalen und einem Satz von Furchenmerkmalen enthalten. In einem Beispiel kann das Empfangen der ERF das Empfangen eines digitalen Bilds des Felds enthalten. Eine Transformation kann bei dem digitalen Bild angewendet werden, um die ERF zu erzeugen. In einem Beispiel kann die Transformation eine Farbmodellierung enthalten. In einem Beispiel kann die Transformation eine Verkleinerung enthalten. In einem Beispiel kann die Verkleinerung eine Bildverzerrungskorrektur enthalten. In einem Beispiel enthält die Transformation das Entfernen von Gliedern eines Merkmalssatzes.
  • In der Operation 1310 kann ein erster Parameterraum durch Durchführen einer SLIHT bei Gliedern eines Merkmalssatzes in dem Satz von Merkmalssätzen erzeugt werden. Der erste Parameterraum kann einen ersten Neigungsparameter und einen ersten Unterbrechungsparameter enthalten.
  • In der Operation 1315 können Spitzen in dem ersten Parameterraum identifiziert werden.
  • In der Operation 1320 kann ein zweiter Parameterraum durch Durchführen der SLIHT bei den Spitzen erzeugt werden. In einem Beispiel kann das Erzeugen des zweiten Parameterraums das Erzeugen eines dritten Parameterraums durch Durchführen der SLIHT bei Gliedern eines zweiten Merkmalssatzes in dem Satz von Merkmalssätzen enthalten. Der Merkmalssatz und der zweite Merkmalssatz sind verschiedene Glieder des Satzes von Merkmalssätzen. Zweite Spitzen können in dem dritten Parameterraum identifiziert werden und der zweite Parameterraum kann mit dem Ausgang der Durchführung der SLIHT bei den zweiten Spitzen eingestellt werden.
  • In der Operation 1325 kann ein Fluchtpunkt auf der Grundlage einer Fluchtpunktspitze in dem zweiten Parameterraum berechnet werden. Alternativ kann ein Schnittpunkt zwischen Linien, die durch mehrere bis alle Spitzen dargestellt sind, und den zweiten Spitzen verwendet werden, um den Fluchtpunkt ohne Erzeugung des zweiten Parameterraums und der entsprechenden Fluchtpunktspitze zu berechnen.
  • In der Operation 1330 kann ein Spurwinkelfehler anhand des Fluchtpunkts berechnet werden. In einem Beispiel kann die Berechnung des Spurwinkelfehlers anhand des Fluchtpunkts die Berechnung eines Sichttauchwinkels enthalten. Der Sichttauchwinkel ist die vertikale Neigung eines Sensors (z.B. einer Bilderfassungsvorrichtung) gegenüber der Horizontalen, wenn ein Quellenbild des Felds aufgenommen wird. Ein ERF-Spurwinkelfehler kann unter Verwendung des Sichttauchwinkels modifiziert werden, um Verzerrungen zwischen Elementen des Quellenbilds und entsprechenden Elementen des Felds zu korrigieren.
  • 14 illustriert ein Beispiel für ein Verfahren 1400 zum Bestimmen eines Spurquerabstands. Eine oder mehrere vorbeschriebene Komponenten können verwendet werden, um eine oder mehrere Operationen des Verfahrens 1400 durchzuführen. Andere geeignete Hardware kann verwendet werden, um eine oder mehrere Operationen des Verfahrens 1400 durchzuführen.
  • In der Operation 1405 kann ein Subsatz von Spitzen in dem ersten Parameterraum auf der Grundlage einer Linie in dem ersten Parameterraum, die durch die Fluchtpunktspitze definiert ist, identifiziert werden.
  • In der Operation 1410 kann ein Satz von Zwischenunterbrechungsdifferenzen anhand von Gliederpaaren in dem Subsatz von Spitzen berechnet werden. Die Unterbrechungsdifferenzen können auf einer Spurquerabstandslinie berechnet werden.
  • In der Operation 1415 kann eine einzelne Unterbrechungsdifferenz in der ERF auf der Grundlage des Satzes von Zwischenunterbrechungsachsendifferenzen berechnet werden.
  • In der Operation 1420 kann ein Spurquerabstand auf der Grundlage einer einzigen Unterbrechungsachsendifferenz berechnet werden. In einem Beispiel kann das Berechnen des Spurquerabstands das Anwenden eines Satzes von Skalierungsoperationen enthalten. In einem Beispiel kann eine Kameraunterbrechung auf der Spurquerabstandslinie für eine Linie, die sowohl durch den Fluchtpunkt als auch eine Kameraposition hindurchgeht, berechnet werden. Ein Satz von Differenzen kann berechnet werden. Jedes Glied des Satzes von Differenzen ist eine Differenz zwischen der Kameraunterbrechung und einer Unterbrechung für eine Linie, die durch ein Glied des Subsatzes von Spitzen in dem ersten Parameterraum dargestellt wird. In einem Beispiel kann eine Modulusoperation bei jedem Glied des Satzes von Differenzen unter Verwendung der einzelnen Unterbrechungsdifferenz als einer Variablen zur Erzeugung eines Satzes von Ergebnissen angewendet werden. Die Glieder des Satzes von Ergebnissen können dann kombiniert werden.
  • In einem Beispiel kann die Kombination oder der Satz von Ergebnissen die Addition eines entsprechenden Satzes von Vektoren enthalten, wobei jeder von dessen Winkeln als ein Bruchteil eines vollständigen Kreises einen Abstand darstellt als einen Bruchteil des durchschnittlichen Abstands zwischen den Unterbrechungen für die Linien, die durch die Spitzen in dem ersten Parameterraum dargestellt sind, und wobei der Abstand zwischen der Unterbrechung für die Linien durch eine individuelle Spitze und die Kameraunterbrechung dargestellt ist. Der Winkel der Vektorsumme entspricht dem Spurquerabstandswert, der die Übereinstimmung ist, modulo dem Reihenabstand, des Satzes von Ergebnissen; und die Größe der Summe ist ein Maß für den Grad von Übereinstimmung zwischen den Ergebnissen. In einem Beispiel können die Größen sämtlicher Vektoren dieselbe sein oder können gewichtet sein, um den Einfluss der individuellen Spitzen auf das Ergebnis zu variieren. Der Satz von Vektoren kann Ende zu Ende gezeichnet werden und wird als der Mausschwanz (so wie in 12 gezeigt) bezeichnet, und die Größe der Summe sämtlicher Vektoren ist die Mausschwanzlänge. Die Mausschwanzlänge kann verwendet werden, um jede der Komponenten (z.B. Variablen), die vorher bei der Lenkberechnung verwendet wurden, so einzustellen, dass dies die Mausschwanzlänge maximiert. Beispielsweise kann die vorstehend in 1 diskutierte Farbauflösung auf der Grundlage der Mausschwanzlänge eingestellt werden durch Rasterung des Schwellenwerts, um von einem zentralen Wert optimiert zu sein, und Ändern hiervon langsam in der Richtung, die die größere Mausschwanzlänge ergibt, da beispielsweise der zentrale Wert durch eine monoton zunehmende Funktion der sich ergebenden Mausschwanzlänge leicht erhöht wird, wenn die Rasterrichtung positiv ist, und der zentrale Wert durch dieselbe monoton zunehmende Funktion leicht abnimmt, wenn die Rasterrichtung negativ ist.
  • 15 illustriert ein Beispiel für ein Verfahren 1500 für verbesserte Reihenführungsparameterisierung mit der Hough-Transformation gemäß einem Ausführungsbeispiel.
  • In der Operation 1505 kann eine ERF empfangen werden.
  • In der Operation 1510 kann ein Lenkvariablenberechnung über eine kaskadierte Hough-Transformation bei der ERF durchgeführt werden.
  • Bei der Operation 1515 kann ein bei der Berechnung der Lenkvariablen verwendeter Zwischenwert ausgewählt werden.
  • Bei der Operation 1520 kann ein verbesserter Zwischenwert identifiziert werden durch Messen einer Differenz zwischen dem Zwischenwert und einem Ankerwert.
  • Bei der Operation 1525 kann die Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts korrigiert werden.
  • Das vorstehend mit Bezug auf 1 diskutierte und auf die Operationen 15051525 angewendete Fluchtpunktbeispiel kann wie folgt umformuliert werden:
    Wie vorstehend festgestellt ist, kann der Spurwinkelfehler anhand des Fluchtpunkts berechnet werden, der die Spitze in der zweiten Hough-Transformation ist. Der Fluchtpunkt ist der empfindlichste Wert für in der früheren Verarbeitung eingeführte Fehler. Diese Fehler können erfasst werden durch Überwachen großer plötzlicher Änderungen in der Fluchtpunktposition, indem der Abstand des gegenwärtigen Fluchtpunkts von einem Durchschnitt von vorhergehenden Fluchtpunkten mit dem Durchschnitt von vorhergehenden Fluchtpunktabständen verglichen wird und jeder über einen vorbestimmten Schwellenwert hinaus zurückgewiesen wird. Zum Beispiel: Vi soll die gegenwärtige Fluchtpunktposition (x, y) darstellen, und Vu soll den Durchschnitt von vergangenen Fluchtpunktpositionen darstellen; de soll den Abstand von Vi von Vu darstellen, und du soll den Durchschnitt von vergangenen Abständen di-1...di-n darstellen. Das Verfahren der Durchschnittsbildung und die Länge können variieren auf der Grundlage der Anwendung; di wird berechnet durch
    Figure DE112015002194T5_0006
  • Der Fluchtpunkt wird angenommen, wenn di < k·du ist, wobei k ein vorbestimmter Schwellenwert > 1 ist. Der gegenwärtige Abstand di und der Fluchtpunkt Vi sind dann in den Durchschnitten enthalten, ungeachtet der Annahme zum Schützen gegen (z. B. Vermeiden) das Vergleichen eines neuen Fluchtpunkts nur mit alten Informationen (z. B. sich einer nicht gemessenen Änderung in dem System anzunehmen). Eine ähnliche Methodologie kann für andere Datenelemente in der Lösung wie dem Spurquerabstand verwendet werden.
  • 16 illustriert ein Blockschaltbild einer beispielhaften Maschine 1600, mit der irgendeine oder mehrere der hier diskutierten Techniken (z. B. Methodologien) durchgeführt werden können. Bei alternativen Ausführungsbeispielen kann die Maschine 1600 als eine alleinstehende Vorrichtung arbeiten oder kann mit anderen Maschinen verbunden (z. B. vernetzt) sein. In einer vernetzten Anordnung kann die Maschine 1600 in der Kapazität einer Servermaschinen-, Kundenmaschinen- oder sowohl Server-Kunden-Netzumgebung arbeiten. Bei einem Beispiel kann die Maschine 1600 als eine gleichwertige Maschine in einer Peer-zu-Peer (P2P) (oder anders verteilten) Netzumgebung arbeiten. Die Maschine 1600 kann ein Personalcomputer (PC), ein Tablet-PC, eine Set-Top-Box (STB), ein persönlicher digitaler Assistent (PDA), ein Mobiltelefon, eine Netzanwendung, ein Netzrouter, Schalter oder Brücke oder irgendeine Maschine sein, die in der Lage ist, Befehle auszuführen (aufeinanderfolgend oder in anderer Weise), die von dieser Maschine durchzuführende Aktionen spezifizieren. Weiterhin soll, während nur eine einzelne Maschine illustriert ist, der Begriff "Maschine“ jede Sammlung von Maschinen enthalten, die individuell oder gemeinsam einen Satz (oder mehrere Sätze) von Befehlen ausführen, um eine oder mehrere der hier diskutierten Verfahren durchzuführen, wie Cloud Computing, Software als ein Service (SaaS) oder Computer Cluster Konfigurationen.
  • Die hier beschriebenen Beispiele können Logik oder eine Anzahl von Komponenten, Modulen oder Mechanismen enthalten oder mit diesen arbeiten. Module sind greifbare Dinge (z. B. Hardware), die in der Lage sind, spezifizierte Operationen durchzuführen, wenn sie in Betrieb sind. Ein Modul enthält Hardware. In einem Beispiel kann die Hardware spezifisch konfiguriert sein, um eine spezifische Operation durchzuführen (z. B. fest verdrahtet). In einem Beispiel kann die Hardware konfigurierbare Ausführungseinheiten (z. B. Transistoren, Schaltungen, usw.) und ein computerlesbares Medium, das Befehle enthält, enthalten, wobei die Befehle die Ausführungseinheiten zum Durchführen einer spezifischen Operation konfigurieren, wenn sie in Betrieb sind. Das Konfigurieren kann unter der Steuerung der Ausführungseinheiten oder eines Lademechanismus erfolgen. Demgemäß sind die Ausführungseinheiten kommunikativ mit dem computerlesbaren Medium gekoppelt, wenn die Vorrichtung in Betrieb ist. In diesem Beispiel können die Ausführungseinheiten ein Teil von oder mehr als ein Modul sein. Beispielsweise können im Betrieb die Ausführungseinheiten durch einen ersten Satz von Befehlen zum Implementieren eines ersten Moduls zu einem Zeitpunkt konfiguriert sein und durch einen zweiten Satz von Befehlen zum Implementieren eines zweiten Moduls neu konfiguriert sein.
  • Die Maschine (z. B. ein Computersystem) 1600 kann einen Hardwareprozessor 1602 (z. B. eine zentrale Verarbeitungseinheit (CPU)), eine Grafikverarbeitungseinheit (GPU), einen Hardwareprozessorkern oder irgendeine Kombination hiervon), einen Hauptspeicher 1604 und einen statischen Speicher 1606 enthalten, von denen einige oder alle über eine Zwischenverbindung (z. B. Bus) 1608 miteinander kommunizieren können. Die Maschine 1600 kann weiterhin eine Anzeigeeinheit 1610, eine alphanumerische Eingabevorrichtung 1612 (z. B. eine Tastatur) und eine Benutzerschnittstelle(UI)-Navigationsvorrichtung 1614 (z. B. eine Maus) enthalten. In einem Beispiel können die Anzeigeeinheit 1610, die Eingabevorrichtung 1612 und die UI-Navigationsvorrichtung 1614 eine Touchscreen-Anzeige sein. Die Maschine 1600 kann zusätzlich eine Speichervorrichtung (z. B. Laufwerkseinheit) 1616, eine Signalerzeugungsvorrichtung 1618 (z. B. einen Lautsprecher), eine Netzschnittstellenvorrichtung 1620 und einen oder mehrere Sensoren 1621 wie einen Sensor eines globalen Positionierungssystems (GPS), Kompass, Beschleunigungsmesser oder anderen Sensor enthalten. Die Maschine 1600 kann eine Ausgabe-Steuervorrichtung 1628 enthalten, wie eine serielle (z. B. serieller Universalbus (USB)), parallele oder in anderer Weise verdrahtete oder drahtlose (zum Beispiel Infrarot (IR), Nahfeldkommunikation (NFC) usw.) Verbindung zum Kommunizieren mit oder Steuern von einer oder mehreren peripheren Vorrichtungen (z. B. Drucker, Kartenleser, usw.).
  • Die Speichervorrichtung 1616 kann ein maschinenlesbares Medium 1622 enthalten, in welchem einer oder mehrere Sätze von Datenstrukturen oder Befehlen 1624 (z. B. Software), die von irgendeiner oder mehreren der hier beschriebenen Techniken oder Funktionen verwendet werden, gespeichert sind. Die Befehle 1624 können sich auch vollständig oder zumindest teilweise innerhalb des Hauptspeichers 1604, innerhalb des statischen Speichers 1606 oder innerhalb des Hardwareprozessors 1602 während ihrer Ausführung durch die Maschine 1600 befinden. In einem Beispiel kann einer oder jede Kombination von dem Hardwareprozessor 1602, dem Hauptspeicher 1604, dem statischen Speicher 1606 oder der Speichervorrichtung 1616 maschinenlesbare Medien bilden.
  • Während das maschinenlesbare Medium 1622 als ein einzelnen Medium illustriert ist, kann der Begriff "maschinenlesbares Medium“ ein einzelnes Medium oder mehrere Medien (z. B. eine zentralisierte oder verteilte Datenbank und/oder assoziierte Cachespeicher und Server) enthalten, die konfiguriert sind zum Speichern des einen oder der mehreren Befehle 624.
  • Der Begriff "maschinenlesbares Medium" kann jedes Medium enthalten, das in der Lage ist, Befehle für die Ausführung durch die Maschine 1600 zu speichern, zu codieren oder zu tragen, und das bewirkt, dass die Maschine 1600 irgendeine oder mehrere der Techniken der vorliegenden Offenbarung durchführt, oder das in der Lage ist, Datenstrukturen, die durch derartige Befehle verwendet werden oder mit diesen assoziiert sind, zu speichern, zu codieren oder zu tragen. Nicht beschränkende Beispiele für maschinenlesbare Medien können Festkörperspeicher sowie optische und magnetische Medien enthalten. In einem Beispiel weist ein maschinenlesbares Medium eine Vielzahl von Teilchen mit unveränderlicher (z. B. Rest-)Masse auf. Demgemäß sind maschinenlesbare Massenmedien nicht sich fortpflanzende vorübergehende Signale. Spezifische Beispiele für maschinenlesbare Massenmedien können enthalten: Nicht flüchtige Speicher wie Halbleiter-Speichervorrichtungen (z. B. elektrisch programmierbare Festwertspeicher (EPROM), elektrisch löschbare programmierbare Festwertspeicher (EEPROM)) und Flashspeichervorrichtungen, magnetische Scheiben wie interne Hartplatten und entfernbare Scheiben, magnetoptische Scheiben; und CD-ROM- und DVD-ROM-Scheiben.
  • Die Befehle 1624 können weiterhin über ein Kommunikationsnetz 1626 übertragen oder empfangen werden, wobei ein Übertragungsmedium über die Netzschnittstellenvorrichtung 1620 unter Verwendung von irgendeinem von einer Anzahl von Übertragungsprotokollen (z. B. Rahmenweiterleitung, Internetprotokoll (IP), Übertragungssteuerprotokoll (TCP), Benutzerdatagrammprotokoll (UDP), Hypertext-Übertragungsprotokoll (HTTP), usw.) benutzt wird. Beispielhafte Kommunikationsnetze können ein lokales Netz (LAN), ein weiträumiges Netz (WAN), ein Paketdatennetz (z. B. das Internet), ein Mobiltelefonnetz (z. B. Mobiltelefonnetze), konventionelle Fernsprechnetze (POTS) und Funkdatennetze (z. B. Institute of Electrical and Electronics Engineers (IEEE) 802.11, Familie von Standards, die als Wi-Fi®, IEEE 802.16, Familie von Standards, die als WiMax® bekannt sind), IEEE 802.15.4, Familie von Standards, Peer-to-Peer(P2P)-Netze unter anderen enthalten. In einem Beispiel kann die Netzschnittstellenvorrichtung 1620 eine oder mehrere physische Buchsen (z.B. Ethernet, Koaxial- oder Telefonbuchsen) oder eine oder mehrere Antennen zum Verbinden mit dem Kommunikationsnetz 626 enthalten. In einem Beispiel kann die Netzschnittstellenvorrichtung 1620 mehrere Antennen zur Funkkommunikation unter Verwendung von Techniken mit zumindest einer mit einem einzelnen Eingang und mehreren Ausgängen (SIMO), mehreren Eingängen und mehreren Ausgängen (MIMO) oder mehreren Eingängen und einem Ausgang (MISO) enthalten. Der Begriff "Übertragungsmedium“ soll jedes immaterielle Medium enthalten, das in der Lage ist, Befehle für die Ausführung durch die Maschine 600 zu speichern, zu codieren oder zu tragen, und enthält digitale oder analoge Kommunikationssignale oder ein anderes immaterielles Medium zum Erleichtern der Kommunikation derartiger Software.
  • ZUSÄTZLICHE BEMERKUNGEN UND BEISPIELE
  • Beispiel 1 kann einen Gegenstand enthalten (wie ein Verfahren, Mittel zum Durchführen von Tätigkeiten oder maschinenlesbares Medium enthaltend Befehle, die, wenn sie von einer Maschine ausgeführt werden, bewirken, dass die Maschine Tätigkeiten ausführt), der das Empfangen einer elektronischen Darstellung eines Felds (ERF) enthaltend einen Satz von Merkmalssätzen – der Satz von Merkmalssätzen enthält zumindest eines von einem Satz von Feldfruchtreihenmerkmalen und einem Satz von Furchenmerkmalen, das Erzeugen einen ersten Parameterraums durch Durchführen einer Neigungs-Unterbrechungs-Hough-Transformation (SLIHT) bei Gliedern eines Merkmalssatzes in dem Satz von Merkmalssätzen – der erste Parameterraum enthält einen ersten Neigungsparameter und einen ersten Unterbrechungsparameter, das Identifizieren von Spitzen in dem ersten Parameterraum, das Erzeugen eines zweiten Parameterraums durch Durchführen der SLIHT bei den Spitzen, das Berechnen eines Fluchtpunkts auf der Grundlage einer Fluchtpunktspitze in dem zweiten Parameterraum, und das Berechnen eines Spurwinkelfehlers (Spurwinkelfehler) anhand des Fluchtpunkts aufweist.
  • In dem Beispiel 2 kann der Gegenstand des Beispiels 1 wahlweise enthalten, dass das Erzeugen des zweiten Parameterraums das Erzeugen eines dritten Parameterraums durch Durchführen der SLIHT an Gliedern eines zweiten Merkmalssatzes in dem Satz von Merkmalssätzen – der Merkmalssatz und der zweite Merkmalssatz sind verschiedene Glieder des Satzes von Merkmalssätzen, das Identifizieren zweiter Spitzen in dem dritten Parameterraum und das Einstellen des zweiten Parameterraums mit dem Ausgang des Durchführens der SLIHT bei den zweiten Spitzen enthält.
  • In dem Beispiel 3 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 2 wahlweise enthalten, dass das Empfangen der ERF das Empfangen eines digitalen Bildes des Feldes und das Anwenden einer Transformation bei dem digitalen Bild, um die ERF zu erzeugen, enthält.
  • In dem Beispiel 4 kann der Gegenstand des Beispiels 3 wahlweise enthalten, dass die Transformation eine Farbmodellierung enthält.
  • In dem Beispiel 5 kann der Gegenstand nach einem oder mehreren der Beispiele 3 bis 4 wahlweise enthalten, dass die Transformation eine Verkleinerung enthält.
  • In dem Beispiel 6 kann der Gegenstand des Beispiels 5 wahlweise enthalten, dass das Verkleinern eine Bildverzerrungskorrektur enthält.
  • In dem Beispiel 7 kann der Gegenstand nach einem oder mehreren der Beispiele 3 bis 6 wahlweise enthalten, dass die Transformation das Entfernen von Gliedern eines Merkmalssatzes enthält.
  • In dem Beispiel 8 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 7 wahlweise enthalten, dass das Berechnen des Spurwinkelfehlers anhand des Fluchtpunkts das Berechnen eines Sichttauchwinkels, wobei der Sichttauchwinkel die vertikale Neigung einer Bildaufnahmevorrichtung gegenüber der Horizontalen ist, wenn ein Bild des Feldes aufgenommen wird, das Ableiten der ERF aus dem Bild des Feldes und das Modifizieren eines ERF-Spurwinkelfehlers unter Verwendung des Sichttauchwinkels zum Korrigieren von Verzerrungen zwischen Elementen des Bildes und entsprechenden Elementen des Feldes enthält.
  • In dem Beispiel 9 kann der Gegenstand nach einem oder mehreren der Beispiele 1 bis 8 wahlweise das Identifizieren eines Subsatzes von Spitzen in dem ersten Parameterraum auf der Grundlage einer Linie in dem ersten Parameterraum, die durch die Fluchtpunktspitze definiert ist, das Berechnen eines Satzes von Zwischenunterbrechungsdifferenzen von Gliederpaaren in dem Subsatz von Spitze, wobei die Unterbrechungsdifferenzen auf einer Spurquerabstandslinie berechnet werden, das Berechnen einer einzelnen Unterbrechungsdifferenz in der ERF auf der Grundlage des Satzes von Zwischenunterbrechungsdifferenzen, und das Berechnen eines Spurquerabstands (Spurquerabstand) auf der Grundlage der einzelnen Unterbrechungsdifferenz enthalten.
  • In dem Beispiel 10 kann der Gegenstand des Beispiels 9 wahlweise enthalten, dass das Berechnen des Spurquerabstands das Anwenden eines Satzes von Skalierungsoperationen enthält.
  • In dem Beispiel 11 kann der Gegenstand nach einem oder mehreren der Ansprüche 9 bis 10 wahlweise enthalten, dass das Berechnen des Spurquerabstands das Berechnen einer Kameraunterbrechung auf der Spurquerabstandslinie für eine durch sowohl den Fluchtpunkt, als auch eine Kameraposition hindurchgehende Linie, und das Berechnen eines Satzes von Differenzen, wobei jedes Glied des Satzes von Differenzen eine Differenz zwischen der Kameraunterbrechung und einer Unterbrechung für eine Linie, die durch ein Glied des Subsatzes von Spitzen in dem ersten Parameterraum dargestellt ist, ist, Anwenden einer Modulus-Operation bei jedem Glied des Satzes von Differenzen unter Verwendung der einzelnen Unterbrechungsdifferenz als einer Variablen zum Erzeugen eines Satzes von Ergebnissen, und Kombinieren der Glieder des Satzes von Ergebnissen enthält.
  • Das Beispiel 12 kann enthalten oder kann wahlweise kombiniert werden mit dem Gegenstand nach einem der Beispiele 1 bis 11 zum Enthalten eines Gegenstands (wie eines Moduls, einer Vorrichtung, eines Apparats zur Reihenführungsparameterisierung mit Hough-Transformation) aufweisend ein Szenemodul, das angeordnet ist zum Empfangen einer elektronischen Darstellung eines Feldes (ERF) enthaltend einen Satz von Merkmalssätzen – der Satz von Merkmalssätzen enthaltend zumindest eines von einem Satz von Feldfruchtreihenmerkmalen und eines Satzes von Furchenmerkmalen. Der Gegenstand kann auch aufweisen: Ein Transformationsmodul, das angeordnet ist zum Erzeugen eines ersten Parameterraums durch Durchführen einer Neigungs-Unterbrechungs-Hough-Transformation (SLIHT) bei Gliedern eines Merkmalssatzes in dem Satz von Merkmalssätzen – wobei der erste Parameterraum einen ersten Neigungsparameter und einen ersten Unterbrechungsparameter enthält, Identifizieren von Spitzen in dem ersten Parameterraum und Erzeugen eines zweiten Parameterraums, in dem die SLIHT bei den Spitzen durchgeführt wird. Der Gegenstand kann auch ein Spurwinkelfehlermodul aufweisen, das angeordnet ist zum Berechnen eines Fluchtpunkts auf der Grundlage einer Fluchtpunktspitze in dem zweiten Parameterraum, und zum Berechnen eines Spurwinkelfehlers (Spurwinkelfehler) anhand des Fluchtpunkts.
  • In dem Beispiel 13 kann der Gegenstand des Beispiels 12 wahlweise enthalten, dass die Erzeugung des zweiten Parameterraums das Transformationsmodul enthält, das angeordnet ist zum Erzeugen eines dritten Parameterraums durch Durchführen der SLIHT bei Gliedern eines zweiten Merkmalssatzes in dem Satz von Merkmalssätzen – wobei der Merkmalssatz und der zweite Merkmalssatz unterschiedliche Glieder des Satzes von Merkmalssätzen sind, zum Identifizieren zweiter Spitzen in dem dritten Parameterraum und zum Einstellen des zweiten Parameterraums mit dem Ausgang der Durchführung der SLIHT bei den zweiten Spitzen.
  • In dem Beispiel 14 kann der Gegenstand nach einem oder mehreren der Beispiele 12 bis 13 wahlweise enthalten, dass das Empfangen der ERF das Szenemodul enthält, das angeordnet ist zum Empfangen eines digitalen Bildes des Feldes und zum Anwenden einer Transformation auf das digitale Bild, um die ERF zu erzeugen.
  • In dem Beispiel 15 kann der Gegenstand des Beispiels 14 wahlweise enthalten, dass die Transformation eine Farbmodellierung enthält.
  • In dem Beispiel 16 kann der Gegenstand nach einem oder mehreren der Beispiele 14–15 wahlweise enthalten, dass die Transformation eine Heruntertastung enthält.
  • In dem Beispiel 17 kann der Gegenstand des Beispiels 16 wahlweise enthalten, dass die Heruntertastung eine Bildverzerrungskorrektur enthält.
  • In dem Beispiel 18 kann der Gegenstand nach einem oder mehreren der Beispiele 14 bis 17 wahlweise enthalten, dass die Transformation die Entfernung von Gliedern eines Merkmalssatzes enthält.
  • In dem Beispiel 19 kann der Gegenstand nach einem oder mehreren der Beispiele 12 bis 17 wahlweise enthalten, dass die Berechnung des Spurwinkelfehlers anhand des Fluchtpunkts das Spurwinkelfehlermodul enthält, das angeordnet ist zum Berechnen eines Sichttauchwinkels, wobei der Sichttauchwinkel die vertikale Neigung einer Bilderfassungsvorrichtung gegenüber der Horizontalen, wenn ein Bild des Feldes aufgenommen wird, ist – die ERF von dem Bild des Feldes abgeleitet wird, und zum Modifizieren eines ERF-Spurwinkelfehlers unter Verwendung des Sichttauchwinkels zum Korrigieren der Verzerrungen zwischen Elementen des Bildes und entsprechenden Elementen des Feldes.
  • In dem Beispiel 20 kann der Gegenstand nach einem oder mehreren der Beispiele 12 bis 19 wahlweise ein Spurquerabstandsmodul enthalten, das angeordnet ist zum Identifizieren eines Subsatzes von Spitzen in dem ersten Parameterraum auf der Grundlage einer Linie in dem ersten Parameterraum, die durch die Fluchtpunktspitze definiert ist, zum Berechnen eines Satzes von Zwischenunterbrechungsdifferenzen von Gliederpaaren in dem Subsatz von Spitzen – wobei die Unterbrechungsdifferenzen auf einer Spurquerabstandslinie berechnet werden, zum Berechnen einer einzelnen Unterbrechungsdifferenz in der ERF auf der Grundlage des Satzes von Zwischenunterbrechungsdifferenzen, und zum Berechnen eines Spurquerabstands (Spurquerabstand) auf der Grundlage der einzelnen Unterbrechungsdifferenz.
  • In dem Beispiel 21 kann der Gegenstand des Beispiels 20 wahlweise enthalten, dass das Berechnen des Spurquerabstands das Spurquerabstandsmodul enthält, das angeordnet ist zum Anwenden eines Satzes von Skalierungsoperationen.
  • In dem Beispiel 22 kann der Gegenstand nach einem oder mehreren der Beispiele 20–21 wahlweise enthalten, dass das Berechnen des Spurquerabstands das Spurquerabstandsmodul enthält, das angeordnet ist zum Berechnen einer Kameraunterbrechung auf der Spurquerabstandslinie für eine sowohl durch den Fluchtpunkt als auch eine Kameraposition hindurchgehende Linie, und Berechnen eines Satzes von Differenzen, wobei jedes Glied des Satzes von Differenzen eine Differenz zwischen der Kameraunterbrechung und einer Unterbrechung für eine Linie, die durch ein Glied des Subsatzes von Spitzen in dem ersten Parameterraum dargestellt ist, ist, zum Anwenden einer Modulusoperation bei jedem Glied des Satzes von Differenzen unter Verwendung der einzelnen Unterbrechungsdifferenz als einer Variablen, um einen Satz von Ergebnissen zu erzeugen, und zum Kombinieren der Glieder des Satzes von Ergebnissen.
  • Die vorstehende detaillierte Beschreibung enthält Bezugnahmen auf die begleitenden Zeichnungen, die einen Teil der detaillierten Beschreibung bilden. Die Zeichnungen zeigen im Wege der Illustration spezifische Ausführungsbeispiele, die praktiziert werden können. Diese Ausführungsbeispiele werden hier auch als "Beispiele“ bezeichnet. Derartige Beispiele können Elemente zusätzlich zu denjenigen, die gezeigt oder beschrieben sind, enthalten. Jedoch berücksichtigen die vorliegenden Erfinder auch Beispiele, in denen nur derartige Elemente, die gezeigt oder beschrieben sind, vorgesehen sind. Darüberhinaus berücksichtigen die vorliegenden Erfinder auch Beispiele, die jegliche Kombination oder Permutation von solchen Elementen verwenden, die gezeigt oder beschrieben sind (oder einen oder mehrere Aspekte hiervon), entweder mit Bezug auf ein bestimmtes Beispiel (oder einen oder mehrere Aspekte hiervon), oder mit Bezug auf andere Beispiele (oder einen oder mehrere Aspekte hiervon), die hier gezeigt oder beschrieben sind.
  • Alle Veröffentlichungen, Patente und Patentdokumente, auf die in diesem Dokument Bezug genommen wird, werden hier in ihrer Gesamtheit so einbezogen, als ob sie individuell einbezogen wären. In dem Fall von widersprüchlichen Verwendungen zwischen diesem Dokument und solchen Dokumenten, die derart einbezogen sind, ist die Verwendung in dem einbezogenen Dokument als ergänzend zu der dieses Dokuments zu betrachten; für nicht vereinbare Widersprüche ist die Verwendung in diesem Dokument bestimmend.
  • In diesem Dokument wird der Begriff "ein“ so verwendet, wie es in Patentdokumenten üblich ist, um eins oder mehrere als eins einzuschließen, unabhängig von jeglichen anderen Fällen oder Verwendungen von "zumindest eins“ oder "eins oder mehrere“. In diesem Dokument wird der Begriff "oder“ verwendet, um sich auf ein nicht ausschließliches "oder“ zu beziehen, derart, dass "A“ oder "B“ enthält: "A, aber nicht B“, "B, aber nicht A“ und "A und B“, sofern nichts anderes angezeigt wird. In den angefügten Ansprüchen werden die Begriffe "enthaltend“ und "in denen“ verwendet als die englischen Äquivalente der jeweiligen Begriffe "aufweisend“ und "worin“. Auch sind in den folgenden Ansprüchen die Begriffe "enthaltend“ und "aufweisend“ nicht abschließend, d. h. ein System, eine Vorrichtung, ein Gegenstand oder ein Prozess, die Elemente zusätzlich zu den nach einem derartigen Begriff in einem Anspruch aufgeführten Elementen enthalten, werden noch als in den Bereich dieses Anspruchs fallend angesehen. Darüberhinaus werden in den folgenden Ansprüchen die Begriffe "erste“, "zweite“ und "dritte“ usw. lediglich als Kennzeichen verwendet und es ist nicht beabsichtigt, ihren Objekten numerische Anforderungen aufzuerlegen.
  • Die vorstehende Beschreibung soll veranschaulichend und nicht beschränkend sein. Beispielsweise können die vorbeschriebenen Beispiele (oder ein oder mehrere Aspekte hiervon) miteinander kombiniert verwendet werden. Andere Ausführungsbeispiele können von einem Fachmann verwendet werden nach der Betrachtung der vorstehenden Beschreibung. Die Zusammenfassung dient dazu, dem Leser zu ermöglichen, schnell die Natur der technischen Offenbarung festzustellen, um beispielsweise 37 C.F.R. § 1.72(b) in den USA zu entsprechen. Sie ist mit dem Verständnis eingereicht, dass sie nicht zum Auslegen oder Beschränken des Bereichs oder der Bedeutung der Ansprüche zu verwenden ist. Auch können in der vorstehenden detaillierten Beschreibung verschiedene Merkmale miteinander gruppiert werden, um die Offenbarung zusammenzufassen. Dies sollte nicht dahin ausgelegt werden, dass beabsichtigt ist, dass ein nicht beanspruchtes offenbares Merkmal wesentlich für irgendeinen Anspruch ist. Stattdessen kann der erfinderische Gegenstand in weniger als allen Merkmalen eines bestimmten offenbarten Ausführungsbeispiels liegen. Somit sind die folgenden Ansprüche hierdurch in die detaillierte Beschreibung einbezogen, wobei jeder Anspruch als ein getrenntes Ausführungsbeispiel für sich selbst steht. Der Bereich der Ausführungsbeispiele sollte mit Bezug auf die angefügten Ansprüche bestimmt werden, zusammen mit dem vollständigen Bereich von Äquivalenten, zu denen derartige Ansprüche berechtigt sind.

Claims (27)

  1. Maschinenlesbares Medium, das nicht ein vorübergehendes, sich fortpflanzendes Signal ist, welches maschinenlesbare Medium Befehle enthält, die, wenn sie von einer Maschine ausgeführt werden, bewirken, dass die Maschine Operationen durchführt, welche aufweisen: Empfangen einer elektronischen Darstellung eines Feldes (ERF); Durchführen einer Lenkvariablenberechnung durch Ausführen einer kaskadierten Hough-Transformation bei der ERF; Auswählen eines Zwischenwerts, der bei der Berechnung der Lenkvariablen verwendet wird; Identifizieren eines verbesserten Zwischenwerts von dem Zwischenwert durch Messen einer Differenz zwischen dem Zwischenwert und einem Ankerwert; und Einstellen der Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts.
  2. Maschinenlesbares Medium nach Anspruch 1, bei dem der Ankerwert eine Kombination aus einem oder mehreren vorher berechneten Zwischenwerten ist; wobei das Messen des Zwischenwerts zu dem Ankerwert enthält: Bestimmen einer Differenz zwischen dem Zwischenwert und dem Ankerwert; und Vergleichen der Differenz mit einem Schwellenwert; wobei das Identifizieren des verbesserten Zwischenwerts das Zurückweisen des Zwischenwerts enthält, wenn die Differenz den Schwellenwert überschreitet; und wobei das Einstellen der Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts anstelle des Zwischenwerts das Aufgeben der Lenkvariablenberechnung als Antwort auf das Zurückweisen des Zwischenwerts enthält.
  3. Maschinenlesbares Medium nach Anspruch 2, bei dem die Kombination von einem oder mehreren vorher berechneten Zwischenwerten ein Durchschnitt des einen oder der mehreren vorher berechneten Zwischenwerte ist.
  4. Maschinenlesbares Medium nach Anspruch 2, bei dem der Zwischenwert ein gegenwärtiger Fluchtpunkt ist, wobei der Ankerwert eine Kombination aus vorhergehenden Fluchtpunkten ist, und wobei die Differenz zwischen dem Zwischenwert und dem Ankerwert ein Abstand zwischen dem gegenwärtigen Fluchtpunkt und der Kombination von vorhergehenden Fluchtpunkten ist.
  5. Maschinenlesbares Medium nach Anspruch 4, bei dem der Abstand durch zumindest eine von einer Summe von Quadraten, einer geometrischen Summe oder einer Summe von Absolutwerten ist.
  6. Maschinenlesbares Medium nach Anspruch 4, bei dem der Schwellenwert für einen Mechanismus kalibriert ist, der zum Bestimmen des Abstands verwendet wird.
  7. Maschinenlesbares Medium nach Anspruch 1, bei dem der Zwischenwert eine Mausschwanzgröße aus mehreren Mausschwanzgrößen, die für die Lenkvariablenberechnung berechnet wurden, ist, wobei jede der mehreren Mausschwanzgrößen eine Größe aus einer Summe von Vektoren ist, und wobei die Vektoren jeweils einen Winkel, der einen Abstand einer entsprechenden Linienunterbrechung von einer Kameraunterbrechung, die in einem ersten Parameterraum der kaskadierten Hough-Transformation dargestellt sind, darstellt, haben; wobei der Ankerwert eine größte Mausschwanzgröße der mehreren Mausschwanzgrößen innerhalb der Lenkvariablenberechnung ist; und wobei das Identifizieren des verbesserten Zwischenwerts das Modifizieren einer Komponente enthält, die zu einem Vektor der Vektoren zum Erzeugen des verbesserten Zwischenwerts beiträgt, wobei der verbesserte Zwischenwert eine Mausschwanzgröße ist, die nicht geringer als der Ankerwert und größer als der Zwischenwert ist.
  8. Maschinenlesbares Medium nach Anspruch 7, bei dem die Komponente ein Schwellenwert ist, der zum Klassifizieren von Pixeln in der ERF verwendet wird.
  9. Maschinenlesbares Medium nach Anspruch 8, bei dem der Schwellenwert ein Farbschwellenwert ist, der zum Unterscheiden zwischen Feldfruchtpixeln und Furchenpixeln verwendet wird.
  10. Maschinenimplementiertes Verfahren, welches aufweist: Empfangen einer elektronischen Darstellung eines Feldes (ERF); Durchführen einer Lenkvariablenberechnung durch Ausführen einer kaskadierten Hough-Transformation bei der ERF; Auswählen eines Zwischenwerts, der bei der Berechnung der Lenkvariablen verwendet wird; Identifizieren eines verbesserten Zwischenwerts von dem Zwischenwert durch Messen einer Differenz zwischen dem Zwischenwert und einem Ankerwert; und Einstellen der Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts.
  11. Verfahren nach Anspruch 10, bei dem der Ankerwert eine Kombination aus einem oder mehreren vorher berechneten Zwischenwerten ist; wobei das Messen des Zwischenwerts zu dem Ankerwert enthält: Bestimmen einer Differenz zwischen dem Zwischenwert und dem Ankerwert; und Vergleichen der Differenz mit einem Schwellenwert; wobei das Identifizieren des verbesserten Zwischenwerts das Zurückweisen des Zwischenwerts ist, wenn die Differenz den Schwellenwert übersteigt; und wobei das Einstellen der Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts anstelle des Zwischenwerts das Aufgeben der Lenkvariablenberechnung als Antwort auf die Zurückweisung des Zwischenwerts enthält.
  12. Verfahren nach Anspruch 11, bei dem die Kombination von einem oder mehreren vorher berechneten Zwischenwerten ein Durchschnitt von dem einen oder den mehreren vorher berechneten Zwischenwerten ist.
  13. Verfahren nach Anspruch 11, bei dem der Zwischenwert ein gegenwärtiger Fluchtpunkt ist, wobei der Ankerwert eine Kombination von vorhergehenden Fluchtpunkten ist, und bei dem die Differenz zwischen dem Zwischenwert und dem Ankerwert ein Abstand zwischen dem gegenwärtigen Fluchtpunkt und der Kombination von vorhergehenden Fluchtpunkten ist.
  14. Verfahren nach Anspruch 13, bei dem der Abstand durch zumindest eine von einer Summe von Quadraten, einer geometrischen Summe oder einer Summe von Absolutwerten bestimmt werden.
  15. Verfahren nach Anspruch 13, bei dem der Schwellenwert für einen Mechanismus, der zum Bestimmen des Abstands verwendet wird, kalibriert wird.
  16. Verfahren nach Anspruch 10, bei dem der Zwischenwert eine Mausschwanzgröße aus mehreren Mausschwanzgrößen, die für die Lenkvariablenberechnung berechnet wurden, ist, wobei jede der mehreren Mausschwanzgrößen eine Größe einer Summe von Vektoren ist und die Vektoren jeweils einen Winkel haben, der einen Abstand einer entsprechenden Linienunterbrechung von einer Kameraunterbrechung, die in einem ersten Parameterraum der kaskadierten Hough-Transformation dargestellt sind, darstellt; wobei der Ankerwert eine größte Mausschwanzgröße der mehreren Mausschwanzgrößen innerhalb der Lenkvariablenberechnung ist; und wobei das Identifizieren des verbesserten Zwischenwerts das Modifizieren einer Komponente, die zu einem Vektor der Vektoren zum Erzeugen des verbesserten Zwischenwerts beiträgt, enthält, und der verbesserte Zwischenwert eine Mausschwanzgröße ist, die nicht kleiner als der Ankerwert und größer als der Zwischenwert ist.
  17. Verfahren nach Anspruch 16, bei dem die Komponente ein Schwellenwert ist, der zum Klassifizieren von Pixeln in der ERF verwendet wird.
  18. Verfahren nach Anspruch 17, bei dem der Schwellenwert ein Farbschwellenwert ist, der zum Unterscheiden zwischen Feldfruchtpixeln und Furchenpixeln verwendet wird.
  19. System, welches aufweist: ein Szenemodul, das angeordnet ist zum Empfangen einer elektronischen Darstellung eines Feldes (ERF); ein Transformationsmodul, das angeordnet ist zum Durchführen einer kaskadierten Hough-Transformation bei der ERF; und ein Lenkparameter-Berechnungsmodul, das angeordnet ist zum: Durchführen einer Lenkvariablenberechnung durch Ausführen einer kaskadierten Hough-Transformation bei der ERF; Auswählen eines Zwischenwerts, der bei der Berechnung der Lenkvariablen verwendet wird; Identifizieren eines verbesserten Zwischenwerts anhand des Zwischenwerts durch Messen einer Differenz zwischen dem Zwischenwert und einem Ankerwert; und Einstellen der Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts.
  20. System nach Anspruch 19, bei dem der Ankerwert eine Kombination aus einem oder mehreren vorher berechneten Zwischenwerten ist; bei dem die Berechnung des Zwischenwerts zu dem Ankerwert das Lenkparameter-Berechnungsmodul enthält, das angeordnet ist zum: Bestimmen einer Differenz zwischen dem Zwischenwert und dem Ankerwert; und Vergleichen der Differenz mit einem Schwellenwert; bei dem zum Identifizieren des verbesserten Zwischenwerts das Lenkparameter-Berechnungsmodul enthalten ist, das angeordnet ist, den Zwischenwert zurückzuweisen, wenn die Differenz den Schwellenwert übersteigt; und bei dem zum Einstellen der Lenkvariablenberechnung unter Verwendung des verbesserten Zwischenwerts anstelle des Zwischenwerts das Lenkparameter-Berechnungsmodul enthalten ist, das angeordnet ist zum Aufgeben der Lenkvariablenberechnung als Antwort auf das Zurückweisen des Zwischenwerts.
  21. System nach Anspruch 20, bei dem die Kombination von einem oder mehreren vorher berechneten Zwischenwerten ein Durchschnitt des einen oder der mehreren vorher berechneten Zwischenwerte ist.
  22. System nach Anspruch 1, bei dem der Zwischenwert ein gegenwärtiger Fluchtpunkt ist, bei dem der Ankerwert eine Kombination von vorhergehenden Fluchtpunkten ist, und bei dem die Differenz zwischen dem Zwischenwert und dem Ankerwert ein Abstand zwischen dem gegenwärtigen Fluchtpunkt und der Kombination von vorhergehenden Fluchtpunkten ist.
  23. System nach Anspruch 22, bei dem der Abstand durch zumindest eine von einer Summe von Quadraten, einer geometrischen Summe oder einer Summe von absoluten Werten bestimmt ist.
  24. System nach Anspruch 22, bei dem der Schwellenwert für einen Mechanismus, der zum Bestimmen des Abstands verwendet wird, kalibriert ist.
  25. System nach Anspruch 19, bei dem der Zwischenwert eine Mausschwanzgröße aus mehreren Mausschwanzgrößen, die für die Lenkvariablenberechnung berechnet wurden, ist, wobei jede der mehreren Mausschwanzgrößen eine Größe einer Summe von Vektoren ist und die Vektoren jeweils einen Winkel haben, der einen Abstand einer entsprechenden Linienunterbrechung von einer Kameraunterbrechung, die in einem ersten Parameterraum der kaskadierten Hough-Transformation dargestellt sind, darstellt; wobei der Ankerwert eine größte Mausschwanzgröße der mehreren Mausschwanzgrößen innerhalb der Lenkvariablenberechnung ist; und wobei zur Identifizierung des verbesserten Zwischenwerts das Lenkparameter-Berechnungsmodul enthalten ist, das angeordnet ist zum Modifizieren einer Komponente, die zu einem Vektor der Vektoren zum Erzeugen des verbesserten Zwischenwerts beiträgt, und der verbesserte Zwischenwert eine Mausschwanzgröße ist, die nicht kleiner als der Ankerwert und größer als der Zwischenwert ist.
  26. System nach Anspruch 25, bei dem die Komponente ein Schwellenwert ist, der zum Klassifizieren von Pixeln in der ERF verwendet wird.
  27. System nach Anspruch 26, bei dem der Schwellenwert ein Farbschwellenwert ist, der zum Unterscheiden zwischen Feldfruchtpixeln und Furchenpixeln verwendet wird.
DE112015002194.9T 2014-05-09 2015-05-07 Verbesserte Reihenführungsparameterisierung mit Hough-Transformation Withdrawn DE112015002194T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461991065P 2014-05-09 2014-05-09
US61/991,065 2014-05-09
PCT/US2015/029783 WO2015171954A2 (en) 2014-05-09 2015-05-07 Refined row guidance parameterization with hough transform

Publications (1)

Publication Number Publication Date
DE112015002194T5 true DE112015002194T5 (de) 2017-01-19

Family

ID=54367121

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015002194.9T Withdrawn DE112015002194T5 (de) 2014-05-09 2015-05-07 Verbesserte Reihenführungsparameterisierung mit Hough-Transformation

Country Status (3)

Country Link
US (1) US9446791B2 (de)
DE (1) DE112015002194T5 (de)
WO (1) WO2015171954A2 (de)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11079725B2 (en) 2019-04-10 2021-08-03 Deere & Company Machine control using real-time model
US11178818B2 (en) 2018-10-26 2021-11-23 Deere & Company Harvesting machine control system with fill level processing based on yield data
US11234366B2 (en) 2019-04-10 2022-02-01 Deere & Company Image selection for machine control
US11240961B2 (en) 2018-10-26 2022-02-08 Deere & Company Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity
US20220110251A1 (en) 2020-10-09 2022-04-14 Deere & Company Crop moisture map generation and control system
US11467605B2 (en) 2019-04-10 2022-10-11 Deere & Company Zonal machine control
US11474523B2 (en) 2020-10-09 2022-10-18 Deere & Company Machine control using a predictive speed map
US11477940B2 (en) 2020-03-26 2022-10-25 Deere & Company Mobile work machine control based on zone parameter modification
US11589509B2 (en) 2018-10-26 2023-02-28 Deere & Company Predictive machine characteristic map generation and control system
US11592822B2 (en) 2020-10-09 2023-02-28 Deere & Company Machine control using a predictive map
US11635765B2 (en) 2020-10-09 2023-04-25 Deere & Company Crop state map generation and control system
US11641800B2 (en) 2020-02-06 2023-05-09 Deere & Company Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11650587B2 (en) 2020-10-09 2023-05-16 Deere & Company Predictive power map generation and control system
US11653588B2 (en) 2018-10-26 2023-05-23 Deere & Company Yield map generation and control system
US11672203B2 (en) 2018-10-26 2023-06-13 Deere & Company Predictive map generation and control
US11675354B2 (en) 2020-10-09 2023-06-13 Deere & Company Machine control using a predictive map
US11711995B2 (en) 2020-10-09 2023-08-01 Deere & Company Machine control using a predictive map
US11727680B2 (en) 2020-10-09 2023-08-15 Deere & Company Predictive map generation based on seeding characteristics and control
US11778945B2 (en) 2019-04-10 2023-10-10 Deere & Company Machine control using real-time model
US11825768B2 (en) 2020-10-09 2023-11-28 Deere & Company Machine control using a predictive map
US11844311B2 (en) 2020-10-09 2023-12-19 Deere & Company Machine control using a predictive map
US11845449B2 (en) 2020-10-09 2023-12-19 Deere & Company Map generation and control system
US11849671B2 (en) 2020-10-09 2023-12-26 Deere & Company Crop state map generation and control system
US11849672B2 (en) 2020-10-09 2023-12-26 Deere & Company Machine control using a predictive map
US11864483B2 (en) 2020-10-09 2024-01-09 Deere & Company Predictive map generation and control system
US11874669B2 (en) 2020-10-09 2024-01-16 Deere & Company Map generation and control system
US11889787B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive speed map generation and control system
US11889788B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive biomass map generation and control
US11895948B2 (en) 2020-10-09 2024-02-13 Deere & Company Predictive map generation and control based on soil properties
US11927459B2 (en) 2020-10-09 2024-03-12 Deere & Company Machine control using a predictive map
US11946747B2 (en) 2020-10-09 2024-04-02 Deere & Company Crop constituent map generation and control system
US11957072B2 (en) 2020-02-06 2024-04-16 Deere & Company Pre-emergence weed detection and mitigation system
US11983009B2 (en) 2020-10-09 2024-05-14 Deere & Company Map generation and control system

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015171954A2 (en) 2014-05-09 2015-11-12 Raven Industries, Inc. Refined row guidance parameterization with hough transform
US10008035B1 (en) * 2015-05-18 2018-06-26 Blue River Technology Inc. System and method of virtual plant field modelling
US10491879B2 (en) 2016-01-15 2019-11-26 Blue River Technology Inc. Plant feature detection using captured images
US10073457B2 (en) 2016-06-10 2018-09-11 Cnh Industrial America Llc Autoscaling rows of travel for an off-road vehicle
JP6708043B2 (ja) * 2016-07-28 2020-06-10 富士通株式会社 データ検索プログラム、データ検索方法およびデータ検索装置
DE102016118651A1 (de) 2016-09-30 2018-04-05 Claas Selbstfahrende Erntemaschinen Gmbh Selbstfahrende landwirtschaftliche Arbeitsmaschine
EP3342274B1 (de) * 2016-12-30 2019-08-14 AGCO Corporation Sensorfusionsbasiertes schwadenprofil
US10255670B1 (en) * 2017-01-08 2019-04-09 Dolly Y. Wu PLLC Image sensor and module for agricultural crop improvement
US10531603B2 (en) * 2017-05-09 2020-01-14 Cnh Industrial America Llc Agricultural system
BE1024928B1 (nl) * 2017-05-09 2018-08-13 Cnh Industrial Belgium Nv Verbeteringen in of met betrekking tot tractor/balenpers- combinaties
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
WO2020037003A1 (en) 2018-08-13 2020-02-20 Raven Industries, Inc. Comparative agricultural obstacle monitor and guidance system and method for same
US11212954B2 (en) * 2019-05-08 2022-01-04 Deere & Company Apparatus and methods for field operations based on historical field operation data
US20210185882A1 (en) * 2019-12-23 2021-06-24 Ag Leader Technology Use Of Aerial Imagery For Vehicle Path Guidance And Associated Devices, Systems, And Methods
IT202000005686A1 (it) * 2020-03-17 2021-09-17 Cnh Ind Italia Spa Sistema di guida autonoma in ambito agricolo mediante camera infrarossi
US11576364B2 (en) 2020-03-30 2023-02-14 Cnh Industrial America Llc System and method for determining agricultural vehicle guidance quality based on a crop row boundary consistency parameter
US11514630B2 (en) * 2020-04-01 2022-11-29 International Business Machines Corporation Scalable visual analytics for remote sensing applications
US20220350991A1 (en) * 2021-04-30 2022-11-03 Deere & Company Vision guidance system using dynamic edge detection
DE102022129533A1 (de) 2021-12-01 2023-06-01 Wiedenmann Gmbh Vorrichtung und Verfahren zur Rasenpflege mit Spurerkennung
US20230237612A1 (en) * 2022-01-26 2023-07-27 Intuitive Research And Technology Corporation Determining volume of a selectable region using extended reality

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US6686951B1 (en) * 2000-02-28 2004-02-03 Case, Llc Crop row segmentation by K-means clustering for a vision guidance system
US7634159B2 (en) 2004-12-08 2009-12-15 Motorola, Inc. System and method for parallel computation of an array transform
US8121345B2 (en) * 2006-05-18 2012-02-21 Applied Perception, Inc. Vision guidance system and method for identifying the position of crop rows in a field
CN101608924B (zh) * 2009-05-20 2011-09-14 电子科技大学 一种基于灰度估计和级联霍夫变换的车道线检测方法
CN102288121B (zh) * 2011-05-12 2012-11-07 电子科技大学 一种基于单目视觉的车道偏离距离测量及预警方法
US8583312B2 (en) * 2011-08-22 2013-11-12 Agco Corporation Guidance system automatic wheel angle sensor calibration
US9633436B2 (en) 2012-07-26 2017-04-25 Infosys Limited Systems and methods for multi-dimensional object detection
US9123113B2 (en) 2013-03-08 2015-09-01 Raven Industries, Inc. Row guidance parameterization with Hough transform
WO2015171954A2 (en) 2014-05-09 2015-11-12 Raven Industries, Inc. Refined row guidance parameterization with hough transform

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11653588B2 (en) 2018-10-26 2023-05-23 Deere & Company Yield map generation and control system
US11178818B2 (en) 2018-10-26 2021-11-23 Deere & Company Harvesting machine control system with fill level processing based on yield data
US11672203B2 (en) 2018-10-26 2023-06-13 Deere & Company Predictive map generation and control
US11240961B2 (en) 2018-10-26 2022-02-08 Deere & Company Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity
US11589509B2 (en) 2018-10-26 2023-02-28 Deere & Company Predictive machine characteristic map generation and control system
US11829112B2 (en) 2019-04-10 2023-11-28 Deere & Company Machine control using real-time model
US11467605B2 (en) 2019-04-10 2022-10-11 Deere & Company Zonal machine control
US11778945B2 (en) 2019-04-10 2023-10-10 Deere & Company Machine control using real-time model
US11079725B2 (en) 2019-04-10 2021-08-03 Deere & Company Machine control using real-time model
US11650553B2 (en) 2019-04-10 2023-05-16 Deere & Company Machine control using real-time model
US11234366B2 (en) 2019-04-10 2022-02-01 Deere & Company Image selection for machine control
US11957072B2 (en) 2020-02-06 2024-04-16 Deere & Company Pre-emergence weed detection and mitigation system
US11641800B2 (en) 2020-02-06 2023-05-09 Deere & Company Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11477940B2 (en) 2020-03-26 2022-10-25 Deere & Company Mobile work machine control based on zone parameter modification
US11727680B2 (en) 2020-10-09 2023-08-15 Deere & Company Predictive map generation based on seeding characteristics and control
US11849672B2 (en) 2020-10-09 2023-12-26 Deere & Company Machine control using a predictive map
US11675354B2 (en) 2020-10-09 2023-06-13 Deere & Company Machine control using a predictive map
US11711995B2 (en) 2020-10-09 2023-08-01 Deere & Company Machine control using a predictive map
US11635765B2 (en) 2020-10-09 2023-04-25 Deere & Company Crop state map generation and control system
US11592822B2 (en) 2020-10-09 2023-02-28 Deere & Company Machine control using a predictive map
US11474523B2 (en) 2020-10-09 2022-10-18 Deere & Company Machine control using a predictive speed map
US11825768B2 (en) 2020-10-09 2023-11-28 Deere & Company Machine control using a predictive map
US11844311B2 (en) 2020-10-09 2023-12-19 Deere & Company Machine control using a predictive map
US11845449B2 (en) 2020-10-09 2023-12-19 Deere & Company Map generation and control system
US11849671B2 (en) 2020-10-09 2023-12-26 Deere & Company Crop state map generation and control system
US11650587B2 (en) 2020-10-09 2023-05-16 Deere & Company Predictive power map generation and control system
US11864483B2 (en) 2020-10-09 2024-01-09 Deere & Company Predictive map generation and control system
US11874669B2 (en) 2020-10-09 2024-01-16 Deere & Company Map generation and control system
US11871697B2 (en) 2020-10-09 2024-01-16 Deere & Company Crop moisture map generation and control system
US11889787B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive speed map generation and control system
US11889788B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive biomass map generation and control
US11895948B2 (en) 2020-10-09 2024-02-13 Deere & Company Predictive map generation and control based on soil properties
US11927459B2 (en) 2020-10-09 2024-03-12 Deere & Company Machine control using a predictive map
US11946747B2 (en) 2020-10-09 2024-04-02 Deere & Company Crop constituent map generation and control system
US20220110251A1 (en) 2020-10-09 2022-04-14 Deere & Company Crop moisture map generation and control system
US11983009B2 (en) 2020-10-09 2024-05-14 Deere & Company Map generation and control system

Also Published As

Publication number Publication date
US20150321694A1 (en) 2015-11-12
WO2015171954A2 (en) 2015-11-12
WO2015171954A3 (en) 2015-12-30
US9446791B2 (en) 2016-09-20

Similar Documents

Publication Publication Date Title
DE112015002194T5 (de) Verbesserte Reihenführungsparameterisierung mit Hough-Transformation
US9123113B2 (en) Row guidance parameterization with Hough transform
DE102013210478B4 (de) Geometrische vorkorrektur zur automatischen nummernschilderkennung
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE112015002189T5 (de) Bildfilter auf der Grundlage von Reihenidentifizierung
EP3782467B1 (de) Verfahren zum identifizieren von beikräutern innerhalb einer definierten pflanzenreihe einer landwirtschaftlichen fläche
DE102015015194A1 (de) Bildverarbeitungsvorrichtung und -verfahren und Programm
DE102015207676A1 (de) Verfahren und Vorrichtung zur Hinderniserkennung auf Basis einer monokularen Kamera
DE102015010096A1 (de) Konfigurationseinstellungen einer Digitalkamera zur Tiefenkarten-Erzeugung
DE102020120526A1 (de) Verfahren und computersystem zur objektidentifizierung
EP3528609A1 (de) Ertragsvorhersage für ein kornfeld
DE112014006439T5 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE102020122844A1 (de) System und verfahren für tiefgehendes maschinelles lernen für computer-vision-anwendungen
DE112015002191T5 (de) Erfassungsanwendung für optischen Datenstrom in landwirtschaftlichen Fahrzeugen
EP4088223A1 (de) Verfahren zum generieren einer vielzahl von annotierten bildern
DE102018203475A1 (de) Für Anwendungen des maschinellen Sehens optimierte Digitalkameraverfahren und -vorrichtungen
DE102014108924B4 (de) Ein halbüberwachtes Verfahren zum Trainiern eines Hilfsmodells zur Erkennung und Erfassung von Mehrfachmustern
DE102019107835A1 (de) Bildkombiniervorrichtung, Verfahren zum Kombinieren von Bildern und Programm
EP2997543A1 (de) Vorrichtung und verfahren zum parametrisieren einer pflanze
EP4064819B1 (de) Verfahren zum bearbeiten von pflanzen auf einem feld, zum generieren von trainingsdaten und zum trainieren eines neuronalen netzes
DE102019133515B3 (de) Verfahren und Vorrichtung zur Parallaxenbestimmung von Aufnahmen eines Multilinsen-Kamerasystems
WO2021105017A1 (de) Verfahren zum bearbeiten von pflanzen auf einem feld
DE102018102691A1 (de) Parallaxenberechnungsvorrichtung
DE112019004975T5 (de) Verfahren, system und vorrichtung zur bestimmung einer trägerstrukturtiefe
DE102019201977A1 (de) Verfahren zum Ermitteln eines Zustandes einer Feldfrucht-Bepflanzung und landwirtschaftliches Fahrzeug

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee