WO2008064800A1 - Verfahren und anordnung zur steuerung eines fahrzeuges - Google Patents

Verfahren und anordnung zur steuerung eines fahrzeuges Download PDF

Info

Publication number
WO2008064800A1
WO2008064800A1 PCT/EP2007/010016 EP2007010016W WO2008064800A1 WO 2008064800 A1 WO2008064800 A1 WO 2008064800A1 EP 2007010016 W EP2007010016 W EP 2007010016W WO 2008064800 A1 WO2008064800 A1 WO 2008064800A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image information
travel
object structures
control commands
Prior art date
Application number
PCT/EP2007/010016
Other languages
English (en)
French (fr)
Inventor
Nico Correns
Enrico Geissler
Michael Rode
Christoph Nieten
Tobias Neumann
Ruediger Kuehnle
Original Assignee
Carl Zeiss Microimaging Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microimaging Gmbh filed Critical Carl Zeiss Microimaging Gmbh
Priority to US12/516,300 priority Critical patent/US20100063681A1/en
Priority to EP07846679A priority patent/EP2094073A1/de
Priority to JP2009537523A priority patent/JP2010510918A/ja
Publication of WO2008064800A1 publication Critical patent/WO2008064800A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/001Steering by means of optical assistance, e.g. television cameras

Definitions

  • the invention relates to a method in which image information is detected from the lying in front of a vehicle in the direction of travel terrain and from it control commands for influencing the direction of travel and / or the vehicle speed are generated. Furthermore, the invention relates to an arrangement for controlling an agricultural vehicle according to this method.
  • the driver particularly an agricultural vehicle, such as a tractor, combine harvester, or forage harvester, is usually entrusted with a variety of other tasks in addition to steering his vehicle, for example control of the ejector arm, monitoring of the filling in the grain tank, control of the settings of a field sprayer, a plow or thresher.
  • a disadvantage of this principle is the inadequate for many applications accuracy: For example, to drive a field on which the lanes between the rows of plants just the tire widths and the track width of the vehicle are appropriate, not to damage the seedlings, a maximum lane deviation of 8 cm allowed. This is not achievable with a satellite-only GPS arrangement.
  • the receiver on the vehicle is not only supplied with the satellite signals, but also with information from a stationary transmitting station.
  • the terrain in front of the vehicle is observed with the help of a camera, and in a subsequent image analysis, the occurring structures are evaluated with different algorithms. For example, for the detection of swathing, a distinction is made between the swath and the mown stubble field on the basis of color differences.
  • the problem is that the colors of swaths and subsoil are dependent on conditions such as wetness and dryness, so that the color difference is often too small.
  • the evaluation of the recorded images is also dependent on the ambient light. Shadows, in particular the shadow of the vehicle in question, generate a high degree of dynamics in the signals to be processed, thereby making automatic interpretation considerably more difficult.
  • the disadvantage here is that the positions of the two cameras must be known very well and may not change on the vehicle.
  • the object of the invention is to further develop the method for automatically controlling a vehicle, in particular a vehicle for agriculture.
  • the object of the invention is also to provide an arrangement which enables improved control of an agricultural vehicle with regard to the efficiency of the management of agricultural land.
  • the object is achieved with a method for controlling a vehicle in which image information from the lying in the direction of travel in front of the vehicle terrain and generated from these image information control commands for influencing the direction of travel and / or driving speed are achieved in that based on the image information distinctive object structures are selected, the distance between the vehicle and the distinctive object structures is determined repeatedly and the control commands are generated from the image information corresponding to the object structures and the distance changes between the vehicle and the object structures.
  • Certain plants, rows of plants, furrows, swaths of crop, roadsides or lanes can be used as distinctive object structures, and the control commands are generated to influence the direction of travel relative to such object structures.
  • the image information obtained from the distinctive object structures and the distance changes between the vehicle and the object structures related to this image information are converted into control commands which influence the steering of the vehicle and correct the direction of travel in such a way that the wheels of the vehicle automatically in intended tracks, for example, in precise alignment between the rows of plants, run without the driver has to intervene.
  • control commands for influencing the direction of travel or driving speed for the purpose of avoiding obstacles are generated. This serves in particular to recognize objects that can endanger the vehicle due to their size and nature. It is also possible to detect traveling objects, such as other vehicles or persons, and to generate control commands for influencing the direction of travel or driving speed and / or warning signals from these image information.
  • control commands are also generated to influence the driving speed or the direction of travel in order to influence the distance and the orientation of the vehicle to be controlled to other vehicles.
  • control commands are also generated to influence the driving speed or the direction of travel in order to influence the distance and the orientation of the vehicle to be controlled to other vehicles.
  • the image information is obtained with light from the infrared range and / or from the visual range.
  • the image information is obtained with light from the infrared range and / or from the visual range.
  • the control of an agricultural vehicle is carried out depending on the amount and quality of the crop.
  • acoustic warning signals for the vehicle driver at the same time as the control commands or else separately, which can then control the effectiveness of the automatic control and the corrective measures.
  • a steering device for determining the direction of travel
  • an acceleration and braking device for influencing the speed of movement
  • an optical device for detecting image information from the in the direction of travel before the Vehicle lying terrain
  • an evaluation and processing device for generating control commands for the steering device and / or for the acceleration and braking device from the image information
  • the optical device has means for detecting the image information originating from object structures lying in the space in front of the agricultural vehicle on a straight line, this straight line with the direction of travel an angle of ⁇ ⁇ 0 °, preferably ⁇ ⁇ 90 °.
  • the optical device has means for detecting the image information originating from object structures lying in the space in front of the agricultural vehicle in a surface, said surface with the direction of travel of the vehicle an angle of ⁇ ⁇ 0, preferably ⁇ «90 ° , includes.
  • the optical device for acquiring the image information is equipped with individual optical sensors, optical sensor lines and / or optical sensor arrays. At least one of the sensors is designed as a phase-sensitive sensor and provided for detecting the changes in distance.
  • a runtime camera is advantageously used as an optical device. While a conventional camera is equipped with optical sensors that capture only the brightness of pixels, the runtime camera has instead of or in addition to these sensors via phase-sensitive sensors that measure not only the brightness but also the duration of the light that carries the image information, and thus distance measurements enable. This is done with the aid of a separate, modulated light source for illuminating the objects to which the distance is to be measured. Thus, the runtime camera not only obtains image information of objects, but also distance values to these objects.
  • the terrain is illuminated in front of the vehicle with a light source, which is advantageously integrated in the runtime camera, and which is modulated sinusoidally, for example, with a frequency f.
  • the light propagating at the speed of light c Ie has the period 1 / f.
  • the image capture is designed in the inventive arrangement so that, for example, for a swath detection, a resolution of about 10 cm to 20 cm is possible.
  • the arrangement is advantageously designed for accuracies of 5 cm to 10 cm.
  • Cylindrical lenses or prisms may advantageously be arranged upstream of the optical device for the purpose of achieving an unevenly distributed optical resolution in the acquisition of the image information.
  • the cylinder liners sen or prisms formed so that certain sensor areas of the optical device capture image information from the terrain in front of the vehicle with higher resolution than the other sensor areas.
  • Fig.l symbolically the side view of an agricultural vehicle in a cultivated field
  • FIG. 2 shows the agricultural vehicle from Fig.l in a plan view
  • 3 is a block diagram of the signal flow in the extraction of image and distance information and their implementation in control commands.
  • the agricultural vehicle 1 in Fig.l comprises the following, not shown in detail in the drawing devices: a drive for locomotion, a steering device for influencing the direction of movement, an acceleration and braking device for influencing the speed of movement, a runtime camera 2, which is used to capture image information distinctive object structures 3, which lie in the direction of travel in front of the vehicle, and for clocked, repeated determination of the distance between the vehicle 1 and the object structures 3 is formed, and an evaluation and processing device for generating control commands for the steering device and for the acceleration and braking device from the image information and the distance changes.
  • the runtime camera 2 has in the Fig.l side view shown a viewing area 4 with a viewing angle ß of about 15 ° to 40 °.
  • FIG. 2 shows a top view of the illustration according to FIG. 1, from which the lateral viewing angle ⁇ of the viewing area 4 of the transit time camera 2 can be seen, which lies for example in the order of magnitude of 40 ° to 140 °.
  • the runtime camera 2 includes an array of sensors, of which at least one, but preferably a plurality, particularly preferably are all phase-sensitive and provide both brightness and distance signals, and whose signal inputs are connected to the preferably internal and external signals. half of the vehicle 1 accommodated evaluation and processing device are connected.
  • the runtime camera 2 takes pictures of the lying in the direction of travel in front of the vehicle terrain and transmits the image information obtained, the arrangement of the sensors according to one or two-dimensional, caused by the object structures 3 brightness distribution to the evaluation and processing device.
  • the distance a between the transit time camera 2 or the vehicle 1 and the object structures 3 detected by the transit time camera 2 in its field of view 4 changes as a function of the travel speed.
  • information about the distances a from the object structures is also obtained from the phase-sensitive sensors in accordance with the "time-of-flight principle.”
  • time-of-flight principle which specifies a clock that is advantageously integrated into the runtime camera 2
  • This information is constantly updated and on this basis in the evaluation and processing device continuously generates a three-dimensional image of the space in front of the vehicle 1. It goes without saying that the clocks per unit of time are many times higher than those in the same time unit of Vehicle 1 traveled distance.
  • phase-sensitive sensors are provided, which lie either in one line or span a surface, so that image information mation of structures of several objects are detected, which are in a row, or image information of structures of multiple objects are detected, which lie in a plane.
  • the three-dimensional image of the space in front of the vehicle 1 is permanently evaluated in order to recognize the striking object structures 3 from image to image.
  • object structures 3 correspond to swaths, plant rows, cut edges in the grain harvest, regions with bent over cereals or even rows of maize or soybean plants.
  • plant rows 5 are shown in FIG. 2 which extend parallel to the direction of travel of the vehicle 1 and which are separated from each other by furrows which serve as lanes 6.
  • the information about the change of the position of the vehicle 1 relative to the object structures 3 are obtained by the evaluation and processing device in addition to the information about the distance changes and derived therefrom correcting control commands for the steering device and the acceleration and braking device , transmitted to this and so affects the direction of travel and the speed of movement of the vehicle 1.
  • the evaluation and processing device is also designed for color evaluation in the three-dimensional image, so that object structures 3 are distinguishable not only in terms of their size or shape, but also because of their particular color.
  • the plant rows 5 can be precisely distinguished from the lanes 6. For a particularly high accuracy in the corrective influence on the direction of movement of the vehicle 1 is achieved.
  • Configurations are also conceivable, for example for evaluating the three-dimensional image with regard to a possible inclined position of the vehicle 1 due to unevenness in the floor.
  • FIG. 3 schematically shows a block diagram of the arrangement according to the invention, which itself is explained on the basis of the designations contained therein and the signal flow directions marked by arrows.
  • the method according to the invention and the arrangement according to the invention forego scanning optical systems.
  • This makes it possible to record the multiplicity of two-dimensional image information in parallel over time and, in contrast to the prior art, to simultaneously generate the three-dimensional profile.
  • the method according to the invention in particular the exemplary arrangement according to the invention, can furthermore be used to detect obstacles in the field of vision in front of the vehicle. Because the system creates a three-dimensional terrain profile, it is able to detect objects that are potentially hazardous to the machine due to their size, such as large stones, trees, other vehicles unexpectedly crossing the direction of travel.
  • relative velocities can be detected very accurately based on the obtained image and distance information.
  • movements of an agricultural machine relative to an obstacle (eg another agricultural machine) in the direction of travel the time-based image information acquisition has the advantage of having direct information about the distance, while the conventional procedure can only make a statement about the distance due to size changes in the image ,
  • the three-dimensional profile data of the space in front of the agricultural vehicle can, for example, continue to be used to adapt the tools coupled to the vehicle to the terrain profile.
  • the cutting unit of a combine harvester can be automatically height-adjusted to prevent contact with the ground or contact with a low obstacle and thus damage.
  • the cutting unit can always be adjusted in height so that an optimal distance from the ground is maintained.
  • the invention also includes embodiments in which the runtime camera is oriented so that a three-dimensional profile is obtained not only from a terrain section in the direction of travel, but also of terrain sections opposite or laterally to the direction of travel.
  • an adjacent vehicle can be monitored with regard to location, distance and / or relative speed, and on this basis an adaptation of the driving speed and direction of travel of the controlled vehicle can be carried out.

Abstract

Die Erfindung bezieht sich auf ein Verfahren, bei dem Bildinformationen aus dem in Fahrtrichtung vor einem Fahrzeug (1) liegenden Gelände erfaßt und daraus Steuerbefehle zur Beeinflussung der Fahrtrichtung und/oder der Fahrgeschwin digkeit generiert werden. Des weiteren bezieht sich die Erfindung auf eine Anordnung zur Steuerung eines landwirtschaftlichen Fahrzeuges (1) nach diesem Verfahren. Erfindungsgemäß wird die Aufgabe dadurch gelöst, daß anhand der Bildinformationen markante Objektstrukturen (3) ausgewählt werden, wiederholt der Abstand a zwischen dem Fahrzeug (1) und den markanten Objektstrukturen (1) ermittelt wird und die Steuerbefehle aus den Bildinformationen, die den Objektstrukturen entsprechen, und den Abstandsänderungen zwischen dem Fahrzeug (1) und den Objektstrukturen (3) generiert werden.

Description

Verfahren und Anordnung zur Steuerung eines Fahrzeuges
Die Erfindung bezieht sich auf ein Verfahren, bei dem Bildinformationen aus dem in Fahrtrichtung vor einem Fahrzeug liegenden Gelände erfaßt und daraus Steuerbefehle zur Beeinflussung der Fahrtrichtung und/oder der Fahrgeschwindigkeit generiert werden. Des weiteren bezieht sich die Erfindung auf eine Anordnung zur Steuerung eines landwirtschaftlichen Fahrzeuges nach diesem Verfahren.
Der Fahrzeugführer, insbesondere eines landwirtschaftlichen Fahrzeuges, wie Traktor, Mähdrescher, oder Feldhäcksler, ist in der Regel neben der Lenkung seines Fahrzeuges mit einer Vielzahl anderer Aufgaben betraut, zum Beispiel Steuerung des Auswurfarms, Überwachung der Füllung im Getreidetank, Steuerung der Einstellungen einer Feldspritze, eines Pflug oder Dreschwerkes.
Um den Fahrzeugführer bei diesen Aufgaben zu entlasten, wurden bereits automatische Lenkeinrichtungen entwickelt. Dabei ist eine genaue Spurhaltung von Bedeutung, um Beschädigungen des Erntegutes und damit Ertragseinbußen zu vermeiden, und um die Überlappung der Erntereihen beispielsweise bei der Getreideernte zu optimieren mit dem Ziel, Zeit und Treibstoffkosten zu sparen und so die Effizienz der Bewirtschaftung einer landwirtschaftlichen Fläche zu erhöhen.
Bekannt ist es, die automatische Steuerung eines Fahrzeuges auf Basis einer GPS-gestützten Anordnung zu realisieren. Dabei befindet sich ein GPS-Empfänger an dem Fahrzeug, und mittels Software werden die Abmaße des Feldes und eine optimale Fahrtroute zur Bewältigung der geplanten Arbeiten berechnet, daraus Steuerbefehle generiert und an die Lenkeinrichtung übertragen.
Nachteilig bei diesem Prinzip ist die für viele Anwendungen unzureichende Genauigkeit: Um beispielsweise ein Feld zu befahren, auf dem die Fahrspuren zwischen den Pflanzreihen gerade den Reifenbreiten und der Spurbreite des Fahrzeuges angemessen sind, ist, um das Pflanzgut nicht zu beschädigen, maximal eine Fahrspurabweichung von 8 cm zulässig. Dies ist mit einer nur durch Satelliten gestützten GPS- Anordnung nicht erreichbar.
Um die Genauigkeit zu erhöhen, sind zum vorgenannten Zweck bereits differentielle GPS-Systeme entwickelt worden. Dabei wird der Empfänger am Fahrzeug nicht nur mit den Satelliten-Signalen, sondern zusätzlich auch noch mit Informationen einer stationären Sendestation versorgt.
Auf diese Weise gelingt es, die Genauigkeit der Spurhaltung auf etwa ±5 cm zu verbessern. Ein solches System ist beispielsweise beschrieben in US 2003/0208311 Al.
In US 6,539,303 ist eine weiterführende Verfahrensweise offenbart, bei der parallel zueinander versetzt fahrende Fahrzeuge automatisch gesteuert werden.
Den beiden vorgestellten Systemen ist jedoch gemeinsam, daß eine sehr genaue Kenntnis der Lage von Hindernissen oder vorgegebenen Fahrspuren vorhanden sein muß. Bei der Erzeugung von Schwaden aus Erntegut beispielsweise liegen jedoch solche Informationen nicht vor. Des weiteren muß eine räumliche Drift des verwendeten Systems nachgehalten werden, beispielsweise aufgrund der zwischen Aussaat und Ernte liegenden Zeitspanne.
Es sind weiterentwickelte Verfahren und Anordnungen zur Steuerung von Fahrzeugen bekannt, bei denen Informationen über das das Fahrzeug umgebende Gelände dem Generieren der Steuerbefehle zugrundegelegt werden, wie zum Beispiel beschrieben in US 6,278,918 und US 6,686,951.
Dabei wird das Gelände vor dem Fahrzeug mit Hilfe einer Kamera beobachtet, und in einer nachgeschalteten Bildanalyse werden mit verschiedenen Algorithmen die auftretenden Strukturen bewertet. So erfolgt beispielsweise zur Schwade- Erkennung eine Unterscheidung zwischen der Schwade und dem abgemähten Stoppelfeld anhand von Farbunterschieden.
Probleme dabei bereitet der Umstand, daß die Farben von Schwade und Untergrund von Bedingungen wie Nässe und Trok- kenheit abhängig sind, so daß die Farbdifferenz oftmals zu gering ist. Auch ist die Auswertung der aufgenommenen Bilder vom Umgebungslicht abhängig. Schatten, insbesondere der Schatten des betreffenden Fahrzeuges, erzeugen eine hohe Dynamik in den zu verarbeitenden Signalen und erschweren dadurch die automatische Interpretation erheblich.
In der Veröffentlichung „Schwadabtastung mit Ultraschall" in der Zeitschrift Landtechnik Heft 5/1993, ab Seite 266, ist eine Verfahrensweise beschrieben, bei der mehrere Ultraschallsensoren in Reihe parallel zum Boden angeordnet sind. Jeder dieser Sensoren ermittelt den Abstand zum Boden und liefert einen „Bildpunkt" eines Höhenprofils, das aus den von allen beteiligten Sensoren ermittelten Abständen gewonnen wird. Bei jeder Abtastung liegt eine zweidimensionale Information über das Höhenprofil vor. Mit wiederholten Abtastungen während der Fortbewegung des Fahrzeuges wird dann eine dreidimensionale Information des Höhenprofils gewonnen.
Nach diesem Prinzip lassen sich nur verhältnismäßig grobe Strukturen detektieren, wie etwa die Höhe und Breite einer auf dem abgetasteten Boden liegenden Schwade.
Weitere bekannte Einrichtungen nutzen zur Bilderfassung eine Stereokamera, wie zum Beispiel in EP 1 473 673 offenbart. Durch die Analyse von zwei Bildern, die aus verschiedenen Blickwinkeln vom Fahrzeug aus gewonnen werden, wird ein dreidimensionales Profil der Oberfläche erstellt, indem die zweidimensionalen Abweichungen von identischen Objekten auf beiden Bildern in eine räumliche Tiefe umgesetzt werden.
Nachteilig hierbei ist, daß die Positionen der beiden Kameras sehr genau bekannt sein müssen und sich auf Fahrzeug nicht verändern dürfen.
In einer Anordnung, die eine Entfernungsmeßrichtung auf Basis eines Laserscanners verwendet, wie in US 6,389,785 beschrieben, wird eine Geländezeile senkrecht zur Fahrtrichtung Punkt für Punkt abgerastert und deren Entfernung gemessen. Während der Fortbewegung des Fahrzeuges werden die Meßdaten zu einem dreidimensionalen Profil zusammengesetzt.
Bedingt durch den Scanner werden hierbei bewegliche Teile zur Bilderfassung verwendet. Gerade die auf einem landwirt- schaftlichen Fahrzeug auftretenden Erschütterungen und Vibrationen führen deshalb leicht Störungen des Meßsystems und begrenzen darüber hinaus die Lebensdauer des Scanners.
Von diesem Stand der Technik ausgehend liegt der Erfindung die Aufgabe zugrunde, die Verfahren zur automatischen Steuerung eines Fahrzeuges, insbesondere eines Fahrzeuges für die Landwirtschaft, weiterzuentwickeln. Die Aufgabe der Erfindung besteht außerdem darin, eine Anordnung zu schaffen, die eine im Hinblick auf die Effizienz der Bewirtschaftung von landwirtschaftlichen Flächen verbesserte Steuerung eines landwirtschaftlichen Fahrzeuges ermöglicht.
Erfindungsgemäß wird die Aufgabe mit einem Verfahren zur Steuerung eines Fahrzeuges, bei dem Bildinformationen aus dem in Fahrtrichtung vor dem Fahrzeug liegenden Gelände erfaßt und aus diesen Bildinformationen Steuerbefehle zur Beeinflussung der Fahrtrichtung und/oder der Fahrgeschwindigkeit generiert werden dadurch gelöst, daß anhand der Bildinformationen markante Objektstrukturen ausgewählt werden, wiederholt der Abstand zwischen dem Fahrzeug und den markanten Objektstrukturen ermittelt wird und die Steuerbefehle aus den Bildinformationen, die den Objektstrukturen entsprechen, und den Abstandsänderungen zwischen dem Fahrzeug und den Objektstrukturen generiert werden.
Als markante Objektstrukturen können dabei bestimmte Pflanzen, Pflanzreihen, Ackerfurchen, Schwaden aus Erntegut, Straßenränder oder Fahrspuren genutzt werden, und die Steuerbefehle werden zur Beeinflussung der Fahrtrichtung relativ zu solchen Objektstrukturen generiert. Mit anderen Worten: Die aus den markanten Objektstrukturen gewonnenen Bildinformationen und die auf diese Bildinformationen bezogenen Abstandsänderungen zwischen dem Fahrzeug und den Objektstrukturen werden in Steuerbefehle umgesetzt, die die Lenkung des Fahrzeuges so beeinflussen und die Fahrtrichtung in der Weise korrigieren, daß die Räder des Fahrzeuges automatisch in vorgesehenen Bahnen, beispielsweise in präziser Ausrichtung zwischen den Pflanzreihen, laufen, ohne daß der Fahrzeugführer eingreifen muß.
In einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens werden Steuerbefehle zur Beeinflussung der Fahrtrichtung oder Fahrtgeschwindigkeit zwecks Umgehung von Hindernissen generiert. Dies dient insbesondere dazu, Objekte zu erkennen, die aufgrund ihrer Größe und Beschaffenheit das Fahrzeug gefährden können. Auch können Fahrtrichtung befindliche, sich bewegende Objekte, wie etwa andere Fahrzeuge oder Personen, detektiert werden und aus diesen Bildinformationen Steuerbefehle zur Beeinflussung der Fahrtrichtung oder Fahrtgeschwindigkeit und/oder Warnsignale generiert werden.
In einer weiteren vorteilhaften Ausgestaltung werden Steuerbefehle auch zur Beeinflussung der Fahrgeschwindigkeit oder der Fahrtrichtung generiert, um den Abstand und die Ausrichtung des zu steuernden Fahrzeuges zu anderen Fahrzeugen zu beeinflussen. Damit ist es beispielsweise möglich, Fahrgeschwindigkeit oder Fahrtrichtung eines Erntefahrzeuges zu der Fahrgeschwindigkeit oder Fahrtrichtung eines oder mehrerer Fahrzeuge zum Abtransport des Erntegutes zu synchronisieren. Die Übertragung des Erntegutes vom Erntefahrzeug auf wechselnde Transportfahrzeuge kann so ohne Unterbrechung des Ernteprozesses erfolgen, so daß das Erntefahrzeug effektiv ausgelastet ist. Besonders geeignet ist diese Verfahrensweise zur Anwendung bei fahrbaren Häckslern oder bei der Getreideernte.
So befinden sich bei zahlreichen Aufgaben in der Landwirtschaft mehrere Landmaschinen gleichzeitig auf einem Feld. Dabei kann es sich um einen Verband von Mähdreschern handeln, die leicht versetzt zueinander ein Getreidefeld abernten, oder aber um Erntemaschinen, die die Anhänger von Traktoren beladen, die sich parallel zur Maschine bewegen. In all diesen Fällen handelt es sich um Situationen, in denen die Fahrtrichtung und Fahrgeschwindigkeit der einzelnen Maschinen zueinander von Bedeutung sind, um einen reibungslosen Ablauf zu garantieren.
Je nach Ausgestaltung des erfindungsgemäßen Verfahrens werden die Bildinformationen mit Licht aus dem Infrarotbereich und/oder aus dem visuellen Bereich gewonnen. So ist es möglich, aufgrund der Auswertung bestimmter Farben die Bildinformationen spektral aufzulösen, beispielsweise um die Schwade-Erkennung zu verbessern oder auch um Informationen über die Dichte einer Schwade zu erhalten. Die Steuerung eines landwirtschaftlichen Fahrzeuges erfolgt dabei in Abhängigkeit von der Menge und der Qualität des Erntegutes.
In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, gleichzeitig mit den Steuerbefehlen oder auch gesondert dazu akustische Warnsignale für den Fahrzeugführer zu generieren, der daraufhin die Wirksamkeit der automatischen Steuerung und die Korrekturmaßnahmen kontrollieren kann. Bei einer Anordnung zur Steuerung eines landwirtschaftlichen Fahrzeuges, das ausgestattet ist mit einem Antrieb zur Fortbewegung des Fahrzeuges, einer Lenkeinrichtung zur Bestimmung der Fortbewegungsrichtung, einer Beschleunigungs- und Bremseinrichtung zur Beeinflussung der Fortbewegungsgeschwindigkeit, einer optische Einrichtung zur Erfassung von Bildinformationen aus dem in Fortbewegungsrichtung vor der Fahrzeug liegenden Gelände, und mit einer Auswerte- und -Verarbeitungseinrichtung zur Generierung von Steuerbefehlen für die Lenkeinrichtung und/oder für die Beschleunigungs- und Bremseinrichtung aus den Bildinformationen sind erfindungsgemäß vorgesehen:
Mittel zur Auswahl von Bildinformationen, die markanten Objektstrukturen entsprechen, sowie eine Entfernungsmeßeinrichtung zur getakteten, wiederholten Ermittlung des Abstandes zwischen dem Fahrzeug und diesen Objektstrukturen, wobei die Auswerte- und Verarbeitungseinrichtung zur Generierung der Steuerbefehle aus den Bildinformationen, die den markanten Objektstrukturen entsprechen, und den Abstandsänderungen zwischen dem Fahrzeug und den Objektstrukturen ausgebildet ist.
Vorteilhaft weist die optische Einrichtung Mittel zur Erfassung der Bildinformationen auf, die von Objektstrukturen stammen, die im Raum vor dem landwirtschaftlichen Fahrzeug auf einer Geraden liegen, wobei diese Gerade mit der Fortbewegungsrichtung einen Winkel von α ≠ 0°, bevorzugt α ~ 90° einschließt. Alternativ dazu weist die optische Einrichtung Mittel zur Erfassung der Bildinformationen auf, die von Objektstrukturen stammen, die im Raum vor dem landwirtschaftlichen Fahrzeug in einer Fläche liegen, wobei diese Fläche mit der Fortbewegungsrichtung des Fahrzeuges einen Winkel von α ≠ 0, bevorzugt α « 90°, einschließt.
Die optische Einrichtung zur Erfassung der Bildinformationen ist mit optischen Einzelsensoren, optischen Sensorzeilen und/oder optischen Sensorarrays ausgestattet. Dabei ist mindestens einer der Sensoren als phasensensitiver Sensor ausgebildet und zur Erfassung der Abstandsänderungen vorgesehen .
Diesbezüglich wird als optische Einrichtung vorteilhaft eine Laufzeitkamera genutzt. Während eine herkömmliche Kamera mit optischen Sensoren ausgestattet ist, die lediglich die Helligkeit von Bildpunkten erfassen, verfügt die Laufzeitkamera anstelle oder auch neben diesen Sensoren über phasensensitive Sensoren, die außer der Helligkeit auch die Laufzeit des Lichtes messen, das die Bildinformation trägt, und damit Entfernungsmessungen ermöglichen. Dies erfolgt unter Zuhilfenahme einer gesonderten, modulierten Lichtquelle zur Beleuchtung der Objekte, zu denen die Entfernung zu messen ist. So werden mit der Laufzeitkamera nicht nur Bildinformationen von Objekten gewonnen, sondern auch Entfernungswerte zu diesen Objekten.
Bei Verwendung einer Laufzeitkamera wird das Gelände vor dem Fahrzeug mit einer Lichtquelle beleuchtet, die vorteilhaft in die Laufzeitkamera integriert ist, und die beispielsweise mit einer Frequenz f sinusförmig moduliert wird. Die sich mit Lichtgeschwindigkeit c ausbreitende WeI- Ie hat dabei die Periode 1/f. Die Entfernung z zu einem ausgewählten beleuchteten Objekt bzw. zu einer beleuchteten Objektstruktur berechnet sich aus der Messung der Phasenverschiebung, die sich während der Laufzeit des Lichtes er- c j, φ gibt, nach der Funktion z = —*-J— mit c der Lichtgeschwin-
2/ 2π digkeit, f der Modulationsfrequenz und φ der Phasenverschiebung. Die Entfernung wird also anhand der Phasenverschiebung φ bestimmt.
Dieses auch unter dem Begriff "time-of-flighf-Prinzip bekannte Entfernungsmeßverfahren ist beispielsweise detailliert beschrieben in der Zeitschrift „Elektronik", WEK Fachzeitschriften-Verlag GmbH, 2000, Heft 12, unter dem Titel „Photomischdetektor erfaßt 3D-Bilder". Eine weitere Beschreibung enthält die Dissertation „Untersuchung und Entwicklung von modulationslaufzeitbasierten SD-Sichtsystemen", vorgelegt von Horst G. Heinold, dem Fachbereich Elektrotechnik und Informatik der Universität Siegen. Eine ausführlichere Erläuterung ist daher hier an dieser Stelle nicht erforderlich.
Die Bilderfassung ist bei der erfindungsgemäßen Anordnung so ausgelegt, daß beispielsweise für eine Schwade-Erkennung eine Auflösung von etwa 10 cm bis 20 cm möglich ist. Bei der Erfassung von Bildinformationen von Pflanzenreihen dagegen ist die Anordnung vorteilhaft für Genauigkeiten von 5 cm bis 10 cm ausgebildet.
Vorteilhaft können der optischen Einrichtung Zylinderlinsen oder Prismen vorgeordnet sein zu dem Zweck, eine ungleichmäßig verteilte optische Auflösung bei der Erfassung der Bildinformationen zu erzielen. Dabei sind die Zylinderlin- sen oder Prismen so ausgebildet, daß bestimmte Sensorbereiche der optischen Einrichtung Bildinformationen aus dem Gelände vor dem Fahrzeug mit höherer Auflösung erfassen als die übrigen Sensorbereiche.
Die Erfindung soll nachfolgend anhand eines Ausführungsbeispieles näher erläutert werden. In den zugehörigen Zeichnungen zeigen:
Fig.l symbolisch die Seitenansicht eines landwirtschaftliches Fahrzeuges auf einem bewirtschafteten Feld,
Fig.2 das landwirtschaftliche Fahrzeug aus Fig.l in einer Draufsicht,
Fig.3 in einem Blockschaltbild den Signalfluß bei der Gewinnung von Bild- und Entfernungsinformationen und deren Umsetzung in Steuerbefehle.
Das landwirtschaftliche Fahrzeug 1 in Fig.l umfaßt die folgenden, im einzelnen nicht zeichnerisch dargestellten Einrichtungen: einen Antrieb zur Fortbewegung, eine Lenkeinrichtung zur Beeinflussung der Fortbewegungsrichtung, eine Beschleunigung- und Bremseinrichtung zur Beeinflussung der Fortbewegungsgeschwindigkeit, eine Laufzeitkamera 2, die zur Erfassung von Bildinformationen markanter ObjektStrukturen 3, die in Fortbewegungsrichtung vor dem Fahrzeug liegen, sowie zur getakteten, wiederholten Ermittlung des Abstandes zwischen dem Fahrzeug 1 und den Objektstrukturen 3 ausgebildet ist, und eine Auswerte- und -Verarbeitungseinrichtung zum Generieren von Steuerbefehlen für die Lenkeinrichtung und für die Beschleunigungs- und Bremseinrichtung aus den Bildinformationen und den Abstandsänderungen.
Die Laufzeitkamera 2 hat in der Fig.l dargestellten Seitenansicht ein Sichtbereich 4 mit einem Sichtwinkel ß von etwa 15° bis 40°. Der Sichtwinkel ß ist von der Zweckbestimmung des landwirtschaftlichen Fahrzeugs 1 abhängig und durch konstruktive Maßnahmen vorgegeben. So genügt beispielsweise bei Einsatz des landwirtschaftlichen Fahrzeugs 1 zur Maisernte ein Sichtwinkel ß = 15° , während bei der Verfolgung von Pflanzreihen, zum Beispiel um sich aufspaltende Reihen erkennen zu können, ein größerer Sichtwinkel ß wünschenswert ist.
Fig.2 zeigt eine Draufsicht der Darstellung nach Fig.l, aus welcher der seitliche Sichtwinkel γ des Sichtbereiches 4 der Laufzeitkamera 2 ersichtlich ist, der beispielsweise in der Größenordnung von 40° bis 140° liegt. Auch der Sichtwinkel γ ist vom Einsatz des landwirtschaftlichen Fahrzeugs 1 abhängig und durch konstruktive Maßnahmen vorgegeben. So genügt beispielsweise zur Erkennung von Schwaden ein Sichtwinkel γ = 40°, während bei einem als Mähdrescher ausgebildeten landwirtschaftlichen Fahrzeug 1 ein Sichtwinkel γ erforderlich ist, der die gesamte Breite des Schneidwerkes erfaßt.
Die Laufzeitkamera 2 vorfügt über ein Array aus Sensoren, von denen mindestens einer, bevorzugt jedoch eine Vielzahl, besonders bevorzugt alle phasensensitiv ausgebildet sind und sowohl Helligkeits- als auch Entfernungssignale liefern, und deren Signaleingänge mit der vorzugsweise inner- halb des Fahrzeuges 1 untergebrachten Auswerte- und Verarbeitungseinrichtung verbunden sind.
Beim Betreiben der Anordnung nimmt die Laufzeitkamera 2 Bilder des in Fortbewegungsrichtung vor dem Fahrzeug liegenden Geländes auf und übermittelt die dabei gewonnenen Bildinformationen, der Anordnung der Sensoren entsprechend, als ein- oder zweidimensionale, durch die Objektstrukturen 3 hervorgerufene Helligkeitsverteilung an die Auswerte- und Verarbeitungseinrichtung .
Mit der Fortbewegung des Fahrzeuges 1 ändert sich in Abhängigkeit von der Fortbewegungsgeschwindigkeit der Abstand a zwischen der Laufzeitkamera 2 bzw. dem Fahrzeuges 1 und den von der Laufzeitkamera 2 in ihrem Sichtbereich 4 erfaßten Objektstrukturen 3.
Von den phasensensitiven Sensoren werden also nach dem „time-of-flight"-Prinzip neben den Helligkeitswerten auch Informationen über die Abstände a zu den Objektstrukturen gewonnen. In kurzen Zeitabständen, die ein Taktgeber vorgibt, der vorteilhaft in die Laufzeitkamera 2 integriert ist, werden diese Informationen laufend aktualisiert und auf dieser Grundlage in der Auswerte- und Verarbeitungseinrichtung stetig ein dreidimensionales Bild von dem Raum vor dem Fahrzeug 1 erzeugt. Es versteht sich von selbst, daß dabei die Takte pro Zeiteinheit um ein Vielfaches höher sind als die in derselben Zeiteinheit vom Fahrzeug 1 zurückgelegte Wegstrecke.
Zur Gewinnung der Informationen über die Abstände a sind phasensensitive Sensoren vorgesehen, die entweder in einer Zeile liegen oder eine Fläche aufspannen, so daß Bildinfor- mationen von Strukturen mehrerer Objekte erfaßt werden, die in einer Reihe liegen, oder Bildinformationen von Strukturen mehrerer Objekte erfaßt werden, die in einer Fläche liegen.
Das dreidimensionale Bild von dem Raum vor dem Fahrzeug 1 wird permanent ausgewertet, um die markanten Objektstrukturen 3 von Bild zu Bild wiederzuerkennen. Solche Objektstrukturen 3 entsprechen je nach Anwendung der erfindungsgemäßen Anordnung Schwaden, Pflanzreihen, Schnittkanten bei der Getreideernte, Regionen mit umgeknicktem Getreide oder auch Reihen von Mais- oder Sojapflanzen. So sind in Fig.2 beispielhaft Pflanzreihen 5 dargestellt, die sich parallel zur Fortbewegungsrichtung des Fahrzeuges 1 erstrecken und die durch Ackerfurchen, die als Fahrspuren 6 dienen, voneinander getrennt sind.
Aus dem Bild- zu Bildvergleich werden mittels der Auswerte- und Verarbeitungseinrichtung neben den Informationen über die Abstandsänderungen auch die Informationen über die Änderung der Lage des Fahrzeuges 1 relativ zu den Objektstrukturen 3 gewonnen und daraus korrigierende Stellbefehle für die Lenkeinrichtung und die Beschleunigungs- und Bremseinrichtung abgeleitet, an diese übermittelt und so die Fortbewegungsrichtung und die Fortbewegungsgeschwindigkeit des Fahrzeuges 1 beeinflußt.
Bei einer weiterführenden Ausgestaltung der erfindungsgemäßen Anordnung ist die Auswerte- und Verarbeitungseinrichtung auch zur Farbauswertung in dem dreidimensionalen Bild ausgebildet, so daß Objektstrukturen 3 nicht nur im Hinblick auf ihre Größe oder Form, sondern auch aufgrund ihrer besonderen Farbe unterscheidbar sind. So lassen sich beispielsweise anhand der ermittelten Informationen die Pflanzreihen 5 von den Fahrspuren 6 präzise unterscheiden. Damit wird eine besonders hohe Genauigkeit bei der korrigierenden Einflußnahme auf die Fortbewegungsrichtung des Fahrzeuges 1 erzielt.
Denkbar sind auch weiter Ausgestaltungen, so beispielsweise zur Auswertung des dreidimensionalen Bildes im Hinblick auf eine eventuelle Schräglage des Fahrzeuges 1 aufgrund von Bodenunebenheiten .
Auch ist es denkbar, die zur Auswerte- und Verarbeitungseinrichtung gelangenden Informationen mit Informationen eines GPS-Systems oder auch differentielle GPS-Systems zu ergänzen, wodurch eine weitere Präzisierung erzielt wird.
Fig.3 zeigt schematisch ein Blockschaltbild der erfindungsgemäßen Anordnung, das sich anhand der darin enthaltenen Bezeichnungen und die durch Pfeile markierten Signalflußrichtungen selbst erklärt.
Im Gegensatz zu den einschlägigen, aus dem Stand der Technik bekannten Verfahren und Anordnungen, bei denen ein dreidimensionales Profil des Raumes vor dem Fahrzeug mittels eines scannenden optischen Systems erzeugt wird, verzichten das erfindungsgemäße Verfahren und die erfindungsgemäße Anordnung auf scannende optische Systeme. Dadurch ist es möglich, die Vielzahl der zweidimensionalen Bildinformationen zeitlich parallel zu erfassen und im Gegensatz zum Stand der Technik das dreidimensionale Profil simultan zu erzeugen. Das erfindungsgemäße Verfahren, insbesondere die beispielhaft angegebene erfindungsgemäße Anordnung kann weiterhin dazu genutzt werden, Hindernisse im Sichtfeld vor dem Fahrzeug zu detektieren. Da das System ein dreidimensionales Geländeprofil erzeugt, ist es in der Lage, Objekte zu erkennen, die für die Maschine aufgrund ihrer Größe ein Gefährdungspotential besitzen, wie etwa große Steine, Bäume, unerwartet die Fahrtrichtung querende andere Fahrzeuge.
Darüber hinaus ist können anhand der gewonnenen Bild- und Entfernungsinformationen Relativgeschwindigkeiten sehr genau erkannt werden. Insbesondere Bewegungen einer Landmaschine relativ zu einem Hindernis (z.B. einer andere Landmaschine) in Richtung der Fahrtrichtung besitzt die laufzeitbasierte Bildinformationserfassung den Vorteil, direkte Informationen über die Entfernung zu besitzen, während die herkömmliche Verfahrensweise lediglich aufgrund von Größenänderungen im Bild eine Aussage über die Entfernung treffen kann.
Die dreidimensionalen Profildaten des Raumes vor dem landwirtschaftlichen Fahrzeug lassen sich beispielsweise weiterhin dazu nutzen, eine Anpassung der an das Fahrzeug gekoppelten Werkzeuge an das Geländeprofil vorzunehmen. So kann etwa das Schneidewerk eines Mähdreschers automatisch in der Höhe reguliert werden, um einen Bodenkontakt oder die Berührung mit einem niedrigen Hindernis und damit eine Beschädigungen zu vermeiden. Das Schneidewerk läßt sich in der Höhe stets so regulieren, daß ein optimaler Abstand zum Untergrund eingehalten wird. Die Erfindung schließt auch Ausgestaltungen ein, bei denen die Laufzeitkamera so ausgerichtet ist, daß nicht nur von einem Geländeabschnitt in Fahrtrichtung, sondern auch von Geländeabschnitten entgegengesetzt oder seitlich zur Fahrtrichtung ein dreidimensionales Profil gewonnen wird. So läßt sich beispielsweise vorteilhaft ein benachbartes Fahrzeug im Hinblick auf Ort, Abstand und/oder Relativgeschwindigkeit überwachen und auf dieser Basis eine Anpassung der Fahrgeschwindigkeit und Fahrtrichtung des gesteuerten Fahrzeuges vornehmen.
Bezugszeichenliste
1 Fahrzeug
2 Laufzeitkamera
3 Obj ektstruktur
4 Sichtbereich
5 Pflanzreihen
6 Fahrspuren
a Abstand f Frequenz

Claims

Patentansprüche
1. Verfahren zur Steuerung eines Fahrzeuges, bei dem Bildinformationen aus dem in Fahrtrichtung vor dem Fahrzeug liegenden Gelände erfaßt und aus diesen Bildinformationen Steuerbefehle zur Beeinflussung der Fahrtrichtung und/oder der Fahrgeschwindigkeit generiert werden, dadurch gekennzeichnet, daß anhand der Bildinformationen markante Objektstrukturen (3) ausgewählt werden, wiederholt der Abstand (a) zwischen dem Fahrzeug und den Objektstrukturen (3) ermittelt wird, und die Steuerbefehle aus den Bildinformationen, die den Objektstrukturen (3) entsprechen, und den Abstandsänderungen zwischen dem Fahrzeug und den Objektstrukturen (3) generiert werden.
2. Verfahren nach Anspruch 1, bei dem als markante Objektstrukturen (3) bestimmte Pflanzen, Pflanzreihen (5), Ackerfurchen, Schwaden aus Erntegut, Straßenränder oder Fahrspuren (6) genutzt werden.
3. Verfahren nach Anspruch 1 oder 2, bei dem Steuerbefehle zur Beeinflussung der Fahrtrichtung zwecks Spurhaltung relativ zu den Objektstrukturen generiert werden.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem Steuerbefehle zur Beeinflussung der Fahrtrichtung oder Fahrtgeschwindigkeit zwecks Umgehung von Hindernissen generiert werden.
5. Verfahren nach einem der vorgenannten Ansprüche, bei dem Steuerbefehle zur Beeinflussung der Fahrgeschwindigkeit oder Fahrtrichtung des Fahrzeuges zwecks Synchronisation zur Fahrgeschwindigkeit oder Fahrtrichtung mindestens eines weiteren Fahrzeuges generiert werden.
6. Verfahren nach einem der vorgenannten Ansprüche, bei dem Steuerbefehle zur Beeinflussung der Fahrgeschwindigkeit zwecks Beeinflussung und/oder Konstanthaltung der Arbeitsleistung von Landmaschinen generiert werden, die mit dem Fahrzeug gekoppelt sind.
7. Verfahren nach einem der vorgenannten Ansprüche, bei dem die Bildinformationen mit Licht im Infrarotbereich und/oder im visuellen Bereich gewonnen werden.
8. Verfahren nach einem der vorgenannten Ansprüche zur Steuerung eines mit Erntegeräten gekoppelten landwirtschaftlichen Fahrzeuges (1), bei dem die Steuerbefehle in Abhängigkeit von der Menge und der Qualität des Erntegutes generiert werden.
9. Anordnung zur Steuerung eines landwirtschaftlichen Fahrzeuges (1), umfassend einen Antrieb zur Fortbewegung des Fahrzeuges, eine Lenkeinrichtung zur Bestimmung der Fortbewegungsrichtung, eine Beschleunigungs- und Bremseinrichtung zur Beeinflussung der Fortbewegungsgeschwindigkeit, eine optische Einrichtung zur Erfassung von Bildinformationen aus dem in Fortbewegungsrichtung vor dem Fahrzeug (1) liegenden Gelände, und eine Auswerte- und -Verarbeitungseinrichtung zur Generierung von Steuerbefehlen aus den Bildinformationen für die Lenkeinrichtung, für die Beschleunigungs- und Bremseinrichtung und/oder für Arbeitsgeräte, die mit dem landwirtschaftlichen Fahrzeug (1) gekoppelt sind, gekennzeichnet durch
Mittel zur Erfassung der Bildinformationen von markanten Objektstrukturen (3) im Gelände, sowie eine Entfernungsmeßeinrichtung zur getakteten, wiederholten Ermittlung des Abstandes (a) zwischen dem Fahrzeug (1) und diesen Objektstrukturen (3), wobei die Auswerte- und -Verarbeitungseinrichtung zur Generierung der Steuerbefehle aus den Bildinformationen, die den Objektstrukturen (3) entsprechen, und den Abstandsänderungen zwischen dem Fahrzeug (1) und den Objektstrukturen (3) ausgebildet ist.
10. Anordnung nach Anspruch 8, bei der die optische Einrichtung Mittel zur Erfassung der Bildinformationen aufweist, die von Objektstrukturen stammen, die im Raum vor dem landwirtschaftlichen Fahrzeug auf einer Geraden liegen, wobei diese Gerade mit der Fortbewegungsrichtung einen Winkel von α ≠ 0°, bevorzugt α « 90° einschließt.
11. Anordnung nach Anspruch 10, bei der die optische Einrichtung Mittel zur Erfassung der Bildinformationen aufweist, die von Objektstrukturen stammen, die im Raum vor dem landwirtschaftlichen Fahrzeug in einer Fläche liegen, wobei diese Fläche mit der Fortbewegungsrichtung des Fahrzeuges einen Winkel von α ≠ 0, bevorzugt α « 90°, einschließt.
12. Anordnung nach einem der Ansprüche 8 bis 12, bei der die optische Einrichtung zur Erfassung der Bildinformationen mit optischen Einzelsensoren, optischen Sensorzeilen und/oder optischen Sensorarrays ausgestattet ist.
13. Anordnung nach Anspruch 13, bei der mindestens einer der Sensoren als phasensensitiver Sensor ausgebildet und zur Erfassung der Abstandsänderungen vorgesehen ist.
14. Anordnung nach einem der Ansprüche 8 bis 14, bei der die optische Einrichtung zur Erfassung der Bildinformationen an dem Fahrzeug (1) befestigt ist und sich während der Fortbewegung des Fahrzeuges (1) in relativer Ruhe zu diesem befindet.
15. Anordnung nach einem der Ansprüche 8 bis 15, wobei der optischen Einrichtung Zylinderlinsen oder Prismen vorgeordnet sind, um eine ungleichmäßig verteilte optische Auflösung bei der Erfassung der Bildinformationen zu bewirken.
16. Anordnung nach Anspruch 16, bei der die Zylinderlinsen oder Prismen so ausgebildet sind, daß bestimmte Sensorbereiche der optischen Einrichtung Bildinformationen aus dem Gelände vor dem Fahrzeug mit höherer Auflösung erfassen als die übrigen Sensorbereiche.
PCT/EP2007/010016 2006-11-27 2007-11-20 Verfahren und anordnung zur steuerung eines fahrzeuges WO2008064800A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/516,300 US20100063681A1 (en) 2006-11-27 2007-11-20 Method and arrangement for the steering of a vehicle
EP07846679A EP2094073A1 (de) 2006-11-27 2007-11-20 Verfahren und anordnung zur steuerung eines fahrzeuges
JP2009537523A JP2010510918A (ja) 2006-11-27 2007-11-20 自動車を操縦するための方法および配置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006055858A DE102006055858A1 (de) 2006-11-27 2006-11-27 Verfahren und Anordnung zur Steuerung eines Fahrzeuges
DE102006055858.8 2006-11-27

Publications (1)

Publication Number Publication Date
WO2008064800A1 true WO2008064800A1 (de) 2008-06-05

Family

ID=39144441

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/010016 WO2008064800A1 (de) 2006-11-27 2007-11-20 Verfahren und anordnung zur steuerung eines fahrzeuges

Country Status (5)

Country Link
US (1) US20100063681A1 (de)
EP (1) EP2094073A1 (de)
JP (1) JP2010510918A (de)
DE (1) DE102006055858A1 (de)
WO (1) WO2008064800A1 (de)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
EP2378310B1 (de) 2010-04-15 2016-08-10 Rockwell Automation Safety AG Flugzeit-Kamerasystem und optisches Überwachungssystem
US8498786B2 (en) 2010-10-14 2013-07-30 Deere & Company Material identification system
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
DE102011089195A1 (de) * 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen
DE102012201333A1 (de) 2012-01-31 2013-08-01 Deere & Company Landwirtschaftliche Maschine mit einem System zur selbsttätigen Einstellung eines Bearbeitungsparameters und zugehöriges Verfahren
US9696427B2 (en) * 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
FR3001101B1 (fr) * 2013-01-18 2015-07-17 Naio Technologies Dispositif agricole automatise autonome
EP2798928B1 (de) * 2013-04-29 2024-02-07 CLAAS E-Systems GmbH Betriebssystem für, und verfahren zum betrieb eines automatischen lenksystems eines landwirtschaftlichen fahrzeugs
US9675000B2 (en) 2014-05-09 2017-06-13 Raven Industries, Inc. Optical flow sensing application in agricultural vehicles
DE102014106775A1 (de) * 2014-05-14 2015-11-19 Amazonen-Werke H. Dreyer Gmbh & Co. Kg Landwirtschaftliche Arbeitsmaschine
JP6344473B2 (ja) * 2014-07-16 2018-06-27 株式会社リコー システム、機械、制御方法、プログラム
DE102016207436A1 (de) * 2016-04-29 2017-11-02 Ford Global Technologies, Llc System und Verfahren zum Steuern- und/oder Regeln eines Lenksystems eines Fahrzeugs sowie Fahrzeug
DE102017222403A1 (de) 2017-12-11 2019-06-13 Deere & Company Verfahren und Vorrichtung zur Kartierung eventuell in einem Feld vorhandener Fremdkörper
JP2019170309A (ja) * 2018-03-29 2019-10-10 ヤンマー株式会社 作業車両
EP3821423A4 (de) 2018-07-11 2022-03-02 Raven Industries, INC. Adaptive farbtransformation zur unterstützung des maschinellen sehens
EP3820268A4 (de) 2018-07-11 2022-04-27 Raven Industries, INC. Detektion der erntegutbezogenen reihe aus einem bild
DE102018220410A1 (de) * 2018-11-28 2020-05-28 Zf Friedrichshafen Ag Selbsttätiges Lenken einer landwirtschaftlichen Maschine auf einer landwirtschaftlichen Fläche
DE102019203247A1 (de) * 2019-03-11 2020-09-17 Zf Friedrichshafen Ag Vision-basiertes Lenkungsassistenzsystem für Landfahrzeuge
JP2021007385A (ja) * 2019-06-28 2021-01-28 株式会社クボタ 農作業機
KR20220025701A (ko) * 2019-06-28 2022-03-03 가부시끼 가이샤 구보다 농작업기, 자동 주행 시스템, 프로그램, 프로그램을 기록한 기록 매체, 및 방법
EP3996485A4 (de) 2019-07-11 2023-08-02 Raven Industries, Inc. Bestimmung des höhenunterschieds von bildmerkmalen
JP7247240B2 (ja) * 2021-02-05 2023-03-28 ヤンマーパワーテクノロジー株式会社 作業車両用の自動走行システム
CN113341986A (zh) * 2021-06-17 2021-09-03 北京博创联动科技有限公司 田埂识别躲避方法、装置和农用自动驾驶设备
DE102021208708A1 (de) 2021-08-10 2023-02-16 Zf Friedrichshafen Ag Verfahren zum Steuern eines Drainageverlegungsfahrzeugs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2109744A1 (de) * 1971-03-02 1972-09-07 Klockner Humboldt Deutz AG, 5000 Köln Einrichtung zur automatischen Be tatigung einer Servolenkung
US4769700A (en) * 1981-11-20 1988-09-06 Diffracto Ltd. Robot tractors
EP0906720A1 (de) * 1997-10-04 1999-04-07 CLAAS Selbstfahrende Erntemaschinen GmbH Vorrichtung und Verfahren zur berührungslosen Erkennung von Bearbeitungsgrenzen oder entsprechenden Leitgrössen
US6389785B1 (en) * 1997-06-24 2002-05-21 Claas Selbstfahrende Erntemaschinen Gmbh Contour scanning apparatus for agricultural machinery
DE10148748A1 (de) * 2001-09-26 2003-04-10 Norsk Hydro As Verfahren und Vorrichtung zum berührungslosen Bestimmen biophysikalischer Parameter von Pflanzenbeständen

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5977517A (ja) * 1982-10-27 1984-05-04 Kubota Ltd 走行車輌
US5410479A (en) * 1992-08-17 1995-04-25 Coker; William B. Ultrasonic furrow or crop row following sensor
DE19719939A1 (de) * 1997-05-13 1998-11-19 Claas Ohg Automatisch lenkbare Erntemaschine
DE10129136A1 (de) * 2001-06-16 2002-12-19 Deere & Co Einrichtung zur selbsttätigen Lenkung eines landwirtschaftlichen Arbeitsfahrzeugs
KR20060049706A (ko) * 2004-07-20 2006-05-19 아이신세이끼가부시끼가이샤 차량의 레인주행지원장치
US8185275B2 (en) * 2005-07-01 2012-05-22 Deere & Company System for vehicular guidance with respect to harvested crop

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2109744A1 (de) * 1971-03-02 1972-09-07 Klockner Humboldt Deutz AG, 5000 Köln Einrichtung zur automatischen Be tatigung einer Servolenkung
US4769700A (en) * 1981-11-20 1988-09-06 Diffracto Ltd. Robot tractors
US6389785B1 (en) * 1997-06-24 2002-05-21 Claas Selbstfahrende Erntemaschinen Gmbh Contour scanning apparatus for agricultural machinery
EP0906720A1 (de) * 1997-10-04 1999-04-07 CLAAS Selbstfahrende Erntemaschinen GmbH Vorrichtung und Verfahren zur berührungslosen Erkennung von Bearbeitungsgrenzen oder entsprechenden Leitgrössen
DE10148748A1 (de) * 2001-09-26 2003-04-10 Norsk Hydro As Verfahren und Vorrichtung zum berührungslosen Bestimmen biophysikalischer Parameter von Pflanzenbeständen

Also Published As

Publication number Publication date
EP2094073A1 (de) 2009-09-02
JP2010510918A (ja) 2010-04-08
US20100063681A1 (en) 2010-03-11
DE102006055858A1 (de) 2008-05-29

Similar Documents

Publication Publication Date Title
WO2008064800A1 (de) Verfahren und anordnung zur steuerung eines fahrzeuges
EP1630574B1 (de) Vorrichtung an Landmaschinen zur berührungslosen Abtastung von sich über dem Boden erstreckenden Konturen
CA3010410C (en) System and method for strip till implement guidance monitoring and adjustment
EP3299996B1 (de) Landwirtschaftliche arbeitsmaschinen mit bildverarbeitungssystem
DE10129135B4 (de) Einrichtung zur Positionsbestimmung eines landwirtschaftlichen Arbeitsfahrzeugs sowie ein landwirtschaftliches Arbeitsfahrzeug mit dieser
EP2278869A1 (de) Verfahren und vorrichtung zur lenkung einer zweiten landwirtschaftlichen maschine, die parallel fahrend zu einer ersten landwirtschaftlichen maschine über ein feld lenkbar ist
EP3097754B1 (de) Landwirtschaftliche arbeitsmaschine
EP3414982B1 (de) Verfahren und vorrichtung zum erkennen von tieren in der fahrgasse einer landwirtschaftlichen feldbearbeitungsmaschine
DE102017217391A1 (de) Landwirtschaftliches Arbeitsfahrzeug
EP3305052A1 (de) Steueranordnung, zugmaschine mit einer steueranordnung und verfahren für eine steueranordnung
EP1762129A1 (de) Lenksystem eines Fahrzeugs
DE102011051827A1 (de) Landwirtschaftliche Arbeitsmaschine mit einer Einrichtung zur Erfassung von deren Fahrzeugzuständen
DE102009028990A1 (de) Verfahren und System für die Umfelderfassung
EP1769662A1 (de) Landwirtschaftliche Arbeitseinheit mit einem Arbeitsaggregat zum Erzeugen einer Objektreihe
WO2020182564A1 (de) Vision-basiertes lenkungsassistenzsystem für landfahrzeuge
DE102017110637A1 (de) Vollautomatischer Zinkenstriegel
EP3738420B1 (de) Verfahren für den betrieb einer selbstfahrenden landwirtschaftlichen arbeitsmaschine
DE102022207537A1 (de) Kartenbasiertes steuersystem mit positionsfehlerkorrektur für landwirtschaftliche maschinen
AT507124B1 (de) Einrichtung zum detektieren von objekten, wie tieren und vogelgelegen, im acker- und pflanzenbau
DE102019111317A1 (de) Autonome landwirtschaftliche Arbeitsmaschine und Verfahren zu deren Betrieb
CH701808B1 (de) Verfahren und Vorrichtung zur Suche und Erkennung von in landwirtschaftlichen Feldern und Wiesen versteckten Tieren.
DE102019203651A1 (de) System zur selbsttätigen Lenkung eines Fahrzeugs
DE102017011747A1 (de) Bodenbearbeitungssystem

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07846679

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2009537523

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12516300

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2007846679

Country of ref document: EP