WO2020182564A1 - Vision-based steering assistance system for land vehicles - Google Patents

Vision-based steering assistance system for land vehicles Download PDF

Info

Publication number
WO2020182564A1
WO2020182564A1 PCT/EP2020/055651 EP2020055651W WO2020182564A1 WO 2020182564 A1 WO2020182564 A1 WO 2020182564A1 EP 2020055651 W EP2020055651 W EP 2020055651W WO 2020182564 A1 WO2020182564 A1 WO 2020182564A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
processor unit
track line
surroundings
detection
Prior art date
Application number
PCT/EP2020/055651
Other languages
German (de)
French (fr)
Inventor
Benedict Strohmaier
Costanza CASCELLI
Tommy Ikonen
Jan-Frederik Kuhn
Original Assignee
Zf Friedrichshafen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag filed Critical Zf Friedrichshafen Ag
Publication of WO2020182564A1 publication Critical patent/WO2020182564A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/001Steering by means of optical assistance, e.g. television cameras
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/007Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow
    • A01B69/008Steering or guiding of agricultural vehicles, e.g. steering of the tractor to keep the plough in the furrow automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/15Agricultural vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Definitions

  • the invention relates to a processor unit, a driver assistance system, a method and a computer program product for the autonomous operation of a vehicle, in particular an agricultural utility vehicle.
  • driver assistance systems for agricultural vehicles or Maschi nen (agricultural technology) known. These driver assistance systems are intended to relieve the driver in particular as a fully automated or partially automated steering aid.
  • the steering aid via GPS control has established itself in agricultural engineering.
  • the driver assistance systems are sometimes very complex and, depending on the correction signal, enable accuracies of up to 2 cm. Problems with GPS are the partially non-existent signal coverage worldwide (e.g. also in mountainous regions) and the high acquisition and license costs, depending on the system.
  • driver assistance systems for agricultural vehicles that are not based on GPS provide optical systems that automate certain applications in agriculture.
  • Examples are driver assistance systems based on cameras, lidar sensors or, more generally, laser sensors.
  • driver assistance systems are complex and expensive (in particular when lidar sensors are used) and / or can only carry out or support a simple application.
  • these systems typically only allow a swath to be recognized in the center in front of the vehicle and not to the side of the vehicle.
  • a “swath” can be understood as an agricultural crop that has been mown and lined up in a row, e.g. Grass, grain, etc.
  • such systems are not able to process several applications (e.g. mowing, swathing, loading or baling) and thus do not offer a real alternative to GPS systems.
  • a driver of an agricultural utility vehicle typically has to concentrate on one operation for a whole day.
  • the driver in addition to controlling the vehicle, the driver usually has to simultaneously monitor the function of attachments in the vehicle. This can cause it to Operating errors mean that the machines are not used optimally efficiently and that work performance and quality of work suffer.
  • An object of the present invention can be seen in providing a technology that is an alternative to expensive GPS systems, in particular, which relieves the driver and offers him more comfort in various applications (e.g. mowing, swathing, loading or baling).
  • a technology which records lane lines (e.g. swaths or mowed edges) in a field, processes corresponding image content, selects the correct lane and then controls the vehicle's steering accordingly.
  • a core of the invention is a system of simple sensors (e.g. cameras) and state-of-the-art image processing (expanded in particular by methods of artificial intelligence, see below), which makes it possible to flexibly design and use the system.
  • the system can be implemented in different ways and thus adapted to customer requirements.
  • the present invention makes it possible to relieve the driver and give him more comfort in various applications (e.g. mowing, swapping den, loading or pressing).
  • the agricultural utility vehicle can thus be used more efficiently. The efficiency increases, work performance and quality of work improve significantly and fuel consumption decreases.
  • a processor unit for the autonomous operation of a vehicle can form an element of an electronic control unit of the vehicle.
  • the processor unit can also form an element of a driver assistance system of the vehicle.
  • the processor unit includes an interface.
  • the interface is in particular a communication interface which enables the exchange of data, specifically an exchange of data between the processor unit on the one hand and a sensor unit on the other.
  • the processor unit can transmit commands to actuators of the vehicle via the interface, for example to a steering actuator of the vehicle.
  • the processor unit is set up in particular to use the interface to access a surrounding area detection of the vehicle generated by the sensor unit, to recognize several lane lines in the surrounding area detection, to select a lane line from the several lane lines and to control the vehicle based on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, e.g. that the vehicle drives on or to the side of the selected track line. If the sensor unit detects only a single lane line in the vicinity of the vehicle, then the processing unit is also set up to recognize this single lane line and to control the vehicle in such a way that it follows it.
  • a driver assistance system for the autonomous operation of a vehicle.
  • the driver assistance system comprises a sensor unit for detecting the surroundings of the vehicle and a processor unit according to the first aspect of the invention.
  • the sensor unit is set up to generate a detection of the surroundings of the vehicle.
  • a corresponding method for the autonomous operation of a vehicle is proposed.
  • the method can generate a detection of the surroundings of the vehicle by a sensor unit and a know several lane lines in the environment detection by means of a processor unit.
  • a lane line can be selected from the multiple lane lines using the processor unit, and the vehicle can be controlled based on the selected lane line using the processor unit so that the vehicle autonomously follows the selected lane line, e.g. the vehicle drives on or to the side of the selected lane line .
  • a computer program product for the autonomous operation of a vehicle is also provided.
  • the computer program product instructs the processor unit to use an interface to access a vehicle environment detection generated by a sensor unit, to recognize several lane lines in the area detection, to select a lane line from the several lane lines, and to control the vehicle based on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, e.g. that the vehicle is driving on or to the side of the selected track line.
  • a vehicle in particular an off-road vehicle.
  • the vehicle can comprise a processor unit according to the first aspect of the invention.
  • the vehicle can include a driver assistance system according to the second aspect of the invention.
  • the vehicle can be controlled by means of the processor unit.
  • “Controlled” or “steer” can in particular be understood to mean that the vehicle can be operated autonomously, ie it can in particular be automatically steered, accelerated and braked, including all of the necessary controls Actuators in particular of the drive train, the steering and signaling of the vehicle.
  • the control of the vehicle by means of the processor unit can be activated automatically or by a user of the vehicle by means of an operating element when the vehicle is traveling along a lane line. If the vehicle turns at a headland of the track line (s), the control of the vehicle can be deactivated automatically or by the user of the vehicle using an operating element.
  • a track line can, for example, be a swath or a mowing edge or a cutting edge on an agricultural area, e.g. a field.
  • the lane line can comprise a lane, a row of plants, a row of trees, a curb or a work path.
  • the processor unit can be set up not only to recognize swaths and mowed edges as lane lines and instruct the vehicle to follow them, but also other applications in agriculture, in the municipal sector or in the construction machinery business can be successfully automated with simple application effort.
  • rows of maize, apple trees in plantations, vines in vineyards, cut edges of a combine harvester in grain, hoed crops (soybeans, sugar beets, etc.), potato ridges or curbs for road sweepers when mowing roadsides can be recognized.
  • the track line can, in particular, be located in a field and, for example, have been caused by previous sowing.
  • Plant rows are rows of the cultivated product in question, e.g. Corn or grapevines. Rows of trees are for example on orchards, e.g. Apple plantations to be found. You can find commutes to work, for example, in mining (especially in open-cast mining).
  • the vehicle can in particular be an off-road vehicle.
  • An off-road vehicle can be understood to mean a vehicle whose primary area of application is not a road (as is the case, for example, with passenger cars, buses or trucks), but for example an agricultural area, e.g. a field to be worked / tilled or a Forest area, or a mining area (especially open-cast mining), or an industrial area, e.g. within a production facility or warehouse.
  • the off-road vehicle can be an agricultural utility vehicle or an agricultural tractor such as a combine harvester or tractor.
  • the vehicle can be an industrial truck, for example a forklift or a tractor.
  • the vehicle can also be a municipal vehicle, for example a street sweeper, a garbage truck or a snow clearing vehicle.
  • the processor unit is set up to select that lane line which has the smallest distance from the vehicle.
  • the detection of the surroundings can comprise several camera images recorded one after the other (image sequence), which depict the surroundings of the vehicle.
  • image sequence For example, a first track line and a second track line can be recognized in one of these camera images.
  • the first track line and the second track line can run parallel to one another and to the side of the vehicle. This can be recognized by methods of image processing. Image processing methods can also be used to identify which of the two lane lines is closer to the side of the vehicle. If this is the first lane line, the processor unit can select the first lane line and control the vehicle in such a way that it drives on or parallel to the first lane line.
  • the processor unit determines that the second lane line has a smaller distance from the vehicle than the first lane line, then it can select the second lane line and control the vehicle in such a way that it drives, for example, on or at a lateral distance parallel to the second lane line .
  • the present invention supports several different applications (e.g., mowing, swathing, loading or baling). Furthermore, the present invention enables track lines to be followed at a certain distance, which is particularly important with different working widths of attachments that can be attached to the vehicle. Furthermore, the present invention enables track lines to be reliably recognized. Also can
  • Swaths and cut edges can be recognized, for example, with a lateral distance of up to 8 m, the agricultural utility vehicle being able to be controlled in such a way that the named recognized objects are followed.
  • the sensor unit is set up to detect a local area surrounding the vehicle.
  • the local surroundings of the vehicle can be referred to as the region of interest (ROI).
  • ROI region of interest
  • the region of interest can be a field or part of a field.
  • the field or the part of the field can be intended to be worked in particular for agriculture by the vehicle.
  • the vehicle or an attachment of the vehicle can have means that enable it to carry out a specific operation within the work area, for example mowing, swathing, loading or baling. These means can be integrated into the vehicle or attached to the vehicle as attachments.
  • the recordings or frames produced when the surroundings are recorded result in the recording of the surroundings.
  • the detection of the surroundings can be images if a camera or a camera system is used as the sensor.
  • the detection of the surroundings can be frames if, for example, a radar or a lidar is used.
  • the recordings, in particular the images or frames each cover a limited area around the vehicle. This is what the “local” feature means. The local area around the vehicle is thus a limited area that extends around the outside of the vehicle.
  • the range or extent of the local environment can vary depending on the type of sensor used and can be adjusted if necessary.
  • the sensor system disclosed in the context of the present application is designed to be arranged on the vehicle, in particular to be attached, in such a way that it can detect the local surroundings of the vehicle.
  • the area of the environment which the relevant sensor detects can also be referred to as the so-called “field of view”. This area can be one-dimensional, two-dimensional or three-dimensional, depending on the sensor used. It is possible that the area that can be detected by the sensor can detect part of the surroundings of the vehicle, for example a sector in the front area and / or in the side area and / or in the rear area of the vehicle.
  • the relevant sensor can also be set up to record the entire surroundings of the vehicle, for example when using so-called surround view systems.
  • the processor unit is set up to evaluate the detection of the surroundings.
  • the detection of the surroundings can, for example, be a recording of the local surroundings of the vehicle.
  • the processor unit is set up to extract objects from recordings or frames generated by the sensor unit.
  • the processor unit can evaluate an image from a camera of the sensor unit and recognize all traces within the image.
  • the multiple lane lines can be recognized by means of image processing methods, for example within an image that has been recorded by a camera of the sensor unit and that depicts the surroundings of the vehicle.
  • image processing methods for example within an image that has been recorded by a camera of the sensor unit and that depicts the surroundings of the vehicle.
  • suitable methods of image processing are, for example, semantic segmentation or edge detection.
  • the result of using such image processing methods can in particular be a polynomial that describes the extent and course of the track lines.
  • the processor unit is set up to control the vehicle based on at least one of the following parameters, namely based on a curvature of the selected lane line, based on a course error of the vehicle or based on a difference from one determined from the surroundings lateral distance of the selected lane line to the vehicle including its attachments and a desired distance from the selected lane line to the vehicle including its attachments.
  • the processor unit is set up to recognize the multiple track lines in the detection of the surroundings by combining methods of image processing with methods of artificial intelligence.
  • An artificial neural network can be trained, for example by making representative sample images with track lines available to the artificial neural network for training it.
  • the extension of the “classic image processing” with elements of artificial intelligence makes it possible in particular to recognize several lane lines and to continuously improve the degree of recognition and thus the reliability by training a neural network, for example.
  • An output through the combination of classic image processing and artificial intelligence Polynomial can correctly describe the curvature of the track line, the course of the track line and the lateral distance between the track line and the off-road vehicle including its attachments with a particularly high probability. Together with the desired distance between the track line and the off-road vehicle, including its attachments (“desired lateral offset”), the vehicle's steering can be controlled.
  • images or frames generated by the sensor unit can be processed by means of so-called semantic segmentation (in English: “Semantic segmentation”), which uses an artificial neural network.
  • semantic segmentation uses an artificial neural network.
  • Adjacent pixels can be combined to form image regions with coherent content if they meet a defined homogeneity criterion.
  • a pixel-precise classification of the images can take place, it being possible for each pixel to belong to a known object class.
  • the processor unit can receive an image sequence from a camera which records the surroundings of the vehicle in successive images of the image sequence.
  • the processor unit can extract features using semantic segmentation, for example, and assign each pixel to an object class in a classification, for example an object class “track line”, an object class “field without track line”, “sky” etc.
  • semantic segmentation method is suitable especially for complex applications and provides a particularly high level of accuracy.
  • images or frames generated by the sensor unit can be processed using the edge detection method that uses an artificial neural network.
  • a filter can be adapted using the artificial neural network.
  • edge detection method flat areas in a digital image can be separated from one another, especially if they differ sufficiently in terms of color or gray value, brightness or texture along straight or curved lines.
  • Special edge operators also known as filters, can recognize transitions between flat areas and mark them as edges.
  • edges are detected in a two-dimensional image, for example, which has been recorded by a camera, for example.
  • Information relating to recognized edges can be used to recognize certain objects in the image, with reference to the present invention in particular for recognizing track lines in a field. For this purpose, for example, the information relating to recognized edges can be compared with stored patterns.
  • the system also enables control or automation of an attachment in the vehicle.
  • a loader wagon pickup (as an example of an attachment) can e.g. be lifted via a CAN signal when the end of a swath is detected by the sensor unit.
  • the loading wagon pick-up can e.g. can be lowered via a CAN signal when the beginning of a swath is detected by the sensor unit.
  • the processor unit is set up to control an attachment mounted on the vehicle based on the selected track line and its course in the environment detection.
  • the desired distance to the track lines (“Desired Lateral Offset") can be defined by the width of the attachment. This can either be entered manually by the driver via a terminal or through automatic attachment recognition, e.g. by means of a tag on the attachment, the tag being recognized and processed directly by the processor unit or the driver assistance system.
  • the processor unit can be integrated into a driver assistance system of the vehicle or be communicatively connected to the driver assistance system.
  • the processor unit can be set up to initiate that the vehicle is transferred to a safe state when the processor unit detects at least one potential collision object in the surroundings detection.
  • a potential collision object can be an object (stationary or movable, for example a tree, a power pole, a pole or another vehicle), a person or an animal that is located within the detected local area surrounding the vehicle.
  • “initiate” can in particular be understood to mean that the processor unit a command is transmitted to the driver assistance system of the vehicle so that the driver assistance system transfers the vehicle to the safe state.
  • the driver assistance system can bring the vehicle to a standstill when it is brought into the safe state.
  • the speed can be reduced (without having to stop the vehicle) so that the risk of collision can be significantly reduced.
  • an optical or acoustic warning can be output, in particular to the user of the vehicle (for example via a display inside the vehicle) and / or to the local area around the vehicle, for example by a horn, a horn, a loudspeaker or by a Vehicle lighting system.
  • the visual or acoustic warning can in particular be perceived by people and animals who are in the vicinity of the vehicle. In this way, people in the vicinity can be warned of the autonomously driving vehicle and collisions can be avoided.
  • the sensor unit for detecting the surroundings of the vehicle can comprise at least one of the following sensors, namely an image processing sensor, in particular a camera, a radar sensor or a laser-based sensor.
  • the image processing sensor e.g. a camera
  • the image processing sensor can be set up to record images of the surrounding area.
  • features can be recognized in the images, in particular the track lines.
  • the radar-based sensor can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines.
  • the radar-based sensor can, for example, measure distances to objects within the detected surroundings.
  • the radar-based sensor can also measure azimuth values, altitude values (elevation), intensity values and radial velocity values, for example.
  • the radar sensor can be used to determine the incline.
  • the sensor unit can include at least one camera which detects track lines in a field of view of the camera, and in addition the sensor can Sensor unit comprise a radar-based sensor which is set up to determine the slope of the terrain in a field of view of the radar-based sensor.
  • the fields of view of the camera and the radar-based sensor can be congruent, overlap or not overlap (complementary fields of view).
  • a corresponding measurement cycle in which the radar-based sensor recorded the surroundings of the vehicle or measured it in the manner described can be referred to as a “frame”.
  • the radar-based sensor can therefore scan or detect the environment in an N-dimensional manner, as a result of which point clouds can be generated.
  • the radar-based sensor can extract features from recorded point clouds.
  • the point cloud can accordingly comprise several dimensions (N-dimensional point cloud) if, for example, intensities and radial speeds are also taken into account.
  • the laser-based sensor (e.g. a lidar sensor) can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines.
  • the laser-based sensor can, for example, measure intensities in an x-direction, in a y-direction and in a z-direction of a Cartesian coordinate system of the laser-based sensor within the detected surroundings.
  • a corresponding measuring cycle in which the laser-based sensor has recorded the environment or measured it in the described manner can be referred to as a “frame”.
  • the laser-based sensor can scan or detect the environment N-dimensionally, whereby point clouds can be generated.
  • the laser-based sensor can extract features from captured point clouds.
  • the point cloud can accordingly comprise several dimensions (N-dimensional point cloud).
  • a selection of a track line to be followed can be controlled by a driver or user of the agricultural utility vehicle via an operating aid.
  • the system comprises, in a further embodiment, an operating unit which is set up to enable a user to select a track line from the multiple track lines.
  • the operating unit can comprise a display, for example a touch screen.
  • the display can detect the plural ones by the sensor unit Show track lines. The user can select the lane line that the vehicle should follow autonomously from the multiple lane lines shown.
  • FIG. 1 shows a plan view of a field on which a tractor with an attachment drives autonomously
  • FIG. 2 elements of a driver assistance system for the tractor according to FIG. 1,
  • FIG. 3 shows steps of a method for detecting track lines and for controlling the tractor according to FIG. 1 based on a selected track line by means of the driver assistance system according to FIG. 2, and
  • FIG. 4 scenarios A to F, in which the driver assistance system according to FIG. 2 is active or passive in a T raktor.
  • FIG. 1 shows an agricultural machine in the form of a tractor 1.
  • an attachment 2 is attached to the tractor 1.
  • the tractor 1 pulls the attachment over a field 3 so that the attachment 2 can work on the field 3 and so that several track lines are created, in the exemplary embodiment shown, a first track line 4.1 and a second track line 4.2.
  • the first track line 4.1 runs parallel to the second track line 4.2.
  • the tractor 1 is located with the attachment 2 laterally spaced apart from the first track line 4.1.
  • the second track line 4.2 is further away from the vehicle 1 and the attachment 2 than the first track line 4.1.
  • the vehicle 1 comprises a system 5, shown in more detail in FIG. 2, for the autonomous operation of the vehicle 1 (in certain situations / scenarios, see FIG. 4).
  • the system 5 comprises a processor unit 6, a memory unit 7, a communication interface 8 and a sensor unit 9.
  • the sensor unit 9 comprises a digital camera system which is referred to below as “camera” and is provided with the reference number 11 in FIG. 2.
  • the camera 11 is arranged in particular on a roof of the tractor 1 so that it covers an environment 12 of the tractor 1 that is located in a forward area and on both sides of the tractor 1.
  • the digital camera system 1 1 can also, for example, be a
  • Surround view system that can capture an environment 12 that extends 360 ° around the tractor 1.
  • the camera 11 successively and continuously records images of the surroundings 12 of the tractor 1, as a result of which a video or an image sequence of the surroundings 12 of the tractor 1 is generated.
  • This video or this sequence of images is the detection of the surroundings of tractor 1.
  • image sections can be defined (regions of interest, or ROI for short), within which the track lines 4.1 and 4.2 can be recognized using image recognition methods.
  • Methods of artificial intelligence or machine learning can optionally be used.
  • semantic segmentation can be selected as the method of image recognition, whereby an artificial neural network is used (e.g. a convolutional neural network, or CNN for short) that is trained with reference images.
  • the sensor unit 10 can have a radar-based sensor 13.
  • the radar-based sensor 13 is arranged on the tractor 1 in such a way that it can determine altitude values which allow a calculation of a slope of the terrain which is present in the detected surroundings 12 of the tractor 1.
  • a computer program product 10 can be stored on the storage unit 7.
  • the computer program product 10 can be executed on the processor unit 6, for which purpose the processor unit 6 and the memory unit 7 are connected to one another in a correspondingly communicative manner.
  • the computer program product 10 is executed on the processor unit 6, it instructs the processor unit 6 to carry out the functions or method steps described in connection with the drawing.
  • the tractor 1 can be assigned a coordinate system with an x-axis (longitudinal direction) and a y-axis (cross-direction or width direction) running transversely thereto. net that can be viewed as a reference coordinate system.
  • a camera coordinate system can be assigned to each image recorded by the camera 11.
  • Fig. 1 shows that this coordinate system can have a longitudinal axis L of the Ge voltage from tractor 1 and attachment 2.
  • the longitudinal axis L of the image coordinate system coincides with the x-axis of the tractor coordinate system.
  • the image coordinate system also has a width axis B of the attachment 1, which extends transversely to the longitudinal axis L and which extends laterally in width direction B than the tractor 1.
  • a width axis B of the attachment which extends transversely to the longitudinal axis L and which extends laterally in width direction B than the tractor 1.
  • the width axis L does not match the y- Axis of the tractor coordinate system, but there is a longitudinal offset xO in the longitudinal direction x.
  • the processor unit 6 is set up to take this offset into account by converting determined image coordinates into tractor coordinates.
  • the processor unit 6 is also set up to take into account an offset in the width direction y by converting determined image coordinates into tractor coordinates (even if there is no offset in the width direction y in the present example according to FIG. 1).
  • the width axis B can for example run through the widest portion of the attachment 2, as shown by FIG.
  • the wider attachment 2 should have a desired lateral offset (“desired lateral offset”, “target distance”) from a nearest track line (in the exemplary embodiment according to FIG. 1 this is the first track line 4.1), while the combination of tractor 1 and attachment 2 moves on field 3 and works on field 3 by means of attachment 2.
  • This laterally desired distance can be a few meters, for example 8 m.
  • a distance BO can be defined which the closest track line 4.1 should have at least from the longitudinal axis L of the combination of tractor 1 and attachment 2.
  • the desired lateral distance BO can be present as a distance data record to which the processor unit 6 has access.
  • the attachment 2 can comprise a tag, for example an RFID tag, which can be read out by the driver assistance system 5.
  • the distance data record can be stored on the day.
  • the distance data record can also be replaced by a User or a driver of the tractor 1 can be generated in the driver assistance system 5, for example by input via a corresponding terminal of the tractor 1.
  • a second method step 200 the camera 11 records an image of the surroundings of the tractor 1.
  • the second step 200 can be carried out after the first step 100. Alternatively, however, steps 100 and 200 can also be carried out at the same time or with a time overlap.
  • the processor unit 6 can evaluate the image recorded by the camera 11 and recognize the track lines 4.1 and 4.2, whereby methods of artificial intelligence can be used as mentioned above.
  • a polynomial fitting can be carried out.
  • the image content is further processed and polynomials are calculated from individual information (points, broken lines, etc.) that define a track line and its direction.
  • the result of this fourth method step 400 are thus polynomials in the image coordinate system (L, B).
  • the polynomials that have previously been calculated in the image coordinate system can be transformed into coordinates of the tractor coordinate system.
  • the result of this fifth method step 500 are thus polynomials in the tractor coordinate system (x, y).
  • the track lines 4.1 and 4.2 can be swaths or cut edges, for example.
  • the first track line 4.1 has a first lateral distance (first “lateral offset” / first “actual distance”) B1 in the width direction B from the longitudinal axis L of the combination of tractor 1 and attachment 2.
  • the second track line 4.2 has a second lateral distance (second “lateral offset”; second “actual distance”) B2 to the longitudinal axis L of the combination of tractor 1 and attachment 2 in the width direction B.
  • the first lateral distance B1 is smaller than the second lateral distance B2, ie the first track line 4.1 is closer to the longitudinal axis L of the combination of tractor 1 and attachment 2 in the width direction B than the second track line 4.2.
  • step 600 FIG.
  • the processor unit 6 can evaluate the image to determine which of the two track lines 4.1 and 4.2 has a smaller lateral distance (in the width direction B) to the combination of tractor 1 and attachment 2. In the exemplary embodiment according to FIG. 1, the processor unit 6 will determine that the first track line 4.1 has the smaller lateral distance to the combination of tractor 1 and attachment 2 than the second track line 4.2 (B1 ⁇ B2). The processor unit 6 will select the first track line 4.1 accordingly.
  • the processor unit 6 can control the tractor 1 in a seventh method step 700 such that the combination of tractor 1 and attachment 2 moves autonomously along the selected first track line 4.1.
  • the attachment 2 can pursue its main function, namely to work the field 3 and for example generate a new track line next to the first track line 4.1 or collect the first track line 4.1.
  • the first lateral actual distance B1 is smaller than the lateral setpoint distance BO. However, it is required or desired that the actual distance B1 is at least as great as the setpoint distance BO.
  • the processor unit 6 can determine this and, for example, have a corrective effect on the steering of the tractor 1 in such a way that the combination of tractor 1 and attachment 2 moves away from the first track line 4.1 (to the left according to the view in FIG. 1) that the distance B1 of the longitudinal axis L rises from the first track line 4.1 in subsequent images recorded by the camera 11 and that the target criterion B1> BO is met.
  • the steering accuracy provided by the driver assistance system 5 is high and the tractor 1 follows the track line 4.1 perfectly at the distance BO maintained.
  • the track lines 4.1 and 4.2 each have a curvature.
  • the processor unit 6 is set up to determine the curvature of the track lines 4.1 and 4.2. For example, as shown by FIG. 1, the processor unit 6 can apply a tangent T to the first track line 4.1 where the latitude axis B intersects the first track line 4.1. This tangent T can be so be moved so that it lies at the intersection between the longitudinal axis L and the latitude axis B. The processor unit 6 can calculate an angle D between this shifted tangent T ′ and the longitudinal axis L. The angle D can be viewed as a heading error of the tractor 1.
  • the angle D can be caused, for example, by drift, wind, traction problems or centrifugal forces. If the tractor 1 were to continue to move straight ahead in the direction of the longitudinal axis L, then the tractor 1 and the attachment 2 would approach the first track line 4.1 and possibly drive over it. However, in order to follow the curved first track line 4.1 with the lateral target distance BO, the processor unit 6 can, for example, have a corrective effect on the steering of the tractor 1 in such a way that the course of the shifted tangent T is subsequently recorded by the camera 11 Bil countries approximates the course of the longitudinal axis L, and that the course error in the form of the angle D is minimized.
  • the processor unit 6 can furthermore be set up to initiate that the tractor is brought into a safe state (e.g. stopped) when the processor unit 6 detects at least one potential collision object 15 in the detection of the surroundings, e.g. a person, stake, or other vehicle. Alternatively, a warning can also be given to the driver of the actuator 1 or its surroundings 12.
  • a safe state e.g. stopped
  • a warning can also be given to the driver of the actuator 1 or its surroundings 12.
  • the driver assistance system 5 of a tractor 1 can then be active and control the tractor 1 as described above when the tractor 1 is driving on the field 3 along the lane line 4 (scenarios A, B and C). If problems arise with the detection of the lane lines 4, the driver assistance system 5 transfers control of the control of the tractor 1 back to the driver of the tractor 1. Even while the driver is turning the tractor 1 at a headland 14, the driver assistance system 5 transfers control of the control of the tractor 1 back to the driver of the tractor 1.
  • the driver assistance system 5 passes control of the control of the tractor 1 back to the driver of the tractor 1 if the driver does not turn at the headland 14 or takes a completely wrong course (scenarios D, E and F), because in these cases For example, no track line 4 in the vicinity of the tractor 1 can be detected by the sensor unit of the tractor 1 and the conditions for controlling the tractor 1 can therefore not be met.

Abstract

The invention relates to the autonomous operation of a vehicle (1). For example, the invention relates to a processor unit for autonomous operation of a vehicle (1). The processor unit comprises an interface, wherein the processor unit is configured to access, by means of the interface, an environment detection of the vehicle (1) generated by a sensor unit, to recognise a plurality of track lines (4.1, 4.2) in the environment detection, to select a track line (4.1) from the plurality of track lines (4.1, 4.2), and to control the vehicle (1) on the basis of the selected track line (4.1) in such a way that the vehicle (1) follows the selected track line (4.1) autonomously. Further claims are directed to a corresponding driver assistance system (5), a method as well as a computer program product and a vehicle (1).

Description

Vision-basiertes Lenkunqsassistenzsvstem für Landfahrzeuqe Vision-based steering assistance system for land vehicles
Die Erfindung betrifft eine Prozessoreinheit, ein Fahrerassistenzsystem, ein Verfah ren und ein Computerprogrammprodukt zum autonomen Betrieb eines Fahrzeugs, insbesondere eines landwirtschaftlichen Nutzfahrzeugs. The invention relates to a processor unit, a driver assistance system, a method and a computer program product for the autonomous operation of a vehicle, in particular an agricultural utility vehicle.
Es sind Fahrerassistenzsysteme für landwirtschaftliche Nutzfahrzeuge bzw. Maschi nen (Landtechnik) bekannt. Diese Fahrerassistenzsysteme sollen insbesondere als vollautomatisierte oder teilautomatisierte Lenkhilfe den Fahrer entlasten. Dabei hat sich die Lenkhilfe via GPS-Steuerung in der Landtechnik etabliert. Die Fahrerassis tenzsysteme sind teilweise sehr komplex und ermöglichen je nach Korrektursignal Genauigkeiten von bis zu 2 cm. Problematisch an GPS ist die teilweise nicht vorhan dene Signalabdeckung weltweit (z.B. auch im Bergland) und die je nach System ho hen Anschaffungskosten und Lizenzkosten. There are driver assistance systems for agricultural vehicles or Maschi nen (agricultural technology) known. These driver assistance systems are intended to relieve the driver in particular as a fully automated or partially automated steering aid. The steering aid via GPS control has established itself in agricultural engineering. The driver assistance systems are sometimes very complex and, depending on the correction signal, enable accuracies of up to 2 cm. Problems with GPS are the partially non-existent signal coverage worldwide (e.g. also in mountainous regions) and the high acquisition and license costs, depending on the system.
Alternative, nicht auf GPS basierende Fahrerassistenzsysteme für landwirtschaftliche Nutzfahrzeuge sehen optische Systeme vor, die bestimmte Anwendungen in der Landwirtschaft automatisieren. Beispiele sind Fahrerassistenzsysteme, die auf Ka meras, auf Lidar-Sensoren oder allgemeiner auf Laser-Sensoren basieren. Derartige Systeme sind jedoch aufwändig und teuer (insbesondere, wenn Lidar-Sensoren zum Einsatz kommen) und/oder können nur eine einfache Anwendung ausführen oder unterstützen. Beispielsweise ermöglichen diese Systeme typischerweise lediglich, einen Schwad mittig vor dem Fahrzeug zu erkennen und nicht seitlich des Fahr zeugs. Unter einem„Schwad“ kann ein abgemähtes und in einer Reihe liegendes landwirtschaftliches Gut verstanden werden, z.B. Gras, Getreide o.Ä. Weiterhin sind derartige Systeme nicht in der Lage, mehrere Anwendungen (z.B. Mähen, Schwa den, Laden oder Pressen) zu verarbeiten und bieten so keine echte Alternative zu GPS-Systemen. Alternative driver assistance systems for agricultural vehicles that are not based on GPS provide optical systems that automate certain applications in agriculture. Examples are driver assistance systems based on cameras, lidar sensors or, more generally, laser sensors. However, such systems are complex and expensive (in particular when lidar sensors are used) and / or can only carry out or support a simple application. For example, these systems typically only allow a swath to be recognized in the center in front of the vehicle and not to the side of the vehicle. A “swath” can be understood as an agricultural crop that has been mown and lined up in a row, e.g. Grass, grain, etc. Furthermore, such systems are not able to process several applications (e.g. mowing, swathing, loading or baling) and thus do not offer a real alternative to GPS systems.
Ein Fahrer eines landwirtschaftlichen Nutzfahrzeugs muss sich typischerweise für die Dauer eines ganzen Tages auf einen Arbeitsgang konzentrieren. Daneben muss der Fahrer üblicherweise neben dem Steuern des Fahrzeugs gleichzeitig die Funktion von Anbaugeräten des Fahrzeugs überwachen. Dies kann dazu führen, dass es zu Fehlbedienungen kommt, dass die Maschinen nicht optimal effizient genutzt werden und dass die Arbeitsleistung und die Arbeitsqualität leiden. A driver of an agricultural utility vehicle typically has to concentrate on one operation for a whole day. In addition, in addition to controlling the vehicle, the driver usually has to simultaneously monitor the function of attachments in the vehicle. This can cause it to Operating errors mean that the machines are not used optimally efficiently and that work performance and quality of work suffer.
Teure GPS Systeme sind für kleinere oder mittlere Landwirtschaftsbetriebe oftmals nicht rentabel oder nutzlos in Gebieten mit schlechter Signalabdeckung. Optische Assistenzsysteme sind bisher sehr eingeschränkt in Ihrer Funktion und können oft nur sehr einfache Anwendungen umsetzen. Expensive GPS systems are often not profitable for small or medium-sized farms or are useless in areas with poor signal coverage. Optical assistance systems have so far been very limited in their function and can often only implement very simple applications.
Eine Aufgabe der vorliegenden Erfindung kann darin gesehen werden, eine insbe sondere zu teuren GPS-Systemen alternative Technologie bereitzustellen, die den Fahrer entlastet und ihm mehr Komfort bei verschiedenen Anwendungen (z.B. Mä hen, Schwaden, Laden oder Pressen) bietet. An object of the present invention can be seen in providing a technology that is an alternative to expensive GPS systems, in particular, which relieves the driver and offers him more comfort in various applications (e.g. mowing, swathing, loading or baling).
Die Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen sind Gegenstand der Unteransprüche, der folgenden Beschreibung sowie der Figuren. The object is achieved by the subjects of the independent claims. Advantageous embodiments are the subject of the dependent claims, the following description and the figures.
Gemäß der vorliegenden Erfindung wird eine Technologie vorgeschlagen, die Spurli nien (z.B. Schwade oder Mähkanten) in einem Feld erfasst, entsprechende Bildinhal te verarbeitet sowie die richtige Spur auswählt und dann die Lenkung des Fahrzeugs entsprechend ansteuert. Einen Kern der Erfindung stellt dabei ein System aus einfa chen Sensoren (z.B. Kameras) und modernster Bildverarbeitung dar (insbesondere durch Methoden der Künstlichen Intelligenz erweitert, siehe weiter unten), die es er möglicht, das System flexibel zu gestalten und einzusetzen. Je nach Art der Anwen dung und des Einsatzgebietes kann das System unterschiedlich implementiert und so an Kundenanforderungen angepasst werden. According to the present invention, a technology is proposed which records lane lines (e.g. swaths or mowed edges) in a field, processes corresponding image content, selects the correct lane and then controls the vehicle's steering accordingly. A core of the invention is a system of simple sensors (e.g. cameras) and state-of-the-art image processing (expanded in particular by methods of artificial intelligence, see below), which makes it possible to flexibly design and use the system. Depending on the type of application and the area of application, the system can be implemented in different ways and thus adapted to customer requirements.
Insbesondere werden gemäß der vorliegenden Erfindung drei Funktionalitäten bzw. Verfahrensschritte vorgeschlagen, nämlich die Erkennung der Spurlinien („Sehen“ bzw. im Englischen:„See“), die Auswahl der richtigen Spurlinie („Denken“ bzw. im Englischen:„Think“) und die Ansteuerung der Lenkung des Fahrzeugs („Handeln“ bzw. im Englischen:„Act“). Die vorliegende Erfindung ermöglicht, den Fahrer zu ent lasten und ihm mehr Komfort bei verschiedenen Anwendungen (z.B. Mähen, Schwa- den, Laden oder Pressen) zu bieten. Das landwirtschaftliche Nutzfahrzeug kann dadurch effizienter genutzt werden. Die Schlagkraft wird höher, die Arbeitsleistung und Arbeitsqualität verbessern sich deutlich und der Kraftstoffverbrauch sinkt. In particular, according to the present invention, three functionalities or method steps are proposed, namely the recognition of the lane lines ("seeing" or in English: "see"), the selection of the correct lane line ("thinking" or in English: "think") and the control of the steering of the vehicle ("act"). The present invention makes it possible to relieve the driver and give him more comfort in various applications (e.g. mowing, swapping den, loading or pressing). The agricultural utility vehicle can thus be used more efficiently. The efficiency increases, work performance and quality of work improve significantly and fuel consumption decreases.
In diesem Sinne wird gemäß einem ersten Aspekt der Erfindung eine Prozessorein heit zum autonomen Betrieb eines Fahrzeugs bereitgestellt. Die Prozessoreinheit kann ein Element eines elektronischen Steuergeräts des Fahrzeugs bilden. Die Pro zessoreinheit kann weiterhin ein Element eines Fahrerassistenzsystems des Fahr zeugs bilden. Die Prozessoreinheit umfasst eine Schnittstelle. Die Schnittstelle ist insbesondere eine Kommunikations-Schnittstelle, welche den Austausch von Daten ermöglicht, und zwar einen Austausch von Daten zwischen der Prozessoreinheit ei nerseits und einer Sensoreinheit andererseits. Weiterhin kann die Prozessoreinheit über die Schnittstelle Befehle an Aktuatoren des Fahrzeugs übermitteln, beispiels weise an einen Lenk-Aktuator des Fahrzeugs. Die Prozessoreinheit ist insbesondere dazu eingerichtet, mittels der Schnittstelle auf eine von der Sensoreinheit generierte Umfelderfassung des Fahrzeugs zuzugreifen, mehrere Spurlinien in der Umfelder fassung zu erkennen, eine Spurlinie aus den mehreren Spurlinien auszuwählen, und das Fahrzeug basierend auf der ausgewählten Spurlinie derart zu steuern, dass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf o- der seitlich neben der ausgewählten Spurlinie fährt. Wenn die Sensoreinheit lediglich eine einzige Spurlinie in dem Umfeld des Fahrzeugs erfasst, dann ist die Prozesso reinheit auch dazu eingerichtet, diese einzige Spurlinie zu erkennen und das Fahr zeug derart zu steuern, dass es ihr folgt. In this sense, according to a first aspect of the invention, a processor unit for the autonomous operation of a vehicle is provided. The processor unit can form an element of an electronic control unit of the vehicle. The processor unit can also form an element of a driver assistance system of the vehicle. The processor unit includes an interface. The interface is in particular a communication interface which enables the exchange of data, specifically an exchange of data between the processor unit on the one hand and a sensor unit on the other. Furthermore, the processor unit can transmit commands to actuators of the vehicle via the interface, for example to a steering actuator of the vehicle. The processor unit is set up in particular to use the interface to access a surrounding area detection of the vehicle generated by the sensor unit, to recognize several lane lines in the surrounding area detection, to select a lane line from the several lane lines and to control the vehicle based on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, e.g. that the vehicle drives on or to the side of the selected track line. If the sensor unit detects only a single lane line in the vicinity of the vehicle, then the processing unit is also set up to recognize this single lane line and to control the vehicle in such a way that it follows it.
Gemäß einem zweiten Aspekt der Erfindung wird analog ein Fahrerassistenzsystem zum autonomen Betrieb eines Fahrzeugs vorgeschlagen. Das Fahrerassistenzsys tem umfasst eine Sensoreinheit zur Erfassung eines Umfelds des Fahrzeugs und eine Prozessoreinheit gemäß dem ersten Aspekt der Erfindung. Die Sensoreinheit ist dazu eingerichtet, eine Umfelderfassung des Fahrzeugs zu generieren. According to a second aspect of the invention, a driver assistance system for the autonomous operation of a vehicle is proposed. The driver assistance system comprises a sensor unit for detecting the surroundings of the vehicle and a processor unit according to the first aspect of the invention. The sensor unit is set up to generate a detection of the surroundings of the vehicle.
Gemäß einem dritten Aspekt der Erfindung wird ein entsprechendes Verfahren zum autonomen Betrieb eines Fahrzeugs vorgeschlagen. Das Verfahren kann ein Gene rieren einer Umfelderfassung des Fahrzeugs durch eine Sensoreinheit und ein Er- kennen mehrerer Spurlinien in der Umfelderfassung mittels einer Prozessoreinheit umfassen. Weiterhin kann mittels der Prozessoreinheit eine Spurlinie aus den mehre ren Spurlinien ausgewählt werden, und das Fahrzeug mittels der Prozessoreinheit basierend auf der ausgewählten Spurlinie gesteuert werden, sodass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahrzeug auf oder seitlich neben der ausgewählten Spurlinie fährt. According to a third aspect of the invention, a corresponding method for the autonomous operation of a vehicle is proposed. The method can generate a detection of the surroundings of the vehicle by a sensor unit and a know several lane lines in the environment detection by means of a processor unit. Furthermore, a lane line can be selected from the multiple lane lines using the processor unit, and the vehicle can be controlled based on the selected lane line using the processor unit so that the vehicle autonomously follows the selected lane line, e.g. the vehicle drives on or to the side of the selected lane line .
Gemäß einem vierten Aspekt der Erfindung wird ferner analog ein Computerpro grammprodukt zum autonomen Betrieb eines Fahrzeugs bereitgestellt. Das Compu terprogrammprodukt leitet, wenn es auf einer Prozessoreinheit ausgeführt wird, die Prozessoreinheit an, mittels einer Schnittstelle auf eine von einer Sensoreinheit ge nerierte Umfelderfassung des Fahrzeugs zuzugreifen, mehrere Spurlinien in der Um felderfassung zu erkennen, eine Spurlinie aus den mehreren Spurlinien auszuwäh len, und das Fahrzeug basierend auf der ausgewählten Spurlinie derart zu steuern, dass das Fahrzeug autonom der ausgewählten Spurlinie folgt, z.B. dass das Fahr zeug auf oder seitlich neben der ausgewählten Spurlinie fährt. According to a fourth aspect of the invention, a computer program product for the autonomous operation of a vehicle is also provided. When it is executed on a processor unit, the computer program product instructs the processor unit to use an interface to access a vehicle environment detection generated by a sensor unit, to recognize several lane lines in the area detection, to select a lane line from the several lane lines, and to control the vehicle based on the selected lane line in such a way that the vehicle autonomously follows the selected lane line, e.g. that the vehicle is driving on or to the side of the selected track line.
Gemäß einem fünften Aspekt der Erfindung wird ein Fahrzeug bereitgestellt, insbe sondere ein Offroad-Fahrzeug. Das Fahrzeug kann eine Prozessoreinheit gemäß dem ersten Aspekt der Erfindung umfassen. Alternativ oder zusätzlich kann das Fahrzeug ein Fahrerassistenzsystem gemäß dem zweiten Aspekt der Erfindung um fassen. According to a fifth aspect of the invention, a vehicle is provided, in particular an off-road vehicle. The vehicle can comprise a processor unit according to the first aspect of the invention. Alternatively or additionally, the vehicle can include a driver assistance system according to the second aspect of the invention.
Die folgenden Ausführungen gelten gleichermaßen für die Prozessoreinheit gemäß dem ersten Aspekt der Erfindung, für das Fahrerassistenzsystem gemäß dem zwei ten Aspekt der Erfindung, für das Verfahren gemäß dem dritten Aspekt der Erfin dung, für das Computerprogrammprodukt gemäß dem vierten Aspekt der Erfindung und für das Fahrzeug gemäß dem fünften Aspekt der Erfindung. The following statements apply equally to the processor unit according to the first aspect of the invention, for the driver assistance system according to the second aspect of the invention, for the method according to the third aspect of the invention, for the computer program product according to the fourth aspect of the invention and for the vehicle according to the fifth aspect of the invention.
Das Fahrzeug kann mittels der Prozessoreinheit gesteuert werden. Unter„gesteuert“ oder„steuern“ kann insbesondere verstanden werden, dass das Fahrzeug autonom betrieben werden kann, d.h. es kann insbesondere automatisch gelenkt, beschleu nigt und abgebremst werden, einschließlich aller dazu notwendigen Steuerungen von Aktuatoren insbesondere des Antriebsstrangs, der Lenkung und Signalgebung des Fahrzeugs. Die Steuerung des Fahrzeugs mittels der Prozessoreinheit kann automa tisch oder durch einen Nutzer des Fahrzeugs mittels eines Bedienelements aktiviert werden, wenn das Fahrzeug entlang einer Spurlinie fährt. Wenn das Fahrzeug an einem Vorgewende der Spurlinie(n) dreht, kann die Steuerung des Fahrzeugs auto matisch oder durch den Nutzer des Fahrzeugs mittels eines Bedienelements deakti viert werden. The vehicle can be controlled by means of the processor unit. “Controlled” or “steer” can in particular be understood to mean that the vehicle can be operated autonomously, ie it can in particular be automatically steered, accelerated and braked, including all of the necessary controls Actuators in particular of the drive train, the steering and signaling of the vehicle. The control of the vehicle by means of the processor unit can be activated automatically or by a user of the vehicle by means of an operating element when the vehicle is traveling along a lane line. If the vehicle turns at a headland of the track line (s), the control of the vehicle can be deactivated automatically or by the user of the vehicle using an operating element.
Eine Spurlinie kann beispielsweise einen Schwad oder eine Mähkante oder eine Schnittkante auf einer landwirtschaftlichen Nutzfläche, z.B. einem Feld, umfassen. Weiterhin kann die Spurlinie eine Fahrspur, eine Pflanzreihe, eine Baumreihe, einen Bordstein oder einen Arbeitsweg umfassen. So kann die Prozessoreinheit dazu ein gerichtet sein, nicht nur Schwade und Mähkanten als Spurlinien zu erkennen und das Fahrzeug anzuweisen ihnen zu folgen, sondern mit einfachem Applikationsauf wand können auch andere Anwendungen in der Landwirtschaft, im Kommunalbe reich oder auch im Baumaschinengeschäft erfolgreich automatisiert werden. So kön nen beispielsweise Maisreihen, Apfelbäume in Plantagen, Rebstöcke in Weinbergen, Schnittkanten eines Mähdreschers im Getreide, Hackkulturen (Sojabohnen, Zucker rüben etc.), Kartoffeldämme oder Bordsteine für Kehrmaschinen beim Mäheinsatz von Straßenrändern erkannt werden. Die Spurlinie kann sich insbesondere auf einem Feld befinden und beispielsweise durch ein vorheriges Sähen hervorgerufen worden sein. Pflanzreihen sind Reihen des betreffenden angebauten Produkts, z.B. Mais o- der Weinreben. Baumreihen sind beispielsweise auf Obstbaumplantagen, z.B. Apfel plantagen, anzutreffen. Arbeitswege findet man beispielsweise im Bergbau (insbe sondere im Tagebau). A track line can, for example, be a swath or a mowing edge or a cutting edge on an agricultural area, e.g. a field. Furthermore, the lane line can comprise a lane, a row of plants, a row of trees, a curb or a work path. The processor unit can be set up not only to recognize swaths and mowed edges as lane lines and instruct the vehicle to follow them, but also other applications in agriculture, in the municipal sector or in the construction machinery business can be successfully automated with simple application effort. For example, rows of maize, apple trees in plantations, vines in vineyards, cut edges of a combine harvester in grain, hoed crops (soybeans, sugar beets, etc.), potato ridges or curbs for road sweepers when mowing roadsides can be recognized. The track line can, in particular, be located in a field and, for example, have been caused by previous sowing. Plant rows are rows of the cultivated product in question, e.g. Corn or grapevines. Rows of trees are for example on orchards, e.g. Apple plantations to be found. You can find commutes to work, for example, in mining (especially in open-cast mining).
Bei dem Fahrzeug kann es sich insbesondere um ein Offroad -Fahrzeug handeln. Unter einem Offroad -Fahrzeug kann ein Fahrzeug verstanden werden, dessen pri märes Einsatzgebiet nicht eine Straße ist (wie dies z.B. bei Personenkraftfahrwagen, Bussen oder Lastkraftfahrwagen der Fall ist), sondern beispielsweise eine landwirt schaftliche Nutzfläche, z.B. ein zu bearbeitendes / bestellendes Feld oder ein Wald gebiet, oder ein Bergbaugebiet (insbesondere Tagebau), oder eine industrielle Nutz fläche, z.B. innerhalb einer Fertigungsstätte oder einer Lagerhalle. Beispielsweise kann das Offroad-Fahrzeug ein landwirtschaftliches Nutzfahrzeug bzw. eine landwirt schaftliche Zugmaschine wie Mähdrescher oder Traktor sein. Weiterhin kann es sich bei dem Fahrzeug um ein Flurförderzeug handeln, z.B. um einen Gabelstapler oder um einen Schlepper. Weiterhin kann das Fahrzeug auch ein Kommunalfahrzeug sein, z.B. eine Straßenkehrmaschine, ein Müllfahrzeug oder ein Schneeräum- Fahrzeug. The vehicle can in particular be an off-road vehicle. An off-road vehicle can be understood to mean a vehicle whose primary area of application is not a road (as is the case, for example, with passenger cars, buses or trucks), but for example an agricultural area, e.g. a field to be worked / tilled or a Forest area, or a mining area (especially open-cast mining), or an industrial area, e.g. within a production facility or warehouse. For example The off-road vehicle can be an agricultural utility vehicle or an agricultural tractor such as a combine harvester or tractor. Furthermore, the vehicle can be an industrial truck, for example a forklift or a tractor. Furthermore, the vehicle can also be a municipal vehicle, for example a street sweeper, a garbage truck or a snow clearing vehicle.
Insbesondere ist die Prozessoreinheit dazu eingerichtet diejenige Spurlinie auszu wählen, welche den geringsten Abstand zu dem Fahrzeug hat. Beispielsweise kann die Umfelderfassung mehrere zeitlich nacheinander aufgenommene Kamera-Bilder umfassen (Bildfolge), welche das Umfeld des Fahrzeugs abbilden. In einem dieser Kamera-Bilder kann beispielsweise eine erste Spurlinie und eine zweite Spurlinie erkannt werden. Die erste Spurlinie und die zweite Spurlinie können parallel zuei nander und seitlich neben dem Fahrzeug verlaufen. Dies kann durch Methoden der Bildverarbeitung erkannt werden. Ebenfalls kann durch Methoden der Bildverarbei tung erkannt werden, welche der beiden Spurlinien sich seitlich näher an dem Fahr zeug befindet. Wenn dies die erste Spurlinie ist, so kann die Prozessoreinheit die erste Spurlinie auswählen und das Fahrzeug derart steuern, dass es auf oder parallel zu der ersten Spurlinie fährt. Wenn die Prozessoreinheit jedoch ermittelt, dass die zweite Spurlinie einen geringeren Abstand zum Fahrzeug aufweist als die erste Spur linie, dann kann es die zweite Spurlinie auswählen und das Fahrzeug derart steuern, dass es beispielsweise auf oder mit seitlichem Abstand parallel zu der zweiten Spur linie fährt. In particular, the processor unit is set up to select that lane line which has the smallest distance from the vehicle. For example, the detection of the surroundings can comprise several camera images recorded one after the other (image sequence), which depict the surroundings of the vehicle. For example, a first track line and a second track line can be recognized in one of these camera images. The first track line and the second track line can run parallel to one another and to the side of the vehicle. This can be recognized by methods of image processing. Image processing methods can also be used to identify which of the two lane lines is closer to the side of the vehicle. If this is the first lane line, the processor unit can select the first lane line and control the vehicle in such a way that it drives on or parallel to the first lane line. However, if the processor unit determines that the second lane line has a smaller distance from the vehicle than the first lane line, then it can select the second lane line and control the vehicle in such a way that it drives, for example, on or at a lateral distance parallel to the second lane line .
Die vorliegende Erfindung unterstützt mehrere verschiedene Anwendungen (z.B. Mähen, Schwaden, Laden oder Pressen). Weiterhin ermöglicht die vorliegende Erfin dung, dass Spurlinien mit einem bestimmten Abstand gefolgt werden kann, was ins besondere wichtig bei unterschiedlichen Arbeitsbreiten von Anbaugeräten ist, die an das Fahrzeug angebaut werden können. Ferner ermöglicht die vorliegende Erfin dung, dass Spurlinien zuverlässig erkannt werden können. Außerdem können The present invention supports several different applications (e.g., mowing, swathing, loading or baling). Furthermore, the present invention enables track lines to be followed at a certain distance, which is particularly important with different working widths of attachments that can be attached to the vehicle. Furthermore, the present invention enables track lines to be reliably recognized. Also can
Schwade und Schnittkanten beispielsweise mit einem seitlichen Abstand von bis zu 8 m erkannt werden, wobei das landwirtschaftliche Nutzfahrzeug derart gesteuert wer den kann, dass den genannten erkannten Objekten gefolgt wird. Die Sensoreinheit ist dazu eingerichtet, ein lokales Umfeld des Fahrzeugs zu erfas sen. Das lokale Umfeld des Fahrzeugs kann als Region of Interest (ROI) bezeichnet werden. Beispielsweise kann die Region of Interest ein Feld oder ein Teil eines Felds sein. Das Feld oder der Teil des Felds kann dazu bestimmt sein, von dem Fahrzeug insbesondere landwirtschaftlich bearbeitet zu werden. Beispielsweise kann das Fahr zeug oder ein Anbaugerät des Fahrzeugs Mittel aufweisen, die es dazu befähigen, eine bestimmte Operation innerhalb des Arbeitsbereichs durchzuführen, z.B. Mähen, Schwaden, Laden oder Pressen. Diese Mittel können in das Fahrzeug integriert oder als Anbaugeräte an das Fahrzeug angebaut sein. Die bei der Erfassung des Umfelds entstehenden Aufnahmen bzw. Frames ergeben die Umfelderfassung. So kann es sich bei der Umfelderfassung beispielsweise um Bilder handeln, wenn als Sensor eine Kamera oder ein Kamerasystem eingesetzt wird. Weiterhin kann es sich bei der Umfelderfassung um Frames handeln, wenn beispielsweise ein Radar oder ein Lidar eingesetzt wird. Die Aufnahmen, insbesondere die Bilder oder Frames, decken je weils einen begrenzten Bereich um das Fahrzeug herum ab. Dies ist mit dem Merk mal„lokal“ gemeint. Das lokale Umfeld des Fahrzeugs ist somit ein begrenzter Be reich, welcher sich außen um das Fahrzeug herum erstreckt. Swaths and cut edges can be recognized, for example, with a lateral distance of up to 8 m, the agricultural utility vehicle being able to be controlled in such a way that the named recognized objects are followed. The sensor unit is set up to detect a local area surrounding the vehicle. The local surroundings of the vehicle can be referred to as the region of interest (ROI). For example, the region of interest can be a field or part of a field. The field or the part of the field can be intended to be worked in particular for agriculture by the vehicle. For example, the vehicle or an attachment of the vehicle can have means that enable it to carry out a specific operation within the work area, for example mowing, swathing, loading or baling. These means can be integrated into the vehicle or attached to the vehicle as attachments. The recordings or frames produced when the surroundings are recorded result in the recording of the surroundings. For example, the detection of the surroundings can be images if a camera or a camera system is used as the sensor. Furthermore, the detection of the surroundings can be frames if, for example, a radar or a lidar is used. The recordings, in particular the images or frames, each cover a limited area around the vehicle. This is what the “local” feature means. The local area around the vehicle is thus a limited area that extends around the outside of the vehicle.
Die Reichweite bzw. Erstreckung des lokalen Umfelds kann je nach verwendetem Sensortyp abweichen und ggfs eingestellt werden. Das im Rahmen der vorliegenden Anmeldung offenbarte Sensorsystem ist dazu eingerichtet, derart an dem Fahrzeug angeordnet zu werden, insbesondere befestigt zu werden, dass es das lokale Umfeld des Fahrzeugs erfassen kann. Der Bereich der Umgebung, welchen der betreffende Sensor dabei erfasst, kann auch als sogenanntes„Field of View“ bezeichnet werden. Dieser Bereich kann je nach verwendetem Sensor eindimensional, zweidimensional oder dreidimensional sein. Es ist möglich, dass der durch den Sensor erfassbare Be reich einen Teil der Umgebung des Fahrzeugs erfassen kann, z.B. einen Sektor im Vorausbereich und/oder im seitlichen Bereich und/oder im Hinterausbereich des Fahrzeugs. Weiterhin kann der betreffende Sensor auch dazu eingerichtet sein, die vollständige Umgebung des Fahrzeugs zu erfassen, z.B. beim Einsatz sogenannter Surround View Systeme. Die Prozessoreinheit ist dazu eingerichtet, die Umfelderfassung auszuwerten. Die Umfelderfassung kann beispielsweise eine Aufnahme des lokalen Umfelds des Fahr zeugs sein. Insbesondere ist die Prozessoreinheit dazu eingerichtet, aus Aufnahmen oder Frames, die durch die Sensoreinheit generiert worden sind, Objekte zu extrahie ren. Beispielsweise kann die Prozessoreinheit ein Bild einer Kamera der Sensorein heit auswerten, und dabei sämtliche Spuren innerhalb des Bilds erkennen. The range or extent of the local environment can vary depending on the type of sensor used and can be adjusted if necessary. The sensor system disclosed in the context of the present application is designed to be arranged on the vehicle, in particular to be attached, in such a way that it can detect the local surroundings of the vehicle. The area of the environment which the relevant sensor detects can also be referred to as the so-called “field of view”. This area can be one-dimensional, two-dimensional or three-dimensional, depending on the sensor used. It is possible that the area that can be detected by the sensor can detect part of the surroundings of the vehicle, for example a sector in the front area and / or in the side area and / or in the rear area of the vehicle. Furthermore, the relevant sensor can also be set up to record the entire surroundings of the vehicle, for example when using so-called surround view systems. The processor unit is set up to evaluate the detection of the surroundings. The detection of the surroundings can, for example, be a recording of the local surroundings of the vehicle. In particular, the processor unit is set up to extract objects from recordings or frames generated by the sensor unit. For example, the processor unit can evaluate an image from a camera of the sensor unit and recognize all traces within the image.
Die mehreren Spurlinien können mittels Methoden der Bildverarbeitung erkannt wer den, beispielsweise innerhalb eines Bildes, welches von einer Kamera der Sen soreinheit aufgenommen worden ist und welches das Umfeld des Fahrzeugs abbil det. Beispiele für geeignete Methoden der Bildverarbeitung sind beispielsweise die semantische Segmentierung oder die Kantenerkennung. Das Ergebnis der Anwen dung solcher Methoden der Bildverarbeitung kann insbesondere ein Polynom sein, das die Erstreckung und den Verlauf der Spurlinien beschreibt. The multiple lane lines can be recognized by means of image processing methods, for example within an image that has been recorded by a camera of the sensor unit and that depicts the surroundings of the vehicle. Examples of suitable methods of image processing are, for example, semantic segmentation or edge detection. The result of using such image processing methods can in particular be a polynomial that describes the extent and course of the track lines.
In einer Ausführungsform ist die Prozessoreinheit dazu eingerichtet, das Fahrzeug basierend auf wenigstens einem der folgenden Parameter zu steuern, nämlich basie rend auf einer Krümmung der ausgewählten Spurlinie, basierend auf einem Kursfeh ler des Fahrzeugs oder basierend auf einer Differenz aus einem aus der Umfelder fassung ermittelten seitlichen Abstand der ausgewählten Spurlinie zu dem Fahrzeug einschließlich dessen Anbaugeräten und einem gewünschten Abstand der ausge wählten Spurlinie zu dem Fahrzeug einschließlich dessen Anbaugeräten. In one embodiment, the processor unit is set up to control the vehicle based on at least one of the following parameters, namely based on a curvature of the selected lane line, based on a course error of the vehicle or based on a difference from one determined from the surroundings lateral distance of the selected lane line to the vehicle including its attachments and a desired distance from the selected lane line to the vehicle including its attachments.
In einer weiteren Ausführungsform ist die Prozessoreinheit dazu eingerichtet ist, die mehreren Spurlinien in der Umfelderfassung zu erkennen, indem Methoden der Bild verarbeitung mit Methoden der künstlichen Intelligenz kombiniert werden. Dabei kann ein künstliches neuronales Netz trainiert werden, z.B. indem dem künstlichen neuro nalen Netz zu dessen Training repräsentative Beispielbilder mit Spurlinien zur Verfü gung gestellt werden. Die Erweiterung der„klassischen Bildverarbeitung“ um Ele mente der Künstlichen Intelligenz ermöglicht insbesondere mehrere Spurlinien zu erkennen und durch Training beispielsweise eines neuronalen Netzes den Erken nungsgrad und somit die Zuverlässigkeit ständig zu verbessern. Ein durch die Kom bination aus klassischer Bildverarbeitung und Künstlicher Intelligenz ausgegebenes Polynom kann die Krümmung der Spurlinie, den Verlauf der Spurlinie und den seitli chen Abstand der Spurlinie zu dem Offroad-Fahrzeug einschließlich dessen Anbau geräten mit einer besonders hohen Wahrscheinlichkeit richtig beschreiben. Zusam men mit dem gewünschten Abstand der Spurlinie zu dem Offroad-Fahrzeug ein schließlich dessen Anbaugeräten („desired lateral offset“) kann die Lenkung des Fahrzeugs angesteuert werden. In a further embodiment, the processor unit is set up to recognize the multiple track lines in the detection of the surroundings by combining methods of image processing with methods of artificial intelligence. An artificial neural network can be trained, for example by making representative sample images with track lines available to the artificial neural network for training it. The extension of the “classic image processing” with elements of artificial intelligence makes it possible in particular to recognize several lane lines and to continuously improve the degree of recognition and thus the reliability by training a neural network, for example. An output through the combination of classic image processing and artificial intelligence Polynomial can correctly describe the curvature of the track line, the course of the track line and the lateral distance between the track line and the off-road vehicle including its attachments with a particularly high probability. Together with the desired distance between the track line and the off-road vehicle, including its attachments (“desired lateral offset”), the vehicle's steering can be controlled.
Beispielsweise können durch die Sensoreinheit generierte Bilder oder Frames mittels der sogenannten semantischen Segmentierung (im Englischen:„Semantic- Segmentation“) verarbeitet werden, die ein künstliches neuronales Netz nutzt. Bei der semantischen Segmentierung werden einzelne Bildinhalte segmentiert. Dabei können benachbarte Pixel zu einer inhaltlich zusammenhängenden Bildregionen zu sammengefasst werden, wenn sie ein definiertes Homogenitätskriterium erfüllen. Es kann insbesondere eine Pixel-genaue Klassifikation der Bilder erfolgen, wobei für jeden Pixel die Zugehörigkeit zu einer bekannten Objektklasse bestimmt werden kann. Beispielsweise kann die Prozessoreinheit eine Bildfolge von einer Kamera er halten, welche das Umfeld des Fahrzeugs in aufeinanderfolgenden Bildern der Bild folge erfasst. In den Bildern kann die Prozessoreinheit mittels semantischer Segmen tierung beispielsweise Merkmale extrahieren und in einer Klassifikation jeden Pixel einer Objektklasse zuordnen, beispielsweise einer Objektklasse„Spurlinie“, einer Objektklasse„Feld ohne Spurlinie“,„Himmel“ usw. Die Methode des semantischen Segmentierung eignet sich besonders für komplexe Anwendungen und liefert eine besonders hohe Genauigkeit. For example, images or frames generated by the sensor unit can be processed by means of so-called semantic segmentation (in English: “Semantic segmentation”), which uses an artificial neural network. With semantic segmentation, individual image contents are segmented. Adjacent pixels can be combined to form image regions with coherent content if they meet a defined homogeneity criterion. In particular, a pixel-precise classification of the images can take place, it being possible for each pixel to belong to a known object class. For example, the processor unit can receive an image sequence from a camera which records the surroundings of the vehicle in successive images of the image sequence. In the images, the processor unit can extract features using semantic segmentation, for example, and assign each pixel to an object class in a classification, for example an object class “track line”, an object class “field without track line”, “sky” etc. The semantic segmentation method is suitable especially for complex applications and provides a particularly high level of accuracy.
Alternativ können durch die Sensoreinheit generierte Bilder oder Frames mittels der Methode der Kantenerkennung verarbeitet werden, die ein künstliches neuronales Netz nutzt. Dabei kann mittels des künstlichen neuronalen Netzes ein Filter ange passt werden. Bei der Methode der Kantenerkennung (im Englischen:„edge detec- tion“) können flächige Bereiche in einem digitalen Bild voneinander getrennt werden, insbesondere wenn sie sich entlang gerader oder gekrümmter Linien ausreichend in Färb- oder Grauwert, Helligkeit oder Textur unterscheiden. Dabei können spezielle Kantenoperatoren, die auch als Filter bezeichnet werden, Übergänge zwischen flä chigen Bereichen erkennen und als Kanten markieren. Mit anderen Worten können bei der Methode der Kantenerkennung Kanten in einem beispielsweise zweidimensi onalen Bild erkannt werden, das z.B. von einer Kamera aufgenommen worden ist. Informationen bezüglich erkannter Kanten können zum Erkennen bestimmter Objekte in dem Bild genutzt werden, bezugnehmend auf die vorliegende Erfindung insbeson dere zum Erkennen von Spurlinien auf einem Feld. Dazu können beispielsweise die Informationen bezüglich erkannter Kanten mit hinterlegten Mustern verglichen wer den. Alternatively, images or frames generated by the sensor unit can be processed using the edge detection method that uses an artificial neural network. A filter can be adapted using the artificial neural network. With the edge detection method, flat areas in a digital image can be separated from one another, especially if they differ sufficiently in terms of color or gray value, brightness or texture along straight or curved lines. Special edge operators, also known as filters, can recognize transitions between flat areas and mark them as edges. In other words you can in the method of edge detection, edges are detected in a two-dimensional image, for example, which has been recorded by a camera, for example. Information relating to recognized edges can be used to recognize certain objects in the image, with reference to the present invention in particular for recognizing track lines in a field. For this purpose, for example, the information relating to recognized edges can be compared with stored patterns.
Das System ermöglicht durch die Erkennung der Spurlinien auch eine Ansteuerung bzw. Automatisierung eines Anbaugeräts des Fahrzeugs. So kann beispielsweise eine Ladewagen-Pickup (als Beispiel eines Anbaugeräts) z.B. über ein CAN-Signal ausgehoben werden, wenn das Ende eines Schwads von der Sensoreinheit erkannt wird. Weiterhin kann die Ladewagen-Pickup z.B. über ein CAN-Signal abgesenkt werden, wenn der Anfang eines Schwads von der Sensoreinheit erkannt wird. In die sem Sinne ist gemäß einer weiteren Ausführungsform vorgesehen, dass die Prozes soreinheit dazu eingerichtet ist, ein an das Fahrzeug angebautes Anbaugerät basie rend auf der ausgewählten Spurlinie und dessen Verlauf in der Umfelderfassung zu steuern. Der gewünschte Abstand zu den Spurlinien („Desired Lateral Offset“) kann durch die Breite des Anbaugerätes definiert werden. Entweder kann dies manuell durch den Fahrer über ein Terminal eingegeben werden oder durch eine automati sche Anbaugeräteerkennung, z.B. mittels eines Tags des Anbaugeräts, wobei der Tag direkt von der Prozessoreinheit bzw. dem Fahrerassistenzsystem erkannt und verarbeitet wird. By recognizing the track lines, the system also enables control or automation of an attachment in the vehicle. For example, a loader wagon pickup (as an example of an attachment) can e.g. be lifted via a CAN signal when the end of a swath is detected by the sensor unit. Furthermore, the loading wagon pick-up can e.g. can be lowered via a CAN signal when the beginning of a swath is detected by the sensor unit. In this sense, it is provided according to a further embodiment that the processor unit is set up to control an attachment mounted on the vehicle based on the selected track line and its course in the environment detection. The desired distance to the track lines ("Desired Lateral Offset") can be defined by the width of the attachment. This can either be entered manually by the driver via a terminal or through automatic attachment recognition, e.g. by means of a tag on the attachment, the tag being recognized and processed directly by the processor unit or the driver assistance system.
Die Prozessoreinheit kann in ein Fahrerassistenzsystem des Fahrzeugs integriert sein oder mit dem Fahrerassistenzsystem kommunikativ verbunden sein. Die Pro zessoreinheit kann dazu eingerichtet sein, einzuleiten, dass das Fahrzeug in einen sicheren Zustand überführt wird, wenn die Prozessoreinheit in der Umfelderfassung wenigstens ein potentielles Kollisionsobjekt erkennt. Ein potentielles Kollisionsobjekt kann ein Gegenstand (ortsfest oder beweglich, z.B. ein Baum, ein Strommast, ein Pfahl oder ein anderes Fahrzeug), ein Mensch oder ein Tier sein, dass sich innerhalb des erfassten lokalen Umfelds des Fahrzeugs befindet. Unter„einzuleiten“ kann in diesem Zusammenhang insbesondere verstanden werden, dass die Prozessoreinheit einen Befehl an das Fahrerassistenzsystem des Fahrzeugs übermittelt, sodass das Fahrerassistenzsystem das Fahrzeug in den sicheren Zustand überführt. Beispiels weise kann das Fahrerassistenzsystem das Fahrzeug beim Überführen in den siche ren Zustand zum Stillstand bringen. Alternativ kann auch die Geschwindigkeit verrin gert werden (ohne dass das Fahrzeug gestoppt werden muss), sodass eine Kollisi onsgefahr signifikant verringert werden kann. Weiterhin kann eine optische oder akustische Warnung ausgegeben werden, insbesondere an den Nutzer des Fahr zeugs (z.B. über ein Display innerhalb des Fahrzeugs) und/oder an das lokale Um feld des Fahrzeugs, z.B. durch eine Hupe, ein Signalhorn, einen Lautsprecher oder durch eine Leuchteinrichtung des Fahrzeugs. Die optische oder akustische Warnung kann insbesondere durch Personen und Tiere wahrgenommen werden, die sich in der Nähe des Fahrzeugs befinden. Auf diese Weise können Personen in der Nähe vor dem autonom fahrenden Fahrzeug gewarnt und Kollisionen vermieden werden. The processor unit can be integrated into a driver assistance system of the vehicle or be communicatively connected to the driver assistance system. The processor unit can be set up to initiate that the vehicle is transferred to a safe state when the processor unit detects at least one potential collision object in the surroundings detection. A potential collision object can be an object (stationary or movable, for example a tree, a power pole, a pole or another vehicle), a person or an animal that is located within the detected local area surrounding the vehicle. In this context, “initiate” can in particular be understood to mean that the processor unit a command is transmitted to the driver assistance system of the vehicle so that the driver assistance system transfers the vehicle to the safe state. For example, the driver assistance system can bring the vehicle to a standstill when it is brought into the safe state. Alternatively, the speed can be reduced (without having to stop the vehicle) so that the risk of collision can be significantly reduced. Furthermore, an optical or acoustic warning can be output, in particular to the user of the vehicle (for example via a display inside the vehicle) and / or to the local area around the vehicle, for example by a horn, a horn, a loudspeaker or by a Vehicle lighting system. The visual or acoustic warning can in particular be perceived by people and animals who are in the vicinity of the vehicle. In this way, people in the vicinity can be warned of the autonomously driving vehicle and collisions can be avoided.
Die Sensoreinheit zur Erfassung des Umfelds des Fahrzeugs kann wenigstens einen der folgenden Sensoren umfassen, nämlich einen Bildverarbeitungs-Sensor, insbe sondere eine Kamera, einen Radar-Sensor oder einen Laser-basierten Sensor. The sensor unit for detecting the surroundings of the vehicle can comprise at least one of the following sensors, namely an image processing sensor, in particular a camera, a radar sensor or a laser-based sensor.
Der Bildverarbeitungs-Sensor (z.B. eine Kamera), kann dazu eingerichtet sein, Bilder des Umgebungsbereichs aufzunehmen. Mittels bekannter Methoden der Bildverar beitung und Bildauswertung können in den Bildern Merkmale erkannt werden, insbe sondere die Spurlinien. The image processing sensor (e.g. a camera) can be set up to record images of the surrounding area. Using known methods of image processing and image evaluation, features can be recognized in the images, in particular the track lines.
Der Radar-basierte Sensor kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen, insbesondere die Spurlinien. Der Radar-basierte Sensor kann beispielsweise Abstände zu Objekten innerhalb des erfassten Umfelds messen. Weiterhin kann der Radar-basierte Sensor beispielsweise auch Azimut- Werte, Höhen-Werte (Elevation), Intensitäts-Werte und Radialgeschwindigkeits- Werte messen. Der Radar-Sensor kann zur Ermittlung der Steigung eingesetzt wer den. Durch Einbeziehen von Höhenwerten kann insbesondere eine Steigung des Geländes ermittelt werden, welche in dem erfassten Umfeld des Fahrzeugs vorliegt. Insbesondere kann die Sensoreinheit wenigstens eine Kamera umfassen, welche in einem Field of View der Kamera Spurlinien erkennt, und zusätzlich kann die Sen- soreinheit einen Radar-basierten Sensor umfassen, welcher dazu eingerichtet ist, in einem Field of View des Radar-basierten Sensors die Steigung des Geländes zu er mitteln. Die Fields of View der Kamera und des Radar-basierten Sensors können dabei deckungsgleich sein, sich überlappen oder sich nicht überlappen (komplemen täre Fields of View). Ein entsprechender Messzyklus, in dem der Radar-basierte Sensor das Umfeld des Fahrzeugs erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein„Frame“ bezeichnet werden. Der Radar-basierte Sensor kann das Umfeld somit N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punktewolken kann der Radar-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimen sionen umfassen (N-dimensionale Punktewolke), wenn man beispielsweise auch In tensitäten und Radialgeschwindigkeiten beachtet. The radar-based sensor can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines. The radar-based sensor can, for example, measure distances to objects within the detected surroundings. Furthermore, the radar-based sensor can also measure azimuth values, altitude values (elevation), intensity values and radial velocity values, for example. The radar sensor can be used to determine the incline. By including altitude values, it is possible in particular to determine a slope of the terrain which is present in the detected surroundings of the vehicle. In particular, the sensor unit can include at least one camera which detects track lines in a field of view of the camera, and in addition the sensor can Sensor unit comprise a radar-based sensor which is set up to determine the slope of the terrain in a field of view of the radar-based sensor. The fields of view of the camera and the radar-based sensor can be congruent, overlap or not overlap (complementary fields of view). A corresponding measurement cycle in which the radar-based sensor recorded the surroundings of the vehicle or measured it in the manner described can be referred to as a “frame”. The radar-based sensor can therefore scan or detect the environment in an N-dimensional manner, as a result of which point clouds can be generated. The radar-based sensor can extract features from recorded point clouds. The point cloud can accordingly comprise several dimensions (N-dimensional point cloud) if, for example, intensities and radial speeds are also taken into account.
Der Laser-basierter Sensor (z.B. ein Lidar-Sensor) kann dazu eingerichtet sein, in dem erfassten Umfeld des Fahrzeugs Merkmale zu erkennen, insbesondere die Spurlinien. Der Laser-basierte Sensor kann beispielsweise innerhalb des erfassten Umfelds Intensitäten in einer x-Richtung, in einer y-Richtung und in einer z-Richtung eines kartesischen Koordinatensystems des Laser-basierten Sensors messen. Ein entsprechender Messzyklus, in dem der Laser-basierte Sensor das Umfeld erfasst bzw. auf die beschriebene Art vermessen hat, kann dabei als ein„Frame“ bezeichnet werden. Der Laser-basierte Sensor kann das Umfeld N-dimensional abtasten bzw. erfassen, wodurch Punktewolken generiert werden können. Aus erfassten Punkte wolken kann der Laser-basierte Sensor Merkmale extrahieren. Die Punktewolke kann entsprechend mehrere Dimensionen umfassen (N-dimensionale Punktewolke). The laser-based sensor (e.g. a lidar sensor) can be set up to recognize features in the detected surroundings of the vehicle, in particular the lane lines. The laser-based sensor can, for example, measure intensities in an x-direction, in a y-direction and in a z-direction of a Cartesian coordinate system of the laser-based sensor within the detected surroundings. A corresponding measuring cycle in which the laser-based sensor has recorded the environment or measured it in the described manner can be referred to as a “frame”. The laser-based sensor can scan or detect the environment N-dimensionally, whereby point clouds can be generated. The laser-based sensor can extract features from captured point clouds. The point cloud can accordingly comprise several dimensions (N-dimensional point cloud).
Zusätzlich zu der automatischen Auswahl der Spurlinie durch die Prozessoreinheit kann eine Auswahl einer zu folgenden Spurlinie, z.B. einem zu folgenden Schwad oder einer zu folgenden Schnittkante, von einem Fahrer bzw. Nutzer des landwirt schaftlichen Nutzfahrzeugs über eine Bedienhilfe gesteuert werden. In diesem Sinne umfasst das System in einer weiteren Ausführungsform eine Bedieneinheit, welche dazu eingerichtet ist, einem Nutzer das Auswählen einer Spurlinie aus den mehreren Spurlinien zu ermöglichen. Die Bedieneinheit kann ein Display umfassen, z.B. einen Touchscreen. Das Display kann die mehreren durch die Sensoreinheit erfassten Spurlinien zeigen. Der Nutzer kann aus den mehreren dargestellten Spurlinien dieje nige Spurlinie auswählen, der das Fahrzeug autonom folgen soll. In addition to the automatic selection of the track line by the processor unit, a selection of a track line to be followed, eg a swath to be followed or a cutting edge to be followed, can be controlled by a driver or user of the agricultural utility vehicle via an operating aid. In this sense, the system comprises, in a further embodiment, an operating unit which is set up to enable a user to select a track line from the multiple track lines. The operating unit can comprise a display, for example a touch screen. The display can detect the plural ones by the sensor unit Show track lines. The user can select the lane line that the vehicle should follow autonomously from the multiple lane lines shown.
Im Folgenden werden Ausführungsbeispiele der Erfindung anhand der schemati schen Zeichnung näher erläutert, wobei gleiche oder ähnliche Elemente mit dem gleichen Bezugszeichen versehen sind. Hierbei zeigt In the following, exemplary embodiments of the invention are explained in more detail with reference to the schematic drawings, identical or similar elements being provided with the same reference symbols. Here shows
Fig. 1 eine Draufsicht auf ein Feld, auf welchem ein Traktor mit einem Anbaugerät autonom fährt, 1 shows a plan view of a field on which a tractor with an attachment drives autonomously,
Fig. 2 Elemente eines Fahrerassistenzsystems für den Traktor nach Fig. 1 , FIG. 2 elements of a driver assistance system for the tractor according to FIG. 1,
Fig. 3 Schritte eines Verfahrens zur Detektion von Spurlinien und zur Steuerung des Traktors nach Fig. 1 basierend auf einer ausgewählten Spurlinie mittels des Fahrerassistenzsystems nach Fig. 2, und 3 shows steps of a method for detecting track lines and for controlling the tractor according to FIG. 1 based on a selected track line by means of the driver assistance system according to FIG. 2, and
Fig. 4 Szenarien A bis F, in welchen das Fahrerassistenzsystem nach Fig. 2 in ei nem T raktor aktiv bzw. passiv ist. FIG. 4 scenarios A to F, in which the driver assistance system according to FIG. 2 is active or passive in a T raktor.
Fig. 1 zeigt eine landwirtschaftliche Nutzmaschine in der Form eines Traktors 1. Im Heckbereich des Traktors 2 ist ein Anbaugerät 2 an den Traktor 1 angebaut. Der Traktor 1 zieht das Anbaugerät über ein Feld 3, sodass das Anbaugerät 2 das Feld 3 bearbeiten kann und sodass mehrere Spurlinien entstehen, in dem gezeigten Aus führungsbeispiel eine erste Spurlinie 4.1 und eine zweite Spurlinie 4.2. Die erste Spurlinie 4.1 verläuft parallel zu der zweiten Spurlinie 4.2. Der Traktor 1 befindet sich mit dem Anbaugerät 2 seitlich beabstandet neben der ersten Spurlinie 4.1 . Die zwei te Spurlinie 4.2 ist weiter entfernt von dem Fahrzeug 1 und dem Anbaugerät 2 als die erste Spurlinie 4.1. 1 shows an agricultural machine in the form of a tractor 1. In the rear area of the tractor 2, an attachment 2 is attached to the tractor 1. The tractor 1 pulls the attachment over a field 3 so that the attachment 2 can work on the field 3 and so that several track lines are created, in the exemplary embodiment shown, a first track line 4.1 and a second track line 4.2. The first track line 4.1 runs parallel to the second track line 4.2. The tractor 1 is located with the attachment 2 laterally spaced apart from the first track line 4.1. The second track line 4.2 is further away from the vehicle 1 and the attachment 2 than the first track line 4.1.
Das Fahrzeug 1 umfasst ein näher in Fig. 2 dargestelltes System 5 zum autonomen Betrieb des Fahrzeugs 1 (in bestimmten Situationen/Szenarien, vgl. Fig. 4). Das Sys tem 5 umfasst in dem gezeigten Ausführungsbeispiel eine Prozessoreinheit 6, eine Speichereinheit 7, eine Kommunikations-Schnittstelle 8 und eine Sensoreinheit 9. Die Sensoreinheit 9 umfasst in dem gezeigten Ausführungsbeispiel ein digitales Ka merasystem, das im Folgenden mit„Kamera“ bezeichnet und in Fig. 2 mit dem Be zugszeichen 1 1 versehen ist. Die Kamera 1 1 ist insbesondere auf einem Dach des Traktors 1 angeordnet, so dass sie ein Umfeld 12 des Traktors 1 abdeckt, das sich in einem Vorausbereich und beidseitig seitlich des Traktors 1 befindet. Dies ist jedoch rein beispielhaft. Alternativ kann das digitale Kamerasystem 1 1 auch z.B. ein The vehicle 1 comprises a system 5, shown in more detail in FIG. 2, for the autonomous operation of the vehicle 1 (in certain situations / scenarios, see FIG. 4). In the exemplary embodiment shown, the system 5 comprises a processor unit 6, a memory unit 7, a communication interface 8 and a sensor unit 9. In the exemplary embodiment shown, the sensor unit 9 comprises a digital camera system which is referred to below as “camera” and is provided with the reference number 11 in FIG. 2. The camera 11 is arranged in particular on a roof of the tractor 1 so that it covers an environment 12 of the tractor 1 that is located in a forward area and on both sides of the tractor 1. However, this is purely exemplary. Alternatively, the digital camera system 1 1 can also, for example, be a
Surround View System umfassen, welches ein Umfeld 12 erfassen kann, das sich 360° um den Traktor 1 herum erstreckt. Die Kamera 1 1 nimmt nacheinander und kontinuierlich Bilder des Umfelds 12 des Traktors 1 auf, wodurch ein Video bzw. eine Bildfolge des Umfelds 12 des Traktors 1 generiert wird. Dieses Video bzw. diese Bild folge ist die Umfelderfassung des Traktors 1 . Innerhalb der einzelnen Bilder dieses Videos bzw. dieser Bildfolge können Bildausschnitte definiert werden (Regions of Interest, kurz: ROI), innerhalb welcher die Spurlinien 4.1 und 4.2 mittels Methoden der Bilderkennung erkannt werden können. Optional können dabei Methoden der Künstlichen Intelligenz bzw. des Maschinellen Lernens zum Einsatz kommen. Bei spielsweise kann als Methode der Bilderkennung die semantische Segmentierung gewählt werden, wobei ein künstliches neuronales Netz zum Einsatz kommt (z.B. ein Convolutional Neural Network, kurz: CNN), das mit Referenzbildern trainiert wird. Zusätzlich zu der Kamera 9 kann die Sensoreinheit 10 einen Radar-basierten Sensor 13 aufweisen. Der Radar-basierte Sensor 13 ist derart an dem Traktor 1 angeordnet, dass er Höhenwerte ermitteln kann, die eine Berechnung einer Steigung des Gelän des erlauben, welche in dem erfassten Umfeld 12 des Traktors 1 vorliegt. Surround view system that can capture an environment 12 that extends 360 ° around the tractor 1. The camera 11 successively and continuously records images of the surroundings 12 of the tractor 1, as a result of which a video or an image sequence of the surroundings 12 of the tractor 1 is generated. This video or this sequence of images is the detection of the surroundings of tractor 1. Within the individual images of this video or this image sequence, image sections can be defined (regions of interest, or ROI for short), within which the track lines 4.1 and 4.2 can be recognized using image recognition methods. Methods of artificial intelligence or machine learning can optionally be used. For example, semantic segmentation can be selected as the method of image recognition, whereby an artificial neural network is used (e.g. a convolutional neural network, or CNN for short) that is trained with reference images. In addition to the camera 9, the sensor unit 10 can have a radar-based sensor 13. The radar-based sensor 13 is arranged on the tractor 1 in such a way that it can determine altitude values which allow a calculation of a slope of the terrain which is present in the detected surroundings 12 of the tractor 1.
Auf der Speichereinheit 7 kann ein Computerprogrammprodukt 10 gespeichert sein. Das Computerprogrammprodukt 10 kann auf der Prozessoreinheit 6 ausgeführt wer den, wozu die Prozessoreinheit 6 und die Speichereinheit 7 entsprechend kommuni kativ miteinander verbunden sind. Wenn das Computerprogrammprodukt 10 auf der Prozessoreinheit 6 ausgeführt wird, leitet es die Prozessoreinheit 6 an, die im Zu sammenhang mit der Zeichnung beschriebenen Funktionen bzw. Verfahrensschritte auszuführen. A computer program product 10 can be stored on the storage unit 7. The computer program product 10 can be executed on the processor unit 6, for which purpose the processor unit 6 and the memory unit 7 are connected to one another in a correspondingly communicative manner. When the computer program product 10 is executed on the processor unit 6, it instructs the processor unit 6 to carry out the functions or method steps described in connection with the drawing.
Dem Traktor 1 kann ein Koordinatensystem mit einer x-Achse (Längsrichtung) und einer quer dazu verlaufenden y-Achse (Ouerrichtung bzw. Breitenrichtung) zugeord- net sein, dass als Referenzkoordinatensystem angesehen werden kann. Jedem von der Kamera 11 aufgenommenen Bild kann ein Kamera-Koordinatensystem zugeord net sein. Fig. 1 zeigt, dass dieses Koordinatensystem eine Längsachse L des Ge spanns aus Traktor 1 und Anbaugerät 2 aufweisen kann. In dem Beispiel nach Fig. 1 stimmt die Längsachse L des Bild-Koordinatensystems mit der x-Achse des Traktor- Koordinatensystems überein. Das Bild-Koordinatensystem weist ferner eine quer zu der Längsachse L verlaufende Breitenachse B des Anbaugeräts 1 auf, das sich in Breitenrichtung B weiter seitlich erstreckt als der Traktor 1. In dem Ausführungsbei spiel nach Fig. 1 stimmt die Breitenachse L nicht mit der y-Achse des Traktor- Koordinatensystems überein, sondern es besteht ein longitudinaler Versatz xO in Längsrichtung x. Die Prozessoreinheit 6 ist dazu eingerichtet, diesen Versatz zu be rücksichtigen, indem sie ermittelte Bild-Koordinaten in Traktor-Koordinaten umrech net. Die Prozessoreinheit 6 ist ebenfalls dazu eingerichtet, einen Versatz in Breiten richtung y zu berücksichtigen, indem sie ermittelte Bild -Koordinaten in Traktor- Koordinaten umrechnet (auch wenn in dem vorliegenden Beispiel nach Fig. 1 kein Versatz in Breitenrichtung y vorliegt). The tractor 1 can be assigned a coordinate system with an x-axis (longitudinal direction) and a y-axis (cross-direction or width direction) running transversely thereto. net that can be viewed as a reference coordinate system. A camera coordinate system can be assigned to each image recorded by the camera 11. Fig. 1 shows that this coordinate system can have a longitudinal axis L of the Ge voltage from tractor 1 and attachment 2. In the example according to FIG. 1, the longitudinal axis L of the image coordinate system coincides with the x-axis of the tractor coordinate system. The image coordinate system also has a width axis B of the attachment 1, which extends transversely to the longitudinal axis L and which extends laterally in width direction B than the tractor 1. In the exemplary embodiment according to FIG. 1, the width axis L does not match the y- Axis of the tractor coordinate system, but there is a longitudinal offset xO in the longitudinal direction x. The processor unit 6 is set up to take this offset into account by converting determined image coordinates into tractor coordinates. The processor unit 6 is also set up to take into account an offset in the width direction y by converting determined image coordinates into tractor coordinates (even if there is no offset in the width direction y in the present example according to FIG. 1).
Die Breitenachse B kann beispielsweise durch den breitesten Abschnitt des Anbau geräts 2 verlaufen, wie diese durch Fig. 1 gezeigt ist. Das breitere Anbaugerät 2 soll gemäß dem Ausführungsbeispiel nach Fig. 1 einen gewünschten seitlichen Abstand („desired lateral offset“,„Soll-Abstand“) zu einer nächstgelegenen Spurlinie haben (in dem Ausführungsbeispiel nach Fig. 1 ist dies die erste Spurlinie 4.1 ), während das Gespann aus T raktor 1 und Anbaugerät 2 auf dem Feld 3 fährt und das Feld 3 mittels des Anbaugeräts 2 bearbeitet. Dieser seitlich Soll-Abstand kann beispielsweise eini ge Meter betragen, z.B. 8 m. Es kann beispielsweise in einem ersten Verfahrens schritt 100 (Fig. 3) ein Abstand BO definiert werden, welchen die nächstliegende Spurlinie 4.1 von der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 mindestens aufweisen soll. Der gewünschte seitliche Abstand BO kann als Abstands- Datensatz vorliegen, auf welchen die Prozessoreinheit 6 Zugriff hat. Beispielsweise kann das Anbaugerät 2 einen Tag, z.B. einen RFID-Tag umfassen, der durch das Fahrerassistenzsystem 5 ausgelesen werden kann. Auf dem Tag kann der Abstands- Datensatz hinterlegt sein. Weiterhin kann der Abstands-Datensatz auch durch einen Nutzer bzw. einen Fahrer des Traktors 1 in das Fahrerassistenzsystem 5 erzeugt werden, z.B. durch Eingabe über ein entsprechendes Terminal des Traktors 1. The width axis B can for example run through the widest portion of the attachment 2, as shown by FIG. According to the exemplary embodiment according to FIG. 1, the wider attachment 2 should have a desired lateral offset (“desired lateral offset”, “target distance”) from a nearest track line (in the exemplary embodiment according to FIG. 1 this is the first track line 4.1), while the combination of tractor 1 and attachment 2 moves on field 3 and works on field 3 by means of attachment 2. This laterally desired distance can be a few meters, for example 8 m. For example, in a first method step 100 (FIG. 3), a distance BO can be defined which the closest track line 4.1 should have at least from the longitudinal axis L of the combination of tractor 1 and attachment 2. The desired lateral distance BO can be present as a distance data record to which the processor unit 6 has access. For example, the attachment 2 can comprise a tag, for example an RFID tag, which can be read out by the driver assistance system 5. The distance data record can be stored on the day. Furthermore, the distance data record can also be replaced by a User or a driver of the tractor 1 can be generated in the driver assistance system 5, for example by input via a corresponding terminal of the tractor 1.
Die Kamera 11 nimmt in einem zweiten Verfahrensschritt 200 (Fig. 3) ein Bild des Umfelds des Traktors 1 auf. Der zweite Schritt 200 kann nach dem ersten Schritt 100 durchgeführt werden. Alternativ können die Schritte 100 und 200 jedoch auch zeit gleich oder zeitlich überlappend durchgeführt werden. Die Prozessoreinheit 6 kann in einem dritten Verfahrensschritt 300 (Fig. 3) das von der Kamera 11 aufgenommene Bild auswerten und dabei die Spurlinien 4.1 und 4.2 erkennen, wobei wie weiter oben erwähnt Methoden der Künstlichen Intelligenz zum Einsatz kommen können. In a second method step 200 (FIG. 3), the camera 11 records an image of the surroundings of the tractor 1. The second step 200 can be carried out after the first step 100. Alternatively, however, steps 100 and 200 can also be carried out at the same time or with a time overlap. In a third method step 300 (FIG. 3), the processor unit 6 can evaluate the image recorded by the camera 11 and recognize the track lines 4.1 and 4.2, whereby methods of artificial intelligence can be used as mentioned above.
Dadurch entsteht ein klassifiziertes Bild der Kamera. This creates a classified image from the camera.
In einem anschließenden Schritt 400 (Fig. 3) kann ein Polynom-Fitting durchgeführt werden. Beim Polynomfitting werden die Bildinhalte weiterverarbeitet und aus einzel nen Informationen (Punkten, unterbrochenen Linien, etc.) werden Polynome berech net, die eine Spurlinie bzw. deren Richtung definieren. Das Ergebnis dieses vierten Verfahrensschritts 400 sind somit Polynome in dem Bild-Koordinatensystem (L, B). In einem fünften Verfahrensschritt 500 (Fig. 3) können die Polynome, die zuvor im Bild- Koordinatensystem berechnet worden sind, in Koordinaten des Traktor- Koordinatensystems transformiert werden. Das Ergebnis dieses fünften Verfahrens schritts 500 sind somit Polynome in dem Traktor-Koordinatensystem (x, y). In a subsequent step 400 (FIG. 3), a polynomial fitting can be carried out. With polynomial fitting, the image content is further processed and polynomials are calculated from individual information (points, broken lines, etc.) that define a track line and its direction. The result of this fourth method step 400 are thus polynomials in the image coordinate system (L, B). In a fifth method step 500 (FIG. 3), the polynomials that have previously been calculated in the image coordinate system can be transformed into coordinates of the tractor coordinate system. The result of this fifth method step 500 are thus polynomials in the tractor coordinate system (x, y).
Bei den Spurlinien 4.1 und 4.2 kann es sich beispielsweise um Schwade oder Schnittkanten handeln. Die erste Spurlinie 4.1 weist in der Breitenrichtung B einen ersten seitlichen Abstand (erster„lateral offset“ / erster„Ist -Abstand“) B1 zu der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 auf. Die zweite Spurli nie 4.2 weist in der Breitenrichtung B einen zweiten seitlichen Abstand (zweiter„late ral offset“; zweiter„Ist-Abstand“) B2 zu der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 auf. Der erste seitliche Abstand B1 ist kleiner als der zweite seit liche Abstand B2, d.h. die erste Spurlinie 4.1 befindet sich in der Breitenrichtung B näher an der Längsachse L des Gespanns aus Traktor 1 und Anbaugerät 2 als die zweite Spurlinie 4.2. Die Prozessoreinheit 6 kann in einem weiteren Verfahrensschritt 600 (Fig. 3) das Bild dahingehend auswerten, welche der beiden Spurlinien 4.1 und 4.2 einen geringeren seitlichen Abstand (in der Breitenrichtung B) zu dem Gespann aus Traktor 1 und Anbaugerät 2 aufweist. In dem Ausführungsbeispiel nach Fig. 1 wird die Prozessoreinheit 6 dabei feststellen, dass die erste Spurlinie 4.1 den gerin geren seitlichen Abstand zu dem Gespann aus Traktor 1 und Anbaugerät 2 aufweist als die zweite Spurlinie 4.2 (B1 < B2). Dementsprechend wird die Prozessoreinheit 6 die erste Spurlinie 4.1 auswählen. The track lines 4.1 and 4.2 can be swaths or cut edges, for example. The first track line 4.1 has a first lateral distance (first “lateral offset” / first “actual distance”) B1 in the width direction B from the longitudinal axis L of the combination of tractor 1 and attachment 2. The second track line 4.2 has a second lateral distance (second “lateral offset”; second “actual distance”) B2 to the longitudinal axis L of the combination of tractor 1 and attachment 2 in the width direction B. The first lateral distance B1 is smaller than the second lateral distance B2, ie the first track line 4.1 is closer to the longitudinal axis L of the combination of tractor 1 and attachment 2 in the width direction B than the second track line 4.2. In a further method step 600 (FIG. 3), the processor unit 6 can evaluate the image to determine which of the two track lines 4.1 and 4.2 has a smaller lateral distance (in the width direction B) to the combination of tractor 1 and attachment 2. In the exemplary embodiment according to FIG. 1, the processor unit 6 will determine that the first track line 4.1 has the smaller lateral distance to the combination of tractor 1 and attachment 2 than the second track line 4.2 (B1 <B2). The processor unit 6 will select the first track line 4.1 accordingly.
Basierend auf der ausgewählten Spurlinie 4.1 kann die Prozessoreinheit 6 den Trak tor 1 in einem siebten Verfahrensschritt 700 derart steuern, dass sich das Gespann aus T raktor 1 und Anbaugerät 2 autonom entlang der ausgewählten ersten Spurlinie 4.1 bewegt. Dabei kann das Anbaugerät 2 seiner Hauptfunktion nachgehen, nämlich das Feld 3 zu bearbeiten und dabei beispielsweise eine neue Spurlinie neben der ersten Spurlinie 4.1 erzeugen oder die erste Spurlinie 4.1 einsammeln. Based on the selected track line 4.1, the processor unit 6 can control the tractor 1 in a seventh method step 700 such that the combination of tractor 1 and attachment 2 moves autonomously along the selected first track line 4.1. The attachment 2 can pursue its main function, namely to work the field 3 and for example generate a new track line next to the first track line 4.1 or collect the first track line 4.1.
In dem durch Fig. 1 gezeigten Beispiel ist der erste seitliche Ist-Abstand B1 kleiner als der seitliche Soll-Abstand BO. Gefordert bzw. gewünscht ist jedoch, dass der Ist- Abstand B1 mindestens so groß ist wie der Soll-Abstand BO. Die Prozessoreinheit 6 kann dies ermitteln und beispielsweise derart korrigierend auf die Lenkung des Trak tors 1 einwirken, dass sich das Gespann aus Traktor 1 und Anbaugerät 2 von der ersten Spurlinie 4.1 wegbewegt (gemäß der Ansicht nach Fig. 1 nach links), dass der Abstand B1 der Längsachse L von der ersten Spurlinie 4.1 in nachfolgenden von der Kamera 1 1 aufgenommenen Bildern steigt und dass das Soll-Kriterium B1 > BO erfüllt wird. Wenn der Ist-Abstand B1 und der Soll-Abstand BO vom Wert her übereinstim men, ist die durch das Fahrerassistenzsystem 5 gelieferte Lenkungs-Genauigkeit hoch und der Traktor 1 folgt perfekt der Spurlinie 4.1 in dem eingehaltenen Abstand BO. Je größer die Abweichung zwischen Soll-Abstand BO und Ist Abstand B1 ist, des to ungenauer ist die Steuerung bzw. Regelung durch das Fahrerassistenzsystem 5. In the example shown by FIG. 1, the first lateral actual distance B1 is smaller than the lateral setpoint distance BO. However, it is required or desired that the actual distance B1 is at least as great as the setpoint distance BO. The processor unit 6 can determine this and, for example, have a corrective effect on the steering of the tractor 1 in such a way that the combination of tractor 1 and attachment 2 moves away from the first track line 4.1 (to the left according to the view in FIG. 1) that the distance B1 of the longitudinal axis L rises from the first track line 4.1 in subsequent images recorded by the camera 11 and that the target criterion B1> BO is met. If the value of the actual distance B1 and the target distance BO match, the steering accuracy provided by the driver assistance system 5 is high and the tractor 1 follows the track line 4.1 perfectly at the distance BO maintained. The greater the deviation between the desired distance BO and the actual distance B1, the less precise the control or regulation by the driver assistance system 5.
In dem durch Fig. 1 gezeigten Beispiel weisen die Spurlinien 4.1 und 4.2 jeweils eine Krümmung auf. Die Prozessoreinheit 6 ist dazu eingerichtet, die Krümmung der Spurlinien 4.1 und 4.2 zu ermitteln. Beispielsweise kann die Prozessoreinheit 6 - wie durch Fig. 1 gezeigt - eine Tangente T dort an die erste Spurlinie 4.1 anlegen, wo die Breitenachse B die erste Spurlinie 4.1 schneidet. Diese Tangente T kann derart verschoben werden, dass sie im Schnittpunkt zwischen der Längsachse L und der Breitenachse B liegt. Die Prozessoreinheit 6 kann einen Winkel D zwischen dieser verschobenen Tangente T‘ und der Längsachse L berechnen. Der Winkel D kann als Kursfehler des Traktors 1 angesehen werden. Der Winkel D kann beispielsweise durch Abdrift, Wind, Traktionsprobleme oder Fliehkräfte verursacht sein. Würde sich der Traktor 1 weiter in Richtung der Längsachse L geradeaus bewegen, dann wür den sich der T raktor 1 und das Anbaugerät 2 der ersten Spurlinie 4.1 nähern und diese evtl überfahren. Um jedoch der gekrümmten ersten Spurlinie 4.1 mit dem seit lichen Soll-Abstand BO zu folgen, kann die Prozessoreinheit 6 beispielsweise derart korrigierend auf die Lenkung des Traktors 1 einwirken, dass sich der Verlauf der ver schobenen Tangente T in nachfolgenden von der Kamera 1 1 aufgenommenen Bil dern dem Verlauf der Längsachse L annähert, und dass der Kursfehler in Form des Winkels D minimiert wird. In the example shown by FIG. 1, the track lines 4.1 and 4.2 each have a curvature. The processor unit 6 is set up to determine the curvature of the track lines 4.1 and 4.2. For example, as shown by FIG. 1, the processor unit 6 can apply a tangent T to the first track line 4.1 where the latitude axis B intersects the first track line 4.1. This tangent T can be so be moved so that it lies at the intersection between the longitudinal axis L and the latitude axis B. The processor unit 6 can calculate an angle D between this shifted tangent T ′ and the longitudinal axis L. The angle D can be viewed as a heading error of the tractor 1. The angle D can be caused, for example, by drift, wind, traction problems or centrifugal forces. If the tractor 1 were to continue to move straight ahead in the direction of the longitudinal axis L, then the tractor 1 and the attachment 2 would approach the first track line 4.1 and possibly drive over it. However, in order to follow the curved first track line 4.1 with the lateral target distance BO, the processor unit 6 can, for example, have a corrective effect on the steering of the tractor 1 in such a way that the course of the shifted tangent T is subsequently recorded by the camera 11 Bil countries approximates the course of the longitudinal axis L, and that the course error in the form of the angle D is minimized.
Die Prozessoreinheit 6 kann weiterhin dazu eingerichtet sein, einzuleiten, dass der Traktor in einen sicheren Zustand gebracht wird (z.B. gestoppt wird), wenn die Pro zessoreinheit 6 in der Umfelderfassung wenigstens ein potentielles Kollisionsobjekt 15 erkennt, z.B. eine Person, einen Pfahl oder ein anders Fahrzeug. Alternativ kann auch eine Warnung an den Fahrer des T raktors 1 oder dessen Umfeld 12 abgege ben werden. The processor unit 6 can furthermore be set up to initiate that the tractor is brought into a safe state (e.g. stopped) when the processor unit 6 detects at least one potential collision object 15 in the detection of the surroundings, e.g. a person, stake, or other vehicle. Alternatively, a warning can also be given to the driver of the actuator 1 or its surroundings 12.
Fig. 4 zeigt, dass das Fahrerassistenzsystem 5 eines Traktors 1 dann aktiv sein kann und den Traktor 1 wie vorstehend beschrieben steuern kann, wenn der Traktor 1 auf dem Feld 3 entlang der Spurlinie 4 fährt (Szenarien A, B und C). Wenn Probleme mit der Erkennung der Spurlinien 4 auftreten, übergibt das Fahrerassistenzsystem 5 die Kontrolle über die Steuerung des Traktors 1 wieder an den Fahrer des Traktors 1 . Auch während der Fahrer den Traktor 1 an einem Vorgewende 14 wendet, übergibt das Fahrerassistenzsystem 5 die Kontrolle über die Steuerung des Traktors 1 wieder an den Fahrer des Traktors 1 . Ferner übergibt das Fahrerassistenzsystem 5 die Kon trolle über die Steuerung des Traktors 1 wieder an den Fahrer des Traktors 1 , wenn der Fahrer nicht am Vorgewende 14 wendet oder einen völlig falschen Kurs ein schlägt (Szenarien D, E und F), weil in diesen Fällen beispielsweise keine Spurlinie 4 in dem Umfeld des Traktors 1 durch die Sensoreinheit des Traktors 1 erfasst werden können und die Bedingungen für die Steuerung des Traktors 1 somit nicht erfüllt werden können. 4 shows that the driver assistance system 5 of a tractor 1 can then be active and control the tractor 1 as described above when the tractor 1 is driving on the field 3 along the lane line 4 (scenarios A, B and C). If problems arise with the detection of the lane lines 4, the driver assistance system 5 transfers control of the control of the tractor 1 back to the driver of the tractor 1. Even while the driver is turning the tractor 1 at a headland 14, the driver assistance system 5 transfers control of the control of the tractor 1 back to the driver of the tractor 1. Furthermore, the driver assistance system 5 passes control of the control of the tractor 1 back to the driver of the tractor 1 if the driver does not turn at the headland 14 or takes a completely wrong course (scenarios D, E and F), because in these cases For example, no track line 4 in the vicinity of the tractor 1 can be detected by the sensor unit of the tractor 1 and the conditions for controlling the tractor 1 can therefore not be met.
Bezuqszeichen Reference symbol
L Längsachse Gespann Traktor und Anbaugerät im Bild-Koordinatensystem L Longitudinal axis tractor and attachment in the image coordinate system
B Breitenachse Anbaugerät im Bild-Koordinatensystem B Latitude axis of attachment in the image coordinate system
BO Desired Lateral Offset BO Desired Lateral Offset
B1 Lateral Offset zur ersten Spurlinie B1 Lateral offset to the first track line
B2 Lateral Offset zur zweiten Spurlinie B2 Lateral offset to the second track line
xO longitudinaler Offset im Traktor-Koordinatensystem xO longitudinal offset in the tractor coordinate system
x Längsachse Traktor im Traktor-Koordinatensystem x Tractor longitudinal axis in the tractor coordinate system
y Querachse/Breitenachse im Traktor-koordinatensystem y Cross axis / latitude axis in the tractor coordinate system
1 Traktor 1 tractor
2 Anbaugerät 2 attachment
3 Feld 3 field
4.1 erste Spurlinie 4.1 first track line
4.2 zweite Spurlinie 4.2 second track line
5 Fahrerassistenzsystem 5 driver assistance system
6 Prozessoreinheit 6 processor unit
7 Speichereinheit 7 storage unit
8 Kommunikationsschnittstelle 8 communication interface
9 Sensoreinheit 9 sensor unit
10 Computerprogrammprodukt 10 computer program product
1 1 digitales Kamerasystem 1 1 digital camera system
12 Umfeld des Traktors 12 The area around the tractor
13 Radar-basierter Sensor 13 Radar-based sensor
14 Vorgewende 14 headlands
15 potentielles Kollisionsobjekt 15 potential collision object
100 Verfahrensschritt 100 process step
200 Verfahrensschritt 200 process step
300 Verfahrensschritt 300 process step
400 Verfahrensschritt 400 process step
500 Verfahrensschritt 500 process step
600 Verfahrensschritt 600 process step
700 Verfahrensschritt 700 process step

Claims

Patentansprüche Claims
1 . Prozessoreinheit (6) zum autonomen Betrieb eines Fahrzeugs (1 ), die Prozesso reinheit (6) umfassend eine Schnittstelle (8), 1 . Processor unit (6) for the autonomous operation of a vehicle (1), the processor unit (6) comprising an interface (8),
wobei die Prozessoreinheit (6) dazu eingerichtet ist, wherein the processor unit (6) is set up to
- mittels der Schnittstelle (8) auf eine von einer Sensoreinheit (9) generierte Umfel derfassung des Fahrzeugs (1 ) zuzugreifen, - Using the interface (8) to access an environment detection of the vehicle (1) generated by a sensor unit (9),
- mehrere Spurlinien (4.1 , 4.2) in der Umfelderfassung zu erkennen, - Recognize several track lines (4.1, 4.2) in the detection of the surroundings,
- eine Spurlinie (4.1 ) aus den mehreren Spurlinien (4.1 , 4.2) auszuwählen, und - select a track line (4.1) from the several track lines (4.1, 4.2), and
- das Fahrzeug (1 ) basierend auf der ausgewählten Spurlinie (4.1 ) derart zu steuern, dass das Fahrzeug (1 ) autonom der ausgewählten Spurlinie (4.1 ) folgt. - To control the vehicle (1) based on the selected track line (4.1) in such a way that the vehicle (1) autonomously follows the selected track line (4.1).
2. Prozessoreinheit (6) nach Anspruch 1 , wobei die Prozessoreinheit (6) dazu einge richtet ist, das Fahrzeug (1 ) basierend auf wenigstens einem der folgenden Parame ter zu steuern, nämlich 2. processor unit (6) according to claim 1, wherein the processor unit (6) is set up to control the vehicle (1) based on at least one of the following Parame ter, namely
- einer Krümmung der ausgewählten Spurlinie (4.1 ), - a curvature of the selected track line (4.1),
- einem Kursfehler des Fahrzeugs (1 ), - a course error of the vehicle (1),
- einer Differenz aus einem aus der Umfelderfassung ermittelten seitlichen Abstand (B1 ) der ausgewählten Spurlinie (4.1 ) zu dem Fahrzeug (1 ) einschließlich dessen Anbaugeräten (2) und einem gewünschten Abstand (BO) der ausgewählten Spurlinie (4.1 ) zu dem Fahrzeug (1 ) einschließlich dessen Anbaugeräten (2). - a difference between a lateral distance (B1), determined from the detection of the surroundings, between the selected track line (4.1) and the vehicle (1) including its attachments (2) and a desired distance (BO) between the selected track line (4.1) and the vehicle (1) ) including its attachments (2).
3. Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Prozes soreinheit (6) dazu eingerichtet ist, die mehreren Spurlinien (4.1 , 4.2) in der Umfel derfassung mittels Methoden der Bildverarbeitung kombiniert mit Methoden der künstlichen Intelligenz zu erkennen. 3. processor unit (6) according to any one of the preceding claims, wherein the processor unit (6) is set up to recognize the multiple lane lines (4.1, 4.2) in the environment detection using methods of image processing combined with methods of artificial intelligence.
4. Prozessoreinheit (6) nach Anspruch 3, wobei die Methode der semantischen Segmentierung mit einem künstlichen neuronalen Netz kombiniert wird. 4. processor unit (6) according to claim 3, wherein the method of semantic segmentation is combined with an artificial neural network.
5. Prozessoreinheit (6) nach Anspruch 3 oder 4, wobei die Methode der Kantener kennung mit einem künstlichen neuronalen Netz kombiniert wird. 5. processor unit (6) according to claim 3 or 4, wherein the method of edge detection is combined with an artificial neural network.
6. Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Prozes soreinheit (6) dazu eingerichtet ist, ein an das Fahrzeug (1 ) angebautes Anbaugerät (2) basierend auf der ausgewählten Spurlinie (4.1 ) und dessen Verlauf in der Umfel derfassung zu steuern. 6. processor unit (6) according to any one of the preceding claims, wherein the processor unit (6) is set up to capture an attachment (2) mounted on the vehicle (1) based on the selected track line (4.1) and its course in the surroundings to control.
7. Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Prozes soreinheit (6) dazu eingerichtet ist, 7. processor unit (6) according to any one of the preceding claims, wherein the processor unit (6) is set up to
- zu prüfen, ob die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt ab bildet, und - to check whether the environment detection depicts at least one potential collision object, and
- das Fahrzeug (1 ) in einen sicheren Zustand zu überführen oder die Geschwindig keit des Fahrzeugs (1 ) zu reduzieren oder eine optische oder akustische Warnung and den Nutzer des Fahrzeugs (1 ) oder an das Umfeld des Fahrzeugs (1 ) auszuge ben, wenn die Umfelderfassung wenigstens ein potentielles Kollisionsobjekt abbildet. - To transfer the vehicle (1) to a safe state or to reduce the speed of the vehicle (1) or to output an optical or acoustic warning to the user of the vehicle (1) or to the surroundings of the vehicle (1), if the environment detection depicts at least one potential collision object.
8. Prozessoreinheit (6) nach einem der vorstehenden Ansprüche, wobei die Spurlinie (4.1 , 4.2) 8. processor unit (6) according to any one of the preceding claims, wherein the track line (4.1, 4.2)
- einen Schwad, - a swath,
- eine Schnittkante, - a cut edge,
- eine Mähkante, - a mowing edge,
- eine Fahrspur, - one lane,
- eine Pflanzreihe, - a row of plants,
- eine Baumreihe, - a row of trees,
- einen Bordstein oder - a curb or
- einen Arbeitsweg (15) umfasst. - Includes a work path (15).
9. Fahrerassistenzsystem (5) zum autonomen Betrieb eines Fahrzeugs (1 ), das Fah rerassistenzsystem (5) umfassend 9. Driver assistance system (5) for the autonomous operation of a vehicle (1), comprising the driver assistance system (5)
- eine Sensoreinheit (9), wobei die Sensoreinheit (9) dazu eingerichtet ist, eine Um felderfassung des Fahrzeugs (1 ) zu generieren, und - A sensor unit (9), wherein the sensor unit (9) is set up to generate a field detection of the vehicle (1), and
- eine Prozessoreinheit (6) nach einem der vorstehenden Ansprüche. - A processor unit (6) according to one of the preceding claims.
10. Fahrerassistenzsystem (5) nach Anspruch 9, wobei die Sensoreinheit (9) zur Er fassung des Umfelds (12) des Fahrzeugs (1 ) wenigstens einen der folgenden Senso ren umfasst, nämlich 10. The driver assistance system (5) according to claim 9, wherein the sensor unit (9) for detecting the surroundings (12) of the vehicle (1) comprises at least one of the following sensors, namely
- einen Bildverarbeitungs-Sensor, insbesondere eine Kamera (1 1 ), vorzugsweise ei ne Stereokamera, - An image processing sensor, in particular a camera (1 1), preferably a stereo camera,
- einen Radar-Sensor (13), - a radar sensor (13),
- einen Laser-basierten Sensor. - a laser-based sensor.
1 1 . Fahrerassistenzsystem (5) nach einem der Ansprüche 9 oder 10, das Fahreras sistenzsystem (5) weiterhin umfassend eine Bedieneinheit, welche dazu eingerichtet ist, einem Nutzer das Auswahlen einer Spurlinie (4.1 ) aus den mehreren Spurlinien (4.1 , 4.2) zu ermöglichen. 1 1. Driver assistance system (5) according to one of claims 9 or 10, the driver assistance system (5) further comprising an operating unit which is set up to enable a user to select a track line (4.1) from the multiple track lines (4.1, 4.2).
12. Verfahren zum autonomen Betrieb eines Fahrzeugs (1 ), das Verfahren umfas send die Schritte: 12. Method for autonomous operation of a vehicle (1), the method comprising the steps:
- Generieren einer Umfelderfassung des Fahrzeugs (1 ) durch eine Sensoreinheit (9), - Generating a detection of the surroundings of the vehicle (1) by a sensor unit (9),
- Erkennen mehrerer Spurlinien (4.1 , 4.2) in der Umfelderfassung mittels einer Pro zessoreinheit (6), - Recognition of several track lines (4.1, 4.2) in the detection of the surroundings by means of a processor unit (6),
- Auswahlen einer Spurlinie (4.1 ) aus den mehreren Spurlinien (4.1 , 4.2) mittels der Prozessoreinheit (6), und - Selecting a track line (4.1) from the multiple track lines (4.1, 4.2) by means of the processor unit (6), and
- Steuern des Fahrzeugs (1 ) mittels der Prozessoreinheit (6) basierend auf der aus gewählten Spurlinie (4.1 ), sodass das Fahrzeug (1 ) autonom der ausgewählten Spur linie (4.1 ) folgt. - Controlling the vehicle (1) by means of the processor unit (6) based on the selected track line (4.1), so that the vehicle (1) autonomously follows the selected track line (4.1).
13. Computerprogrammprodukt (10) zum autonomen Betrieb eines Fahrzeugs (1 ), wobei das Computerprogrammprodukt (10), wenn es auf einer Prozessoreinheit (6) ausgeführt wird, die Prozessoreinheit (6) anleitet, 13. Computer program product (10) for the autonomous operation of a vehicle (1), the computer program product (10) instructing the processor unit (6) when it is executed on a processor unit (6),
- mittels einer Schnittstelle (8) auf eine von einer Sensoreinheit (9) generierte Umfel derfassung des Fahrzeugs (1 ) zuzugreifen, - Using an interface (8) to access an environment detection of the vehicle (1) generated by a sensor unit (9),
- mehrere Spurlinien (4.1 , 4.2) in der Umfelderfassung zu erkennen, - Recognize several track lines (4.1, 4.2) in the detection of the surroundings,
- eine Spurlinie (4.1 ) aus den mehreren Spurlinien (4.1 , 4.2) auszuwählen, und - select a track line (4.1) from the several track lines (4.1, 4.2), and
- das Fahrzeug (1 ) basierend auf der ausgewählten Spurlinie (4.1 ) derart zu steuern, dass das Fahrzeug (1 ) autonom der ausgewählten Spurlinie (4.1 ) folgt. - To control the vehicle (1) based on the selected track line (4.1) in such a way that the vehicle (1) autonomously follows the selected track line (4.1).
14. Fahrzeug (1 ) umfassend eine Prozessoreinheit (6) nach einem der Ansprüche 1 bis 7 oder ein Fahrerassistenzsystem (5) nach einem der Ansprüche 8 bis 1 1. 14. Vehicle (1) comprising a processor unit (6) according to one of claims 1 to 7 or a driver assistance system (5) according to one of claims 8 to 11.
PCT/EP2020/055651 2019-03-11 2020-03-04 Vision-based steering assistance system for land vehicles WO2020182564A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019203247.8 2019-03-11
DE102019203247.8A DE102019203247A1 (en) 2019-03-11 2019-03-11 Vision-based steering assistance system for land vehicles

Publications (1)

Publication Number Publication Date
WO2020182564A1 true WO2020182564A1 (en) 2020-09-17

Family

ID=69845334

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/055651 WO2020182564A1 (en) 2019-03-11 2020-03-04 Vision-based steering assistance system for land vehicles

Country Status (2)

Country Link
DE (1) DE102019203247A1 (en)
WO (1) WO2020182564A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4085740A1 (en) * 2021-04-30 2022-11-09 Deere & Company Vision guidance system using dynamic edge detection
WO2023024516A1 (en) * 2021-08-23 2023-03-02 上海商汤智能科技有限公司 Collision early-warning method and apparatus, and electronic device and storage medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112319468B (en) * 2020-11-12 2021-07-20 上海伯镭智能科技有限公司 Driverless lane keeping method for maintaining road shoulder distance
DE102022117447A1 (en) 2022-07-13 2024-01-18 Claas Selbstfahrende Erntemaschinen Gmbh Method for processing a field with a photovoltaic system standing on the field
DE102022121482A1 (en) * 2022-08-25 2024-03-07 Claas Selbstfahrende Erntemaschinen Gmbh System for determining a crop edge and self-propelled harvester

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385515B1 (en) * 2000-06-15 2002-05-07 Case Corporation Trajectory path planner for a vision guidance system
EP2798928A1 (en) * 2013-04-29 2014-11-05 CLAAS Agrosystems KGaA mbH & Co KG. Operating system for and method of operating an automatic guidance system of an agricultural vehicle
US20180084708A1 (en) * 2016-09-27 2018-03-29 Claas Selbstfahrende Erntemaschinen Gmbh Agricultural work machine for avoiding anomalies
US20190059199A1 (en) * 2017-08-31 2019-02-28 Cnh Industrial America Llc System and method for strip till implement guidance monitoring and adjustment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743884C2 (en) * 1997-10-04 2003-10-09 Claas Selbstfahr Erntemasch Device and method for the contactless detection of processing limits or corresponding guide variables
DE102006055858A1 (en) * 2006-11-27 2008-05-29 Carl Zeiss Ag Method and arrangement for controlling a vehicle
DE102017117148A1 (en) * 2017-07-28 2019-01-31 RobArt GmbH MAGNETOMETER FOR ROBOT NAVIGATION

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385515B1 (en) * 2000-06-15 2002-05-07 Case Corporation Trajectory path planner for a vision guidance system
EP2798928A1 (en) * 2013-04-29 2014-11-05 CLAAS Agrosystems KGaA mbH & Co KG. Operating system for and method of operating an automatic guidance system of an agricultural vehicle
US20180084708A1 (en) * 2016-09-27 2018-03-29 Claas Selbstfahrende Erntemaschinen Gmbh Agricultural work machine for avoiding anomalies
US20190059199A1 (en) * 2017-08-31 2019-02-28 Cnh Industrial America Llc System and method for strip till implement guidance monitoring and adjustment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4085740A1 (en) * 2021-04-30 2022-11-09 Deere & Company Vision guidance system using dynamic edge detection
WO2023024516A1 (en) * 2021-08-23 2023-03-02 上海商汤智能科技有限公司 Collision early-warning method and apparatus, and electronic device and storage medium

Also Published As

Publication number Publication date
DE102019203247A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
WO2020182564A1 (en) Vision-based steering assistance system for land vehicles
EP3666050B1 (en) Agricultural system
DE69814847T2 (en) AGRICULTURAL HARVEST WITH ROBOT CONTROL
EP1529428B1 (en) Method and system for automatic steering of an agricultural vehicle
EP3718387A1 (en) Agricultural working machine
DE102016212623A1 (en) UAV-based sensing for workflows in a workspace
DE102008015277A1 (en) Method and device for steering a second agricultural machine, which is steerable over a field relative to a first agricultural machine
EP1769662A1 (en) Agricultural working unit with a working device for creating a row of objects
EP3783529A1 (en) Safety system and method for operating a mobile agricultural working machine
DE102014202181A1 (en) Apparatus and method for detecting and characterizing turning maneuvers of a work vehicle
WO2020164834A1 (en) Trajectory determination for agricultural machines using grid maps
DE102019111317A1 (en) Autonomous agricultural work machine and method of operating it
DE102019006720A1 (en) Autonomous operation of a vehicle
EP4220530A1 (en) Method for supporting classification of environmental data of an agricultural working machine
EP4064819B1 (en) Method for treating plants in a field, for generating training data and for training a neural network
EP4085741A1 (en) Steering method for an agricultural machine
WO2020165063A1 (en) Method for operating an automated vehicle
DE102018213644A1 (en) Control device for a working machine that can be moved by wheels, in particular agricultural working machine, for acting on plants and method for control
EP4331332A1 (en) System for determining a crop edge and self-propelled harvester
WO2020160863A1 (en) Device for route planning for an agricultural machine on the basis of sensor data and image segmentation
EP4064818A1 (en) Method for treating plants in a field
DE102021125360A1 (en) Device and method for determining a steering specification for an agricultural machine
EP3732950A1 (en) Method for operating a self-propelled agricultural working machine
DE102019201983A1 (en) Method for determining a condition of a crop planting and agricultural vehicle
DE102023125003A1 (en) CONTROL OF AGRICULTURAL MACHINERY BASED ON AGRONOMY AND MACHINE PARAMETERS

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20711806

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20711806

Country of ref document: EP

Kind code of ref document: A1