EP4544366A1 - Verfahren und system zum anlernen einer fahrstrecke eines autonom fahrenden landwirtschaftlichen fahrroboters - Google Patents

Verfahren und system zum anlernen einer fahrstrecke eines autonom fahrenden landwirtschaftlichen fahrroboters

Info

Publication number
EP4544366A1
EP4544366A1 EP23734178.9A EP23734178A EP4544366A1 EP 4544366 A1 EP4544366 A1 EP 4544366A1 EP 23734178 A EP23734178 A EP 23734178A EP 4544366 A1 EP4544366 A1 EP 4544366A1
Authority
EP
European Patent Office
Prior art keywords
route
driving
driving robot
robot
waypoints
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP23734178.9A
Other languages
English (en)
French (fr)
Inventor
Jan MÜHLNICKEL
Rainer Graser
Timo BRESSMER
Peter Fischer
Manuel WOPFNER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEA Farm Technologies GmbH
Original Assignee
GEA Farm Technologies GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEA Farm Technologies GmbH filed Critical GEA Farm Technologies GmbH
Publication of EP4544366A1 publication Critical patent/EP4544366A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/229Command input data, e.g. waypoints
    • G05D1/2297Command input data, e.g. waypoints positional data taught by the user, e.g. paths
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K5/00Feeding devices for stock or game ; Feeding wagons; Feeding stacks
    • A01K5/001Fodder distributors with mixer or shredder
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/246Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/50Specific applications of the controlled vehicles for animal husbandry or control, e.g. catching, trapping or scaring of animals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/20Land use
    • G05D2107/21Farming, e.g. fields, pastures or barns
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/30Radio signals
    • G05D2111/32Radio signals transmitted via communication networks, e.g. cellular networks or wireless local area networks [WLAN]

Definitions

  • the invention relates to a method for learning a route of an autonomously driving agricultural driving robot, in particular in a stable or yard area.
  • the invention further relates to a system with an autonomous agricultural driving robot with which a route can be learned.
  • feeding systems are often used to feed animals, in which feed rations made from various basic ingredients are mixed as needed and promptly in a central area, the so-called “kitchen”, and distributed along so-called “feeding lanes” to feed the animals.
  • kitchen feed rations made from various basic ingredients
  • feed ration lanes feed the animal's feed rations made from various basic ingredients
  • Another example concerns the removal of animal excrement. Cleaning of yard or stable areas is also usually carried out using vehicles due to the size of the areas.
  • an autonomously operating feeding system for animals is known from the publication WO 2008/097080 A1.
  • a central component of this system is an autonomous vehicle that has a food container that can be filled automatically in a central so-called “kitchen area”.
  • the feed can be mixed during the journey from the feed containers to the feed unloading point. At the unloading point, feed is automatically delivered by tipping the container.
  • various options are described, for example that the path is specified via previously laid rails.
  • Another alternative is autonomous navigation using sensors or route markings. Navigation based on a radio positioning system, for example the GPS (Global Positioning System), is also described. Particularly if a route is not specified via laid rails or other routes, a training procedure is necessary in order to make it possible to navigate in the stable or yard area.
  • GPS Global Positioning System
  • Displaying the additional information on the mobile device used as a remote control may be helpful, but it also distracts from the close observation of the driving robot during the training drive.
  • a method according to the invention of the type mentioned at the outset has the following steps: An environment map is provided and a route, which lies in the area of the environment map, is driven manually by the driving robot from a starting point to an end point under manual control by a user. While driving along the route, the driving robot is localized using at least one sensor arranged on the driving robot and coordinates of waypoints along the route are recorded based on the localization that has taken place. In the next step, the route is taken into account, taking the saved ones into account The coordinates of the waypoints are traveled autonomously by the driving robot, with the route being manually confirmed by the user. After this step of validating the route, the route is marked as confirmed and is therefore available for subsequent autonomous driving.
  • the learning of the route which will be abbreviated to the route below, by controlled manual driving takes place independently of a validation of the route, which takes place during a new driving.
  • the user's attention is not overwhelmed and the training process itself can be carried out without the risk of a collision or other error.
  • the driving robot is manually controlled back to the starting point before the validation step and the route is traveled autonomously in the validation step in the same direction in which it was specified in the manual travel step.
  • Routes are usually learned in the direction in which they will later be traveled. Because the route is validated in the same direction as it was taught when driving manually, the validation also takes place in the direction of later use and is therefore practical.
  • the route is confirmed in sections during validation. Active confirmation may be required, or passive confirmation.
  • an active confirmation the route or a route section is considered confirmed if the user actively takes an action during the validation step.
  • An active action can, for example, be an actuation of a control element on the driving robot itself or on a remote control, which was preferably previously used to control the driving robot to travel the route manually.
  • a remote control is, for example, wirelessly coupled to a control device of the driving robot.
  • the route or a route section is considered to be confirmed if there is no intervention by the user during the validation step to correct or stop the movement of the driving robot.
  • a distance to a surrounding object is measured via at least one distance sensor during the manually controlled and/or automatic travel of the route.
  • the distance sensor can be the sensor used for navigation or localization and/or an independent sensor.
  • the measured distance to the surrounding object is compared with a predetermined or predeterminable safety distance, with an acoustic and/or visual warning being issued if the safety distance is not reached.
  • the route is being learned, i.e. while the route is being specified by manual driving, there is no display of additional information on the user's remote control that distracts the user, for example measured distances to obstacles.
  • At least one excellent point can be defined by the user while the route is being driven manually while the driving robot is stationary.
  • One or more functions to be carried out can be assigned to such a marked point, which the driving robot then carries out in later operation at or from the marked point.
  • a distinguished point can also represent the start or end point of at least one route.
  • the route it is possible for the route to be changed completely or in sections manually by the user or automatically before the validation step by changing the coordinates of the waypoints.
  • the route can be subsequently influenced without having to be driven completely manually again. It can be provided that excellent points cannot be moved.
  • the possibility of manual correction is also available for excellent points, possibly with increased security conditions, e.g. only after (additional) user authorization and/or authentication, or in that only a small change in the recorded coordinates is possible.
  • the aim of the automated modification is primarily to smooth the route or a section of the route. Recorded path elements that include several neighboring waypoints are transformed into smoothed path elements using mathematical functions.
  • filter algorithms in particular low-pass filters
  • Curve smoothing can also be done by completely recalculating the position of waypoints of waypoints using appropriate parametric modeled curves.
  • the recorded position of a waypoint is not taken into account when recalculating it and the waypoint is determined only by the position of its end points (usually marked points).
  • Mixed forms are also conceivable in which the recorded position of a waypoint is taken into account with an adjustable weighting when it is recalculated.
  • restrictive boundary conditions can be specified for changing the coordinates of the waypoints.
  • Boundary conditions can refer to maximum displacements, to transitions to the next path elements, e.g. to prevent a bending connection to following or preceding path elements, and/or to minimum distances to objects that must be maintained.
  • a system according to the invention consisting of an autonomously driving agricultural driving robot and a remote control for manually controlling the driving robot is set up to carry out the method mentioned. This results in the advantages mentioned in connection with the process.
  • FIG. 1 a, b each show an oblique view of an example of a driving robot from different viewing directions;
  • Fig. 2 is a plan of a stable and yard area with a driving robot
  • 3a-f show a detail of the plan of FIG. 2 in different phases of a training method according to the invention
  • Fig. 4 is the plan of Fig. 2 with a plurality of manually specified routes
  • Fig. 5 is the plan according to Fig. 4 with smoothed routes.
  • FIG. 1 a and 1 b show an example of a driving robot 1 for agricultural tasks in an overall view from different viewing directions.
  • the learning process for routes described below can be carried out, for example, with this driving robot 1.
  • the driving robot 1 is a so-called “feeding robot” that is set up to pick up feed from a dispensing point, mix it automatically and unload it at one or more feeding points.
  • the driving robot 1 is therefore also referred to below as a “feeding robot” or simply “robot”.
  • the same reference numerals indicate the same or identically acting elements in all figures. For the sake of clarity, not every egg is in every figure. ment provided with a reference number. In the description, the information “right” and “left” refer to the respective representation of the figure.
  • the terms “front” and “rear” refer to a forward direction of travel 10 of the driving robot 1.
  • the forward direction of travel 10, which is indicated by a directional arrow in FIGS. 1 a, b, represents the main direction of travel of the driving robot 1.
  • the driving robot 1 has two important components, a chassis 100 and a structure 110.
  • the chassis 100 is preferably universally applicable and can, if necessary, be used together with various functional units.
  • Another one of the swivel wheels is located at the front in the forward direction of travel 10 and is hidden under the apron 103 in FIGS. 1a, b.
  • the apron 103 also functions as a feed pusher with which feed that has already been unloaded can be pushed together.
  • the structure 110 essentially determines the functionality of the driving robot and thus its intended use within the stable or yard area.
  • the structure 110 has a feed container 111 as a key component.
  • the feed to be distributed is received in the feed container 111 and can, if necessary, be used during filling with the help of a mixing device 112, which is not visible in FIGS. 1a and 1b, in a loading station 28 (see FIG. 2) and/or mixed while driving.
  • a feed conveyor 113 for dispensing the feed, which is implemented using a conveyor belt. Depending on the direction of the conveyor belt, feed can be delivered to either side of the feeding robot.
  • the arrangement of the feed container 111 and the feed conveyor 113 represent the functional unit of the driving robot 1, as they provide the specific functionality of the same and thus define it as a feeding robot.
  • the structure 110 further includes a cladding that is made up of a plurality of cladding elements, usually cladding panels 114.
  • the trim panels 114 can preferably be removed separately to access underlying components for maintenance or replacement.
  • Elements accessible from the outside are integrated into the casing, for example charging contacts 115 (see FIG. 1 a) and operating and/or display elements 116 (see FIG. 1 b).
  • the driving robot 1 is set up to automatically move into the charging station 28 (see FIG. 2), in which the charging contacts 115 are contacted in order to recharge batteries or other power storage devices of the driving robot 1.
  • the driving robot 1 is further provided with a navigation system that enables navigation in the stable or yard area without permanently installed infrastructure elements such as rails or guide cables.
  • the driving robot is equipped with a plurality of sensors that are either integrated into the fairing or protrude from the fairing.
  • lidar sensors 117 which are used for object detection to support navigation.
  • the two lidar sensors 117 are arranged at the front and rear of the driving robot.
  • the cameras are then used for object or step detection or to provide additional navigation support.
  • the cameras can be tilted downwards in order to be able to record and thus monitor the floor area immediately in front of the driving robot 1 in both directions of travel (i.e. when driving forwards and backwards).
  • Ultrasonic sensors 118 are also distributed around the circumference of the driving robot 1 in the lower area of the fairing as distance sensors to nearby obstacles.
  • the respective bumper 104 can, for example, be mounted movably, so that one of possibly several sensors is actuated when moving against a spring force.
  • the bumper 104 can be formed in an outer region from an elastically deformable material, in particular a foam, into which a sensor is incorporated, which detects deformation preferably along the entire edge of the bumper. Rod 104 detected. A collision with an obstacle is advantageously dampened and detected at the same time.
  • two spaced-apart electrodes can be embedded in the elastic material along the edge of the bumper 104, between which a capacitance is detected.
  • a change in capacitance indicates deformation of the material.
  • a pull chain can be incorporated into the elastic material, which is coupled to a switch or sensor. A deformation of the elastic material leads to a pull on the pull chain, which is detected by the switch or sensor.
  • the driving robot 1 has at least one control device that controls the actuators of the driving robot, including traction motors, and reads and evaluates signals from the sensors.
  • the control device also takes on navigation tasks and maintains a stored map of the surroundings, which is used, among other things, in connection with localizing the driving robot in its surroundings.
  • the map is preferably created by the driving robot 1 itself in a so-called SLAM (Simultaneous Localization and Mapping) process by evaluating the sensor data recorded during various journeys.
  • the control device is equipped or coupled with communication interfaces, in particular for wireless communication.
  • the communication interfaces serve, for example, to connect to a higher-level operations management system that coordinates the use of the driving robot 1.
  • the communication interfaces can be used to control the driving robot 1 using a remote control.
  • FIGS. 1a, 1b show a two-dimensional plan of an agricultural operation 2 on which a driving robot 1 is to be used as a feeding robot.
  • a driving robot 1 can be used on a farm to deliver the feed to the animals from the feed bunkers.
  • the driving robot 1 can be designed, for example, according to FIGS. 1a, 1b.
  • the company 2 includes two stables, specifically a first stable 20 and a second stable 21, for keeping animals, for example for keeping cows, and a surrounding farm area.
  • the two stables 20, 21 differ in size, with the second stable 21 representing an annex to the larger first stable 20, which in this sense is to be viewed as the main stable.
  • the number of two stables 20, 21 in operation 2, as well as their size and arrangement, are purely exemplary.
  • Both stables 20, 21 have walls 22 on the outside and a plurality of support pillars 23 on the inside. This is also purely an example.
  • the stables 20, 21 could also be provided with walls inside.
  • animal areas 25 are provided within the two stables 20, 21, i.e. areas in which animals, e.g. B. the cows mentioned are kept. Each animal area 25 is assigned a so-called “feeding grid” 26, in front of which food is placed, which the animals can absorb from the animal area 25.
  • feed bunkers 27 set up in which different types of feed are kept for the animals.
  • Three larger feed bunkers 27 are shown as examples, which z. B. serve to absorb silage feed.
  • a smaller feed bunker 27, shown round in the schematic Fig. 1, is used to hold concentrated feed.
  • the feed bunkers 27 each have feed conveyors with which the feed or concentrated feed can be dispensed.
  • the plan of operation 2 shown in FIG. 2 is a schematic drawing, but essentially reflects what the driving robot 1 detects from its surroundings using the lidar sensors 117.
  • the two lidar sensors 117 arranged on the driving robot 1 scan the environment in a two-dimensional plane that is aligned parallel to the chassis 100 and thus essentially parallel to the ground on which the driving robot 1 moves. Accordingly, only those features that are in the scanning plane of the lidar sensors 117 are recognized by the driving robot 1 via the lidar sensors 117. In the example shown, this is at a height of around 1.5 - 2.5 m (meters) above the ground.
  • the driving robot 1 is, for example, trained to be able to use routes that run between a charging station 28, the feed bunkers 27 and the various feed storage locations in front of the feeding grids 26.
  • the charging station 28 is mounted adjacent to the feed bunkers 27 in the operation 2 shown.
  • the charging station 28 is controlled by the driving robot 1 in order to charge batteries to supply it with energy.
  • the charging station 28 includes contacts which, when the driving robot 1 is correctly positioned, contact the charging contacts 115 (see FIG. 1 a) and via which charging current is provided for charging the batteries of the driving robot 1.
  • the driving robot 1 uses the signals from the lidar sensors 117 to determine its position as part of navigation. Signals from other sensors, e.g. B. wheel rotation sensors for odometry can be used to increase positioning accuracy.
  • an alternative positioning method can be used, in which markings on the charging station are optically recognized.
  • markings are, for example, the reflectors 29 shown in FIG. 2, which are detected by the driving robot 1 using the lidar sensors 117 or using other optically operating sensors.
  • a higher positional accuracy required for contacting can be achieved than with the help of contour-based navigation.
  • Fig. 3a a section of the operation 2 in the area of the feed bunker 27 and the loading station 28 is shown enlarged.
  • a remote control (not shown here) is used, which preferably, but not necessarily, communicates wirelessly with the driving robot 1.
  • An optical or radio-based communication link can be used for transmission.
  • a user's universally usable mobile device can be used as a remote control, e.g. B. a tablet computer.
  • the communication connection can be made directly between the tablet computer and a receiving device of the driving robot 1 or via a shared communication network, for example a WLAN (Wireless Local Area Network) network that is available on the company 2.
  • WLAN Wireless Local Area Network
  • the driving robot 1 After the driving robot 1 has been brought into the position shown in FIG 28 is reached. In response to a further command, the driving robot 1 moves backwards out of the charging station - if necessary after a completed charging process - while maintaining its orientation by a defined distance, the length of which can be selected, which is shown in dashed lines in the figures, and thus takes the position shown in Fig. 3c. In order to control this position starting from the charging station 28, for example odometry, orientation using a gyroscope and/or localization using the reflectors 29 can be used.
  • the position thus assumed represents a first marked point, the coordinates of which are stored in the control device of the driving robot 1.
  • the coordinates refer to the surrounding map created by the driving robot 1.
  • This first excellent point can be viewed as a kind of fixed point for a path network 3 to be built, since it is structurally fixed by the positioning of the charging station 28. It is therefore also referred to below as “anchor point 30”.
  • the first marked point, the anchor point 30, is set to the position of the driving robot 1 in the charging station 28.
  • the anchor point 30 represents a starting point for the first route of the route network 3 to be learned.
  • an excellent point 30a which is located in front of a first of the feed bunkers 27 and represents the position in which the driving robot 1 can pick up feed from this first feed bunker 27.
  • the position and orientation of the driving robot 1 in front of the first feed bunker 27 is noted in the map guided by the driving robot 1 as a marked point 30a, with this marked point being assigned information about the function - here the intake of feed from the first feed bunker 27 becomes.
  • Marked points, which also include anchor point 30, are subsequently abbreviated as POI (Point Of Interest).
  • x and y represent parameter values to be used, which are usually specified by the higher-level operations management system.
  • more complex sequences can also be defined, e.g. to determine how errors are to be dealt with, for example if no or too little feed is delivered from the feed bunker.
  • the POI 30d While driving the route from the starting point, the anchor point 30, to an end point, the POI 30d, not only the POIs 30a-d are included in the map recorded, but a plurality of waypoints 31, of which, for example, only two are marked between the POIs 30a and 30b in Fig. 3d.
  • the waypoints 31 are position points along the route traveled, which are recorded and saved at a distance of a few centimeters (cm) up to about 20 cm.
  • the waypoints 31 define the course of a path element 32, which reflects the course of the path between two neighboring POIs.
  • the recording of the waypoints 31 enables the path elements 32 and thus the trained route to be traveled precisely.
  • the POIs also represent waypoints 31, which, however, are distinguished in that the aforementioned functions to be carried out can be linked to them and that correction options (see below) can be more limited than for the other, non-labeled waypoints 31.
  • the remote control is only used to control the driving robot 1 and - then when the driving robot 1 is stationary - is used to mark an excellent point and, if necessary, to define actions. The latter can also be done later.
  • the user's concentration can therefore be completely focused on the driving robot 1 and distances to obstacles, etc.
  • this route is validated according to the invention by an already autonomously controlled journey, which, however, takes place under the supervision of the user. Only when this validation step has been carried out for a specific route or section of route is this route or section of route marked as autonomously traversable and can be used as part of an automatic navigation process.
  • the previously specified route between the anchor point 30 and the POI 30d is intended to be traveled in both directions.
  • validation must also take place in both directions.
  • validation in one direction is sufficient, although this direction does not necessarily have to be the direction in which this route was specified.
  • the route to be validated or sections of the route to be validated are revised beforehand. Through the manual control when learning the route, swerves or similar can occur unplanned, which lead to a route that is not optimal. A route that is not optimal results in a longer distance covered and leads to actually avoidable cornering, acceleration and braking actions, which cost energy and put unnecessary strain on the material of the driving robot 1.
  • the recorded route of the previously created route network 3 can be displayed on a display, in particular a display of the remote control of the driving robot 1, before validation, whereby the user has the option of selecting route elements 32 or waypoints 31 and to correct sections of path elements 32 between POIs 30, 30a-d manually or automatically. Manual correction of coordinates of the POIs 30a-d can also be provided.
  • a manual correction can, for example, involve moving a waypoint 31 or a POI 30a-d. It can be provided that this shift is only possible by a certain distance in order to prevent the risk of getting into the area of obstacles by moving waypoints. For the POIs 30a-d, the maximum possible shift in the coordinates can be more strictly limited in order to avoid the risk that the assigned function (e.g. picking up food) will be impaired after a shift. Furthermore, it can be provided that distances between the waypoints 31 and boundaries on the map are determined and certain safety distances between waypoints 31 and limiting objects, e.g. B. the walls 22 or the supporting pillars 23, must be adhered to when moving.
  • Path elements 32 are smoothed by filter algorithms, for example a low-pass filter, in order to reduce possible “snake rides” or swerves.
  • the path elements 32 are thereby replaced by smoothed curves, whereby certain boundary conditions, for example a continuous, non-kinking connection to following or preceding path elements 32, for example by maintaining tangent gradients in the POIs 30, 30a-d, are taken into account.
  • An upper limit for a maximum displacement of waypoints 31 resulting from the automated smoothing can also be set.
  • path elements 32 or parts of path elements 32 can be replaced by so-called “splines” or “Bezier curves”.
  • Splines and Bezier curves are mathematically determined curve elements that are composed of polynomial functions.
  • certain boundary conditions can also be provided for smoothing using fully calculated waypoints, for example a continuous, non-kinking connection to following or preceding path elements 32.
  • minimum distances to limiting objects e.g. B. the walls 22 or the supporting pillars 23, must be adhered to in order to prevent collisions and to avoid the objects correctly.
  • certain waypoints 31 are viewed as unchangeable in order to be able to influence the route guidance manually.
  • the path elements 32 are converted into smoothed path elements 33 as a result of the manual or one of the automatic corrections described, as shown in FIG. 3e.
  • the driving robot 1 then moves back the recorded and possibly smoothed route or again in the recording direction, whereby the user has to confirm the route elements 32 that have been traveled.
  • the automatic shutdown is carried out as long as a button on the remote control is kept pressed. Each section that is traveled again is marked as “successfully validated”. If a problem becomes apparent when driving off, the user can release the button, whereupon the driving robot 1 immediately stops and switches from the step of validating the route again to the step of recording by manual control. In this way one can A route or at least a section of it can then be corrected again.
  • 3f shows the situation after validation of the smoothed path elements 33 after the driving robot 1 has automatically traveled the route back to the anchor point 30 from its position on the POI 30d in order to validate the path network 3 learned up to that point.
  • Fig. 4 shows, again for the entire area of operation 2, how the route network 3 is expanded to include further routes in subsequent further training phases. Routes lead into both the first stable 20 and the second stable 21. Further excellent points 30e to 30q are defined, which are associated with various actions.
  • the POI 30e represents a branch at which the route starting from the anchor point 30 branches either into the first stable 20 or into the second stable 21.
  • a navigation system can use the path element 32 between the anchor point 30 and the designated point 30e for both navigation tasks, i.e. a trip to the first stable 20 or to the second stable 21.
  • a further branching is possible at POI 30f, where a total of four path elements 32 converge.
  • a first possibility starting from the designated point 30f, runs over the POI 30g along the upper animal area 25 of the first stable 20 in FIG. 4.
  • the path element 32 running between the designated point 30g and a designated point 30h is fed 25 animals located in the corresponding animal area.
  • a corresponding command to eject food along the feeding fence 26 is issued at the designated point 30g.
  • the driving robot 1 may reduce its driving speed in this area. Feed ejection ends at POI 30h.
  • an alternatively movable path element 32 leads to a designated point 30j, at which feeding takes place in the lower animal area 25 in FIG. 4.
  • the path along the corresponding feeding fence 26 ends at the excellent point 30k.
  • path elements 32 lead to an excellent point 30i, at which the return paths merge after feeding has taken place.
  • a further path element 32 leads back to the marked point 30f, the intermediate path element 32 being characterized, for example, by a higher driving speed, which is possible with the feed container 111 of the driving robot 1 emptied.
  • a branching point is defined as a marked point 30I, from which path elements 32 lead via the marked points 30m and 30n along the upper feeding grid 26 in FIG. 4 and through marked points 30p and 30q on the lower feeding grid 26 in FIG. 4 lead along.
  • a marked point 30o defines a union point for return journeys, from which a quicker return journey with an empty feed container 111 of the driving robot 1 is possible.
  • the recorded path elements 32 shown in Fig. 4 can in turn be smoothed manually and/or automatically in a subsequent step (using filter functions or replaced by mathematically described path elements), which leads, for example, to the path network 3 shown in Fig. 5, in which all or some of the path elements 32 are replaced by smoothed path elements 33.
  • a validation trip takes place for the recorded path elements 32 and, if applicable, the smoothed path elements 33, in which the driving robot 1 drives along the path elements 32, 33 and then marks them as usable autonomously if they are confirmed by the user. It makes sense to straighten the path elements 32, particularly along the feeding grid 26, in order to ensure that feed is ejected or pushed at a defined and constant distance from the feeding grid 26.
  • a confirmation of a path element 32 or a route section, comprising a plurality of route elements 32, or the entire route takes place actively through an action by the user.
  • a confirmation is accepted if the user does not intervene during the validation drive to change the route traveled or stop the driving robot 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Birds (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Guiding Agricultural Machines (AREA)
  • Feeding And Watering For Cattle Raising And Animal Husbandry (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Anlernen einer Fahrstrecke eines autonom fahrenden landwirtschaftlichen Fahrroboters (1). Das Verfahren weist die folgenden Schritte auf: - Bereitstellen einer Umgebungskarte; - Abfahren einer Strecke, die im Bereich der Umgebungskarte liegt, von einem Startpunkt bis zu einem Endpunkt durch ein manuelles Steuern des Fahrroboters (1); - Lokalisieren des Fahrroboters (1) während des Abfahrens der Strecke mithilfe von mindestens einem an dem Fahrroboter (1) angeordneten Sensor; - Aufzeichnen von Koordinaten von Wegpunkten (31) entlang der Strecke basierend auf der erfolgten Lokalisierung; - Validieren der Route durch autonomes Abfahren der Strecke unter Berücksichtigung der gespeicherten Koordinaten der Wegpunkte (31), wobei die Strecke manuell bestätigt wird; - Kennzeichnen der bestätigten Strecke als autonom abfahrbar. Die Erfindung betrifft weiter ein System, umfassend einen landwirtschaftlichen Fahrroboter (1) mit einer Steuereinrichtung zum autonomen Fahren und eine mit der Steuereinrichtung gekoppelte Fernbedienung zum manuellen Steuern des Fahrroboters (1). Das System zeichnet sich dadurch aus, dass die Steuereinrichtung zur Durchführung eines solchen Verfahrens eingerichtet ist.

Description

Verfahren und System zum Anlernen einer Fahrstrecke eines autonom fahrenden landwirtschaftlichen Fahrroboters
Die Erfindung betrifft ein Verfahren zum Anlernen einer Fahrstrecke eines autonom fahrenden landwirtschaftlichen Fahrroboters, insbesondere in einem Stall- oder Hofbereich. Die Erfindung betrifft weiterhin ein System mit einem autonom fahrenden landwirtschaftlichen Fahrroboter, mit dem eine Fahrstrecke angelernt werden kann.
Viele Aufgaben in einem Stall- oder Hofbereich eines landwirtschaftlichen Betriebs sind mit einem Transport von Materialien verknüpft. Beispielsweise werden zur Fütterung von Tieren häufig Fütterungssysteme eingesetzt, bei denen in einem zentralen Bereich, der sog. „Küche“, Futterrationen aus verschiedenen vorgehaltenen Grundzutaten bedarfsgerecht und zeitnah gemischt und zur Fütterung der Tiere entlang sog. „Futtergassen“ ausgebracht werden. Ein anderes Beispiel betrifft einen Abtransport von Tierexkrementen. Auch eine Reinigung von Hof- oder Stallflächen wird aufgrund der Größe der Flächen in der Regel mithilfe von Fahrzeugen ausgeführt.
Um diese Aufgaben möglichst autonom und mit geringem Personaleinsatz ausführen zu können, haben sich automatisierte Anlagen und Geräte für diese unterschiedlichen Anwendungsfälle im landwirtschaftlichen Bereich etabliert.
Aus der Druckschrift WO 2008/097080 A1 ist beispielsweise ein autonom arbeitendes Fütterungssystem für Tiere, beispielsweise Kühe, bekannt. Eine zentrale Komponente dieses Systems ist ein autonom fahrendes Fahrzeug, das einen Futterbehälter aufweist, der in einem zentralen sog. „Küchenbereich“ automatisch befüllt werden kann. Das Futter kann während der Fahrt von den Futtercontainern bis zur Abladestelle des Futters gemischt werden. An der Abladestelle wird Futter automatisch durch ein Abkippen des Behälters abgegeben. Im Hinblick auf die Bewegung des Fahrzeugs sind verschiedene Optionen beschrieben, beispielsweise, dass der Weg über zuvor verlegte Schienen vorgegeben ist. Als andere Alternative ist eine autonome Navigation mithilfe von Sensoren oder Wegmarkierungen beschrieben. Auch eine Navigation basierend auf einem Funk-Positionssystem, beispielsweise dem GPS (Global Positioning System) ist beschrieben. Insbesondere wenn eine Strecke nicht über verlegte Schienen oder sonstige Wegführungen vorgegeben ist, ist ein Anlernverfahren notwendig, um ein Navigieren in dem Stall- oder Hofbereich überhaupt zu ermöglichen.
Aus der Druckschrift WO 2018/074 917 A2 ist ein solches Anlernverfahren für einen autonom fahrenden landwirtschaftlichen Fahrroboter bekannt, bei dem in einem ersten Schritt der autonom fahrende Roboter mithilfe eines externen Mobilgeräts, beispielsweise eines Tabletcomputers, manuell entlang einer gewünschten Strecke gesteuert wird. Während der manuellen Steuerung werden Sensordaten, die der Fahrroboter aufnimmt, auf das Mobilgerät gesendet und dort zusammen mit einer Position des Fahrroboters auf einer Karte dargestellt. Übermittelte Sensordaten sind beispielsweise gemessene aktuelle Abstände zu Objekten. Die gefahrene Strecke wird gespeichert und kann danach in einem autonomen Navigationsprozess automatisiert vom Fahrroboter abgefahren werden.
Das Einblenden der Zusatzinformationen auf dem als Fernsteuerung genutzten Mobilgerät ist unter Umständen hilfreich, es lenkt jedoch auch von der genauen Beobachtung des Fahrroboters während der Anlernfahrt ab.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Anlernverfahren für einen landwirtschaftlich genutzten Fahrroboter zu schaffen, bei dem eine Strecke intuitiv und mit voller Konzentration auf den Fahrroboter angelernt werden kann und die Strecke dennoch z.B. im Hinblick auf eingehaltene Sicherheitsabstände o. Ä. überprüft und ggf. korrigiert werden kann.
Diese Aufgabe wird durch ein Verfahren bzw. ein System mit den Merkmalen des jeweiligen unabhängigen Anspruchs gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
Ein erfindungsgemäßes Verfahren der eingangs genannten Art weist die folgenden Schritte auf: Es wird eine Umgebungskarte bereitgestellt und manuell eine Fahrstrecke, die im Bereich der Umgebungskarte liegt, von einem Startpunkt bis zu einem Endpunkt durch einen Benutzer manuell gesteuert von dem Fahrroboter abgefahren. Während des Abfahrens der Fahrstrecke wird der Fahrroboter mithilfe von mindestens einem an dem Fahrroboter angeordneten Sensor lokalisiert und es werden Koordinaten von Wegpunkten entlang der Fahrstrecke basierend auf der erfolgten Lokalisierung aufgezeichnet. In einem nächsten Schritt wird die Fahrstrecke unter Berücksichtigung der gespeicherten Koordinaten der Wegpunkte autonom durch den Fahrroboter abgefahren, wobei die Fahrstrecke durch den Benutzer manuell bestätigt wird. Nach diesem Schritt des Validierens der Fahrstrecke wird die Fahrstrecke als bestätigt gekennzeichnet und steht damit für ein nachfolgendes autonomes Abfahren zur Verfügung.
Das Anlernen der Fahrstrecke, die nachfolgend abkürzend auch als Strecke bezeichnet wird, durch gesteuertes manuelles Abfahren erfolgt bei diesem Verfahren unabhängig von einem Validieren der Strecke, das während eines erneuten Abfahrens stattfindet. Beim manuell gesteuerten Abfahren der gewünschten Strecke kann somit eine volle Konzentration auf die Strecke selbst und den Fahrroboter während des Abfahrens erfolgen. Wird die Strecke danach zum Validieren erstmalig automatisch abgefahren, kann sich der Nutzer auf die Umgebung des Fahrroboters direkt oder auch auf angezeigte Messwerte konzentrieren und einzuhaltende Abstände usw. überprüfen. Erst wenn die Strecke von dem Benutzer bestätigt ist, wird sie als autonom abfahrbar gekennzeichnet und steht dann für eine selbstständige, autonome Navigation zur Verfügung. Durch die Aufteilung des Anlernprozesses in einem Schritt des manuellen Vorgebens der Strecke und des nachfolgenden Validierens wird die Aufmerksamkeit des Benutzers nicht überfordert und der Anlernprozess selbst kann ohne die Gefahr einer Kollision oder eines sonstigen Fehlers durchgeführt werden.
In einer vorteilhaften Ausgestaltung des Verfahrens wird der Fahrroboter vor dem Schritt des Validierens manuell zurück zu dem Startpunkt gesteuert und die Strecke wird in dem Schritt des Validierens in derselben Richtung autonom abgefahren, in der sie in dem Schritt des manuellen Abfahrens vorgegeben wurde. Strecken werden in der Regel in der Richtung angelernt, in der sie später auch durchfahren werden. Dadurch, dass die Strecke in derselben Richtung validiert wird wie sie beim manuellen Abfahren angelernt wurde, erfolgt auch die Validierung in Richtung der späteren Nutzung und damit praxisgerecht. Es ist alternativ auch denkbar, das Validieren der Strecke in einer Fahrtrichtung durchzuführen, die entgegengesetzt zu der Richtung ist, in der die Strecke in dem Schritt des manuellen Abfahrens vorgegeben wurde. Ggf. kann auch vorgesehen sein, beide Fahrtrichtungen zu validieren, insbesondere, wenn im autonomen produktiven Betrieb ebenfalls eine Strecke in beiden Richtungen benutzt wird. In einer weiteren vorteilhaften Ausgestaltung des Verfahrens wird die Strecke beim Validieren abschnittsweise bestätigt. Dabei kann ein aktives Bestätigen gefordert sein, oder auch passives.
Bei einem aktiven Bestätigen gilt die Strecke oder ein Streckenabschnitt als bestätigt, wenn vom Benutzer aktiv eine Aktion während des Schritts des Validierens erfolgt. Eine aktive Aktion kann beispielsweise ein Betätigen eines Bedienelements an dem Fahrroboter selbst oder an einer Fernbedienung sein, die bevorzugt zuvor auch zum Steuern des Fahrroboters zum manuellen Abfahren der Strecke eingesetzt wurde. Eine solche Fernbedienung ist z.B. drahtlos mit einer Steuereinrichtung des Fahrroboters gekoppelt.
Bei einem passiven Bestätigen gilt die Strecke oder ein Streckenabschnitt als bestätigt, wenn vom Benutzer während des Schritts des Validierens kein Eingriff durch den Benutzer erfolgt, der die Bewegung des Fahrroboters korrigiert oder stoppt.
In einer weiteren vorteilhaften Ausgestaltung des Verfahrens wird während des manuell kontrollierten und/oder des automatischen Abfahrens der Strecke, über mindestens einen Distanzsensor eine Distanz zu einem umgebenden Objekt gemessen. Der Distanzsensor kann der zur Navigation bzw. Lokalisierung genutzte Sensor sein und/oder auch ein davon unabhängiger Sensor. Bevorzugt wird die gemessene Distanz zu dem umgebenden Objekt mit einem vorgegebenen oder vorgebbaren Sicherheitsabstand verglichen, wobei bei einem Unterschreiten des Sicherheitsabstands eine akustische und/oder optische Warnung ausgegeben wird. Weiter bevorzugt erfolgt während des Anlernens der Strecke, also während einem Vorgeben der Strecke durch das manuelle Abfahren, keine den Nutzer ablenkenden Darstellung von Zusatzinformationen, beispielsweise gemessenen Abständen zu Hindernissen, auf der Fernbedienung des Benutzers. Dennoch kann sowohl während des Anlernens als auch während des Validierens vorgesehen sein, ein Unterschreiten von Sicherheitsabständen zu detektierten Hindernissen durch ein akustisches und/oder optisches Warnsignal bevorzugt am Fahrroboter selbst zu signalisieren. Dieses verhindert eventuelle Kollisionen, ohne die Aufmerksamkeit des Benutzers von der Position und der Bewegung des Fahrroboters abzulenken. Weiter kann vorgesehen sein, dass bei einem Detektieren eines Unterschreitens des Sicherheitsabstands ein Validieren eines Wegelements verhindert ist. In einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann während des manuellen Abfahrens der Strecke bei stehendem Fahrroboter mindestens ein ausgezeichneter Punkt vom Benutzer definiert werden. Einem solchen ausgezeichneten Punkt kann eine oder können mehrere auszuführende Funktion(en) zugeordnet werden, die der Fahrroboter dann im späteren Betrieb an oder ab dem ausgezeichneten Punkt durchführt. Ein ausgezeichneter Punkt kann weiter den Start- oder Endpunkt von mindestens einer Strecke darstellen.
In einer weiteren vorteilhaften Ausgestaltung des Verfahrens besteht die Möglichkeit, dass die Strecke vor dem Schritt des Validierens ganz oder abschnittsweise manuell vom Benutzer oder automatisiert abgeändert wird, indem die Koordinaten der Wegpunkte geändert werden. Durch die manuelle Einflussnahme kann nachträglich Einfluss auf die Streckenführung genommen werden, ohne dass ein erneutes vollständiges manuelles Abfahren erfolgen muss. Dabei kann vorgesehen sein, dass ausgezeichnete Punkte nicht verschoben werden können. Es ist aber auch denkbar, dass die Möglichkeit der manuellen Korrektur auch für ausgezeichnete Punkte gegeben ist, ggf. mit erhöhten Sicherheitsbedingungen, z.B. erst nach erfolgter (zusätzlicher) Nutzerautorisierung und/oder Authentifizierung, oder indem nur eine geringe Veränderung der aufgezeichneten Koordinaten möglich ist.
Ziel der automatisierten Abänderung ist es vor allem, die Strecke oder einen Abschnitt der Strecke zu glätten. Aufgezeichnete Wegelemente, die mehrere benachbarte Wegpunkte umfassen, werden dabei durch mathematische Funktionen in geglättete Wegelemente transformiert.
Dazu können beispielsweise Filteralgorithmen, insbesondere Tiefpassfilter, eingesetzt werden, die die aufgezeichneten Wegpunkte verschieben, um „Schlenker“ bei der Fahrt zu reduzieren. Eine Kurvenglättung kann auch durch eine vollständige Neuberechnung der Position von Wegpunkten von Wegelemente mithilfe von geeigneten parametrisch modellierten Kurven erfolgen. In dem Fall wird die aufgezeichnete Position eines Wegpunkts bei seiner Neuberechnung nicht berücksichtigt und das Wegelement ist nur durch die Position seiner Endpunkte (in der Regel ausgezeichnete Punkte) bestimmt. Es sind auch Mischformen denkbar, bei denen die aufgezeichnete Position eines Wegpunkts bei seiner Neuberechnung mit einer einstellbaren Gewichtung berücksichtigt wird. Sowohl bei der manuellen als auch bei der automatischen Korrektur der Position von Wegpunkten können einschränkende Randbedingungen für das Abändern der Koordinaten der Wegpunkte vorgegeben sein. Solche Randbedingungen können sich auf maximale Verschiebungen beziehen, auf Übergänge zu nächsten Wegelementen, z.B. um einen abknickenden Anschluss an folgende oder vorausgehende Wegelemente zu unterbinden, und/oder auf einzuhaltende Mindestabstände zu Objekten.
Ein erfindungsgemäßes System aus einem autonom fahrenden landwirtschaftlichen Fahrroboter und einer Fernbedienung zum manuellen Steuern des Fahrroboters ist zur Durchführung des genannten Verfahrens eingerichtet. Es ergeben sich die im Zusammenhang mit dem Verfahren genannten Vorteile.
Die Erfindung wird nachfolgend anhand eines Ausführungsbeispiels mithilfe von Figuren näher erläutert. Die Figuren zeigen:
Fig. 1 a, b jeweils eine Schrägansicht eines Beispiels eines Fahrroboters aus verschiedenen Blickrichtungen;
Fig. 2 ein Plan eines Stall- und Hofbereichs mit einem Fahrroboter;
Fig. 3a-f ein Ausschnitt des Plans der Fig. 2 in verschiedenen Phasen eines erfindungsgemäßen Anlernverfahrens;
Fig. 4 der Plan der Fig. 2 mit einer Mehrzahl von manuell vorgegebenen Strecken; und
Fig. 5 der Plan gemäß Fig. 4 mit geglätteten Strecken.
In den Fig. 1 a und 1 b ist ein Beispiel eines Fahrroboters 1 für landwirtschaftliche Aufgaben in einer Gesamtansicht aus unterschiedlichen Blickrichtungen dargestellt. Das nachfolgend beschriebene Anlernverfahren für Strecken kann z.B. mit diesem Fahrroboter 1 durchgeführt werden.
Der Fahrroboter 1 ist in diesem Beispiel ein sog. „Fütterungsroboter“, der dazu eingerichtet ist, Futter von einer Ausgabestelle aufzunehmen, selbsttätig zu mischen und an einer oder mehreren Futterstellen abzuladen. Der Fahrroboter 1 wird daher nachfolgend auch als „Fütterungsroboter“ oder einfach „Roboter“ bezeichnet.
Gleiche Bezugszeichen kennzeichnen in allen Figuren gleiche oder gleich wirkende Elemente. Aus Gründen der Übersicht ist nicht in jeder Figur jedes Eie- ment mit einem Bezugszeichen versehen. In der Beschreibung beziehen sich die Angaben „rechts“ und „links“ auf die jeweilige Darstellung der Figur. Die Begriffe „oben“ und „unten“ beziehen sich dagegen auf die natürliche Ausrichtung des Fahrroboters. Die Begriffe „vorne“ und „hinten“ sind auf eine Vorwärts- Fahrtrichtung 10 des Fahrroboters 1 bezogen. Die Vorwärts-Fahrtrichtung 10, die in den Fig. 1 a, b durch einen Richtungspfeil angegeben ist, stellt die Haupt- Fahrtrichtung des Fahrroboters 1 dar.
Der Fahrroboter 1 weist zwei maßgebliche Komponenten auf, ein Fahrgestell 100 und einen Aufbau 110.
Das Fahrgestell 100 ist bevorzugt universell einsetzbar und kann ggf. zusammen mit verschiedenen Funktionseinheiten eingesetzt werden. Vom Fahrgestell 100 sind in den Fig. 1 a, b lediglich Verkleidungs- und/oder Schutzelemente, konkret eine umlaufende Schürze 103 sowie zwei Stoßstangen 104 zu sehen, sowie zwei von insgesamt vier Rädern, konkret jeweils eines von zwei Antriebsrädern 101 (in den Fig. 1 a, b) und eines von zwei Schwenkrädern 102 (in Fig. 1 b). Ein weiteres der Schwenkräder befindet sich in Vorwärts-Fahrtrichtung 10 vorne und ist in den Fig. 1a, b unter der Schürze 103 verborgen. Beim vorliegenden Ausführungsbeispiel eines Futterroboters fungiert die Schürze 103 zudem als Futterschieber, mit dem sich bereits abgeladenes Futter zusammenschieben lässt.
Der Aufbau 110 bestimmt im Wesentlichen die Funktionalität des Fahrroboters und damit seinen Einsatzzweck innerhalb des Stall- oder Hofbereichs.
Bei dem im vorliegenden Fall als Fütterungsroboter ausgestatteten Fahrroboter 1 weist der Aufbau 110 als eine maßgebliche Komponente einen Futterbehälter 111 auf. In den Futterbehälter 111 wird das zu verteilende Futter aufgenommen und kann ggf. mithilfe einer Mischeinrichtung 112, die in den Fig. 1a und 1 b nicht sichtbar ist, bereits beim Befüllen, in einer Ladestation 28 (vgl. Fig. 2) und/oder während der Fahrt durchmischt werden. Zum Ausbringen des Futters ist ein Futterförderer 113 vorhanden, der mithilfe eines Förderbandes umgesetzt ist. Je nach Laufrichtung des Förderbandes kann Futter zu einer von beiden Seiten des Fütterungsroboters ausgebracht werden. Die Anordnung des Futterbehälters 111 und des Futterförderers 113 stellen die Funktionseinheit des Fahrroboters 1 dar, da sie die spezifische Funktionalität desselben bereitstellen und ihn so als Fütterungsroboter definieren. Der Aufbau 110 umfasst weiter eine Verkleidung, die mithilfe von einer Mehrzahl von Verkleidungselementen, in der Regel Verkleidungsplatten 114 besteht. Die Verkleidungsplatten 114 können bevorzugt separat abgenommen werden, um Zugang zu darunterliegenden Komponenten und deren Wartung oder Austausch zu erhalten. In die Verkleidung sind von außen zugängliche Elemente integriert, beispielsweise Ladekontakte 115 (vgl. Fig. 1 a) und Bedien- und/oder Anzeigeelemente 116 (vgl. Fig. 1 b). Der Fahrroboter 1 ist dazu eingerichtet, selbsttätig in die Ladestation 28 (vgl. Fig. 2) einzufahren, in der die Ladekontakte 115 kontaktiert werden, um Batterien oder andere Stromspeicher des Fahrroboters 1 wieder aufzuladen.
Der Fahrroboter 1 ist weiter mit einem Navigationssystem versehen, das eine Navigation im Stall- oder Hofbereich ohne fest verlegte Infrastrukturelemente wie Schienen oder Leitkabel ermöglicht. Zu diesem Zweck ist der Fahrroboter mit einer Mehrzahl von Sensoren ausgestattet, die entweder in die Verkleidung integriert sind oder aus der Verkleidung hervorragen.
In den Fig. 1 a und 1 b sind zwei Lidar (Light detection and ranging)-Sensoren 117, die einer Objekterkennung zur Navigationsunterstützung dienen, erkennbar. Die beiden Lidar-Sensoren 117 sind jeweils vorne bzw. hinten am Fahrroboter angeordnet. Alternativ oder zusätzlich kann vorgesehen sein, in Fahrtrichtung vorne und ggf. auch hinten jeweils eine optische Kamera anzuordnen. Die Kameras dienen dann zur Objekt- oder Stufendetektion oder einer zusätzlichen Unterstützung der Navigation. Die Kameras können nach unten geneigt ausgerichtet sein, um insbesondere den in beiden Fahrtrichtung (d.h. bei Vorwärts- und Rückwärtsfahrt) unmittelbar vor dem Fahrroboter 1 liegenden Bodenbereich aufnehmen und damit überwachen zu können. Weiter sind verteilt um den Umfang des Fahrroboters 1 im unteren Bereich der Verkleidung Ultraschallsensoren 118 als Abstandssensoren zu nah liegenden Hindernissen vorhanden.
Weitere, hier nicht sichtbare Sensoren, sind mechanische Sensoren, die eine Krafteinwirkung auf eine der oder beide Stoßstangen 104 detektieren. Dazu kann die jeweilige Stoßstange 104 beispielsweise beweglich gelagert sein, so dass bei Bewegung gegen eine Federkraft einer von gegebenenfalls mehreren Sensoren betätigt wird. In einer alternativen Ausgestaltung kann die Stoßstange 104 in einem äußeren Bereich aus einem elastisch verformbaren Material gebildet sein, insbesondere einem Schaumstoff, in das ein Sensor eingearbeitet ist, der eine Verformung bevorzugt entlang des gesamten Rands der Stoß- Stange 104 detektiert. Vorteilhaft wird so eine Kollision mit einem Hindernis gedämpft und gleichzeitig erfasst. In einer Ausgestaltung können beispielsweise zwei voneinander beabstandete Elektroden entlang des Rands der Stoßstange 104 in das elastische Material eingebettet sein, zwischen denen eine Kapazität detektiert wird. Eine Änderung der Kapazität zeigt eine Verformung des Materials an. In einer weiteren Ausgestaltung kann eine Zugkette in das elastische Material eingearbeitet sein, die mit einem Schalter bzw. Sensor gekoppelt ist. Eine Verformung des elastischen Materials führt zu einem Zug an der Zugkette, der über den Schalter bzw. Sensor erfasst wird.
Der Fahrroboter 1 weist mindestens eine Steuereinrichtung auf, die Aktoren des Fahrroboters, u.a. auch Fahrmotoren, ansteuert und Signale der Sensoren einliest und auswertet. Die Steuereinrichtung übernimmt auch Navigationsaufgaben und führt eine abgespeicherte Umgebungskarte, die u.a. im Zusammenhang mit einer Lokalisierung des Fahrroboters in seiner Umgebung dient. Die Karte wird bevorzugt durch Auswertung der Sensordaten, die während verschiedener Fahrten erfasst werden, vom Fahrroboter 1 in einem sogenannten SLAM (Simultaneous Localization and Mapping) - Verfahren selbst erstellt. Zudem ist die Steuereinrichtung mit Kommunikationsschnittstellen, insbesondere zur drahtlosen Kommunikation, ausgestattet oder gekoppelt. Die Kommunikationsschnittstellen dienen z.B. einer Verbindung mit einem übergeordneten Betriebsmanagementsystem, das den Einsatz des Fahrroboters 1 koordiniert.
Weiter können die Kommunikationsschnittstellen genutzt werden, um den Fahrroboter 1 mithilfe einer Fernbedienung zu steuern.
In Fig. 2 ist ein zweidimensionaler Plan eines landwirtschaftlichen Betriebs 2 dargestellt, auf dem ein Fahrroboter 1 als Fütterungsroboter eingesetzt werden soll. Grundsätzlich können auf einem Betrieb auch mehrere Fahrroboter eingesetzt werden, um das Futter au den Futterbunkern zu den Tieren auszubringen. Der Fahrroboter 1 kann dazu beispielsweise gemäß den Fig. 1a, 1 b ausgebildet sein.
Der Betrieb 2 umfasst in dem hier gezeigten Beispiel zwei Ställe, konkret einen ersten Stall 20 und einen zweiten Stall 21 , zur Tierhaltung, beispielsweise zur Haltung von Kühen, und einen umgebenden Hofbereich. Beispielhaft unterscheiden sich die beiden Ställe 20, 21 in ihrer Größe, wobei der zweite Stall 21 ein Nebengebäude zu dem größeren ersten Stall 20 darstellt, der in dem Sinne als Hauptstall anzusehen ist. Die Anzahl von zwei Ställen 20, 21 des Betriebs 2 ist ebenso wie ihre Größe und Anordnung rein beispielhaft. Beide Ställe 20, 21 weisen außen Mauern 22 und in ihrem Inneren eine Mehrzahl von Stützpfeilern 23 auf. Auch dieses ist rein beispielhaft. Die Ställe 20, 21 könnten ebenso auch im Innenbereich mit Mauern versehen sein. Weiter ist für jeden der Ställe 20, 21 ein Tor 24 vorhanden.
Innerhalb der beiden Ställe 20, 21 sind jeweils mehrere Tierbereiche 25 vorgesehen, also Bereiche, in denen Tiere, z. B. die genannten Kühe, gehalten werden. Jedem Tierbereich 25 ist ein sog. „Fressgitter“ 26 zugeordnet, vor dem Futter ausgebracht wird, das die Tiere aus dem Tierbereich 25 heraus aufnehmen können.
Außerhalb der Ställe 20, 21 , also in dem Hofbereich des Betriebs 2, sind mehrere Futterbunker 27 aufgestellt, in denen unterschiedliche Futtersorten für die Tiere vorgehalten werden. Beispielhaft sind drei größere Futterbunker 27 gezeigt, die z. B. der Aufnahme von Silage-Futter dienen. Ein kleinerer, in der schematischen Fig. 1 rund wiedergegebener Futterbunker 27 dient der Aufnahme von Kraftfutter. Die Futterbunker 27 verfügen jeweils über Futterförderer, mit denen das aufgenommene Futter bzw. Kraftfutter ausgegeben werden kann.
Der in Fig. 2 gezeigte Plan des Betriebs 2 ist eine schematische Zeichnung, die jedoch im Wesentlichen das widerspiegelt, was der Fahrroboter 1 mithilfe der Lidar-Sensoren 117 von seiner Umgebung erfasst. Die beiden am Fahrroboter 1 angeordneten Lidar-Sensoren 117 scannen die Umgebung in einer zweidimensionalen Ebene ein, die parallel zu dem Fahrgestell 100 und damit im Wesentlichen parallel zum Untergrund, auf dem der Fahrroboter 1 sich bewegt, ausgerichtet ist. Entsprechend werden vom Fahrroboter 1 über die Lidar- Sensoren 117 nur solche Merkmale erkannt, die sich in der Scanebene der Lidar-Sensoren 117 befinden. Diese befindet sich beim dargestellten Beispiel in einer Höhe von etwa 1 ,5 - 2,5 m (Metern) über dem Boden. Aus diesem Grund werden von den Futterbunkern 27 nur die Konturen erkannt, die in dieser Höhe liegen, weswegen beispielsweise Schläuche oder Förderbänder, die der Ausgabe des aufgenommenen Futters bzw. Kraftfutters dienen, in diesem Plan nicht sichtbar sind. Ebenfalls nicht sichtbar sind Gitter oder sonstige Absperrungen, die um die Tierbereiche 25 ausgebildet sind. Zu den nicht sichtbaren Elementen gehören auch die Fressgitter 26, die aus diesem Grund in der Fig. 2 gestrichelt eingezeichnet sind. Um den Fahrroboter 1 auf dem Betrieb 2 einsetzen zu können, werden erfindungsgemäß in einem Anlernverfahren Strecken, also mögliche Wege des Fahrroboters 1 , festgelegt. Im Betrieb des Fahrroboters 1 kann ein Navigationsverfahren dann aus den angelernten Strecken je nach zu absolvierender Aufgabe eine Route zusammenstellen, entlang der sich der Fahrroboter bewegt, um seine Aufgaben erfüllen zu können.
Nachfolgend wird ein erfindungsgemäßes Verfahren beispielhaft an dem in Fig. 2 gezeigten Betrieb 2 erläutert. Der Fahrroboter 1 wird dabei z.B. angelernt, Strecken nutzen zu können, die zwischen einer Ladestation 28, den Futterbunkern 27 und den verschiedenen Futterablagestellen vor den Fressgittern 26 verlaufen.
Die Ladestation 28 ist bei dem gezeigten Betrieb 2 benachbart zu den Futterbunkern 27 montiert. Die Ladestation 28 wird von dem Fahrroboter 1 angesteuert, um Batterien zu seiner Energieversorgung aufzuladen. Die Ladestation 28 umfasst Kontakte, die bei korrekt positioniertem Fahrroboter 1 mit den Ladekontakten 115 (vgl. Fig. 1 a) kontaktieren und über die Ladestrom zum Aufladen der Batterien des Fahrroboters 1 bereitgestellt wird. Wie zuvor erläutert, nutzt der Fahrroboter 1 zu seiner Positionsbestimmung im Rahmen einer Navigation die Signale der Lidar-Sensoren 117. Dabei können Signale weiterer Sensoren, z. B. von Rad-Drehsensoren zur Odometrie, genutzt werden, um die Positionsgenauigkeit zu erhöhen.
Im Nahbereich zur Ladestation 28 kann ein alternatives Positionierungsverfahren eingesetzt werden, bei dem Markierungen an der Ladestation optisch erkannt werden. Solche Markierungen sind beispielsweise die in der Fig. 2 dargestellten Reflektoren 29, die mithilfe der Lidar-Sensoren 117 oder mittels weiterer optisch arbeitender Sensoren vom Fahrroboter 1 erfasst werden. Im Nahbereich zur Ladestation 28 kann dadurch eine für die Kontaktierung benötigte höhere Positionsgenauigkeit erzielt werden, als mithilfe der konturbasierten Navigation.
In Fig. 3a ist zunächst ein Ausschnitt des Betriebs 2 im Bereich der Futterbunker 27 und der Ladestation 28 vergrößert wiedergegeben.
In einem ersten Schritt, der zur Vorbereitung des anmeldungsgemäßen Anlern- verfahrens ausgeführt wird, wird der Fahrroboter 1 manuell in den Nahbereich der Ladestation 28 gesteuert, so dass er einen Abstand von etwa 1 -2 m zur Ladestation 28 hat und in seiner Fahrtrichtung 10 ausgerichtet auf die Ladestation 28 positioniert ist. Abstand und Position werden so gewählt, dass eine Navigation mithilfe der Reflektoren 29 bis in die Ladestation 28 möglich ist.
Zur Steuerung des Fahrroboters 1 wird dazu eine hier nicht dargestellte Fernbedienung genutzt, die bevorzugt, aber nicht zwingend, drahtlos mit dem Fahrroboter 1 kommuniziert. Zur Übertragung kann eine optische oder eine funkbasierte Kommunikationsstrecke eingesetzt werden. Insbesondere kann als Fernbedienung ein universell nutzbares mobiles Endgerät eines Nutzers eingesetzt werden, z. B. ein Tabletcomputer. Die Kommunikationsverbindung kann dabei unmittelbar zwischen dem Tabletcomputer und einer Empfangseinrichtung des Fahrroboters 1 erfolgen oder auch über ein gemeinsam genutztes Kommunikationsnetz, beispielsweise ein WLAN (Wireless Lokal Area Network) - Netz, das auf dem Betrieb 2 verfügbar ist.
Nachdem der Fahrroboter 1 in die in Fig. 3a gezeigte Position gebracht ist, wird vom Nutzer ein Kommando ausgelöst, das den Fahrroboter 1 mithilfe der Reflektoren 29 in die Ladestation 28 navigiert, bis die in Fig. 3b dargestellte Positionierung des Fahrroboters 1 in der Ladestation 28 erreicht ist. Auf ein weiteres Kommando hin bewegt sich der Fahrroboter 1 - ggf. nach einem absolvierten Ladevorgang - unter Beibehaltung seiner Orientierung um eine definierte, ggf. in ihrer Länge wählbare Wegstrecke, die in den Figuren gestrichelt dargestellt ist, rückwärts aus der Ladestation heraus und nimmt so die in Fig. 3c dargestellte Position ein. Um diese Position ausgehend von der Ladestation 28 anzusteuern, kann beispielsweise Odometrie, Orientierung mit Hilfe eines Gyroskops und/oder Lokalisierung mithilfe der Reflektoren 29 genutzt werden.
Die so eingenommene Position stellt bei dem gezeigten Ausführungsbeispiel einen ersten ausgezeichneten Punkt dar, dessen Koordinaten in der Steuereinrichtung des Fahrroboters 1 abgespeichert werden. Die Koordinaten beziehen sich auf die vom Fahrroboter 1 erstellte Umgebungskarte. Dieser erste ausgezeichnete Punkt kann als eine Art Festpunkt für ein aufzubauendes Wegenetz 3 angesehen werden, da er konstruktiv durch die Positionierung der Ladestation 28 festliegt. Er wird daher nachfolgend auch als „Ankerpunkt 30“ bezeichnet. In einer alternativen Ausgestaltung des Verfahrens kann auch vorgesehen sein, dass der erste ausgezeichnete Punkt, der Ankerpunkt 30, auf die Position des Fahrroboters 1 in der Ladestation 28 gesetzt wird. Gleichzeitig stellt der Ankerpunkt 30 einen Startpunkt für die erste anzulernen- de Strecke des Wegenetzes 3 dar. Zur Definition der Strecke werden im Folgenden weitere ausgezeichnete Punkte auf dem Betrieb 2 durch den Nutzer mithilfe der Fernbedienung manuell angefahren, z. B. ein ausgezeichneter Punkt 30a, der sich vor einem ersten der Futterbunker 27 befindet und die Position darstellt, in der der Fahrroboter 1 Futter von diesem ersten Futterbunker 27 aufnehmen kann.
Die Position und Orientierung des Fahrroboters 1 vor dem ersten Futterbunker 27 wird in der vom Fahrroboter 1 geführten Karte als ausgezeichneter Punkt 30a vermerkt, wobei diesem ausgezeichneten Punkt bezeichnet, eine Information über die Funktion - hier die Aufnahme von Futter aus dem ersten Futterbunker 27 - zugeordnet wird. Ausgezeichnete Punkte, zu denen auch der Ankerpunkt 30 zählt, werden nachfolgend auch als POI (Point Of Interest) abgekürzt.
Auf gleiche Weise werden anschließend die weiteren Futterbunker 27 angefahren und entsprechende POI 30b-d in der Karte des Fahrroboters 1 definiert und zugeordnete Funktionen, die der Fahrroboter 1 an diesen Punkten ausführen kann, abgespeichert. Eine mögliche Sequenz von Funktionen lautet beispielsweise:
- Anhalten
- Mischeinrichtung starten
- Abfüllen von x kg Futter aus dem Futterbunker mit der Nummer y anfordern
- Abwarten, bis angeforderte Futtermenge abgefüllt ist
- Weiterfahren.
Dabei stellen x und y einzusetzende Parameterwerte dar, die in der Regel das übergeordnetes Betriebsmanagementsystem vorgibt. Neben einer Liste auszuführender Funktionen kann vorgesehen sein, auch komplexere Sequenzen zu definieren, z.B. um festzulegen, wie mit Fehlern umzugehen ist, wenn also z.B. kein oder zu wenig Futter vom Futterbunker abgegeben wird.
Es ergibt sich dann die in Fig. 3d dargestellte Situation, in der der Fahrroboter 1 vor dem linken Futterbunker 27 positioniert ist.
Während des Abfahrens der Strecke vom Startpunkt, dem Ankerpunkt 30, bis zu einem Endpunkt, dem POI 30d, werden nicht nur die POI 30a-d in die Karte aufgenommen, sondern eine Mehrzahl von Wegpunkten 31 , von denen beispielhaft nur zwei zwischen den POI 30a und 30b in der Fig. 3d markiert sind. Die Wegpunkte 31 sind Positionspunkte entlang der gefahrenen Strecke, die im Abstand von einigen Zentimetern (cm) bis hin zu etwa 20 cm erfasst und abgespeichert werden. Die Wegpunkte 31 definieren den Verlauf eines Wegelements 32, das den Verlauf des Wegs zwischen zwei benachbarten POI wieder- gibt. Die Aufzeichnung der Wegpunkte 31 ermöglicht ein genaues Abfahren der Wegelemente 32 und damit der angelernten Strecke. In dem Sinne stellen die POI ebenfalls Wegpunkte 31 dar, die allerdings insofern ausgezeichnet sind, dass die zuvor genannten auszuführenden Funktionen mit ihnen verknüpft werden können und dass Korrekturmöglichkeiten (siehe weiter unten) eingeschränkter sein können als bei den sonstigen, nicht ausgezeichneten Wegpunkten 31 .
Die Fernbedienung wird während des manuellen Abfahrens und Aufzeichnens der Strecke nur zum Steuern des Fahrroboters 1 genutzt und - dann bei stehendem Fahrroboter 1 - genutzt, um einen ausgezeichneten Punkt zu markieren und ggf. Aktionen zu definieren. Letzteres kann auch nachträglich erfolgen. Die Konzentration des Nutzers kann somit vollständig auf den Fahrroboter 1 und Abstände zu Hindernissen usw. gerichtet sein.
Bevor eine aufgezeichnete und durch Wegpunkte 31 bzw. POI 30, 30a-d spezifizierte Strecke autonom abgefahren werden kann, erfolgt erfindungsgemäß ein Validieren dieser Strecke durch ein bereits autonom gesteuertes Abfahren, das jedoch unter Aufsicht des Nutzers erfolgt. Erst wenn dieser Validierungsschritt für eine bestimmte Strecke oder einen Streckenabschnitt vorgenommen wurde, wird diese Strecke bzw. der Streckenabschnitt als autonom abfahrbar markiert und kann im Rahmen eines automatischen Navigationsverfahrens genutzt werden.
Die zuvor vorgegebene Strecke zwischen dem Ankerpunkt 30 und dem POI 30d ist zur Befahrung in beide Richtungen vorgesehen. Bei einer derartigen Strecke kann vorgesehen sein, dass ein Validieren auch in beide Fahrtrichtungen erfolgen muss. Alternativ kann auch vorgesehen sein, dass ein Validieren in einer Richtung ausreichend ist, wobei diese Richtung nicht zwingend die Richtung sein muss, in der das Vorgeben dieser Strecke erfolgt ist.
Es kann zudem vorgesehen sein, dass die zu validierende Strecke oder Abschnitte der zu validierenden Strecke zuvor überarbeitet werden. Durch die manuelle Steuerung beim Anlernen der Strecke können Schlenker o.ä. ungeplant vorgegeben werden, die zu einer nicht optimalen Streckenführung führen. Eine nicht optimale Streckenführung hat eine längere zurückgelegte Strecke zur Folge und führt zu eigentlich vermeidbaren Kurven-, Beschleunigungs- und Bremsaktionen, die Energie kosten und das Material des Fahrroboters 1 unnötig belasten.
Zum Korrigieren der Strecke kann in einer vorteilhaften Ausgestaltung des Verfahrens vor dem Validieren die aufgezeichnete Strecke des bislang erstellten Wegenetzes 3 auf einem Display, insbesondere einem Display der Fernbedienung des Fahrroboters 1 , angezeigt werden, wobei der Benutzer die Möglichkeit hat, Wegelemente 32 oder Wegpunkte 31 und Abschnitte von Wegelementen 32 zwischen POIs 30, 30a-d manuell oder automatisiert zu korrigieren. Auch ein manuelles Korrigieren von Koordinaten der POIs 30a-d kann vorgesehen sein.
Ein manuelles Korrigieren kann beispielsweise ein Verschieben eines Wegpunktes 31 bzw. eines POIs 30a-d beinhalten. Dabei kann vorgesehen sein, dass diese Verschiebung nur um eine bestimmte Distanz möglich ist, um der Gefahr vorzubeugen, durch ein Verschieben von Wegpunkten in den Bereich von Hindernissen zu gelangen. Bei den POIs 30a-d kann die maximal mögliche Verschiebung der Koordinaten strikter limitiert sein, um nicht Gefahr zu laufen, dass nach einer Verschiebung die zugeordnete Funktion (z.B. das Aufnehmen von Futter) beeinträchtigt ist. Weiter kann vorgesehen sein, dass Abstände zwischen den Wegpunkten 31 und Begrenzungen auf der Karte ermittelt werden und bestimmte Sicherheitsabstände zwischen Wegpunkten 31 und begrenzenden Objekten, z. B. den Mauern 22 oder den Stützpfeilern 23, beim Verschieben eingehalten werden müssen.
Neben einer manuellen Korrektur von Wegelementen 32 oder Teilen der Wegelemente 32 können auch automatisierte Korrekturmöglichkeiten vorhanden sein.
Eine Möglichkeit einer automatisierten Korrektur ist durch eine Glättungsfunktionen gegeben. Dabei werden Wegelemente 32 durch Filteralgorithmen, z.B. einen Tiefpassfilter, geglättet, um mögliche „Schlangenfahrten“ oder Schlenker zu reduzieren. Die Wegelemente 32 werden dadurch durch geglättete Kurven ersetzt, wobei bestimmte Randbedingungen, beispielsweise ein kontinuierliches, nicht abknickendes Anschließen an folgende oder vorausgehende Wegelemente 32 z.B. dadurch, dass Tangentensteigungen in den POIs 30, 30a-d beibehalten werden, berücksichtigt werden. Auch kann eine Obergrenze für eine maximale Verschiebung von Wegpunkten 31 , die sich aus der automatisierten Glättung ergibt, festgelegt sein.
Eine weitere Möglichkeit einer automatisierten Korrektur, die ebenfalls in einer Kurvenglättung resultiert, liegt in einer vollständigen Neuberechnung der Position der Wegpunkte 31 von Wegelemente 32 mithilfe von geeigneten parametrisch modellierten Kurven. Beispielsweise können Wegelemente 32 oder Teile von Wegelementen 32 durch sog. „Splines“ oder „Bezierkurven“ ersetzt werden. Splines und Bezierkurven sind mathematisch ermittelte Kurvenelemente, die sich aus Polynomfunktionen zusammensetzen. Wie bei der Glättung über eine Filterfunktion können auch bei der Glättung durch vollständig berechnete Wegpunkte bestimmte Randbedingungen, beispielsweise ein kontinuierliches, nicht abknickendes Anschließen an folgende oder vorausgehende Wegelemente 32, vorgesehen sein. Zudem kann auch hier vorgesehen sein, dass Mindestabstände zu begrenzenden Objekten, z. B. den Mauern 22 oder den Stützpfeilern 23, eingehalten werden, um Kollisionen zu verhindern und die Objekte korrekt zu umfahren. Zudem kann vorgesehen sein, dass bestimmte Wegpunkte 31 als unveränderbar angesehen werden, um manuell Einfluss auf die Streckführung nehmen zu können.
Im Ergebnis werden durch die manuelle oder durch eine der beschriebenen automatischen Korrekturen die Wegelemente 32 in geglättete Wegelemente 33 umgewandelt, wie es in Fig. 3e dargestellt ist.
Beim eigentlichen Validierungsschritt fährt der Fahrroboter 1 dann die aufgezeichnete und ggf. geglättete Wegstrecke zurück oder nochmals in Aufzeichnungsrichtung ab, wobei der Anwender abgefahrene Wegelemente 32 bestätigen muss. Dazu kann beispielsweise vorgesehen sein, dass das automatische Abfahren so lange vorgenommen wird, wie ein Taster an der Fernbedienung gedrückt gehalten wird. Jeder erneut abgefahrene Abschnitt wird als „erfolgreich validiert“ gekennzeichnet. Deutet sich beim Abfahren ein Problem an, kann der Nutzer den Taster loslassen, woraufhin der Fahrroboter 1 sofort stehen bleibt und vom Schritt des Validierens der Strecke erneut in den Schritt des Aufzeichnens durch manuelle Steuerung umschaltet. Auf diese Weise kann ei- ne Strecke oder zumindest ein Abschnitt davon dann erneut korrigiert vorgegeben werden.
Wird die Strecke vollständig durch Abfahren und Bestätigen validiert, steht sie danach für ein autonomes Abfahren zur Verfügung. Fig. 3f zeigt die Situation nach einer Validierung der geglätteten Wegelemente 33 nachdem der Fahrroboter 1 ausgehend von seiner Position auf dem POI 30d die Strecke zurück zum Ankerpunkt 30 zur Validierung des bis dahin eingelernten Wegenetzes 3 automatisiert abgefahren ist.
Fig. 4 zeigt, wiederum für den gesamten Bereich des Betriebs 2, wie das Wegenetz 3 um weitere Strecken in nachfolgenden weiteren Anlernphasen erweitert wird. Strecken führen dabei sowohl in den ersten Stall 20 als auch in den zweiten Stall 21 . Es werden dabei weitere ausgezeichnete Punkte 30e bis 30q definiert, die mit verschiedenen Aktionen verbunden sind. So stellt beispielsweise der POI 30e eine Verzweigung dar, an der die vom Ankerpunkt 30 ausgehende Strecke sich entweder in den ersten Stall 20 oder in den zweiten Stall 21 verzweigt.
Ein Navigationssystem kann das Wegelement 32 zwischen dem Ankerpunkt 30 und dem ausgezeichneten Punkt 30e für beide Navigationsaufgaben, also eine Fahrt in den ersten Stall 20 oder in den zweiten Stall 21 , nutzen. Eine weitere Verzweigung ist am POI 30f möglich, an dem insgesamt vier Wegelemente 32 zusammenlaufen.
Eine erste Möglichkeit ausgehend vom ausgezeichneten Punkt 30f verläuft über den POI 30g entlang des in der Fig. 4 oberen Tierbereichs 25 des ersten Stalls 20. Auf den sich zwischen dem ausgezeichneten Punkt 30g und einem ausgezeichneten Punkt 30h verlaufenden Wegelement 32 erfolgt eine Fütterung der sich im entsprechenden Tierbereich 25 befindenden Tiere. Dazu wird am ausgezeichneten Punkt 30g ein entsprechendes Kommando zum Auswerfen von Futter entlang dem Fressgitter 26 ausgegeben. Zudem senkt gegebenenfalls der Fahrroboter 1 seine Fahrgeschwindigkeit in diesem Bereich ab. Der Futterauswurf endet am POI 30h.
Vom ausgezeichneten Punkt 30f führt einen alternativ abfahrbares Wegelemente 32 zu einem ausgezeichneten Punkt 30j, bei dem eine Fütterung in dem in der Fig. 4 unteren Tierbereich 25 erfolgt. Der Weg entlang der des entsprechenden Fressgitters 26 endet am ausgezeichneten Punkt 30k. Von den Endpunkten des Futterauswurfs, den POI 30h bzw. 30k führen Wegelemente 32 zu einem ausgezeichneten Punkt 30i, an dem sich die Rückwege nach erfolgter Fütterung vereinigen. Von dem ausgezeichneten Punkt 30i führt ein weiteres Wegelement 32 zurück zum ausgezeichneten Punkt 30f, wobei sich das dazwischenliegende Wegelemente 32 beispielsweise durch eine höhere Fahrgeschwindigkeit auszeichnet, die mit entleertem Futterbehälter 111 des Fahrroboters 1 möglich ist.
In vergleichbarer Weise wie im ersten Stall 20 führen Wegelemente 32 ausgehend vom ausgezeichneten Punkt 30e in den zweiten Stall 21 . Hier ist ein Verzweigungspunkt als ausgezeichneter Punkt 30I definiert, von dem Wegelemente 32 über die ausgezeichneten Punkte 30m und 30n an dem in der Fig. 4 oberen Fressgitter 26 entlang führen und über ausgezeichnete Punkte 30p und 30q an dem in der Fig. 4 unteren Fressgitter 26 entlang führen. Wiederum ist mit einem ausgezeichneten Punkt 30o ein Vereinigungspunkt für Rückfahrten definiert, von dem aus eine schnellere Rückfahrt mit entleertem Futterbehälter 111 des Fahrroboters 1 möglich ist.
Die in der Fig. 4 gezeigten aufgezeichneten Wegelemente 32 können in einem nachfolgenden Schritt wiederum manuell und/oder automatisch geglättet werden (mithilfe von Filterfunktionen oder durch mathematisch beschriebene Wegelemente ersetzt), was beispielsweise zu dem in Fig. 5 gezeigten Wegenetz 3 führt, in dem alle oder einige der Wegelemente 32 durch geglättete Wegelemente 33 ersetzt sind.
Nachfolgend erfolgt für die aufgezeichneten Wegelemente 32 und gegebenenfalls die geglätteten Wegelemente 33 eine Validierungsfahrt, bei der der Fahrroboter 1 die Wegelemente 32, 33 abfährt und dann als autonom nutzbar gekennzeichnet, wenn sie vom Benutzer bestätigt werden. Insbesondere entlang der Fressgitter 26 ist eine Begradigung der Wegelemente 32 sinnvoll, um sicherzustellen, dass Futter in einem definierten und gleich bleibenden Abstand zum Fressgitter 26 ausgeworfen bzw. angeschoben wird.
Wie zuvor beschrieben, erfolgt während des Anlernens der Strecken, also während einem Vorgeben der Wegelemente 32 durch das manuelle Abfahren keine den Nutzer ablenken Darstellung von Zusatzinformationen, beispielsweise gemessenen Abständen zu Hindernissen, auf der Fernbedienung des Benutzers. Allerdings kann sowohl während des Anlernens als auch während des Validie- rens vorgesehen sein, ein Unterschreiten von Sicherheitsabständen zu detek- tierten Hindernissen durch ein akustisches und/oder optisches Warnsignal am Fahrroboter 1 selbst zu signalisieren. Dieses verhindert eventuelle Kollisionen, ohne die Aufmerksamkeit des Benutzers von der Position und der Bewegung des Fahrroboters 1 abzulenken.
Es kann vorgesehen sein, dass ein Bestätigen eines Wegelements 32 oder eines Streckenabschnitts, umfassend mehrere Wegelemente 32, oder der gesamten Strecke aktiv durch eine Aktion des Benutzers erfolgt. Alternativ kann vorgesehen sein, dass eine Bestätigung angenommen wird, wenn bei der Validierungsfahrt kein Eingriff des Benutzers dahingehend erfolgt, dass er die abgefahrene Strecke abändert oder den Fahrroboter 1 stoppt.
Bezugszeichenliste
1 Fahrroboter
10 Fahrtrichtung
100 Fahrgestell
101 Antriebsrad
102 Schwenkrad
103 Schürze (Futterschieber)
104 Stoßstange
110 Aufbau
111 Futterbehälter
112 Mischeinrichtung
113 Futterförderer
114 Verkleidungsplatten
115 Ladekontakte
116 Bedien- und/oder Anzeigeelemente
117 Lidar-Sensor
118 Ultraschallsensor
2 Betrieb
20 erster Stall
21 zweiter Stall
22 Mauer
23 Stützpfeiler
24 Tor
25 Tierbereich
26 Fressgitter
27 Futterbunker
28 Ladestation
29 Reflektoren
3 Wegenetz
30, 30a-q ausgezeichneter Punkt (POI)
31 Wegpunkt
32 Wegelement
33 geglättetes Wegelement

Claims

Ansprüche
1 . Verfahren zum Anlernen einer Fahrstrecke eines autonom fahrenden landwirtschaftlichen Fahrroboters (1 ), aufweisend die folgenden Schritte:
- Bereitstellen einer Umgebungskarte;
- Abfahren einer Strecke, die im Bereich der Umgebungskarte liegt, von einem Startpunkt bis zu einem Endpunkt durch ein manuelles Steuern des Fahrroboters (1 );
- Lokalisieren des Fahrroboters (1 ) während des Abfahrens der Strecke mithilfe von mindestens einem an dem Fahrroboter (1 ) angeordneten Sensor;
- Aufzeichnen von Koordinaten von Wegpunkten (31 ) entlang der Strecke basierend auf der erfolgten Lokalisierung;
- Validieren der Route durch autonomes Abfahren der Strecke unter Berücksichtigung der gespeicherten Koordinaten der Wegpunkte (31 ), wobei die Strecke manuell bestätigt wird;
- Kennzeichnen der bestätigten Strecke als autonom abfahrbar.
2. Verfahren nach Anspruch 1 , bei dem vor dem Schritt des Validierens der Fahrroboter (1 ) manuell zurück zu dem Startpunkt gesteuert wird und in dem Schritt des Validierens die Strecke in derselben Richtung autonom abgefahren wird, in der sie in dem Schritt des manuellen Abfahrens vorgegeben wurde.
3. Verfahren nach Anspruch 1 oder 2, bei dem in dem Schritt des Validierens die Strecke in einer Richtung autonom abgefahren wird, die entgegengesetzt zu der Richtung ist, in der die Strecke in dem Schritt des manuellen Abfahrens vorgegeben wurde.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die Strecke abschnittsweise bestätigt wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem der Fahrroboter (1 ) beim Abfahren der Strecke manuell über eine Fernbedienung gesteuert wird.
6. Verfahren nach Anspruch 5, bei dem die Fernbedienung drahtlos mit einer Steuereinrichtung des Fahrroboters (1 ) gekoppelt ist. Verfahren nach einem der Ansprüche 1 bis 6, bei dem die Strecke oder ein Streckenabschnitt als bestätigt angesehen wird, wenn vom Benutzer aktiv eine Aktion während des Schritts des Validierens erfolgt. Verfahren nach Anspruch 5 und 7, bei dem die Aktion ein Betätigen eines Bedienelements an der Fernbedienung ist. Verfahren nach einem der Ansprüche 1 bis 6, bei dem die Strecke oder ein Streckenabschnitt als bestätigt angesehen wird, wenn vom Benutzer während des Schritts des Validierens kein Eingriff durch den Benutzer erfolgt, der die Bewegung des Fahrroboters (1 ) korrigiert oder stoppt. Verfahren nach einem der Ansprüche 1 bis 9, bei dem während des manuell kontrollierten und/oder des automatischen Abfahrens der Strecke, über mindestens einen Distanzsensor eine Distanz zu einem umgebenden Objekt gemessen wird. Verfahren nach Anspruch 10, bei dem die Distanz zu dem umgebenden Objekt mit einem Sicherheitsabstand verglichen wird und bei einem Unterschreiten des Sicherheitsabstands eine akustische und/oder optische Warnung ausgegeben wird. Verfahren nach einem der Ansprüche 1 bis 11 , bei dem während des manuellen Abfahrens der Strecke bei stehendem Fahrroboter (1) mindestens ein ausgezeichneter Punkt (30, 30a-q) vom Benutzer definiert werden kann. Verfahren nach Anspruch 12, bei dem dem Fahrroboter (1 ) an dem ausgezeichneten Punkt (30, 30a-q) eine oder mehrere auszuführende Funktionen) zuordbar sind. Verfahren nach Anspruch 12 oder 13, bei dem ein ausgezeichneter Punkt (30, 30a-q) den Start- oder Endpunkt von mindestens einer Strecke darstellen kann. Verfahren nach einem der Ansprüche 1 bis 14, bei dem die Strecke vor dem Schritt des Validierens ganz oder abschnittsweise manuell vom Be- nutzer abgeändert wird, indem die Koordinaten der Wegpunkte (31 ) geändert werden. Verfahren nach einem der Ansprüche 1 bis 14, bei dem die Strecke vor dem Schritt des Validierens ganz oder abschnittsweise automatisiert abgeändert wird, indem die Koordinaten der Wegpunkte (31 ) geändert werden, um einen Verlauf der Strecke ganz oder abschnittsweise zu glätten. Verfahren nach Anspruch 16, bei dem Wegelemente (32), die mehrere benachbarte Wegpunkte (31 ) umfassen, durch mathematische Funktionen in geglättete Wegelemente (33) transformiert werden. Verfahren nach einem der Ansprüche 15 bis 17, bei dem einschränkende Randbedingungen für das Abändern der Koordinaten der Wegpunkte (31 ) vorgegeben sind. System, umfassend einen landwirtschaftlichen Fahrroboter (1 ) mit einer Steuereinrichtung zum autonomen Fahren und eine mit der Steuereinrichtung gekoppelte Fernbedienung zum manuellen Steuern des Fahrroboters (1 ), dadurch gekennzeichnet, dass die Steuereinrichtung zur Durchführung eines Verfahrens gemäß den vorstehenden Ansprüchen eingerichtet ist.
EP23734178.9A 2022-06-23 2023-06-16 Verfahren und system zum anlernen einer fahrstrecke eines autonom fahrenden landwirtschaftlichen fahrroboters Pending EP4544366A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022115706.7A DE102022115706A1 (de) 2022-06-23 2022-06-23 Verfahren und System zum Anlernen einer Fahrstrecke eines autonom fahrenden landwirtschaftlichen Fahrroboters
PCT/EP2023/066202 WO2023247340A1 (de) 2022-06-23 2023-06-16 Verfahren und system zum anlernen einer fahrstrecke eines autonom fahrenden landwirtschaftlichen fahrroboters

Publications (1)

Publication Number Publication Date
EP4544366A1 true EP4544366A1 (de) 2025-04-30

Family

ID=87047872

Family Applications (1)

Application Number Title Priority Date Filing Date
EP23734178.9A Pending EP4544366A1 (de) 2022-06-23 2023-06-16 Verfahren und system zum anlernen einer fahrstrecke eines autonom fahrenden landwirtschaftlichen fahrroboters

Country Status (6)

Country Link
US (1) US20250377661A1 (de)
EP (1) EP4544366A1 (de)
JP (1) JP2025522548A (de)
CA (1) CA3259739A1 (de)
DE (1) DE102022115706A1 (de)
WO (1) WO2023247340A1 (de)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL1033349C2 (nl) 2007-02-06 2008-08-07 Maasland Nv Voerwagen voor het voeren van dieren zoals koeien.
EP2878193A1 (de) * 2013-11-27 2015-06-03 Dansk Mink Papir A/S Motorisiertes Zuführungsfahrzeug
US10328573B2 (en) 2015-01-06 2019-06-25 Discovery Robotics Robotic platform with teach-repeat mode
NL2017645B1 (en) 2016-10-20 2018-04-26 Lely Patent Nv Animal farm system and method of generating barn map information of said animal farm system
US10795372B2 (en) * 2017-06-27 2020-10-06 Deere & Company Automatic end of row turning control system for a work vehicle by learning from operator
US11277956B2 (en) 2018-07-26 2022-03-22 Bear Flag Robotics, Inc. Vehicle controllers for agricultural and industrial applications
US20210064050A1 (en) * 2019-08-30 2021-03-04 Deere & Company Methods and apparatus to record and execute mission plan

Also Published As

Publication number Publication date
JP2025522548A (ja) 2025-07-15
DE102022115706A1 (de) 2023-12-28
CA3259739A1 (en) 2025-03-28
US20250377661A1 (en) 2025-12-11
WO2023247340A1 (de) 2023-12-28

Similar Documents

Publication Publication Date Title
EP2818954B1 (de) Verfahren zum Planen einer virtuellen Spur, fahrerloses Transportfahrzeug mit einer Steuervorrichtung zur Unterstützung des entsprecheden Planungsverfahrens
EP3023004B1 (de) Futtermischwagen und verfahren zur steuerung eines futtermischwagens
EP2786325B1 (de) Verfahren und vorrichtung zum koordinieren einer transportlogistik sowie transportlogistiksystem
EP3703902B1 (de) Fördersystem und verfahren zum gleichzeitigen transport von werkstücken und werkern
BE1020086A3 (de) Anordnung und verfahren zur abschätzung des füllgrades beim überladen landwirtschaftlichen ernteguts von einer erntemaschine auf ein transportfahrzeug.
EP2752726B1 (de) Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen
EP2452551B1 (de) Steueranordnung zur Kontrolle des Überladens landwirtschaftlichen Ernteguts von einer Erntemaschine auf ein Transportfahrzeug
DE69525931T2 (de) Futterwagen
DE10064862A1 (de) Vorrichtung und Verfahren zur Koordination und Einstellung von landwirtschaftlichen Fahrzeugen
DE102005050310A1 (de) Systeme und Verfahren zum Steuern eines Fahrzeuges
EP3416019B1 (de) System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
WO2022268779A2 (de) Steuervorrichtung für ein selbstfahrendes transportfahrzeug, transportfahrzeug mit einer solchen steuervorrichtung, fahrzeugflotte mit und verfahren zum betreiben von einer mehrzahl von transportfahrzeugen
DE102019111317A1 (de) Autonome landwirtschaftliche Arbeitsmaschine und Verfahren zu deren Betrieb
EP3510859A1 (de) Steuerungsverfahren für eine fütterungsmaschine
DE102019203200A1 (de) Steuersystem für ein fahrerloses Transportfahrzeug
EP4544366A1 (de) Verfahren und system zum anlernen einer fahrstrecke eines autonom fahrenden landwirtschaftlichen fahrroboters
EP2260692A1 (de) System und Vorrichtung zur Automatisierung der Ernte in Baumkulturen
WO2025087917A1 (de) Landwirtschaftlicher fahrroboter
DE102020132038A1 (de) Bedienerschnittstelle für eine autonome Maschine
DE202024104110U1 (de) Autonome Arbeitsvorrichtung und zugehöriges System
DE102024200501B4 (de) Verfahren zum automatisierten Fahren eines fahrerlosen Transportfahrzeugs und fahrerloses Transportfahrzeug
WO2023094226A1 (de) Fahrroboter für landwirtschaftliche aufgaben
DE112022006133T5 (de) Verbesserte navigation für ein roboterarbeitswerkzeugsystem
DE102024116062A1 (de) Systeme und verfahren zur geländeentfernungssteuerung
DE102023120908A1 (de) Verfahren zur Befüllung eines Futtermischwagens

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20250107

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC ME MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)