WO2022162246A1 - Système et procédé informatisé d'interprétation de données de localisation d'au moins un travailleur agricole, et programme d'ordinateur - Google Patents

Système et procédé informatisé d'interprétation de données de localisation d'au moins un travailleur agricole, et programme d'ordinateur Download PDF

Info

Publication number
WO2022162246A1
WO2022162246A1 PCT/EP2022/052371 EP2022052371W WO2022162246A1 WO 2022162246 A1 WO2022162246 A1 WO 2022162246A1 EP 2022052371 W EP2022052371 W EP 2022052371W WO 2022162246 A1 WO2022162246 A1 WO 2022162246A1
Authority
WO
WIPO (PCT)
Prior art keywords
agricultural
data
task
temporal
computerized
Prior art date
Application number
PCT/EP2022/052371
Other languages
English (en)
Inventor
Armand SACHOT
Matthieu CARPENTIER
Simon DENONNAIN
Original Assignee
Aptimiz
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR2100930A external-priority patent/FR3110042B1/fr
Application filed by Aptimiz filed Critical Aptimiz
Priority to CA3206924A priority Critical patent/CA3206924A1/fr
Priority to AU2022212646A priority patent/AU2022212646A1/en
Priority to EP22702977.4A priority patent/EP4285614A1/fr
Publication of WO2022162246A1 publication Critical patent/WO2022162246A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B76/00Parts, details or accessories of agricultural machines or implements, not provided for in groups A01B51/00 - A01B75/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06314Calendaring for a resource
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06316Sequencing of tasks or work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs

Definitions

  • the present invention relates to methods for interpreting farm worker location data.
  • This document describes the definition of a field from GPS data of the corners of the field. Then, it describes the measurement of the position of a worker by means of a GPS, and the attribution of the position to the presence in a field, by comparison with the coordinates defined for this field. This information is used to fill in the worker's agenda.
  • the data is interpreted by a fuzzy logic algorithm, which associates certain measured data, depending on the date, with an agricultural task, for example "planting rice” associated with the fact that one is in June, and the farm worker is working at 0.41 m/s, with an efficiency of 5.8 a/h, and a field efficiency of 65%.
  • a fuzzy logic algorithm which associates certain measured data, depending on the date, with an agricultural task, for example "planting rice” associated with the fact that one is in June, and the farm worker is working at 0.41 m/s, with an efficiency of 5.8 a/h, and a field efficiency of 65%.
  • the invention relates to a computerized process for interpreting location data of at least one agricultural worker, in which: - a database of agricultural activities is provided comprising, for each agricultural activity, a diary of at least two agricultural tasks, each agricultural task being characterized by a location identifier and a position in the diary,
  • an agricultural exploitation database comprising at least one agricultural parcel characterized by a location identifier and a location,
  • a computerized interpretation module associates said temporal zoning data with an agricultural task by means of said temporal zoning data and said databases of agricultural activities and agricultural exploitation.
  • the recognition of an agricultural task is based on a priori knowledge of the agricultural activities including agricultural tasks, which makes it possible to increase the rate of recognition of the agricultural task.
  • the interpretation module applies a classifier relating to the agricultural activities defined for the agricultural holding and/or a classifier relating to the agricultural activities defined for a set of agricultural holdings and, in the case where the two classifiers are applied, the interpretation module selects an agricultural task from the results of the two classifiers.
  • the computerized interpretation module associates the temporal zoning data of the agricultural worker with an agricultural task by means, in addition, of the temporal zoning data of the agricultural machine.
  • the computerized interpretation module associates the agricultural worker's temporal zoning data with an agricultural task by also means of meteorological data relating to the agricultural operation obtained from a meteorological database.
  • the method further comprises an update of the database of agricultural activities from at least the interpreted location data.
  • the invention provides a method according to the invention in which the computerized interpretation module associates said time zoning data with an agricultural task using said temporal zoning data and said agricultural activity and farming databases according to the following steps:
  • the computerized interpretation module constructs an image for a determined agricultural parcel from the temporal zoning data and said databases of agricultural activities and agricultural exploitation,
  • the computerized interpretation module associates the constructed image with an agricultural task carried out in the agricultural plot using a convolutional neural network.
  • the constructed image comprises a trace formed by the temporal zoning data and at least one geometric primitive parameterized according to the temporal zoning data data and said databases of agricultural activities and 'agricultural exploitation ; at least one intensity of the image being determined from the temporal zoning data and the agricultural and farm activity databases.
  • the computerized interpretation module encodes at least one piece of information on one layer of a plurality of layers forming the image, this at least one piece of information being derived from or deduced from time zoning data and databases. farming and farming activity data,
  • the encoded information can be expected to be:
  • the computerized interpretation module can be expected to train the convolutional neural network with images associated with: - an agricultural task from the database of agricultural activities of a farm of the user or external farms,
  • the invention relates to a computer program comprising program code instructions for the execution of the steps of this method when said program is executed on a computer.
  • the invention relates to a computerized system for interpreting location data of at least one agricultural worker comprising a computerized interpretation module suitable for associating temporal zoning data of at least an agricultural worker received from a portable electronic device communicating from the agricultural worker to an agricultural task by means of an agricultural activity database comprising, for each agricultural activity, a diary of at least two agricultural tasks, each agricultural task being characterized by a location identifier and a position in the diary and an agricultural exploitation database comprising at least one agricultural parcel characterized by a location identifier and a location.
  • the computerized system further comprises at least one portable electronic communicating device of the agricultural worker adapted to communicate time zoning data of the agricultural worker to the computerized interpretation module.
  • the computerized system further comprises a communicating portable electronic device of an agricultural machine suitable for communicating time zoning data of the agricultural machine, and the computerized interpretation module is suitable for associating data from time zoning of the agricultural worker further from the time zoning data of the agricultural machine.
  • FIG. 1 shows a top view of a cartography of a farm.
  • FIG. 2 is a "smartphone" screenshot showing the user system at rest.
  • FIG. 3 represents a same “smartphone” screenshot showing the active user system.
  • FIG. 4 represents a first screen of the supervision interface.
  • FIG. 5 presents a second screen of the supervision interface.
  • FIG. 6 schematically represents a system according to one embodiment of the invention.
  • FIG. 7 schematically represents a data processing architecture according to one embodiment.
  • FIG. 10 represents an example of results of classification of an agricultural task by the computerized interpretation module during the training phase of the convolutional neural network.
  • FIG. 11 represents an example of results of classification of an agricultural task by the computerized interpretation module once the convolutional neural network has been trained
  • FIG. 12 represents a second screen of results of association of temporal zoning data with an agricultural task
  • FIG. 13 represents an example of temporal zoning data collected and interpreted into an agricultural task.
  • Agricultural means any activity relating to the cultivation of plants or the raising of animals, including forestry, oyster farming, myciculture, shellfish farming, mussel farming, or snail farming.
  • the system comprises a central server 7 exchanging with several types of remote computer stations 4, 21 via a network 16 such as, for example, the Internet network.
  • Computer station 4 is a stand-alone portable device. It can for example be a computerized mobile phone of a user, commonly designated by the Anglicism
  • Such a “smartphone” comprises a processor 22.
  • the processor 22 is suitable for executing computer programs residents of the computer station 4, and in particular the computer program which will be described in more detail below.
  • the "smartphone” also includes a memory 14, in which can be stored a certain amount of information accessible by the processor 22.
  • the “smartphone” still has a man-machine interface 8 allowing a user to interact with the “smartphone”.
  • the man-machine interface 8 comprises for example a screen allowing information to be displayed to the user, and a keyboard, allowing the user to enter information intended for the “smartphone”.
  • the information entered can be stored in the memory 4. If necessary, these two functionalities are grouped together in the form of a touch screen 9 superimposing the display and the entry of information.
  • the “smartphone” still has a clock 12 giving the time.
  • Clock data can be stored in memory 14.
  • the “smartphone” also has a geolocation module 13.
  • a geolocation module 13 is for example a system based on satellite positioning technology generally referred to as “GPS”, an acronym for the designation English “Ground Positioning System”, or “Système de position au sol”, in French.
  • GPS satellite positioning technology
  • Such a system is based on a chip which receives information from several satellites in geostationary orbit, and is capable of determining its position on the ground by triangulation from the information received from the satellites. The determined position or location is stored in memory 14.
  • the "smartphone” also has a communication module 15, allowing the “smartphone” to communicate with the outside world, and in particular with the server 7, via a network 16. It can be act of a wireless communication module, or a wired communication module.
  • the communication module 15 can, if necessary, communicate with the server 7 via the network 16 via a router 17.
  • the server 7 is a computer server which includes a processor 23 capable of executing one or more computer programs.
  • the server 7 notably comprises a communication module 6 adapted to communicate with the “smartphone”. Communication with the “smartphone” is two-way, but the transfer of information is done rather in the direction going from the “smartphone” to the server 7.
  • the server 7 also accesses a database 5 in which are stored maps of the farms concerned by the service, which are defined in the manner described below.
  • the database 5 stores the data, whether processed or not, coming from the various “smartphones”.
  • the database 5 also stores association information from the various “smartphones” to one or more farms.
  • the database 5 also includes models of agricultural activities specific to the agricultural operation.
  • the server 7 includes a processing module 18.
  • the processing module 18 is adapted to process the data received from the “smartphone”, according to pre-established methods which will be described below.
  • the data stored in the database 5 can comprise raw data as received from the “smartphones”, and processed data resulting from the processing of the raw data by the processing module 18. If necessary, the exploitations are distributed over multiple servers.
  • the system may also include a personal microcomputer 21.
  • the personal microcomputer 21 is distinct from the “smartphone”. That said, in some cases, depending on the authorizations, a "smartphone" can be used to implement the functions provided by the microcomputer 21, and it can even be the same
  • “smartphone” as the one used for the measurement of location data at a time.
  • the personal microcomputer 21 includes a processor 24.
  • the processor 24 is adapted to execute computer programs resident on the personal microcomputer 21.
  • one of the computer programs in question is a network browser .
  • the personal microcomputer 21 also includes a man-machine interface 25, such as a screen and a keyboard and/or a mouse.
  • the personal microcomputer 21 includes a communication module 26 allowing it to communicate with the server 7 via the network 16.
  • the network browser of the personal microcomputer 21 provides access to an Internet page stored on the server 7, and providing the personal microcomputer 21 with structured information developed by the processing module 18 from the data received from the different “smartphones”.
  • the farm is mapped. It will be noted that the system can integrate several farms for the same user. In the following example, we describe the mapping of a farm, the configuration and the implementation for another farm of the same user being similar. In case of multiple operators, the server operates in parallel for each of the operators according to the functionalities below.
  • the mapping of the farm includes a plurality of adjacent and/or disjoint agricultural plots 1.
  • An agricultural parcel is generally polygonal, being bordered by rectilinear objects such as roads, hedges, etc..., or partially polygonal, when it is partially bordered by a natural element such as a wood, a watercourse or a body of water.
  • the agricultural plot may in particular be a field dedicated to the cultivation of one or more plants, or a livestock plot.
  • the agricultural plot may or may not include a building.
  • the agricultural parcel is defined by its coordinates, in particular by the coordinates of the points of its perimeter or of certain remarkable points of its perimeter (corners).
  • the coordinates in question can be defined in a geolocated system, such as the so-called “GPS” system, acronym for the English name “Ground Positioning System”.
  • Each agricultural parcel is also characterized by an identifier configured by the user, such as, for example, an integer, or a character string, for example “Field 1; Field 2; Field 3; ... Breeding 1; ...”.
  • the areas defined by the agricultural parcels taken together do not cover the entire surface. Indeed, in this area, there are also portions which do not correspond to agricultural plots such as, in particular, roads or paths, unexploited natural objects such as stretches of water, watercourses, unexploited woods, and unexploited buildings.
  • the complementary zones 2 of the zones defined by the agricultural parcels taken together are characterized together by an identifier, such as, for example, "outside the parcel zones”.
  • an identifier such as, for example, "outside the parcel zones”.
  • outside plot areas we therefore refer to any point outside an agricultural plot as defined above.
  • the combination of zones 1 of agricultural parcels and zones 2 "outside the parcel zone” paves the ground, within the meaning of the mathematical definition of "paving”.
  • the configuration also includes the definition of one or more particular zones 3 associated with the agricultural operation. These particular zones are for example defined by geometric primitives independently of the topology of the ground. According to a example, a particular area is defined as a circle of configurable radius, centered on a particular point on the map. Other examples may include polygons of parameterizable size.
  • the particular zone is also characterized by an identifier. For example, a particular zone 3 is defined around the farm office, and is characterized by the identifier “Headquarters”.
  • zone 3 may, where appropriate, cover one or more zones defined by an agricultural parcel 1 , or a zone 2 identified as "outside parcel zones”.
  • the installation further includes the configuration of portable systems 4 of the users.
  • one user is described, but the configuration can also be carried out for several users on the same farm, or on various farms gathered in the same service.
  • the user can be the operator. Alternatively, or in addition, a user can be an agricultural worker who is not the operator.
  • the portable system 4 is a user's smart phone (referred to as a "smartphone").
  • the “smartphone” is identified by an identifier which can, for example, be the call number of the “smartphone”. However, another identifier can be used, if necessary. The identifier is thus attached to the farm being configured.
  • An agricultural activity is defined as a set of agricultural tasks.
  • the agricultural tasks of an agricultural activity are distributed according to a schedule.
  • Each agricultural task can be characterized by one and/or other of the following characteristics: an identifier, a duration, an agricultural plot identifier, a start time, an end time, a user identifier.
  • an agricultural task “Pickup of female turkeys” is defined as being a task lasting eighteen hours, taking place in a “Breeding” place.
  • an agricultural task “Unloading turkeys” is defined as being a task lasting 1 hour taking place in a place “Breeding”.
  • An agricultural activity is defined from a plurality of agricultural tasks as defined above, distributed according to a schedule. For example, we can provide an agricultural activity, bearing the identifier “Elevage Dindes”, comprising an agricultural task
  • the agricultural tasks of an agricultural activity can also be linked by their location.
  • the "Livestock” of the agricultural step “Turkey female pickup” is the same agricultural parcel identifier as the “Breeding” of the “Turkey unloading” agricultural step.
  • the agricultural holding includes several agricultural plots of the “Livestock” type, the agricultural activity “Breeding Turkeys” can be assigned to the agricultural plot “Breeding 1”, in which case the corresponding agricultural tasks are assigned to the agricultural plot “Breeding 1 ".
  • An agricultural activity may thus include at least two agricultural tasks, as defined above, and typically at least five, or even at least ten agricultural tasks, as defined above.
  • An agricultural activity can thus be represented, from a mathematical point of view, as a time series, i.e. for example a matrix comprising a certain number of vectors (“task identifier”; “plot ”), each vector corresponding to a time slice.
  • a time series i.e. for example a matrix comprising a certain number of vectors (“task identifier”; “plot ”), each vector corresponding to a time slice.
  • agricultural activities are defined, for example from predefined models of agricultural activities.
  • an agricultural activity can be made specific to a farm by adjusting an agricultural stage, or by adjusting a relationship between agricultural stages of the same agricultural activity, for example an adjusted calendar compared to that of the model.
  • the database 5 is configured to be able to receive and store information relating to the "smartphone", received by the communication module 6 from the central server 7.
  • the “smartphone” contains a computer program relating to the service. If this computer program is not installed on the
  • the commissioning button 11 of the computer program is automatically switched to "on", or the user controls this switch to "on” by an action, and the screen is then as represented in FIG. 3 according to an exemplary embodiment.
  • the fact that the geolocation is in "on” mode is displayed on the screen of the "smartphone” by any appropriate means.
  • the time supplied by clock 12 at this instant is recorded in the memory of the “smartphone”.
  • the service requires the geolocation module 13 of the “smartphone” to be active. If necessary, the computer program checks that the geolocation module 13 of the “smartphone” is active and, failing that, informs the user or guides him to activate his geolocation module 13.
  • the geolocation module 13 geolocates the “smartphone”.
  • the location information of the “smartphone”, as well as the instant associated with this geolocation, determined by the clock 12 of the “smartphone”, are stored in the memory 14 of the “smartphone”. This step is for example implemented every second, every 10 seconds, every minute, or every 2 minutes.
  • the user who is also the operator, switched the geolocation to "on" mode after his breakfast, which he took at his home, which is also the head office. of operation. He puts his “smartphone” in his pocket. He starts his day at the office for administrative procedures.
  • the computer program can offer to cut off the geolocation module 13 of the “smartphone” and inform the user of this, or guide him to deactivate his geolocation module 13.
  • the start and end of operation can be automatic, based on a pre-programmed start and end time via an interface.
  • This communication is less frequent than the determination of geolocation, for example at least ten times less frequent. It is for example carried out once per hour, twice per day, or once per day. For example, it can be provided that it is carried out after the geolocation has been stopped at the end of the day by the user.
  • the communication can for example take place when the “smartphone” finds to be in a coverage area of a network 16 allowing this communication. As an alternative or in addition, the communication can for example take place when the “smartphone” is placed in wired or wireless communication with a local router 17 having means of communication to the server 7.
  • the data communicated includes the identifier of the “smartphone” as well as the associated location data and clock data.
  • the data received by the communication module 6 from the server 7 is stored in the database 5. According to one embodiment, the “smartphone” does not carry out any pre-processing, so as to save battery power.
  • the processing module 18 of the server 7 will process the data associated with the identifier.
  • data is filtered prior to processing. It is possible to implement a computerized pre-processing module 27 which applies an extended Kalman filter.
  • the identifier is associated with one or more farms.
  • the location of the user can therefore be determined by comparing the location measured with the locations of the areas of the operation.
  • the processing module 18 is able to identify an area within which the location of the user is located.
  • a duration will be assigned to an area from the moment a sufficient number of consecutive location data are within the same area.
  • the sufficient number can be determined either by a predefined number of measuring points or by a minimum duration. As an example, it is defined that 5 successive measurement points in the same zone are necessary before the processing module 18 considers that the measurement points belong to the same zone. Alternatively, 10 successive measurement points in the same area are required to confirm the area.
  • the time spent in the zone is then calculated as the difference between the last instant spent in the zone and the first instant spent in the zone, and this duration is recorded associated with the identifier of the zone.
  • Location data may also be processed to determine a type of user movement within the parcel. For example, according to the instantaneous speed of movement, and by comparison with pre-established models, one can assign the type of travel to an entry from a possible list of travel modes, which can include the entries "pedestrian”, “tractor”, “car”, ...
  • the zone in question can be an agricultural parcel 1, or can be a zone 2 called "outside the parcel zones", in particular if the user spends time outside the farm (visiting a supplier outside the operation, or time spent on the road, for example).
  • the processing module also determines time durations in transport zones by taking into account a succession of locations detected in different predefined zones.
  • the processing module has determined a first duration of time in a first zone of agricultural parcel 1 or particular 3 "Headquarters”, and a second duration of time in a second zone of agricultural parcel 1 or particular 3 " Seat”, spaced between them by a certain duration of time in a zone 2 “outside plot zones”, said certain duration of time “outside plot zones” is determined as travel time.
  • travel times are counted only if they correspond to transport related to the professional activity. Travel times that are not related to the professional activity are not counted. In particular, the transport times between a first agricultural parcel zone and a second agricultural parcel zone are counted. Also counted are transport times towards an agricultural parcel area from an area outside an agricultural parcel or from the head office, or from an area outside an agricultural parcel or from the head office to an area of an agricultural parcel. In particular, trips between an area outside the agricultural plot or the head office and an area outside the agricultural plot and the head office are not counted.
  • the processing module determines pause time durations, corresponding to time durations where the “smartphone” is stationary, “stationary” being defined by reference to a predefined minimum of movement. This period of time of immobility is then not counted in the time spent in a zone corresponding to an agricultural parcel 1.
  • the processing module 18 determines a time spent at the headquarters, a time spent in field #7, a time spent in field #3, a time spent in poultry farming #2, a transport time, and a time spent outside plot areas, as well as the start and end of each interval.
  • the interpretation stage is implemented every day. It can be implemented each time the reception of location data indicates that a user has changed agricultural plots. This will be the case in particular if each task of an agricultural activity is associated with a single plot.
  • the interpretation stage is implemented at a time when one already has a pre-populated calendar of agricultural tasks performed by users, as determined by previous implementations of the system. interpretation stage.
  • the interpretation step comprises a classification of the temporal location data received, and an association of this data with an agricultural task.
  • the association with an agricultural task is done for example by identifying a probable agricultural task corresponding to the temporal location data, and in particular a most probable agricultural task.
  • This association is made by a computerized interpretation module 28 which digitally processes the temporal location data, the pre-filled calendars, and the agricultural activities defined for the farm.
  • location data of the type: User #2 stayed between 8:17 a.m. and 12:14 p.m. in the agricultural plot "Elevage Dindes 3" can be processed as: Mr. Pierre Morin carried out between 8:17 a.m. and 12:14 p.m., i.e. for 3:57 a.m., the “Pickup Female Turkeys” stage in the agricultural plot “Elevage Dindes 3”.
  • Mr. Pierre Morin carried out between 8:17 a.m. and 12:14 p.m., i.e. for 3:57 a.m., the “Pickup Female Turkeys” stage in the agricultural plot “Elevage Dindes 3”.
  • This classification is made possible by the fact that, in the database, the identifier of the "smartphone" of user #2 is associated with "Mr.
  • the likely farm task search matching the temporal location data may use interpreted or uninterpreted data associated with farm tasks, farm parcels, users, farm activities, and/or calendars.
  • the computerized interpretation module 28 determines a most probable agricultural task for the temporal location data. For example, the computerized interpretation module determines, for a plurality of candidate agricultural tasks selected from among the available agricultural tasks, a distance between the agricultural activity model comprising this available agricultural task and agricultural activities constituted from the past agricultural tasks and information obtained via the time location data.
  • the distance in question can be any suitable distance.
  • temporal location data may only have a loose correlation with modeled agricultural activities. This may be the case in particular if the user starts a farming task earlier than expected in the farming activity models (for example to anticipate the fact that he will not be able to complete the farming task at the desired time, or because the climate pushes him to implement this agricultural task in advance), or later than expected in the models of agricultural activities (for example due to a punctual activity load).
  • the computerized interpretation module can also take into account other agricultural activities of the calendar to interpret the current agricultural task.
  • the computerized interpretation module takes into account the fact that an agricultural activity "breeding turkeys" has recently ended in the plot "Elevage Dindes 3" to determine that a new agricultural task in the plot "Elevage Dindes 3" corresponds to the first agricultural task of a new agricultural activity "Breeding Turkeys" in this plot.
  • external data is meant data from data sources 29 external to the farm.
  • a category of outdoor data particularly relevant to certain embodiments of the invention includes weather data relating to the location of the farm.
  • the meteorological data may in particular comprise the existence, or even the intensity of rain during a given period. Indeed, the rain can have a impact on the practicality or ease of carrying out certain agricultural tasks.
  • the meteorological data can be entered into the models of agricultural tasks: it is indicated that certain agricultural tasks can only be implemented in dry weather, or preferably in dry weather.
  • the computerized interpretation module 28 receives meteorological data relating to the agricultural plot from the external data source.
  • the interpretation module additionally takes into account the meteorological data to determine the agricultural task implemented.
  • the weather data may include ambient temperature data.
  • the interpretation module can be adapted to analyze meteorological data and deduce an index of allocation of agricultural activity schedules. Meteorological data is taken into account in the form of a modulation of the calendar of agricultural task models.
  • the computerized interpretation module 28 may comprise a classifier 30 relating to the models of agricultural activities defined for the agricultural operation.
  • the computerized interpretation module 28 may include a classifier 31 relating to the models of agricultural activities defined for all of the agricultural holdings.
  • the computerized interpretation module 28 implements these two classifiers 30, 31, and a selector module 32 applies a computerized selection step making it possible to determine an agricultural task from the results of the two classifiers.
  • This selection is for example carried out by using a level of confidence in the result provided by each classifier. Indeed, as each classifier determines an agricultural task likely to be associated with the collected data, a probability of association can be determined simultaneously. This probability of association is used for selection.
  • the selection history 34 for the user or the operation can also be used for the selection.
  • the system which has just been described may also comprise a computerized learning module 33.
  • the computerized learning module 33 is used, from time to time, to determine patterns of agricultural activities from the information of agricultural activities collected by the server relating to the agricultural operation.
  • the computerized learning module 33 is suitable for determining agricultural activity models from agricultural activity information collected by modifying pre-existing agricultural activity models from the collected agricultural activity information.
  • the computerized learning module 33 is specific to the farm. In doing so, the specificities of the farm are taken into account.
  • the computerized learning module can be common to several farms, so as to collect information on agricultural activities from several farms, and to take into account all of this information for the modification of the models. . In doing so, a model of agricultural activity that is statistically more common to all farms is determined.
  • the classification is performed by a convolutional neural network.
  • the invention proposes to reduce the technical problem of classifying the time series of data collected to a technical problem of classifying an image representative of this series for which the interpretation module 28 uses a convolutional neural network.
  • the first step consists in creating the associated image from the data collected .
  • the constructed image represents the location data collected to which other information specific to the time period covered by the location data collected is added.
  • Each image is constructed by superimposing several layers. These superimposed layers construct the image.
  • Figures 8 and 9 illustrate examples of constructed images.
  • From the location data to be interpreted it is possible to represent the GPS track on the image, ie the operator's trajectory. Ideally, it is possible to vary the intensity of the locate point according to the corresponding timestamp. In this way, the direction of the trajectory is represented on the image and the speed of movement also.
  • the GPS track can be drawn in levels of white on all the other layers of the image or be the subject of a specific layer with a specific light intensity and tint. .
  • the other layers make it possible to represent other information specific to the time period over which the time-stamped location data collected is spread. This information can come from or be deduced from location data and databases of farms and agricultural activities or represent external data.
  • Each layer of the image has an intensity and a hue. This intensity is determined from the information to be encoded on the layer.
  • each layer is formed by a tessellation according to two different intensities of a given hue, for example forming a checkerboard.
  • the interest is to obtain a greater number of information on each layer. Indeed, a single intensity can simply vary from 0 to 255 which offers 256 possibilities while a checkerboard based on two intensities allows 256x256 possibilities. In this way, it is, for example, possible to assign to each type of plot a pair of intensity
  • each agricultural task corresponds to an intensity of one shade, or a pair of intensity of one shade to, for example, paving layer.
  • the representation in the image of the previous task is then carried out with the corresponding intensity.
  • each plot identifier is associated with an intensity or an intensity couple.
  • the outline of an agricultural parcel determined according to location data can therefore be integrated into the image.
  • This outline can be integrated into any layer provided that it is distinguishable from the information already encoded on it.
  • it can be integrated into a layer according to an intensity other than the one(s) already used.
  • the contours can be in black. Such contours are visible in the constructed images shown in Figures 8 and 9.
  • each value of the data or information to be encoded is associated with an intensity (or a pair of intensity),
  • a pattern generated from a geometric primitive is associated with these data and parameterized according to the values taken by them.
  • the encoding layer is then generated according to the determined associations and, if applicable, the determined parameterization.
  • the activity-specific data gathered on the same layer can be different but linked, or correlated, between them: for example, the paving of a layer can be determined according to the last task carried out in the agricultural plot and the pattern generated from a geometric primitive can be parameterized according to the time elapsed since this last task.
  • the two pieces of information encoded on the layer are different (last task and time elapsed since this one) but linked together.
  • Example data refers to data from data sources 29 external to the farm. The objective being to encode the maximum of information resulting from the data collected on the image so that this one is the most representative of these, certain layers of the image can be built from these external data.
  • a category of outdoor data particularly relevant to certain embodiments of the invention includes weather data relating to the location of the farm.
  • the meteorological data may in particular include the existence or even the intensity of rain during a given period.
  • Data from other farms may be relevant to determine the agricultural task performed during a time period given by the user. For example, during the harvest season, it is very likely that operators in the same geographical area harvest at very similar times. Similarly, sowing periods for farmers, or foaling for horse breeders generally have specific periods and durations in the year. Thus, allowing the classifier to take such information into account is useful.
  • the external data that can be encoded on a layer can in particular be:
  • FIG. 10 illustrates an example of classifier training results.
  • the “Task” task column indicates the known task whose temporal zoning data is submitted to the classifier so that it associates them with an agricultural task.
  • the “AI Task” column indicates the result of classification by the classifier. To classify location data, the classifier creates an image shown in the “Image” column.
  • the constructed images include an outline of the agricultural plot, for example "Large field", and a GPS track from the location data collected.
  • the task associated with the location data is “Herbicide treatment” (“IA task” column) while the known task is “Rolling” according to the “Task” column.
  • This association by the classifier is an example of erroneous results that allow training the classifier.
  • each image corresponds to a day
  • the classifier has for each image a sequence of tasks performed during the day.
  • the training of the classifier can be updated as soon as new tasks are assigned to images (for example at each classification, or even at each manually confirmed classification) and/or the classifier can be trained at specific times on the database of new data (specific to the farm or not) from which it is possible to construct new images associated with known agricultural tasks.
  • the known tasks used to train the classifier can come from other exploitations. In this way, it is possible to use verified results from other farms, ie images associated with known tasks performed in other farms. This can be useful for the first training of the classifier of a given exploitation. But it can also make it possible to take into consideration the characteristics common to similar farms (geographically or by sector of activity, for example). [184] It is possible to test the classifier by submitting to it images for which the task to be assigned is known as explained above. We then see if the results are satisfactory. Similarly, the test images may come from other operations.
  • the interpretation step is implemented according to a predetermined duration of data collection, or even a minimum amount of data collected or simply at any time, it is possible to represent all the data on a single image and to train the classifier to recognize the successive tasks performed during the data collection period.
  • the image can contain several plots on the layer representing the plots and for each plot represented, the layers of zones and tasks preceding represent the information of previous zones and tasks for each plot by varying the intensities or pairs of zone or task intensities from one plot to another.
  • the interpretation step be carried out for a batch of location data corresponding to a given parcel or that each change of parcel detected according to the location data leads to the creation of a new image.
  • the constructed images of Figures 8 and 9 illustrate this embodiment.
  • the batch of data collected to be interpreted agricultural parcel is sequenced by agricultural parcel.
  • a sequencing by plots of the batch of data collected to be interpreted is carried out.
  • an image is constructed for each batch of data corresponding to an agricultural plot.
  • zones 1, 2 and 3 can help with this sequencing since the particular zones 3 correspond to locations outside agricultural plots.
  • an image corresponds to an agricultural plot on the farm and the classifier aims to assign the image to the agricultural task most likely carried out in the plot.
  • each image corresponds to a specific parcel
  • the previous examples are simplified: on each image, one layer corresponds to the previous task carried out in the parcel, one layer corresponds to the type of zone to which the parcel belongs , a layer corresponds to the identifier of the parcel.
  • the pattern for example, a circle, represents the time elapsed since the last task carried out (parameterized according to the diameter of the circle) and finally, we integrate the GPS track of the trajectory (included in the plot therefore) and the contour of the parcel.
  • Figure 13 illustrates the data manipulated by the classifier. Based on the location data collected, the computerized interpretation module determines the farm, the plot, the time spent in the plot.
  • the user is determined by the identifier of the autonomous portable device.
  • the neural network classifier is able to classify each image: for each input image of the classifier, it assigns this image the most probable agricultural task.
  • each line corresponds to a version of the classifier (“model” column).
  • the “Success percentage” column indicates the performance of the classifier based on the classification results of the model collected in a results database (“Export name” column).
  • the classifier makes it possible to recognize the task carried out in each plot and for how long over a predetermined period of time.
  • the time period is the year 2021. Nevertheless, it could be a day or a week so that it is possible to know its schedule thanks to the classifier.
  • the identified tasks are entered by the classifier.
  • the classifier determines a most likely performed task that it proposes to the user.
  • the user can access an editing interface, allowing him to check or even edit the data entered. This can be useful especially if the user needs to report an unexpected activity, such as a phone call, a breakdown, or other.
  • the editing interface can be available from menu 19 of the "smartphone" computer program interface (see Figure 3), via a web interface accessible from a microcomputer, and allow the data to be modified at "smartphone" level before sending to the server, or at the server level 7.
  • the server sends to the "smartphone" information relating to the agricultural task determined by the interpretation module, and the "smartphone” presents, on a graphic interface, the determined agricultural task, and offers the user the possibility of confirming or not the determined agricultural task.
  • the information entered by the user is sent back to the server, which can take it into account for the definitive recording of an agricultural task 35 in the user's calendar.
  • the user may be asked to enter manually in a list the agricultural activity actually carried out.
  • This manual validation step is preferably carried out regularly, for example daily, so that the agricultural tasks actually carried out are taken into account the next day by the interpretation module.
  • the areal extent of menu 19 is small relative to the areal extent of power button 11. As a result, power button 11 is the main interface of this screen.
  • the tasks classified but not confirmed can for example be of less weight than the tasks classified and confirmed manually and the tasks entered manually.
  • the operator can access the processed data from a supervision interface 20. It will be noted that the operator can be the user but that, in certain cases, all users do not have access to the supervision interface 20. Access to the supervision interface 20 can be managed by authentication systems. The operator can thus access the information recorded for one or more users associated with its operation, including itself, if necessary.
  • Access is for example made from a personal microcomputer 21 or other electronic device connected to the server 7 via a page accessible via the Internet network 16.
  • the operator can for example access, for a given user, all the lines processed for the user.
  • the information can also be presented in a non-chronological manner, for example accumulated over a configurable period, over one or more users and/or one or more zones.
  • the operator can thus determine in particular the overall time spent in a particular area, the overall time spent outside the area, the overall time spent at headquarters, the overall time spent on break and/or the overall time spent traveling, over a period configurable, and/or the evolution of these quantities over time, as shown for example in Figure 5.
  • the method whatever the embodiment, is not necessarily implemented by a “smartphone” of the user.
  • a box dedicated electronics presenting the necessary functionalities.
  • the box may comprise a simplified man-machine interface comprising a mechanical on/off button.
  • Part of the methods described above can be implemented, whatever the embodiment, by computer programs executed on one or more processors.
  • Several objects equipped with processors can work in a network, the steps of the method can be implemented by one or the other, or a plurality of processors communicating with each other.
  • a given agricultural task may require the simultaneous presence of several users.
  • the computerized interpretation module 28 determines the agricultural task from the time location data received from several portable systems.
  • some agricultural tasks can be modeled in man units. hour rather than in hourly units.
  • the interpretation module is able to recognize it, whether it is implemented by a user for about 18 hours (spread over several working days), or according to more complex organizations (two users for about 9 hours , or even one user for 9 hours then two users for 4.5 hours, or other scenarios).
  • the interpretation module 28 determines the agricultural task by taking into account the type of estimated movement of the user, if the agricultural activity models are parameterized with the type of displacement.
  • an agricultural machine of a farm is equipped with a device having similarities with the portable system of the users.
  • This device stores an identifier of the agricultural machine, comprises a geolocation module making it possible to determine the location of the machine, and communication means enabling it, at regular intervals, to send information concerning its temporal location to the server.
  • Agricultural tasks can be modeled to take into account the use of a type of agricultural machinery. For example, the agricultural task "Labour" is modeled to take into account the use of a tractor.
  • the farm operator can enter the identifiers of the various agricultural machines on the farm equipped with time tracking devices, as well as the type of these agricultural machines. For example, if the operator has several different tractors, each assigned to a remote identifier, each can be entered in the "tractor" category.
  • the computerized interpretation module 28 determines the agricultural task from time location data received jointly from a portable system 4 worn by a user and time location data from an agricultural machine.
  • the simultaneous presence of an agricultural user and an agricultural machine on a plot are taken into account by the computerized interpretation module 28 to recognize the agricultural task.
  • Some data processors compare a time spent in a plot on a date determined according to the location data collected with a pre-filled timetable and then deduce from this comparison the agricultural task carried out according to the location data collected .
  • One specificity of the data processing according to the invention is therefore not to compare the location data, or data calculated from it, with model data.
  • the processing of location data according to the invention uses only the temporal links between the agricultural tasks of one or more agricultural activities according to the models of agricultural activities defined to deduce from the location data the agricultural task performed.
  • Communication module 26 computerized pre-processing module 27 computerized interpretation module 28 data sources 29 external classifiers 30, 31 selector module 32 computerized learning module 33 history 34 agricultural task 35

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Educational Administration (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Agronomy & Crop Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mining & Mineral Resources (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Software Systems (AREA)
  • Primary Health Care (AREA)

Abstract

Un procédé informatisé d'interprétation de données de localisation d'au moins un travailleur agricole, dans lequel : - on fournit une base de données d'activités agricoles comprenant, pour chaque activité agricole, un agenda d'au moins deux tâches agricoles, chaque tâche agricole étant caractérisée par un identifiant d'emplacement et une position dans l'agenda, - on fournit une base de données d'exploitation agricole, la base de données comprenant au moins une parcelle agricole caractérisée par un identifiant d'emplacement et une localisation, - on fournit des données de zonage temporel de l'au moins un travailleur agricole reçues depuis un dispositif électronique portatif communiquant du travailleur agricole, et - un module informatisé d'interprétation (28) associe lesdites données de zonage temporel à une tâche agricole au moyen desdites données de zonage temporel et desdites bases de données d'activités agricoles et d'exploitation agricole, le module informatisé d'interprétation (28) associe lesdites données de zonage temporel à une tâche agricole au moyen desdites données de zonage temporel et desdites bases de données d'activités agricoles et d'exploitation agricole d'après les étapes suivantes : - le module informatisé d'interprétation (28) construit une image pour une parcelle agricole déterminée à partir des données de zonage temporel et desdites bases de données d'activités agricoles et d'exploitation agricole, - le module informatisé d'interprétation (28) associe l'image construite à une tâche agricole effectuée dans la parcelle agricole grâce à un réseau de neurones convolutif.

Description

Description
Titre de l’invention : Système et procédé informatisé d’interprétation de données de localisation d’au moins un travailleur agricole, et programme d’ordinateur
[1] DOMAINE DE L’INVENTION
[2] La présente invention se rapporte aux procédés d’interprétation de données de localisation de travailleurs agricoles.
[3] ARRIERE-PLAN TECHNOLOGIQUE
[4] Dans le domaine de l’agriculture, comprise au sens large comme incluant l’élevage, il est connu qu’un travailleur passe ses journées de travail à diverses tâches en des endroits différents. Il est toutefois difficile de tracer l’activité réelle du travailleur, car des moyens de saisie d’informations sont peu compatibles avec le travail agricole. Il en résulte un manque d’informations empêchant d’analyser l’activité, ce qui peut avoir des conséquences économiques néfastes sur l’exploitation agricole.
[5] Le Japon semble s’être penché sur cette question, et on connait par exemple le document JP 41 708 792 qui traite de cette question. Ce document décrit la définition d’un champ à partir de données GPS des coins du champ. Puis, il décrit la mesure de la position d’un travailleur au moyen d’un GPS, et l’attribution de la position à la présence dans un champ, par comparaison avec les coordonnées définies pour ce champ. Ces informations sont utilisées pour remplir l’agenda du travailleur.
[6] De plus, les données sont interprétées par un algorithme en logique floue, qui associe à certaines données mesurées, en fonction de la date, une tâche agricole, par exemple le « plantage de riz » associé au fait qu’on soit en Juin, et que le travailleur agricole travaille à 0,41 m/s, avec une efficacité de 5,8 a/h, et une efficacité au champ de 65%.
[7] De l’opinion des inventeurs, cette réalisation risque de créer un taux d’erreur important dans la reconnaissance des tâches. Notamment, elle oblige à se baser sur des paramètres représentatifs de l’activité agricole complexes à déterminer, comme la vitesse ou l’efficacité, et vraisemblablement très dépendantes du facteur humain, ce qui laisse penser que cette méthode ne serait pas adaptée pour des exploitations comprenant une grande diversité d’activités agricoles.
[8] RESUME DE L’INVENTION
[9] Ainsi, l’invention se rapporte à un procédé informatisé d’interprétation de données de localisation d’au moins un travailleur agricole, dans lequel : - on fournit une base de données d’activités agricoles comprenant, pour chaque activité agricole, un agenda d’au moins deux tâches agricoles, chaque tâche agricole étant caractérisée par un identifiant d’emplacement et une position dans l’agenda,
- on fournit une base de données d’exploitation agricole, la base de données comprenant au moins une parcelle agricole caractérisée par un identifiant d’emplacement et une localisation,
- on fournit des données de zonage temporel de l’au moins un travailleur agricole reçues depuis un dispositif électronique portatif communiquant du travailleur agricole, et
- un module informatisé d’interprétation associe lesdites données de zonage temporel à une tâche agricole au moyen desdites données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole.
[10] Grâce à ces dispositions, la reconnaissance d’une tâche agricole se base sur une connaissance a priori des activités agricoles comprenant des tâches agricoles, ce qui permet d’augmenter le taux de reconnaissance de la tâche agricole.
[11] Selon différents aspects, il est possible de prévoir l’une et/ou l’autre des dispositions ci-dessous.
[12] Selon une réalisation, le module d’interprétation applique un classificateur relatif aux activités agricoles définis pour l’exploitation agricole et/ou un classificateur relatif aux activités agricoles définis pour un ensemble d’exploitations agricoles et, dans le cas où les deux classificateurs sont appliqués, le module d’interprétation sélectionne une tâche agricole à partir des résultats des deux classificateurs.
[13] Selon une réalisation,
- on fournit des données de zonage temporel d’au moins une machine agricole reçues depuis un dispositif électronique portatif communiquant de la machine agricole, et
- le module informatisé d’interprétation associe les données de zonage temporel du travailleur agricole à une tâche agricole au moyen en outre des données de zonage temporel de la machine agricole.
[14] Selon une réalisation, le module informatisé d’interprétation associe les données de zonage temporel du travailleur agricole à une tâche agricole au moyen en outre de données météorologiques relatives à l’exploitation agricole obtenues d’une base de données météorologiques.
[15] Selon une réalisation, le procédé comprend en outre une mise à jour de la base de données d’activités agricoles à partir au moins des données de localisation interprétées.
[16] Selon une autre réalisation, l’invention prévoit un procédé selon l’invention dans lequel le module informatisé d’interprétation associe lesdites données de zonage temporel à une tâche agricole au moyen desdites données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole d’après les étapes suivantes :
- le module informatisé d’interprétation construit une image pour une parcelle agricole déterminée à partir des données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole,
- le module informatisé d’interprétation associe l’image construite à une tâche agricole effectuée dans la parcelle agricole grâce à un réseau de neurone convolutif.
[17] De manière préférentielle, l’image construite comprend une trace formée par les données de zonage de temporel et au moins une primitive géométrique paramétrée d’après les données de données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole ; au moins une intensité de l’image étant déterminée d’après les données de zonage temporel et les bases de données d’activités agricoles et d’exploitation agricole.
[18] De manière préférentielle, le module informatisé d’interprétation encode au moins une information sur une couche d’une pluralité de couches formant l’image, cette au moins une information étant issue ou déduite des données de zonage temporel et des bases de données d’activités agricoles et d’exploitation agricole,
[19] On peut prévoir que l’information encodée soit :
- la trace formée par les données de zonage temporel,
- la parcelle agricole déterminée d’après les données de zonage temporel et la base de données d’exploitation agricole,
- une trace de la parcelle agricole,
- une tâche précédente effectuée dans la parcelle agricole déterminée,
- une durée écoulée depuis la dernière tache effectuée,
- un type de parcelle agricole,
- un utilisateur utilisant le système portatif,
- une machine utilisant le système portatif,
- une prévision météorologique, ou
- une activité réalisée dans d’autres exploitations agricoles.
[20] On peut prévoir que le module informatisé d’interprétation entraine le réseau de neurone convolutif avec des images associées à : - une tâche agricole issue de la base de données d’activités agricole d’une exploitation agricole de l’utilisateur ou d’exploitations extérieures,
- une tâche agricole renseignée par l’utilisateur, et/ou
- une tâche agricole déterminée précédemment par le module d’interprétation.
[21] Selon un autre aspect, l’invention se rapporte à un programme d’ordinateur comprenant des instructions de code de programme pour l’exécution des étapes de ce procédé lorsque ledit programme est exécuté sur un ordinateur.
[22] Selon un autre aspect, l’invention se rapporte à un système informatisé d’interprétation de données de localisation d’au moins un travailleur agricole comprenant un module informatisé d’interprétation adapté pour associer des données de zonage temporel d’au moins un travailleur agricole reçues depuis un dispositif électronique portatif communiquant du travailleur agricole à une tâche agricole au moyen d’une base de données d’activités agricoles comprenant, pour chaque activité agricole, un agenda d’au moins deux tâches agricoles, chaque tâche agricole étant caractérisée par un identifiant d’emplacement et une position dans l’agenda et d’une base de données d’exploitation agricole comprenant au moins une parcelle agricole caractérisée par un identifiant d’emplacement et une localisation.
[23] Selon une réalisation, le système informatisé comprend en outre au moins un dispositif électronique portatif communiquant du travailleur agricole adapté pour communiquer des données de zonage temporel du travailleur agricole au module informatisé d’interprétation.
[24] Selon une réalisation, le système informatisé comprend en outre un dispositif électronique portatif communiquant d’une machine agricole adapté pour communiquer des données de zonage temporel de la machine agricole, et le module informatisé d’interprétation est adapté pour associer des données de zonage temporel du travailleur agricole en outre à partir des données de zonage temporel de la machine agricole.
[25] BREVE DESCRIPTION DES DESSINS
[26] Des modes de réalisation de l’invention seront décrits ci-dessous par référence aux dessins, décrits brièvement ci-dessous :
[27] [Fig. 1] représente en vue de dessus une cartographie d’une exploitation agricole.
[28] [Fig. 2] représente une capture d’écran de « smartphone » montrant le système utilisateur au repos.
[29] [Fig. 3] représente une même capture d’écran de « smartphone » montrant le système utilisateur actif.
[30] [Fig. 4] représente un premier écran de l’interface de supervision. [31] [Fig. 5] présente un deuxième écran de l’interface de supervision.
[32] [Fig. 6] représente schématiquement un système selon un mode de réalisation de l’invention.
[33] [Fig. 7] représente schématiquement une architecture de traitement de données selon un mode de réalisation.
[34] [Fig. 8] et [Fig. 9] représente des exemples d’images crées par le module informatisé d’interprétation.
[35] [Fig. 10] représente un exemple de résultats de classification d’une tâche agricole par le module informatisé d’interprétation au cours de la phase d’entrainement du réseau de neurones convolutif.
[36] [Fig. 11] représente un exemple de résultats de classification d’une tâche agricole par le module informatisé d’interprétation une fois le réseau de neurones convolutif entrainé
[37] [Fig. 12] représente un deuxième écran de résultats d’association de données de zonage temporel à une tâche agricole
[38] [Fig. 13] représente un exemple de données de zonage temporel recueillies et interprétées en une tâche agricole.
[39] Sur les dessins, des références identiques désignent des objets identiques ou similaires.
[40] DESCRIPTION DETAILLEE
[41] Définitions
[42] Par « agricole », on entend toute activité relevant de la culture de végétaux ou l’élevage d’animaux, y compris la sylviculture, l’ostréiculture, la myciculture, la conchyliculture, la mytiliculture, ou l’héliciculture.
[43] Un mode de réalisation du système de localisation temporelle sera décrit ci-dessous, par référence à la figure 6.
[44] Le système comprend un serveur central 7 échangeant avec plusieurs types de postes informatiques 4, 21 distants par l’intermédiaire d’un réseau 16 comme, par exemple, le réseau internet.
[45] Le poste informatique 4 est un dispositif portable autonome. Il peut par exemple s’agir d’un téléphone portable informatisé d’un utilisateur, communément désigné par l’anglicisme
« smartphone ». Dans le cadre de l’invention, un tel « smartphone » comprend un processeur 22. Le processeur 22 est adapté pour exécuter des programmes d’ordinateur résidents du poste informatique 4, et notamment le programme d’ordinateur qui sera décrit plus en détail ci-dessous.
[46] Le « smartphone » comprend également une mémoire 14, dans laquelle peuvent être stockées un certain nombre d’informations accessibles par le processeur 22.
[47] Le « smartphone » dispose encore d’une interface homme-machine 8 permettant à un utilisateur d’intéragir avec le « smartphone ». L’interface homme-machine 8 comprend par exemple un écran permettant d’afficher à l’utilisateur des informations, et un clavier, permettant à l’utilisateur de saisir des informations à destination du « smartphone ». Les informations saisies peuvent être stockées dans la mémoire 4. Le cas échéant, ces deux fonctionnalités sont regroupées sous la forme d’un écran tactile 9 superposant l’affichage et la saisie d’informations.
[48] Le « smartphone » dispose encore d’une horloge 12 donnant l’heure. Les données d’horloge peuvent être enregistrées dans la mémoire 14.
[49] Le « smartphone » dispose également d’un module de géolocalisation 13. Un tel module de géolocalisation 13 est par exemple un système basé sur la technologie de positionnement satellitaire généralement désignée sous l’appellation « GPS », acronyme de l’appellation anglaise « Ground Positioning System », ou « Système de positionnement au sol », en français. Un tel système est basé sur une puce qui reçoit des informations en provenance de plusieurs satellites en orbite géostationnaire, et est capable de déterminer sa position au sol par triangulation à partir des informations reçues des satellites. La position, ou localisation, déterminée, est stockée dans la mémoire 14.
[50] Le « smartphone » dispose encore d’un module de communication 15, permettant au « smartphone » de communiquer avec l’extérieur, et notamment avec le serveur 7, par l’intermédiaire d’un réseau 16. Il peut s’agir d’un module de communication 15 sans fil, ou d’un module de communication filaire. Le module de communication 15 peut le cas échéant communiquer avec le serveur 7 via le réseau 16 par l’intermédiaire d’un routeur 17.
[51] Le serveur 7 est un serveur informatique qui comprend un processeur 23 apte à exécuter un ou plusieurs programmes informatiques. Le serveur 7 comprend notamment un module de communication 6 adapté pour communiquer avec le « smartphone ». La communication avec le « smartphone » est bi-directionnelle, mais le transfert d’informations se fait plutôt dans le sens allant du « smartphone » au serveur 7.
[52] Le serveur 7 accède également à une base de données 5 dans laquelle sont stockées des cartographies des exploitations agricoles concernées par le service, qui sont définies de la manière décrite ci-dessous. La base de données 5 stocke les données, traitées ou non, en provenance des différents « smartphones ». La base de données 5 stocke également des informations d’association des différents « smartphones » à une ou plusieurs exploitations agricoles. La base de données 5 comprend en outre des modèles d’activités agricoles propres à l’exploitation agricole.
[53] Le serveur 7 comprend un module de traitement 18. Le module de traitement 18 est adapté pour traiter les données reçues du « smartphone », selon des procédés pré-établis qui seront décrits ci-dessous. Ainsi, les données stockées dans la base de données 5 peuvent comprendre des données brutes telles que reçues des « smartphone », et des données traitées issues du traitement des données brutes par le module de traitement 18. Le cas échéant, les exploitations sont distribuées sur plusieurs serveurs.
[54] Le système peut également comprendre un micro-ordinateur personnel 21. Selon une réalisation, le micro-ordinateur personnel 21 est distinct du « smartphone ». Ceci dit, dans certains cas, selon les autorisations, un « smartphone » peut être utilisé pour mettre en œuvre les fonctions dispensées par le micro-ordinateur 21, et ça peut même être le même
« smartphone » que celui utilisé pour la mesure des données de localisation à un instant.
[55] Le micro-ordinateur personnel 21 comprend un processeur 24. Le processeur 24 est adapté pour exécuter des programmes d’ordinateur résidents sur le micro-ordinateur personnel 21. Par exemple, un des programmes d’ordinateur en question est un navigateur réseau. Le micro-ordinateur personnel 21 comprend également une interface homme- machine 25, tel qu’un écran et un clavier et/ou une souris. Le micro-ordinateur personnel 21 comprend un module de communication 26 lui permettant de communiquer avec le serveur 7 par l’intermédiaire du réseau 16.
[56] Le navigateur réseau du micro-ordinateur personnel 21 permet d’accéder à une page internet stockée sur le serveur 7, et fournissant au micro-ordinateur personnel 21 des informations structurées élaborées par le module de traitement 18 à partir des données reçues des différents « smartphones ».
[57] Le système qui vient d’être décrit peut fonctionner comme suit.
[58] Etape d’installation
[59] Au cours d’une étape d’installation, un utilisateur souhaite bénéficier du système informatisé. Cet utilisateur est ici typiquement l’exploitant de l’exploitation agricole.
[60] Dans un premier temps, on réalise la cartographie de l’exploitation agricole. On notera que le système peut intégrer plusieurs exploitations agricoles pour un même utilisateur. Dans l’exemple qui suit, on décrit la cartographie d’une exploitation agricole, la configuration et la mise en œuvre pour une autre exploitation agricole d’un même utilisateur étant similaire. En cas de pluralité d’exploitants, le serveur opère en parallèle pour chacun des exploitants selon les fonctionnalités ci-dessous.
[61] Si l’utilisateur dispose déjà d’une cartographie de l’exploitation agricole, celle-ci pourra être importée. C’est le cas, par exemple en France, où la cartographie de l’exploitation agricole est déjà disponible sur le système TelePAC.
[62] La cartographie de l’exploitation agricole comprend une pluralité de parcelles agricoles 1 adjacentes et/ou disjointes. Une parcelle agricole est généralement polygonale, étant bordée par des objets rectilignes comme des routes, des haies, etc... , ou partiellement polygonale, quand elle est partiellement bordée par un élément naturel tel qu’un bois, un cours d’eau ou une étendue d’eau. La parcelle agricole peut notamment être un champ dédié à la culture d’une ou plusieurs plantes, ou une parcelle d’élevage. La parcelle agricole peut comprendre ou non un bâtiment.
[63] La parcelle agricole est définie par ses coordonnées, notamment par les coordonnées des points de son périmètre ou de certains points remarquables de son périmètre (coins). Les coordonnées en question peuvent être définies dans un système géolocalisé, tel que le système dit « GPS » acronyme de l’appellation anglaise « Ground Positioning Sytem ».
[64] Chaque parcelle agricole est également caractérisée par un identifiant configuré par l’utilisateur, tel que, par exemple, un nombre entier, ou une chaine de caractères, par exemple « Champ 1 ; Champ 2 ; Champ 3 ; ... Elevage 1 ; ... ».
[65] Comme on peut le voir notamment sur la figure 1 , les zones définies par les parcelles agricoles prises ensemble ne couvrent pas la totalité de la surface. En effet, dans cette surface, on trouve également des portions qui ne correspondent pas à des parcelles agricoles telles que, notamment, des routes ou chemins, des objets naturels non exploités tels que des étendues d’eau, des cours d’eau, des bois non exploités, et des bâtiments non exploités.
[66] Les zones complémentaires 2 des zones définies par les parcelles agricoles prises ensemble sont caractérisées ensemble par un identifiant, tel que, par exemple « hors zones parcelles ». Par « hors zones parcelles », on fait ainsi référence à tout point en dehors d’une parcelle agricole telle que définie ci-dessus. Ainsi, la combinaison des zones 1 de parcelles agricoles et des zones 2 « hors zone parcelle » pave le sol, au sens de la définition mathématique du « pavage ».
[67] La configuration comprend également la définition d’une ou plusieurs zones particulières 3 associées à l’exploitation agricole. Ces zones particulières sont par exemple définies par des primitives géométriques indépendamment de la topologie du sol. Selon un exemple, une zone particulière est définie comme un cercle de rayon paramétrable, centré sur un point particulier de la carte. D’autres exemples peuvent comprendre des polygones de taille paramétrable. La zone particulière est également caractérisée par un identifiant. Par exemple, une zone particulière 3 est définie autour du bureau de l’exploitation agricole, et est caractérisée par l’identifiant « Siège ».
[68] Ainsi, la zone particulière 3 peut, le cas échéant, recouvrir une ou plusieurs zones définies par une parcelle agricole 1 , ou une zone 2 identifiée comme « hors zones parcelles ».
[69] L’installation comprend en outre la configuration de systèmes portatifs 4 des utilisateurs. Dans cet exemple, on décrit un utilisateur, mais la configuration peut également être réalisée pour plusieurs utilisateurs sur une même exploitation agricole, ou sur diverses exploitations agricoles rassemblées dans le même service. L’utilisateur peut être l’exploitant. Alternativement, ou en complément, un utilisateur peut être un travailleur agricole qui n’est pas l’exploitant.
[70] Dans cet exemple, le système portatif 4 est un téléphone intelligent (désigné par l’anglicisme « smartphone ») d’un utilisateur. Le « smartphone » est identifié par un identifiant qui peut, par exemple, être le numéro d’appel du « smartphone ». Toutefois, on peut utiliser un autre identifiant, le cas échéant. L’identifiant est ainsi rattaché à l’exploitation agricole en train d’être configurée.
[71] On définit également une ou plusieurs activités agricoles pour l’exploitation. Une activité agricole est définie comme un ensemble de tâches agricoles. Les tâches agricoles d’une activité agricole sont réparties selon un calendrier. Chaque tâche agricole peut être caractérisée par l’une et/ou l’autre des caractéristiques ci-après : un identifiant, une durée, un identifiant de parcelle agricole, une heure de début, une heure de fin, un identifiant d’utilisateur. Selon un exemple de réalisation, on définit une tâche agricole « Ramassage femelles dindes » comme étant une tâche de durée dix-huit heures, se passant dans un lieu « Elevage ». Selon un exemple, on définit une tâche agricole « Déchargement dindes » comme étant une tâche de durée 1 heure se passant dans lieu « Elevage ».
[72] Une activité agricole est définie à partir d’une pluralité de tâches agricoles telles que définies ci-dessus, réparties selon un calendrier. Par exemple, on peut prévoir une activité agricole, portant l’identifiant « Elevage Dindes », comprenant une tâche agricole
« Déchargement dindes » au jour JO et une tâche agricole « Ramassage femelles dindes » au jour J84 se trouvant 84 jours après le jour JO.
[73] Les tâches agricoles d’une activité agricole peuvent également être liées par leur emplacement. Ainsi, dans l’exemple ci-dessus, l’« Elevage » de l’étape agricole « Ramassage femelles dindes » est le même identifiant de parcelle agricole que l’« Elevage » de l’étape agricole « Déchargement dindes ». Si l’exploitation agricole comprend plusieurs parcelles agricoles de type « Elevage », l’activité agricole « Elevage Dindes » peut être attribuée à la parcelle agricole « Elevage 1 », auquel cas les tâches agricoles correspondantes sont attribuées à la parcelle agricole « Elevage 1 ».
[74] On notera que, le cas échéant, certaines activités agricoles peuvent comprendre des tâches se déroulant dans plusieurs parcelles différentes. Ce sera par exemple le cas de l’élevage d’un troupeau qui passe de parcelle d’élevage en parcelle d’élevage au cours du temps.
[75] Une activité agricole peut ainsi comprendre au moins deux tâches agricoles, telles que définies ci-dessus, et typiquement au moins cinq, voire au moins dix tâches agricoles, telles que définies ci-dessus.
[76] Une activité agricole peut ainsi être représentée, d’un point de vue mathématique, comme une série temporelle, c’est-à-dire par exemple une matrice comportant un certain nombre de vecteurs (« identifiant de tâche » ; « parcelle »), chaque vecteur correspondant à une tranche de temps.
[77] Pour l’exploitation, les activités agricoles sont définies, par exemple à partir de modèles prédéfinis d’activités agricoles. Par exemple, une activité agricole peut être rendue spécifique à une exploitation par ajustement d’une étape agricole, ou par ajustement d’une relation entre étapes agricoles d’une même activité agricole, par exemple un calendrier ajusté par rapport à celui du modèle.
[78] Lors de la configuration, il est possible de renseigner des informations additionnelles relatives aux activités agricoles et propres à l’exploitation agricole. Par exemple, si une tâche agricole est le plus souvent mise en œuvre le matin, cette information peut être renseignée.
Si une tâche agricole est le plus souvent mise en œuvre par un utilisateur en particulier, cette information peut être renseignée.
[79] Par ailleurs, dans la phase de configuration, si le système est supposé entrer en fonction à une certaine date de mise en service, on renseigne, si possible, dans le calendrier, les informations se rapportant aux activités agricoles déjà entamées à la date de mise en service. Par exemple, si le système est supposé être mis en service un 1er février, on liste l’ensemble des activités agricoles qui seront en cours au 1er févier, et on renseigne dans le calendrier les tâches agricoles accomplies ou entamées avant le 1er février, de ces activités agricoles.
[80] On configure la base de données 5 pour pouvoir recevoir et stocker des informations relatives au « smartphone », reçues par le module de communication 6 du serveur central 7. [81] Pour pouvoir disposer du service, le « smartphone » comporte un programme d’ordinateur relatif au service. Si ce programme d’ordinateur n’est pas installé sur le
« smartphone », on prévoit une installation, par exemple par le biais d’un téléchargement.
[82] Etape d’utilisation
[83] Le système qui vient d’être décrit est utilisé de la manière suivante par l’utilisateur.
[84] Au début de sa journée de travail, l’utilisateur accède au programme d’ordinateur. Cet accès est par exemple effectué par l’intermédiaire de l’interface homme-machine 8 du
« smartphone », où l’utilisateur sélectionne un icône correspondant au programme d’ordinateur et présent sur son écran tactile 9. L’utilisateur accède alors à un écran de commande 10, comme représenté sur la figure 2.
[85] A l’accès à l’écran de commande 10, le bouton de mise en service 11 du programme d’ordinateur est automatiquement passé sur « marche », ou l’utilisateur commande ce passage en « marche » par une action, et l’écran est alors comme représenté sur la figure 3 selon un exemple de réalisation. Le fait que la géolocalisation est en mode « marche » est affiché sur l’écran du « smartphone » par tout moyen approprié. L’heure fournie par l’horloge 12 à cet instant est enregistrée dans la mémoire du « smartphone ».
[86] Le service nécessite que le module de géolocalisation 13 du « smartphone » soit actif. Le cas échéant, le programme d’ordinateur vérifie que le module de géolocalisation 13 du « smartphone » soit actif et, à défaut, en informe l’utilisateur ou guide celui-ci pour l’activation de son module de géolocalisation 13.
[87] L’utilisateur peut désormais utiliser son « smartphone » pour tout autre besoin, ou le ranger. Le programme d’ordinateur reste actif en tâche de fond.
[88] Régulièrement, le module de géolocalisation 13 géolocalise le « smartphone ». L’information de localisation du « smartphone », ainsi que l’instant associé à cette géolocalisation, déterminé par l’horloge 12 du « smartphone », sont stockés dans la mémoire 14 du « smartphone ». Cette étape est par exemple mise en œuvre toutes les secondes, toutes les 10 secondes, toutes les minutes, ou toutes les 2 minutes.
[89] Par exemple, l’utilisateur, qui est également l’exploitant, a passé la géolocalisation en mode « marche » à l’issue de son petit-déjeuner, qu’il a pris à son domicile, qui est également le siège de l’exploitation. Il met son « smartphone » dans sa poche. Il commence sa journée au bureau pour des démarches administratives.
[90] Puis, il prend sa voiture, et se rend au hangar où il monte dans le tracteur, et passe sa fin de matinée à labourer un champ #7 à proximité du hangar. [91] Puis, il retourne au siège, toujours en tracteur, pour réceptionner une livraison. Il en profite pour passer quelques appels téléphoniques depuis le bureau, et pour déjeuner.
[92] L’après-midi, il va à pieds effectuer une visite de contrôle à l’élevage de volailles #2 situé dans une parcelle agricole voisine du siège. Finalement, il va en tracteur au champ #3 pour commencer à le labourer. En fin de journée, il ramène le tracteur au hangar, et rentre au siège en voiture.
[93] A la fin de sa journée de travail, l’utilisateur accède au programme d’ordinateur. Cet accès est par exemple effectué par l’intermédiaire de l’interface homme-machine 8 du
« smartphone », où l’utilisateur sélectionne l’icône correspondant au programme d’ordinateur et présent sur son écran tactile. L’écran de commande 10 de la figure 3 s’affiche alors.
[94] A l’accès, l’utilisateur peut commander le passage du bouton de mise en service 11 du programme d’ordinateur en « arrêt » par une action. L’heure fournie par l’horloge 12 à cet instant peut être enregistrée sur la mémoire 14 du « smartphone ».
[95] Le cas échéant, le programme d’ordinateur peut proposer de couper le module de géolocalisation 13 du « smartphone » et en informe l’utilisateur, ou guide celui-ci pour la désactivation de son module de géolocalisation 13.
[96] Le cas échéant, l’utilisateur peut être amené à couper ou à démarrer le programme d’ordinateur en milieu de journée.
[97] Pour l’utilisateur, le fonctionnement est donc extrêmement simple, car il se résume à actionner le bouton de mise en service 11 et, le cas échéant, la géolocalisation.
[98] Le cas échéant, le début et la fin de fonctionnement peuvent être automatiques, et se baser sur une heure de début et de fin pré-programmées par l’intermédiaire d’une interface.
[99] Régulièrement, les données stockées dans la mémoire 14 du « smartphone » sont émises par le module de communication 15 de celui-ci à destination du serveur 7.
[100] Cette communication est moins fréquente que la détermination de la géolocalisation, par exemple au moins dix fois moins fréquente. Elle est par exemple réalisée une fois par heure, deux fois par jour, ou une fois par jour. On peut par exemple prévoir qu’elle est réalisée après que la géolocalisation a été arrêtée en fin de journée par l’utilisateur.
[101] La communication peut par exemple se faire quand le « smartphone » constate être dans une zone de couverture d’un réseau 16 permettant cette communication. En alternative ou en complément, la communication peut par exemple se faire quand le « smartphone » est mis en communication filaire ou sans fil avec un routeur 17 local disposant de moyens de communications vers le serveur 7. [102] Les données communiquées comprennent l’identifiant du « smartphone » ainsi que les données de localisation et données d’horloge associées. Les données reçues par le module de communication 6 du serveur 7 sont stockées dans la base de données 5. Selon une réalisation, le « smartphone » ne réalise aucun pré-traitement, de manière à économiser de la batterie.
[103] Etape de traitement
[104] Le module de traitement 18 du serveur 7 va traiter les données associées à l’identifiant.
[105] Par exemple, les données sont filtrées préalablement au traitement. On peut mettre en oeuvre un module informatisé de pré-traitement 27 qui applique un filtre de Kalman étendu.
[106] L’identifiant est associé à une ou plusieurs exploitations. La localisation de l’utilisateur peut donc être déterminée en comparant la localisation mesurée avec les localisations des zones de l’exploitation.
[107] Par cette comparaison, le module de traitement 18 est capable d’identifier une zone à l’intérieur de laquelle se situe la localisation de l’utilisateur.
[108] Une durée va être attribuée à une zone à partir du moment où un nombre suffisant de données de localisation consécutives sont à l’intérieur d’une même zone. Le nombre suffisant peut être déterminé soit par un nombre prédéfini de points de mesure, soit par une durée minimale. A tire d’exemple, on définit que 5 points de mesure successifs dans une même zone sont nécessaires avant que le module de traitement 18 ne considère que les points de mesure appartiennent à une même zone. Alternativement, il faut 10 points de mesure successifs dans une même zone pour confirmer la zone.
[109] La durée passée dans la zone est alors calculée comme la différence entre le dernier instant passé dans la zone et le premier instant passé dans la zone, et cette durée est enregistrée associée à l’identifiant de la zone.
[110] L’ensemble des points de mesure est traité selon ces dispositions. Il en résulte une allocation d’un temps de présence de l’utilisateur dans différentes zones. Le cas échéant, une heure de début et/ou une heure de fin sont également enregistrées pour chaque durée dans une zone.
[111] Les données de localisation peuvent également être traitées pour déterminer un type de déplacement de l’utilisateur au sein de la parcelle. Par exemple, selon la vitesse instantanée de déplacement, et par comparaison avec des modèles pré-établis, on peut attribuer le type de déplacement à une entrée parmi une liste possible de modes de déplacement, qui peut comprendre les entrées « piéton », « tracteur », « voiture », ...
[112] La zone en question peut être une parcelle agricole 1, ou peut être une zone 2 dite « hors zones parcelles », notamment si l’utilisateur passe du temps en dehors de l’exploitation (visite d’un fournisseur extérieur à l’exploitation, ou temps passé sur la route, par exemple).
[113] Dans le cas où la zone en question est dite « hors zones parcelles », on pourra mettre en œuvre un traitement différencié, selon que la localisation en question se situe dans la zone particulière 3 (par exemple la zone particulière « Siège ») ou non. Ainsi, si la mesure est à l’intérieur de la zone 2 « hors zones parcelles » et de la zone particulière 3 « Siège », elle est attribuée à la zone particulière 3 « Siège ». Sinon, elle est attribuée à la zone 2
« hors zones parcelles ».
[114] Le module de traitement détermine également des durées de temps dans des zones de transport en prenant en compte une succession de localisations détectées dans des zones prédéfinies différentes.
[115] Notamment, si le module de traitement a déterminé une première durée de temps dans une première zone de parcelle agricole 1 ou particulière 3 « Siège », et une deuxième durée de temps dans une deuxième zone de parcelle agricole 1 ou particulière 3 « Siège », espacées entre elles par un certaine durée de temps dans une zone 2 « hors zones parcelles », ladite certaine durée de temps « hors zones parcelles » est déterminée comme un temps de déplacement.
[116] Notamment, les temps de transport sont comptabilisés uniquement s’ils correspondent à des transports liés à l’activité professionnelle. Ne sont pas comptabilisés les temps de transport qui ne sont pas liés à l’activité professionnelle. Sont notamment comptabilisés les temps de transport entre une première zone de parcelle agricole et une deuxième zone de parcelle agricole. Sont également comptabilisés les temps de transport en direction d’une zone de parcelle agricole en provenance d’une zone hors parcelle agricole ou du siège, ou depuis une zone hors parcelle agricole ou du siège vers une zone de parcelle agricole. Ne sont notamment pas comptabilisés des déplacements entre une zone hors parcelle agricole ou le siège et une zone hors parcelle agricole et le siège.
[117] Le module de traitement détermine également des durées de temps de pause, correspondant à des durées de temps où le « smartphone » est immobile, « immobile » étant défini par référence à un minimum prédéfini de déplacement. Cette durée de temps d’immobilité n’est alors pas comptabilisée dans le temps passé dans une zone correspondant à une parcelle agricole 1. [118] Ainsi, dans l’exemple présenté ci-dessus, à la réception des données de localisation à un instant pour l’utilisateur, par exemple réalisée en une fois en fin de journée, le module de traitement 18 détermine une durée passée au siège, une durée passée au Champ #7, une durée passée au champ #3, une durée passée à l’élevage de volailles #2, une durée de transport, et une durée passée hors zones parcelles, ainsi que les instants de début et de fin de chaque intervalle.
[119] Notamment, si la route empruntée par l’utilisateur pour se rendre au hangar se situe en bordure d’une parcelle agricole 1, voire entre deux parcelles agricoles 1, les données de localisation à un instant enregistrées pendant cette période ne vont pas durablement être associées à une parcelle agricole et, par conséquent, ces données seront attribuées à un temps de trajet.
[120] Il existe plusieurs façons d’interpréter les données recueillies et préalablement traitées comme décrit plus haut.
[121] L’étape d’interprétation est par exemple mise en œuvre chaque jour. Elle peut être mise en œuvre à chaque fois que la réception de données de localisation indique qu’un utilisateur a changé de parcelle agricole. Ce sera notamment le cas si chaque tâche d’une activité agricole est associée à une unique parcelle.
[122] En régime continu, l’étape d’interprétation est mise en œuvre à un moment où on dispose déjà d’un calendrier pré-rempli de tâches agricoles effectuées par les utilisateurs, telles que déterminées par des mises en œuvre précédentes de l’étape d’interprétation.
[123] Premier mode de réalisation
[124] Selon un premier mode de réalisation, l’étape d’interprétation comprend une classification des données de localisation temporelle reçues, et une association de ces données à une tâche agricole. L’association à une tâche agricole se fait par exemple par identification d’une tâche agricole probable correspondant aux données de localisation temporelle, et notamment d’une tâche agricole la plus probable. Cette association se fait par un module informatisé d’interprétation 28 qui traite numériquement les données de localisation temporelle, les calendriers pré-remplis, et les activités agricoles définies pour l’exploitation agricole.
[125] Ainsi, dans l’exemple présenté, les données de localisation du type : L’utilisateur #2 est resté entre 8h17 et 12h14 dans la parcelle agricole « Elevage Dindes 3 » peut être traité en : M. Pierre Morin a effectué entre 8h17 et 12h14, soit pendant 3h57, l’étape « Ramassage Femelles Dindes » dans la parcelle agricole « Elevage Dindes 3 ». Cette classification est rendue possible par le fait que, dans la base de données, l’identifiant du « smartphone » de l’utilisateur #2 est associé à « M. Pierre Morin », et en ce que le calendrier de l’exploitation montre que, la veille, du temps a été attribué à la tâche agricole « Ramassage Femelles Dindes » dans la parcelle agricole « Elevage Dindes 3 » sans que le temps total passé récemment dans cette parcelle agricole n’atteigne encore les 18 heures prévues dans la base de données pour cette activité agricole pour cette exploitation.
[126] La recherche de tâche agricole probable correspondant aux données de localisation temporelle peut utiliser des données interprétées ou non associées à des tâches agricoles, des parcelles agricoles, des utilisateurs, des activités agricoles et/ou des calendriers.
[127] Ainsi, le module informatisé d’interprétation 28 détermine une tâche agricole la plus probable pour les données de localisation temporelle. Par exemple, le module informatisé d’interprétation détermine, pour une pluralité de tâches agricoles candidates sélectionnées parmi les tâches agricoles disponibles, une distance entre le modèle d’activité agricole comprenant cette tâche agricole disponible et des activités agricoles constituées à partir des tâches agricoles passées et des informations obtenues via les données de localisation temporelle. La distance en question peut être toute distance appropriée.
[128] Parfois, les données de localisation temporelle peuvent n’avoir qu’une corrélation lointaine avec les activités agricoles modélisées. Ce peut être le cas notamment si l’utilisateur entame une tâche agricole plus tôt que prévu dans les modèles d’activités agricoles (par exemple pour anticiper le fait qu’il ne sera pas en mesure d’accomplir la tâche agricole au moment voulu, ou parce que le climat le pousse à mettre en œuvre cette tâche agricole de manière anticipée), ou plus tard que prévu dans les modèles d’activités agricoles (par exemple en raison d’une charge d’activité ponctuelle).
[129] Par ailleurs, le module informatisé d’interprétation peut également prendre en compte d’autres activités agricoles du calendrier pour interpréter la tâche agricole en cours. Par exemple, le module informatisé d’interprétation prend en compte le fait qu’une activité agricole « élevage dindes » est récemment terminée dans la parcelle « Elevage Dindes 3 » pour déterminer qu’une nouvelle tâche agricole dans la parcelle « Elevage Dindes 3 » correspond à la première tâche agricole d’une nouvelle activité agricole « Elevage Dindes » dans cette parcelle.
[130] On peut prévoir que le module d’interprétation prenne en outre compte des données extérieures. Par « données extérieures », on fait référence à des données provenant de sources de données 29 extérieures à l’exploitation agricole. Une catégorie de données extérieures particulièrement pertinente dans le cadre de certains modes de réalisation de l’invention comprend des données météorologiques relatives à l’emplacement de l’exploitation. Les données météorologiques peuvent notamment comprendre l’existence, voire l’intensité d’une pluie pendant une période donnée. En effet, la pluie peut avoir une incidence sur la possibilité pratique ou la facilité à réaliser certaines tâches agricoles. Ainsi, dans ce cas, les données météorologiques peuvent être renseignées dans les modèles de tâches agricoles : il est renseigné que certaines tâches agricoles ne peuvent être mises en œuvre que par temps sec, ou préférentiellement par temps sec.
[131] En utilisation, le module informatisé d’interprétation 28 reçoit des données météorologiques relatives à la parcelle agricole depuis la source de données extérieures. Le module d’interprétation prend en compte en outre les données météorologiques pour déterminer la tâche agricole mise en œuvre.
[132] Selon un autre exemple, les données météorologiques peuvent comprendre des données de température ambiante. En effet, selon la météorologie, les processus biologiques des végétaux peuvent être altérés de manière à affecter les calendriers des activités agricoles. Ainsi, le module d’interprétation peut être adapté pour analyser les données météorologiques et en déduire un indice d’affectation des calendriers d’activité agricole. Les données météorologiques sont prises en compte sous forme d’une modulation du calendrier des modèles de tâches agricoles. Le module informatisé d’interprétation 28 peut comprendre un classificateur 30 relatif aux modèles d’activités agricoles définis pour l’exploitation agricole.
[133] En variante, le module informatisé d’interprétation 28 peut comprendre un classificateur 31 relatif aux modèles d’activités agricoles définis pour l’ensemble des exploitations agricoles.
[134] Le cas échéant, le module informatisé d’interprétation 28 met en œuvre ces deux classificateurs 30, 31 , et un module sélecteur 32 applique une étape informatisée de sélection permettant de déterminer une tâche agricole à partir des résultats des deux classificateurs. Cette sélection est par exemple réalisée en utilisant un niveau de confiance en le résultat fourni par chaque classificateur. En effet, comme chaque classificateur détermine une tâche agricole susceptible d’être associée aux données recueillies, une probabilité d’association peut être déterminée simultanément. Cette probabilité d’association est utilisée pour la sélection. L’historique 34 de sélection pour l’utilisateur ou l’exploitation peut également être utilisé pour la sélection.
[135] Le système qui vient d’être décrit peut également comprendre un module informatisé d’apprentissage 33. Le module informatisé d’apprentissage 33 est utilisé, de temps en temps, pour déterminer des modèles d’activités agricoles à partir des informations d’activités agricoles recueillies par le serveur relatives à l’exploitation agricole. Le module informatisé d’apprentissage 33 est adapté pour déterminer des modèles d’activité agricole à partir des informations d’activités agricoles recueillies par modification des modèles d’activité agricole pré-existants à partir des informations d’activités agricoles recueillies.
[136] Selon les réalisations, on peut prévoir que le module informatisé d’apprentissage 33 est propre à l’exploitation agricole. Ce faisant, on prend en compte les spécificités de l’exploitation agricole. En variante, le module informatisé d’apprentissage peut être commun à plusieurs exploitations agricoles, de manière à recueillir des informations d’activités agricoles en provenance de plusieurs exploitations agricoles, et à prendre en compte l’ensemble de ces informations pour la modification des modèles. Ce faisant, on détermine un modèle d’activité agricole statistiquement plus commun à l’ensemble des exploitations agricoles.
[137] Second mode de réalisation
[138] Dans un second mode de réalisation, la classification est réalisée par un réseau de neurones convolutif.
[139] Selon cet autre aspect, l’invention propose de ramener le problème technique de la classification de la série temporelle des données recueillies à un problème technique d’une classification d’une image représentative de cette série pour lequel le module d’interprétation 28 utilise un réseau de neurones convolutif.
[140] En effet, les réseaux de neurone convolutif obtiennent d’excellents résultats dans la classification d’image. L’objectif est de transformer les données recueillies en une image représentative de ces données pour ensuite entrainer un réseau de neurones à classifier les images construites selon la tâche agricole la plus probable à associer à une image sur la base du modèle d’activité agricole.
[141] Ainsi, à chaque fois qu’une étape d’interprétation est mise en œuvre (chaque jour ou encore lors d’un changement de parcelle etc.), la première étape consiste à créer l’image associée à partir des données recueillies.
[142] Construction des images pour entrainer le module IA sur la base d’un calendrier de tâche vérifié.
[143] De manière générale, l’image construite représente les données de localisations recueillies auxquelles sont ajoutées d’autres informations propres à la période temporelle couverte par les données de localisations recueillies.
[144] Chaque image est construite par superposition de plusieurs couches. Ces couches superposées construisent l’image. Les figures 8 et 9 illustrent des exemples d’images construites. [145] A partir des données de localisations à interpréter, il est possible de représenter sur l’image la trace GPS, ie la trajectoire de l’exploitant. Idéalement, il est possible de faire varier l’intensité du point de localisation d’après l’horodatage correspondant. De cette manière, le sens de la trajectoire est représenté sur l’image et la vitesse de déplacement également.
[146] Concrètement, la trace GPS peut être tracée en niveaux de blanc sur l’ensemble des autres couches de l’image ou faire l’objet d’une couche propre avec une intensité lumineuse et une teinte propres. .
[147] Les autres couches permettent de représenter d’autres informations propres à la période temporelle sur laquelle s’étalent les données de localisation horodatées recueillies. Ces informations peuvent être issues ou déduites des données de localisations et des bases de données d’exploitation agricoles et d’activités agricoles ou représenter des données extérieures.
[148] Chaque couche de l’image est dotée d’une intensité et d’une teinte. Cette intensité est déterminée d’après l’information à encoder sur la couche.
[149] Il est également possible que chaque couche soit formée par un pavage d’après deux intensités différentes d’une teinte donnée, par exemple formant un damier. L’intérêt est d’obtenir un plus grand nombre d’informations sur chaque couche. En effet, une intensité seule peut simplement varier de 0 à 255 ce qui offre 256 possibilités alors qu’un damier d’après deux intensités permet 256x256 possibilités. De cette manière, il est, par exemple, possible d’attribuer à chaque type de parcelle un couple d’intensité
[150] Nous allons à présent présenter des exemples d’informations pouvant être représentées, ou encodées, sur les couches de l’image :
[151] Par exemple, il est possible d’encoder la tâche précédente connue exécutée dans une parcelle déterminée par les données de localisations. Dans ce cas, à chaque tâche agricole (par exemple, « Déchargement dindes » ou « Ramassage femelles dindes ») correspond une intensité d’une teinte, ou un couple d’intensité d’une teinte pour, par exemple, réaliser un pavage de la couche. La représentation dans l’image de la tâche précédente est alors réalisée avec l’intensité correspondante..
[152] Par exemple, il est possible d’encoder sur une couche un ou des identifiant d’emplacement des parcelles (Elevage 1 par exemple) déterminées d’après les données de localisations reçues. Ici aussi, à chaque identifiant de parcelle est associée une intensité ou un couple d’intensité.
[153] Par exemple, il est possible d’encoder sur une couche le type de zone à laquelle correspondent les données de localisations reçues. De même encore, on peut représenter le type de zone (zone 1 , zone 2, zone 3) d’après une intensité ou un couple d’intensité dans le cas d’un pavage de la couche.
[154] Par exemple, il est aussi possible d’encoder le type de déplacement de l’utilisateur.
[155] Tout type de données, ou d’informations, propre à une activité agricole, et donc permettant une meilleure classification, peut être encodée sur une couche de l’image :
- les données de zonage temporel,
- la parcelle agricole déterminée d’après les données de zonage temporel et la base de données d’exploitation agricole,
- le contour de la parcelle agricole,
- la tâche précédente effectuée dans la parcelle agricole déterminée,
- la durée écoulée depuis la dernière tache effectuée,
- le type de parcelle agricole,
- l’utilisateur utilisant le système portatif, ou encore
- la machine utilisant le système portatif.
[156] Par exemple, on peut donc intégrer à l’image le contour d’une parcelle agricole déterminée d’après les données de localisation. Ce contour peut être intégré à n’importe quelque couche pourvu qu’il soit distinguable des informations déjà encodées dessus. Par exemple, on peut l’intégrer à une couche selon une intensité autre que celle(s) déjà utilisée(s). On peut aussi prévoir que les contours soient en noir. De tels contours sont visibles dans les images construites illustrées aux figures 8 et 9.
[157] De même, les données de zonage temporel sont visibles dans les images construites illustrées aux figures 8 et 9.
[158] Il est également possible d’intégrer à l’image des motifs blancs, ou dans une autre teinte avec une intensité donnée, à partir de primitives géométriques, par exemple des cercles ou des carrés, à une couche de l’image. Ces motifs géométriques peuvent être paramétrés en fonction d’une information à représenter corrélée avec l’information déterminant l’intensité ou le couple d’intensité de la couche ou en fonction de la même information déterminant l’intensité de la couche. Par exemple, un motif de cercle blanc dont le diamètre indique le temps écoulé depuis la dernière tâche effectuée dans la parcelle agricole déterminée peut être intégré à la couche encodant l’information « tâche précédente effectuée dans la parcelle agricole déterminée ». . [159] Comme dit plus haut, tout type de données propre à une activité agricole, et donc permettant une meilleure classification, peut être encodée sur une couche de l’image. Le principe de construction de la couche dédiée à ces données reste le même :
- on associe à chaque valeur de la donnée, ou l’information, à encoder une intensité (ou un couple d’intensité),
- le cas échéant, un motif généré à partir d’une primitive géométrique est associé à ces données et paramétré d’après les valeurs prises par celles-ci.
[160] La couche encodant est alors générée d’après les associations déterminées et, le cas échéant, le paramétrage déterminé.
[161] De plus, dans le cas d’un pavage du plan de la couche, il est possible de paramétrer le pavage (la taille et la forme de la maille élémentaire en cas de pavage régulier par exemple, ou la définition, ou épaisseur du trait, du pavage) en fonction des valeurs prises par les données à représenter.
[162] Les données propres à l’activité rassemblées sur une même couche peuvent être différentes mais liées, ou corrélées, entre elles : par exemple, le pavage d’une couche peut être déterminé d’après la dernière tache effectuée dans la parcelle agricole et le motif généré à partir d’une primitive géométrique peut être paramétré d’après le temps écoulé depuis cette dernière tâche. Ainsi, les deux informations encodées sur la couche sont différentes (dernière tâche et durée écoulée depuis celle-ci) mais liées entre elles.
[163] Les précédents exemples donnés portent sur des informations issues des données de localisations recueillies directement (trace GPS) ou après comparaison avec les bases de données d’exploitation agricole ou d’activités agricoles.
[164] Données extérieures
[165] Dans le second mode de réalisation, il est également possible de prendre en compte des données extérieures.
[166] Par « données extérieures », on fait référence à des données provenant de sources de données 29 extérieures à l’exploitation agricole. L’objectif étant d’encoder le maximum d’informations issues des données recueillies sur l’image afin que celle-ci soit la plus représentative de celles-ci, certaines couches de l’image peuvent être construites à partir de ces données extérieures.
[167] Une catégorie de données extérieures particulièrement pertinente dans le cadre de certains modes de réalisation de l’invention comprend des données météorologiques relatives à l’emplacement de l’exploitation. Les données météorologiques peuvent notamment comprendre l’existence, voire l’intensité d’une pluie pendant une période donnée [168] Ainsi, dans ce mode de réalisation aussi, il est également possible d’encoder sur une couche supplémentaire ces données météorologiques.
[169] En reprenant les exemples de couches données précédemment, il est alors possible de prévoir une couche encodant les informations météorologiques.
[170] On peut prévoir d’encoder des informations météorologiques de la journée telles que la luminosité solaire, la vitesse du vent, les précipitations. Il est possible d’encoder ces mêmes informations pour le lendemain et le surlendemain. Dans ce cas, on a recours aux prévisions météorologiques en plus des données météorologiques issues des bases de données externes. On divise alors cette couche, par exemple en trois bandes verticales ou horizontales chacune représentant un jour parmi les trois.
[171] Des données issues d’autres exploitations peuvent être pertinentes pour déterminer la tâche agricole effectuée pendant une période temporelle donnée par l’utilisateur. Par exemple, lors de la saison des vendanges, il est fort probable que les exploitants d’une même zone géographique récoltent à des périodes très similaires. De même, les périodes de semis chez les exploitants agricoles, ou de poulinage chez les éleveurs de chevaux ont généralement des périodes et des durées précises dans l’année. Ainsi, permettre au classificateur de prendre en compte une telle information est utile.
[172] Ainsi, il est possible de dédier une couche de l’image à des informations propres à d’autres exploitations et en particulier les tâches agricoles effectuées par d’autres exploitants du même domaine d’activité que l’utilisateur.
[173] Ainsi, les données externes pouvant être encodées sur une couche, potentiellement une couche sur laquelle des données propres à l’exploitation agricole sont encodées, peuvent notamment être :
- les prévisions météorologiques, à un jour ou à trois jours par exemple,
- les activités réalisées dans d’autres exploitations agricoles au même moment, à une même période dans l’année ou dans des conditions météorologiques similaires, ou encore
- le ou les cahiers des charges de production.
[174] Entrainement
[175] Puis on entraine une première fois le classificateur en associant à chaque image construite comme expliqué précédemment une tâche. Cette association est réalisée lorsque l’exploitant indique manuellement les tâches effectuées dans chaque parcelle au cours de la journée. Le module d’interprétation dispose alors d’une image construite pour chaque parcelle et de la tache renseignée manuellement. [176] La figure 10 illustre un exemple de résultats d’entrainement du classificateur. La colonne tâche « Tâche » indique la tâche connue dont les données de zonage temporel sont soumises au classificateur afin qu’il les associe à une tâche agricole.
[177] La colonne « Tâche IA » indique le résultat de classification par le classificateur. Pour classifier les données de localisations, le classificateur créée une image illustrée à la colonne « Image ».
[178] Dans ce mode de réalisation, les images construites comprennent un contour de la parcelle agricole, par exemple « Grand champ », et une trace GPS issues des données de localisation récoltées.
[179] A la troisième ligne de la figure 10, la tâche associée aux données de localisation est « Traitement herbicide » (colonne « Tache IA ») alors que la tâche connue est « Roulage » d’après la colonne « Tâche ». Cette association par le classificateur est un exemple résultat erroné qui permettent d’entrainer le classificateur.
[180] Alternativement, si chaque image correspond à une journée, le classificateur dispose pour chaque image d’une suite de tâches effectuées dans la journée.
[181] L’entrainement du classificateur peut être actualisé dès que de nouvelles tâches sont assignées à des images (par exemple à chaque classification, ou encore à chaque classification confirmée manuellement) et/ou on peut entrainer le classificateur à des moments ponctuels sur la base de nouvelles données (propre à l’exploitation ou non) à partir desquelles il est possible de construire de nouvelles images associées à des tâches agricoles connues.
[182] Il est encore possible que l’utilisateur, ie l’exploitant agricole généralement, renseigne manuellement ses activités, et les tâches associées, réalisées dans la journée, ou toute période de temps appropriée, afin de créer des images spécifiques à l’exploitation pour lesquelles les activités et tâches associées sont connues.
[183] Les tâches connues utilisées pour entrainer le classificateur peuvent être issues d’autres exploitations. De cette manière, il est possible d’utiliser des résultats vérifiés issues d’autres exploitations, ie des images associées à des tâches connues réalisées dans d’autres exploitations. Ceci peut être utile pour le premier entrainement du classificateur d’une exploitation donnée. Mais cela peut aussi permettre de prendre en considération des particularités communes à des exploitations similaires (géographiquement ou par secteur d’activités par exemple). [184] Il est possible de tester le classificateur en lui soumettant des images pour lesquelles la tâche à attribuer est connue comme expliqué plus haut. On constate alors si les résultats sont satisfaisants. De même, les images de test peuvent être issues d’autres exploitations.
[185] Moment de mise en œuvre et séquençage du lot de données à interpréter
[186] Si l’étape d’interprétation est mise en œuvre en fonction d’une durée prédéterminée de collecte de données, ou encore d’une quantité minimale de données recueillies ou tout simplement à un instant quelconque, il est possible de représenter toutes les données sur une seule image et d’entrainer le classificateur à reconnaître les tâches successives effectuées pendant la période de la collecte de données.
[187] Dans ce cas, d’après la construction des couches expliquées précédemment en exemple, l’image peut contenir plusieurs parcelles sur la couche représentant les parcelles et pour chaque parcelle représentée, les couches de zones et de tâches précédentes représentent les informations de zones et de tâches précédentes pour chaque parcelle en faisant varier les intensités ou couples d’intensités de zone ou de tâche d’une parcelle à l’autre.
[188] Cependant, on préfère que l’étape d’interprétation soit réalisée pour un lot de données de localisation correspondant à une parcelle donnée ou encore que chaque changement de parcelle détectée d’après les données de localisation entraine la création d’une nouvelle image. Les images construites des figures 8 et 9 illustrent ce mode de réalisation.
[189] Par exemple, en paramétrant un nombre minimal de points de localisation situés en dehors de la dernière parcelle agricole déterminée (par exemple si les coordonnées x et y ne vérifient plus les équations de la dernière parcelle agricole déterminée d’après la base de données d’exploitations agricoles), on peut déterminer que les données d’ordre chronologique supérieur ne correspondent plus à la dernière parcelle déterminée donc que ces données ne doivent pas être prises en compte pour la construction de l’image associée à la dernière parcelle déterminée.
[190] De même, en paramétrant un nombre minimal de points de localisation situés à l’intérieur d’une parcelle agricole, on détermine une parcelle agricole et on considère que les données d’ordre chronologique supérieur appartiennent à celle-ci et doivent donc être prises en compte pour la construction de l’image.
[191] Autrement dit, on séquence le lot de données recueillies à interpréter parcelle agricole par parcelle agricole. De cette manière, on réalise un séquençage par parcelles du lot de données recueillies à interpréter. Puis on construit une image pour chaque lot de données correspondant à une parcelle agricole. [192] La distinction des zones 1 , 2 et 3 peut aider à ce séquençage puisque les zones particulières 3 correspondent à des localisations hors parcelles agricoles.
[193] Ainsi, à une image correspond une parcelle agricole de l’exploitation et le classificateur a pour objectif d’attribuer à l’image la tâche agricole la plus probablement effectuée dans la parcelle.
[194] Dans ce cas, puisque chaque image correspond à une parcelle déterminée, les exemples précédents se simplifient : sur chaque image, une couche correspond à la précédente tâche effectuée dans la parcelle, une couche correspond au type de zone à laquelle appartient la parcelle, une couche correspond à l’identifiant de la parcelle. Le motif, par exemple, un cercle, représente le temps écoulé depuis la dernière tâche effectuée (paramétré d’après le diamètre du cercle) et enfin, on intègre la trace GPS de la trajectoire (comprise dans la parcelle donc) et le contour de la parcelle.
[195] La figure 13 illustre les données manipulées par le classificateur. Sur la base des données de localisation recueillies, le module informatisé d’interprétation détermine l’exploitation, la parcelle, la durée passée dans la parcelle.
[196] A partir de ces données, le classificateur construit une image comme illustrées aux figures 8 et 9
[197] De plus, l’utilisateur est déterminé par l’identifiant du dispositif portable autonome.
[198] Interprétation
[199] On se place dans le cas où à chaque image correspond une parcelle déterminée d’après les données de localisations et le séquençage du lot de données à interpréter expliqué précédemment.
[200] Une fois entrainé, le classificateur par réseau de neurone est apte à classifier chaque image : pour chaque image d’entrée du classificateur, il attribue à cette image la tâche agricole la plus probable.
[201] Par exemple, dans le mode de réalisation illustré à la figure 11 , chaque ligne correspond à une version du classificateur (colonne « model »). La colonne « Pourcentage de réussite » indique la performance du classificateur sur la base des résultats de classification du modèle réunis dans une base de données de résultats (colonne « Nom de l’export »).
[202] Un exemple de résultats de classification des données de zonage temporel en une tâche agricole est illustré à la figure 12. Les lignes de la colonne « Sous-ateliers » indiquent les parcelles correspondant à chaque cépage d’une exploitation viticole : « Duras », « Fer servadou », « Mauzac » ou encore « Loin de l’œil ». [203] Puis en colonne, les tâches identifiées sont listées : « Désherbage mécanique intercep », « Ecimage/rognage », « Traitement fongicide », « Entretien palisses », « Relevage/accolage », « Traitement insecticide », « Désherbage mécanique inter-rangées », « Attachage », « Taille d’hiver », « Fertilisation minérale » et « Broyage sarments ».
[204] Le classificateur permet de reconnaître la tâche réalisée dans chaque parcelle et pendant combien de temps sur une période de temps prédéterminée. Dans cet exemple, la période de temps est l’année 2021. Néanmoins, il pourrait s’agir d’une journée ou d’une semaine si bien qu’il est possible de connaître son emploi du temps grâce au classificateur.
[205] Des durées plus courtes sont illustrées à la figure 13 à la colonne « Durée ». Ici, la tâche effectuée déterminée par le classificateur est « Epandage fumier ».
[206] Ainsi, à la différence des tâches renseignées manuellement par l’exploitant, les tâches identifiées sont renseignées par le classificateur.
[207] Etape d’édition
[208] Quel que soit le mode de réalisation utilisé, le classificateur détermine une tâche effectuée la plus probable qu’il propose à l’utilisateur.
[209] Le cas échéant, l’utilisateur peut accéder à une interface d’édition, lui permettant de contrôler voire d’éditer les données saisies. Ce peut être utile notamment si l’utilisateur a besoin de déclarer une activité imprévue, tel qu’un appel téléphonique, une panne, ou autre. L’interface d’édition peut être disponible depuis le menu 19 de l’interface du programme d’ordinateur du « smartphone » (cf Figure 3), par une interface web accessible depuis un micro-ordinateur, et permettre de modifier les données au niveau du « smartphone » avant envoi au serveur, ou au niveau du serveur 7.
[210] Ainsi, le serveur envoie au « smartphone » une information relative à la tâche agricole déterminée par le module d’interprétation, et le « smartphone » présente, sur une interface graphique, la tâche agricole déterminée, et offre à l’utilisateur la possibilité de confirmer ou non la tâche agricole déterminée. L’information saisie par l’utilisateur est renvoyée au serveur, qui peut la prendre en compte pour l’enregistrement définitif d’une tâche agricole 35 dans le calendrier de l’utilisateur. En cas de non-confirmation par l’utilisateur de la tâche agricole déterminée par le module d’interprétation, l’utilisateur peut être invité à saisir manuellement dans une liste l’activité agricole réellement effectuée. Cette étape de validation manuelle est effectuée de préférence régulièrement, par exemple quotidiennement, afin que les tâches agricoles réellement effectuées soient prises en compte dès le lendemain par le module d’interprétation. [211] Comme on peut le voir, toutefois, sur la figure 3, l’étendue surfacique du menu 19 est petite relativement à l’étendue surfacique du bouton de mise en service 11. Il en résulte que le bouton de mise en service 11 est l’interface principale de cet écran.
[212] Prise en compte des résultats de classification
[213] Selon les performances du classificateur, quel que soit le mode de réalisation utilisé, il est possible de considérer que les tâches classifiées par le module de traitement mais non confirmées manuellement peuvent être réutilisées dans la phase d’entrainement du classificateur.
[214] Le cas échéant, il est possible de pondérer l’importance des images de tâches agricoles connues utilisées pour entrainer le classificateur : les tâches classifiées mais non confirmées peuvent par exemple être de poids moindre que les tâches classifiées et confirmées manuellement et les tâches renseignées manuellement.
[215] Etape d’analyse
[216] L’exploitant peut accéder aux données traitées depuis une interface de supervision 20. On notera que l’exploitant peut être l’utilisateur mais que, dans certains cas, tous les utilisateurs n’ont pas accès à l’interface de supervision 20. L’accès à l’interface de supervision 20 peut être géré par des systèmes d’authentification. L’exploitant peut ainsi accéder aux informations enregistrées pour un ou plusieurs utilisateurs associés à son exploitation, y compris lui-même, le cas échéant.
[217] L’accès est par exemple réalisé depuis un micro-ordinateur personnel 21 ou autre appareil électronique connecté au serveur 7 par l’intermédiaire d’une page accessible par l’intermédiaire du réseau Internet 16.
[218] Comme on peut le voir sur la figure 4, l’exploitant peut par exemple accéder, pour un utilisateur donné, à l’ensemble des lignes traitées pour l’utilisateur.
[219] Toutefois, les informations peuvent également être présentées de manière non- chronologique, par exemple cumulées sur une période paramétrable, sur un ou plusieurs utilisateurs et/ou une ou plusieurs zones. L’exploitant peut ainsi déterminer notamment le temps global passé dans une zone particulière, le temps global passé hors-zone, le temps global passé au siège, le temps global passé en pause et/ou le temps global passé en déplacement, sur une période paramétrable, et/ou l’évolution de ces grandeurs au cours du temps, comme représenté par exemple à la figure 5.
[220] Variantes
[221] En variante, on notera que le procédé, quel que soit le mode de réalisation, n’est pas forcément mis en œuvre par un « smartphone » de l’utilisateur. Il pourrait s’agir d’un boîtier électronique dédié présentant les fonctionnalités nécessaires. Par exemple, le boîtier peut comporter une interface homme-machine simplifiée comprenant un bouton marche/arrêt mécanique.
[222] Une partie des procédés décrits ci-dessus peuvent être mis en œuvre, quel que soit le mode de réalisation, par des programmes d’ordinateur exécutés sur un ou des processeurs. Plusieurs objets dotés de processeurs peuvent travailler en réseau, les étapes du procédé peuvent être mises en œuvre par l’un ou l’autre, ou une pluralité de processeurs communiquant entre eux.
[223] Le procédé, quel que soit le mode de réalisation, qui vient d’être décrit peut être mis en œuvre pour chaque travailleur agricole muni d’un système portatif 4.
[224] En variante, quel que soit le mode de réalisation, une tâche agricole donnée peut nécessiter la présence simultanée de plusieurs utilisateurs. Dans ce cas, le module informatisé d’interprétation 28 détermine la tâche agricole à partir des données de localisation temporelle reçues de plusieurs systèmes portatifs.
[225] Le cas échéant, certaines tâches agricoles peuvent être modélisées en unités homme. heure plutôt qu’en unités horaires. Ainsi, si une tâche agricole est modélisée par exemple en 18 homme. heures, le module d’interprétation est en mesure de la reconnaître, qu’elle soit mise en œuvre par un utilisateur pendant environ 18 heures (réparties sur plusieurs journées de travail), ou selon des organisations plus complexes (deux utilisateurs pendant environ 9 heures, voire un utilisateur pendant 9 heures puis deux utilisateurs pendant 4,5 heures, ou autres scénarios).
[226] En variante, quel que soit le mode de réalisation, le module d’interprétation 28 détermine la tâche agricole en prenant en compte le type de déplacement estimé de l’utilisateur, si les modèles d’activités agricoles sont paramétrés avec le type de déplacement.
[227] En variante encore, quel que soit le mode de réalisation, certaines tâches agricoles nécessitent la mise en œuvre de machines agricoles. Selon un mode de réalisation, une machine agricole d’une exploitation agricole est munie d’un dispositif présentant des similarités avec le système portatif des utilisateurs. Ce dispositif stocke un identifiant de la machine agricole, comprend un module de géolocalisation permettant de déterminer la localisation de la machine, et des moyens de communication lui permettant, à intervalles réguliers, d’émettre en direction du serveur des informations concernant sa localisation temporelle. [228] Les tâches agricoles peuvent être modélisées pour prendre en compte l’utilisation d’un type de machine agricole. Par exemple, la tâche agricole « Labour » est modélisée pour prendre en compte l’utilisation d’un tracteur.
[229] Lors de la configuration du système, l’exploitant agricole peut renseigner les identifiants des différentes machines agricoles de l’exploitation munies de dispositifs de localisation temporelle, ainsi que le type de ces machines agricoles. Par exemple, si l’exploitant dispose de plusieurs tracteurs différents, chacun affecté à un identifiant distant, chacun peut être renseigné dans la catégorie « tracteur ».
[230] Dans ce cas, le module informatisé d’interprétation 28 détermine la tâche agricole à partir des données de localisation temporelle reçues conjointement d’un système portatif 4 porté par un utilisateur et de données de localisation temporelle issues d’une machine agricole. Ainsi, la présence simultanée d’un utilisateur agricole et d’une machine agricole sur une parcelle sont prises en compte par le module informatisé d’interprétation 28 pour reconnaître la tâche agricole.
[231] Spécificité du traitement
[232] Le traitement des données de localisation recueillies afin d’associer ces données à une tâche agricole est différent des traitements de données connus en ce qu’il ne réalise pas une comparaison entre un paramètre idéal et une donnée recueillie ou calculée à partir des données recueillies.
[233] Certains traitement de données compare une durée passée dans une parcelle à une date déterminée d’après les données de localisation récoltées à un emploi du temps prérempli pour ensuite déduire de cette comparaison la tâche agricole effectuée d’après les données de localisations récoltées.
[234] D’autres traitements de données comparent des données autres que les données de localisation avec des données modèles pré-renseignées.
[235] Une spécificité du traitement de données selon l’invention est donc de ne pas comparer les données de localisations, ou des données calculées à partir de celles-ci, avec des données modèles.
[236] Le traitement des données de localisation selon l’invention utilise seulement les liens temporels entre les tâches agricoles d’une ou plusieurs activités agricoles d’après les modèles d’activités agricoles définis pour déduire des données de localisations la tâche agricole effectuée.
[237] Références
1 Parcelle agricole
2 Zone complémentaire
3 zone particulière
4 système portatif
5 base de données
Module de communication 6
Serveur central 7
Interface homme-machine 8
Ecran tactile 9
Ecran de commande 10
Bouton de mise en service 11
Horloge 12
Module de géolocalisation 13
Mémoire 14
Module de communication 15
Réseau 16
Routeur 17
Module de traitement 18
Menu 19
Interface de supervision 20
Micro-ordinateur personnel 21
Processeur 22
Processeur 23
Processeur 24 Interface homme-machine 25
Module de communication 26 module informatisé de pré-traitement 27 module informatisé d’interprétation 28 sources de données 29 extérieures classificateurs 30, 31 module sélecteur 32 module informatisé d’apprentissage 33 historique 34 tâche agricole 35

Claims

32 REVENDICATIONS
[Revendication 1] Procédé informatisé d’interprétation de données de localisation d’au moins un travailleur agricole, dans lequel :
- on fournit une base de données d’activités agricoles comprenant, pour chaque activité agricole, un agenda d’au moins deux tâches agricoles, chaque tâche agricole étant caractérisée par un identifiant d’emplacement et une position dans l’agenda,
- on fournit une base de données d’exploitation agricole, la base de données comprenant au moins une parcelle agricole caractérisée par un identifiant d’emplacement et une localisation,
- on fournit des données de zonage temporel de l’au moins un travailleur agricole reçues depuis un dispositif électronique portatif communiquant du travailleur agricole, et
- un module informatisé d’interprétation (28) associe lesdites données de zonage temporel à une tâche agricole au moyen desdites données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole, le module informatisé d’interprétation (28) associe lesdites données de zonage temporel à une tâche agricole au moyen desdites données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole d’après les étapes suivantes :
- le module informatisé d’interprétation (28) construit une image pour une parcelle agricole déterminée à partir des données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole,
- le module informatisé d’interprétation (28) associe l’image construite à une tâche agricole effectuée dans la parcelle agricole grâce à un réseau de neurones convolutif.
[Revendication 2] Procédé informatisé selon la revendication 1 , dans lequel le module d’interprétation (28) applique un classificateur (30) relatif aux activités agricoles définis pour l’exploitation agricole et/ou un classificateur (31) relatif aux activités agricoles définis pour un ensemble d’exploitations agricoles et, dans le cas où les deux classificateurs sont appliqués, le module d’interprétation (28) sélectionne une tâche agricole à partir des résultats des deux classificateurs.
[Revendication 3] Procédé informatisé selon la revendication 1 ou selon la revendication 2, dans lequel :
- on fournit des données de zonage temporel d’au moins une machine agricole reçues depuis un dispositif électronique portatif communiquant de la machine agricole, et
- le module informatisé d’interprétation (28) associe les données de zonage temporel du 33 travailleur agricole à une tâche agricole au moyen en outre des données de zonage temporel de la machine agricole.
[Revendication 4] Procédé informatisé selon l’une quelconque des revendications 1 à 3, dans lequel le module informatisé d’interprétation (28) associe les données de zonage temporel du travailleur agricole à une tâche agricole au moyen en outre de données météorologiques relatives à l’exploitation agricole obtenues d’une base de données météorologiques.
[Revendication 5] Procédé informatisé selon l’une quelconque des revendications 1 à 4, comprenant en outre une mise à jour de la base de données d’activités agricoles à partir au moins des données de localisation interprétées.
[Revendication 6] Procédé selon la revendication 1 dans lequel l’image construite comprend une trace formée par les données de zonage de temporel et au moins une primitive géométrique paramétrée d’après les données de données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole ; au moins une intensité de l’image étant déterminée d’après les données de zonage temporel et les bases de données d’activités agricoles et d’exploitation agricole.
[Revendication 7] Procédé selon l’une quelconque des revendications 1 et 6 pour lequel le module informatisé d’interprétation (28) encode au moins une information sur une couche d’une pluralité de couches formant l’image ; cette au moins une information étant issue ou déduite des bases de données de zonage temporel et des bases de données d’activités agricoles et d’exploitation agricole.
[Revendication 8] Procédé selon la revendication précédente selon lequel la au moins une information encodée est :
- la trace formée par les données de zonage temporel,
- la parcelle agricole déterminée d’après les données de zonage temporel et la base de données d’exploitation agricole,
- une trace de la parcelle agricole,
- une tâche précédente effectuée dans la parcelle agricole déterminée,
- une durée écoulée depuis la dernière tache effectuée, - un type de parcelle agricole,
- un utilisateur utilisant le système portatif,
- une machine utilisant le système portatif,
- une prévision météorologique, ou
- une activité réalisée dans d’autres exploitations agricoles.
[Revendication 9] Procédé selon l’une quelconque des revendications 1 et 6 à 8 dans lequel le module informatisé d’interprétation (28) entraine le réseau de neurones convolutif avec des images associées à :
- une tâche agricole issue de la base de données d’activités agricole d’une exploitation agricole de l’utilisateur ou d’exploitations extérieures,
- une tâche agricole renseignée par l’utilisateur, et/ou
- une tâche agricole déterminée précédemment par le module d’interprétation (28).
[Revendication 10] Programme d’ordinateur comprenant des instructions de code de programme pour l’exécution des étapes du procédé selon l’une quelconque des revendications 1 à 9 lorsque ledit programme est exécuté sur un ordinateur.
[Revendication 11] Système informatisé d’interprétation de données de localisation d’au moins un travailleur agricole comprenant un module informatisé d’interprétation (28) adapté pour associer des données de zonage temporel d’au moins un travailleur agricole reçues depuis un dispositif électronique portatif (4) communiquant du travailleur agricole à une tâche agricole au moyen
- d’une base de données d’activités agricoles comprenant, pour chaque activité agricole, un agenda d’au moins deux tâches agricoles, chaque tâche agricole étant caractérisée par un identifiant d’emplacement et une position dans l’agenda et
- d’une base de données d’exploitation agricole comprenant au moins une parcelle agricole caractérisée par un identifiant d’emplacement et une localisation, le module informatisé d’interprétation (28) étant adapté pour associer lesdites données de zonage temporel à une tâche agricole au moyen desdites données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole d’après les étapes suivantes :
- le module informatisé d’interprétation (28) construit une image pour une parcelle agricole déterminée à partir des données de zonage temporel et desdites bases de données d’activités agricoles et d’exploitation agricole, - le module informatisé d’interprétation (28) associe l’image construite à une tâche agricole effectuée dans la parcelle agricole grâce à un réseau de neurones convolutif.
[Revendication 12] Système informatisé selon la revendication 11 , comprenant en outre au moins un dispositif électronique portatif communiquant (4) du travailleur agricole adapté pour communiquer des données de zonage temporel du travailleur agricole au module informatisé d’interprétation.
[Revendication 13] Système informatisé selon la revendication 11 ou 12, comprenant en outre un dispositif électronique portatif communiquant d’une machine agricole adapté pour communiquer des données de zonage temporel de la machine agricole, et dans lequel le module informatisé d’interprétation est adapté pour associer des données de zonage temporel du travailleur agricole en outre à partir des données de zonage temporel de la machine agricole.
PCT/EP2022/052371 2021-02-01 2022-02-01 Système et procédé informatisé d'interprétation de données de localisation d'au moins un travailleur agricole, et programme d'ordinateur WO2022162246A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CA3206924A CA3206924A1 (fr) 2021-02-01 2022-02-01 Systeme et procede informatise d'interpretation de donnees de localisation d'au moins un travailleur agricole, et programme d'ordinateur
AU2022212646A AU2022212646A1 (en) 2021-02-01 2022-02-01 Computerised system and method for interpreting location data of at least one agricultural worker, and computer program
EP22702977.4A EP4285614A1 (fr) 2021-02-01 2022-02-01 Système et procédé informatisé d'interprétation de données de localisation d'au moins un travailleur agricole, et programme d'ordinateur

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2100930 2021-02-01
FR2100930A FR3110042B1 (fr) 2020-04-27 2021-02-01 Système et procédé informatisé d’interprétation de données de localisation d’au moins un travailleur agricole, et programme d’ordinateur

Publications (1)

Publication Number Publication Date
WO2022162246A1 true WO2022162246A1 (fr) 2022-08-04

Family

ID=78649418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/052371 WO2022162246A1 (fr) 2021-02-01 2022-02-01 Système et procédé informatisé d'interprétation de données de localisation d'au moins un travailleur agricole, et programme d'ordinateur

Country Status (4)

Country Link
EP (1) EP4285614A1 (fr)
AU (1) AU2022212646A1 (fr)
CA (1) CA3206924A1 (fr)
WO (1) WO2022162246A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160283887A1 (en) * 2015-03-26 2016-09-29 Tata Consultancy Services Limited System and method for agricultural activity monitoring and training
EP3239897A1 (fr) * 2016-04-29 2017-11-01 Fujitsu Limited Procédé et appareil pour déterminer la similitude entre des ensembles de données à plusieurs variables
EP3451231A1 (fr) * 2017-08-31 2019-03-06 Fujitsu Limited Imagification de données à plusieurs variables
US20200045873A1 (en) * 2017-04-18 2020-02-13 CropZilla Software, Inc. Machine Control System Providing Actionable Management Information and Insight Using Agricultural Telematics

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160283887A1 (en) * 2015-03-26 2016-09-29 Tata Consultancy Services Limited System and method for agricultural activity monitoring and training
EP3239897A1 (fr) * 2016-04-29 2017-11-01 Fujitsu Limited Procédé et appareil pour déterminer la similitude entre des ensembles de données à plusieurs variables
US20200045873A1 (en) * 2017-04-18 2020-02-13 CropZilla Software, Inc. Machine Control System Providing Actionable Management Information and Insight Using Agricultural Telematics
EP3451231A1 (fr) * 2017-08-31 2019-03-06 Fujitsu Limited Imagification de données à plusieurs variables

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JAFARI ALI ET AL: "SensorNet: A Scalable and Low-Power Deep Convolutional Neural Network for Multimodal Data Classification", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS I: REGULAR PAPERS, IEEE, US, vol. 66, no. 1, 1 January 2019 (2019-01-01), pages 274 - 287, XP011699683, ISSN: 1549-8328, [retrieved on 20181206], DOI: 10.1109/TCSI.2018.2848647 *
JIANG WENCHAO WJM84@MST EDU ET AL: "Human Activity Recognition Using Wearable Sensors by Deep Convolutional Neural Networks", MULTIMEDIA, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 13 October 2015 (2015-10-13), pages 1307 - 1310, XP058509796, ISBN: 978-1-4503-3459-4, DOI: 10.1145/2733373.2806333 *
SHARMA SOMYA ET AL: "Mobile sensing for agriculture activities detection", 2013 IEEE GLOBAL HUMANITARIAN TECHNOLOGY CONFERENCE (GHTC), IEEE, 20 October 2013 (2013-10-20), pages 337 - 342, XP032551563, DOI: 10.1109/GHTC.2013.6713707 *

Also Published As

Publication number Publication date
CA3206924A1 (fr) 2022-08-04
AU2022212646A1 (en) 2023-09-07
EP4285614A1 (fr) 2023-12-06

Similar Documents

Publication Publication Date Title
US8504234B2 (en) Robotic pesticide application
US8321365B2 (en) Horticultural knowledge base for managing yards and gardens
ES2410370T3 (es) Sistema y método para gestionar el uso de recursos
US8437879B2 (en) System and method for providing prescribed resources to plants
US20120046837A1 (en) Automated plant problem resolution
US20100268391A1 (en) Resource Use Management
CN114144061A (zh) 用于基于图像识别的种植物处理的方法
CN103430170B (zh) 操作辅助程序以及操作辅助装置
US20240023536A1 (en) Method for remediating developmentally delayed plants
CN111226241A (zh) 用于土地管理的手持设备
FR3001101A1 (fr) Dispositif agricole automatise autonome
Hurley et al. Gathering, buying, and growing sweetgrass (Muhlenbergia sericea): Urbanization and social networking in the sweetgrass basket-making industry of lowcountry South Carolina
WO2022162246A1 (fr) Système et procédé informatisé d'interprétation de données de localisation d'au moins un travailleur agricole, et programme d'ordinateur
Franco-Maass et al. A local knowledge-based approach to predict anthropic harvesting pressure zones of wild edible mushrooms as a tool for forest conservation in Central Mexico
FR3109690A1 (fr) Système et procédé informatisé d’interprétation de données de localisation d’au moins un travailleur agricole, et programme d’ordinateur
CN114971212A (zh) 一种基于农业物联网的元宇宙交互系统及其方法
Canavera et al. A sensorless, Big Data based approach for phenology and meteorological drought forecasting in vineyards
WO2020035875A1 (fr) Procédés et systèmes de génération de plans de prescription pour une région cultivée
Schönenberger Silvicultural problems in subalpine forests in the Alps.
EP4094221A1 (fr) Systeme et procede pour l'analyse du zonage calendaire d'un utilisateur
FR3083914A1 (fr) Procédé et système de gestion et/ou de contrôle de tâches à exécuter dans un domaine viticole, arboricole et/ou sylvicole
Jordan et al. Multi‐Decadal Remote‐Sensing Analysis of Irrigated Areas in the Lower Rio Grande Valley, New Mexico
Bowers Pollinator ecology, habitat management, and landscape restoration on federal and private lands in South-East Washington State
Rachamose The effect of fire disturbances on woody plant encroachment at Loskop, Irene and Roodeplaat Farms, South Africa
Palit et al. Rooftop Detection Using Satellite Images for Urban Terrace Farming

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22702977

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3206924

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 18263696

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2022212646

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2022702977

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022702977

Country of ref document: EP

Effective date: 20230901

ENP Entry into the national phase

Ref document number: 2022212646

Country of ref document: AU

Date of ref document: 20220201

Kind code of ref document: A