WO2024008704A1 - Systeme et procede de surveillance d'enceintes de collecte de dechets en vrac - Google Patents

Systeme et procede de surveillance d'enceintes de collecte de dechets en vrac Download PDF

Info

Publication number
WO2024008704A1
WO2024008704A1 PCT/EP2023/068359 EP2023068359W WO2024008704A1 WO 2024008704 A1 WO2024008704 A1 WO 2024008704A1 EP 2023068359 W EP2023068359 W EP 2023068359W WO 2024008704 A1 WO2024008704 A1 WO 2024008704A1
Authority
WO
WIPO (PCT)
Prior art keywords
enclosure
images
image
waste
module
Prior art date
Application number
PCT/EP2023/068359
Other languages
English (en)
Inventor
Viviana CONTRERAS MORENO
Nicolas Jaouen
Original Assignee
Akanthas
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akanthas filed Critical Akanthas
Publication of WO2024008704A1 publication Critical patent/WO2024008704A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Definitions

  • the field of the invention is that of industrial and commercial waste management, in particular that of surveillance and monitoring of industrial and commercial waste collection enclosures.
  • the invention particularly relates to a system and a method for monitoring bulk waste collection enclosures, in particular industrial and commercial waste.
  • waste collection enclosure means a storage space for bulk waste, before transport to a reprocessing, recycling or incineration center.
  • These collection enclosures are generally arranged near the waste production or collection site (factory, warehouse, workshop, recycling center; etc.).
  • a collection enclosure within the meaning of the invention is a waste container, a collection bin, a cell of a recycling center, a collection pit of a waste storage center, etc. . whose contents (and possibly the container) must be picked up by a transport vehicle when this enclosure is filled.
  • a waste collection enclosure is therefore a delimited space intended to receive waste.
  • waste collection zone means a geographical area comprising one or more waste collection enclosures within the meaning of the invention.
  • One of these known solutions uses an ultrasonic sensor arranged on the container and oriented towards the bottom of the container so as to be able to measure the distance which separates the sensor from the waste housed in the container. As soon as the measured distance is less than a predetermined distance, the container is considered full and its collection is organized.
  • This solution is not adaptable to open collection areas, such as recycling bins or open dumpsters.
  • this solution does not make it possible to detect the type of waste collected and therefore to detect possible collection defects.
  • This solution also proves to be ineffective if the container is not filled uniformly. In particular, if a large amount of waste is lodged under the sensor, the system will consider that the container is full while the rest of the container may be free of waste.
  • this solution requires equipping all the containers, which can prove costly and impractical, particularly when the waste producer rents collection bins to an external service provider, the latter not necessarily having planned to equip all these bins with such a solution.
  • Document US 10943356 describes another known solution implementing an image acquisition camera instead of the ultrasound sensor.
  • This camera is housed in a container and associated with image analysis and processing software.
  • one of the disadvantages of this solution is that it is not adaptable to collection areas such as recycling bins or open dumpsters.
  • this solution does not make it possible to detect the type of waste collected and therefore to detect possible collection defects.
  • this solution requires equipping all the containers, which can prove costly and impractical, particularly when the waste producer rents collection bins to an external service provider, the latter not necessarily having planned to equip all these dumpsters with such a solution.
  • the inventors therefore sought to develop a new solution making it possible to overcome at least some of the disadvantages of known solutions.
  • the invention aims to provide a system and a method for monitoring bulk waste collection enclosures, such as industrial or commercial waste.
  • the invention aims in particular to provide, in at least one embodiment, a system and a method which make it possible to automatically detect the filling level of the collection enclosures.
  • the invention aims in particular to provide a system and a method which make it possible to automatically detect the filling level of collection enclosures of all types, such as open waste containers, open collection bins, waste disposal cells, collection pits.
  • the invention also aims to provide, in at least one embodiment, a system and a method which make it possible to simultaneously monitor a collection zone comprising several collection enclosures.
  • the invention aims in particular to provide, in at least one embodiment, a system and a method which make it possible to automatically detect the type of waste collected and their proportions in the collection enclosure.
  • the invention also aims to provide, in at least one embodiment, a system and a method which make it possible to alert operators in the field in the event of collection faults.
  • the invention also aims to provide, in at least one embodiment, a system and a method which make it possible to predict the moments favorable to the transport of waste from a collection enclosure.
  • the invention also aims to provide, in at least one embodiment, a system and a method which make it possible to improve the carbon footprint of an industrial or commercial activity generating waste.
  • the invention also aims to provide, in at least one embodiment, a system and a method which are easy to install and use.
  • the invention relates to a system for monitoring at least one bulk waste collection enclosure, such as a skip, a cell, a pit, comprising: an image acquisition camera configured to be able to acquire, at a predetermined time interval, an image of an area in which each collection enclosure to be monitored is arranged, a unit for processing the images acquired by said camera.
  • the system according to the invention is characterized in that said processing unit comprises at least the following modules: a module for detecting each collection enclosure present within said images acquired from a first automatic learning model trained to be able to detect collection enclosures, this first learning module having been trained by means of a bank of training images, called speaker banks, which included parts of images labeled as reflecting the presence of a collection enclosure and parts of images labeled as reflecting the absence of a collection enclosure, a module for determining the type of waste present in each part of image detected by said speaker detection module as being a collection enclosure, called speaker images, from a second trained automatic learning model, this second learning module having been trained by means a training image bank, called a waste bank, which includes images of several types of waste likely to be collected in a collection enclosure, a module for calculating a filling rate of each storage enclosure collection by analysis of said speaker images detected by said speaker detection module.
  • a module for detecting each collection enclosure present within said images acquired from a first automatic learning model trained to be able to detect collection enclosures this first learning
  • the system according to the invention therefore mainly comprises a camera and a unit for processing the acquired images.
  • the camera is configured (field of view and orientation) in such a way that it can image an area which includes at least the monitored enclosure, or even several monitored enclosures.
  • the processing unit comprises at least three distinct modules for analyzing images acquired by the image acquisition camera.
  • All of the processing carried out by the three distinct modules is based on the same images, that is to say on the images acquired by the camera of an area in which the enclosure(s) are located. monitored by the system according to the invention, from the same point of view. No additional image provided by an additional sensor is necessary for the system according to the invention. In addition, no additional sensor, other than an image acquisition camera, is necessary for the system according to the invention.
  • the first module is a module for detecting speakers present in the images acquired by the camera. This module is therefore configured to extract sub-images from the images acquired by the camera, each limited to a collection enclosure. These subimages are referred to throughout the text as enclosure image terminology. A collection zone may include one or more enclosures and the image acquired by the camera may therefore include one or more enclosures. Thus, the first module can provide several speaker images to from a single image acquired by the camera of the system according to the invention.
  • This first module implements a first machine learning model trained to detect collection enclosures within the images.
  • This learning model was trained using a training image bank (also referred to in the text as a speaker bank).
  • This speaker bank is made up of images of different types of speakers (bins, cells, pits, etc.) and each image in this speaker bank includes parts of images labeled (or labeled) as containing or not containing a speaker. Portions of images labeled as reflecting the presence of a collection enclosure preferably include the boundaries of the collection enclosures.
  • the machine learning model implemented by this first module can implement a supervised neural network.
  • the speaker images detected by the speaker detection module are then processed by the second module of the processing unit.
  • This second module is a module for determining the type of waste present in each enclosure image. This module is therefore configured to determine the type of waste present in the enclosure imaged by the enclosure image processed by this module. This waste is for example made up of rubble, plastics, wood, cardboard, etc.
  • This second module implements a second machine learning model trained to detect the type of waste present in the image.
  • This second learning module was trained from a training image bank (also referred to in the text as a waste bank) which includes a plurality of images of several types of waste likely to be be collected in a collection enclosure. Each image in the waste bank is labeled with the waste(s) visible in the image.
  • the machine learning model implemented by this second module can implement a supervised neural network. This second module therefore provides an indication of the waste present in each enclosure image.
  • the third module is a module for calculating the filling rate of the enclosure. This module is therefore configured to provide a filling level for the enclosure. Thus, as soon as the filling level reaches a predetermined value, a waste collection operation from the enclosure can be organized, for example by sending a notification to equipment or an operator.
  • the module for calculating the filling rate of each collection enclosure combines both the results of the analysis of the enclosure images detected by said enclosure detection module and the results of the type of waste identified by said module determining the type of waste.
  • the system allows, by knowing the type of waste present in the enclosure of the image provided by the second module, and by calculating the filling rate, to know the proportion of the different waste.
  • the system being configured to acquire images at predetermined time intervals, the invention makes it possible to follow the evolution of the filling of a container and the evolution of the filling by type of waste stored in the enclosure. .
  • this third module implements a third machine learning model trained to detect the filling level.
  • This third learning model was trained using a training image bank, called the filling bank, which includes a plurality of images of different enclosures accommodating different types of waste at different filling levels. Each image in the fill bank is labeled with a fill level between 0 and 100% fill.
  • the machine learning model implemented by this third module can implement a supervised neural network.
  • this third module calculates the filling rate by comparing at least one reference image corresponding to an empty enclosure in the image of said enclosure detected by said speaker detection module.
  • the third module does not implement a trained learning model, but a comparison of the speaker image from the first module with one (or more) reference image corresponding to the empty enclosure.
  • the advantage of this variant is that it is no longer dependent on the training of a supervised neural network. Also, it does not depend on the labeling of the training images, which is a human activity which can therefore vary depending on the person responsible for labeling the images of the learning base. In addition, it makes it possible to ignore the learning base (or filling bank) which must contain at least ten thousand images to be truly efficient.
  • said comparison of each reference image with said enclosure image comprises the detection and identification of similar key elements between said two images, called image descriptors.
  • the third module compares the images based on image descriptors, which are the key points of the images.
  • image descriptors are for example provided by a scale-invariant visual feature transformation algorithm, better known by the acronym SIFT for “Scale-Invariant Feature Transform”.
  • SIFT Scale-Invariant Feature Transform
  • the implementation of this algorithm makes it possible to identify the filling areas of the enclosure, independently of differences in brightness, shading, and positioning of the enclosure from one image to another.
  • the algorithm thus makes it possible to detect the key characteristics of the enclosure (for example the edges and edges of a container in the case of such an enclosure).
  • the filling rate calculation module can then determine the height of the waste at a plurality of zones of the container by determining the variations detected at these characteristic points.
  • the filling rate calculation module combines at least in part the two previous variants, i.e. it implements a machine learning model trained to detect specific characteristics of the image (e.g. image descriptors), associated to a comparison of the image with a reference image.
  • a machine learning model trained to detect specific characteristics of the image (e.g. image descriptors), associated to a comparison of the image with a reference image.
  • the system according to the invention further comprises a solar panel connected to said image acquisition camera to be able to supply it with electrical energy.
  • the system according to this variant is energy self-sufficient and can be easily installed anywhere, regardless of the presence or absence of an electrical outlet.
  • a system according to the invention comprises a mast mounted in said zone in which said collection enclosure is arranged, said mast carrying said image acquisition camera.
  • the camera allows the camera to be installed near the enclosure to be monitored.
  • the camera can be mounted on a wall or a structure present in the vicinity of the enclosure to be monitored.
  • the acquired image processing unit can be partially or completely embedded in the image acquisition camera or be formed partially or completely by a server remote from said camera.
  • the system advantageously comprises wireless communication means configured to transmit said images acquired by said camera to said processing unit.
  • said wireless communication means comprise at least 3G, 4G, 5G or WIFI connectivity.
  • This connectivity not only makes it possible to transmit images from the camera to the processing unit, which is for example formed of an application software present on a remote server or a set of software applications and databases present on a set of remote servers (also referred to as cloud terminology), but also to transmit instructions to the camera.
  • the processing unit which is for example formed of an application software present on a remote server or a set of software applications and databases present on a set of remote servers (also referred to as cloud terminology), but also to transmit instructions to the camera.
  • wireless communication means which use low-speed connectivity such as a SigFox® or LoRa® network or any equivalent network, for the transmission of control data for example .
  • said predetermined time interval between two image acquisitions by said camera is a function of the evolution of the filling rate calculated by said module for calculating the filling rate and/or the type of waste determined by said module for determining the type of waste.
  • the system according to this variant makes it possible to adapt the image acquisition frequency to the results provided by the processing unit.
  • the acquisition frequency can be increased.
  • Other rules for adapting the frequency of acquisitions (and therefore processing) can be planned depending on the monitoring objectives.
  • a system according to the invention further comprises a module for evaluating a mass and volume balance of the waste present in said enclosure.
  • the system can determine from the results provided by the waste determination module and the filling rate calculation module, the mass and volume balance of the waste present in the enclosure.
  • the mass balance evaluation module retrieves information relating to the type of waste present and the filling level. The module can therefore determine the mass balance and the corresponding mass volume.
  • the invention also relates to a method for monitoring at least one bulk waste collection enclosure, such as a skip, a cell, a pit, etc., said method comprising: an acquisition of images, at intervals of predetermined time, of a zone in which each monitored collection enclosure is arranged, processing of the acquired images.
  • the method is characterized in that said image processing comprises: detection of each collection enclosure present within said images acquired by entering the images into a first trained automatic learning model, this first learning model having was trained using a bank of training images, called speaker banks, which included parts of images labeled as reflecting the presence of a collection enclosure and parts of images labeled as reflecting the absence of a collection enclosure, the image portions labeled as reflecting the presence of a collection enclosure including the boundaries of the collection enclosures, a determination of the type of waste present in each image portion detected by said first model learning, by entering each enclosure image into a second trained automatic learning model, this second learning model having been trained by means of a training image bank, called a waste bank , which includes images of several types of waste capable of being collected in a collection enclosure, a calculation of a filling rate of each collection enclosure by analysis of said images of enclosures detected by said enclosure detection model .
  • a bank of training images called speaker banks
  • the invention also relates to a system and a method, characterized in combination of all or part of the characteristics mentioned above or below.
  • FIG. 1 is a schematic view of a system according to one embodiment of the invention.
  • FIG. 2 is a functional schematic view of a processing unit of a system according to one embodiment of the invention.
  • FIG. 3 is a schematic view of an image acquired by a camera of a system according to one embodiment of the invention.
  • FIG. 4 is a schematic view of the image extracts provided by a speaker detection module of a system according to one embodiment of the invention.
  • FIG. 5 is a schematic view of an image of a skip intended to be processed by the modules for detecting the type of waste and calculating the filling rate of a system according to one embodiment of the invention
  • FIG. 6 is a schematic view of the images used by a module for determining the type of waste of a system according to one embodiment of the invention
  • FIG. 7 is a schematic view of the images used by a module for calculating the filling rate of a system according to one embodiment of the invention.
  • Figure 1 illustrates a system according to one embodiment of the invention comprising a digital image acquisition camera 10 of a skip 30 of waste storage and a processing unit 100 for digital images acquired by the camera 10.
  • the images acquired by the camera 10 are transmitted to the processing unit 100 by a wireless communication network 50, which can be of all known types .
  • the embodiment described in connection with the figures comprises a processing unit formed by a server remote from the camera. This being said, according to other embodiments, nothing prevents the processing unit from being partially or totally embedded on the image acquisition camera.
  • the camera 10 can be of all known types. It preferably has a wide angle or very wide angle (fish-eye camera) to be able to image a wide area including the storage bin 30 to be monitored.
  • the camera is arranged at a distance from the skip, for example by being mounted on a structure, such as a post 12. This arrangement is made such that the camera 10 overlooks the skip 30 and can take a picture of the skip 30 and waste 32 stored in the skip. In other words, the camera 10 is oriented towards the bin 30 so as to be able to take pictures from inside the bin.
  • the system according to the invention can monitor several speakers simultaneously provided that they can be housed in the area covered by the image camera.
  • the acquisition of images is controlled by a control card housed in the camera 10.
  • This control can for example consist of adjusting the magnification of the camera, the acquisition frequency, the aperture time and the ISO of the camera, etc.
  • the system further comprises a processing unit 100 for images acquired by the camera 10.
  • This processing unit 100 receives the images by wireless communication means 50 connecting the camera 10 and the processing unit 100.
  • the processing unit is represented as a remote server connected to the image acquisition camera by wireless communication means. This being said, according to other embodiments not shown in the figures, the processing unit can be partially or fully embedded in the image acquisition camera.
  • This processing unit 100 comprises at least one processor, memories and software routines capable of implementing the different processing modules described below.
  • module a software element, a subset of a software program, which can be compiled separately, either for independent use, or to be assembled with other modules of a program, or a piece of hardware, or a combination of a piece of hardware and a software routine.
  • a hardware element may include an integrated circuit specific to an application (better known by the acronym ASIC for the English name Application-Specific Integrated Circuit) or a programmable logic circuit (better known by the acronym FPGA for the English name Field- Programmable Gate Array) or a specialized microprocessor circuit (better known by the acronym DSP for the English name Digital Signal Processor) or any equivalent hardware or any combination of the aforementioned hardware.
  • ASIC application-Specific Integrated Circuit
  • FPGA field- Programmable Gate Array
  • DSP Digital Signal Processor
  • the processing unit 100 comprises three main modules: a module 110 for detecting the enclosures present in the acquired images, a module 120 for determining the type of waste present in each part of the image detected by said detection module 110, and a calculation module 130 of the filling rate of each enclosure.
  • FIG. 2 is a functional diagram of the processing unit 100 implemented by a system according to the invention.
  • the processing unit 100 comprises for example a computing device 102 which must be understood in the broad sense (computer, plurality of computers, virtual server on the Internet, virtual server on Cloud, virtual server on a platform, virtual server on a local infrastructure, server networks, etc.).
  • This computing device typically comprises one or more processors 106, one or more memories 108 and a man-machine interface 104.
  • the processing unit also includes a database 116 making it possible to save the treatment results and access information relating to previous treatments.
  • the database 116 can store data relating to the processing of previously acquired images of the skip being processed, which makes it possible, for example, to determine the storage dynamics of the skip.
  • the processing unit 100 also includes means for storing the trained learning models 118, 119 implemented by the invention. These means of storing the trained learning models can be separate servers of the equipment 102 or be saved within the equipment 102.
  • the computing device 102 further comprises the detection module 110, the determination module 120 and the calculation module 130. These modules use in particular the processors 106, the memories 108, the database 116 and the means for storing the data models. trained learning 118, 119, to be able to be executed.
  • the machine learning models implemented by the invention can be of different types. It can be a supervised learning neural network, a support vector machine (better known by the acronym SVM for Support Vector Machine) or any other machine learning algorithm.
  • the module 110 for detecting speakers present in the images acquired by the camera 100 implements a trained automatic learning model 118 to detect collection speakers within the images.
  • the learning base (or bank of enclosures) used to train the model consists of images of different types of enclosures (bins, cells, pits, etc.) in different orientations and different scales. Each image is labeled by a human operator by the type of enclosure it contains and by the delimitation of the enclosure within the image. Training the model allows it to automatically determine the zones where a collection enclosure is present within the image and the type of storage enclosures.
  • the module 110 can then extract from the image of the bin 30 provided by the camera 100, the area of the enclosure forming an image extract, called enclosure image. This enclosure image can be used by the module 120 for detecting the type of waste present in the enclosure.
  • the first module makes it possible to detect all of the monitored speakers from a single image provided by the image acquisition camera.
  • the system according to the invention makes it possible to detect any type of speakers arranged in the field of view of the camera. Also, if the speaker is replaced by another or moved within the area imaged by the camera, the system continues to be functional, without needing to be informed of this change of speaker or this movement of the speaker. pregnant.
  • this speaker detection module 110 can also be configured to determine the main dimensions of each detected speaker, in particular its width, its length and/or its height. To do this, the module can combine knowledge of a known reference dimension within the image, obtained for example during a system calibration operation, and knowledge of the camera's field of view to deduce the dimensions of the enclosure detected within the image. This reference dimension is for example the length of a wall neighboring the collection zone. This reference dimension makes it possible to deduce the area covered by a pixel of the camera. It is therefore possible to deduce the dimensions of the edges of the speaker from the number of pixels occupied by these edges within the image.
  • the speakers generally have standardized dimensions and the system has a database of the most common speakers. Also, the module 110 can compare the measured dimensions to those present in the database to confirm the measurements and/or obtain the possible missing dimension (for example the height, from the measurement of the length and the width) .
  • the module 120 for determining the type of waste present in each image extract implements a trained automatic learning model 119 to detect the waste present on the image extract detected by the module 110.
  • the learning base (or waste bank) used to train the model is made up of images of different types of waste (cardboards, wood, plastics, etc.) likely to be present in a storage enclosure.
  • a collection enclosure may include a single type of waste (for example, a container dedicated to the collection of cardboard) or a plurality of waste (for example, an all-purpose recycling center container which may contain plaster, glass wool, etc. painted wood, shredded or not, etc.)
  • each object present is annotated separately using a segmentation approach.
  • a label is assigned.
  • each object in each image is labeled by a human operator with the type of waste it represents. Training the model allows it to automatically determine the contours of the objects present in the image and the types of waste present in the image.
  • the applicant has also enriched his learning base with the base known by the acronym TACO (available for example on the following website http://tacodataset.org.
  • This image base contains a plurality of waste of all types in various environments. These images are labeled manually by operators.
  • Other image bases can also be used to enrich the learning base such as the bases known under the following English names "Domestic Trash Dataset"; "WaDaBa”; " Open litter map.
  • the applicant thus generated a learning database containing nearly 80,000 images. Please note, however, that it is possible to train the learning models with a smaller number of images, depending on the quality of the images and the number of waste present on each image.
  • the same image base is used for the enclosure detection module and for the module for determining the type of waste.
  • the generation of the image bank was done by the applicant by arranging image sensors from a plurality of collection enclosures of different types (dumpster, cell, bulk storage on the ground) each containing one or more of the types of waste that we seek to identify.
  • each speaker is annotated separately using a segmentation approach.
  • a label is assigned.
  • each speaker in each image is labeled by a human operator with the mention of the type of speaker.
  • each image is annotated separately using a segmentation approach.
  • a label is assigned on each segmentation.
  • each object in each image is labeled by a human operator with the type of waste it represents.
  • the automatic learning models implemented by the invention can be supervised learning neural networks, support vector machines or any other machine learning algorithm.
  • a convolutional neural network (known by the acronym CNN) is implemented for each learning model.
  • the learning phase aims to define the architecture of the neural network (number of layers, types of layers, learning steps, etc.) and the associated parameters (weightings of layers and between layers) which best model the different labels of the objects of the learning base and generate neither underfitting nor overfitting.
  • This step of learning a neural network is known to those skilled in the art and the latter can refer to the existing literature to obtain more details on the steps to be implemented to do this.
  • the module 130 for calculating the filling rate of the bin 30 can either implement another automatic learning model trained from a learning base consisting of images of different enclosures presenting different fillings between 0 and 100% , or compare a reference image to the image of the dumpster currently being analyzed.
  • the image bank used for the detection module of each enclosure and for the module for determining the type of waste can also be used for the filling rate calculation module, by labeling each enclosure with a filling rate.
  • the system implements the comparison of the image extract with a reference image of the enclosure.
  • this comparison preferably implements a SIFT algorithm which makes it possible to identify the filling zones of the enclosure, independently of differences in brightness, shading, and positioning of the enclosure from an image to the other.
  • the algorithm thus makes it possible to detect the key characteristics of the enclosure (for example the edges and edges of a container in the case of such an enclosure).
  • the filling rate calculation module can then determine the height of the waste at a plurality of zones of the container by determining the variations detected at these characteristic points.
  • the filling rate calculation module can combine at least in part the two previous embodiments.
  • a machine learning model is trained to detect specific features of the image, for example speaker edges, and image comparison is used to compare the image with a reference image.
  • Figure 3 is a schematic representation of an image acquired by the camera 100 at a given time. This image includes two skips 30a, 30b arranged close to each other.
  • the module 110 makes it possible to detect the two bins 30a and 30b and to extract the sub-images II, 12 which each include a bin monitored by the system according to the invention.
  • Figure 4 schematically illustrates the two sub-images II and 12 respectively comprising the bins 30a and 30b extracted from the image acquired by the camera 100.
  • the module 110 can also, according to one embodiment, be configured to anonymize the images II and 12 in order to guarantee compliance with the personal data protection regulations (better known by the acronym RGPD in France).
  • Each of these two sub-images II and 12 can then pass into the module 120 for determining the type of waste and in the module 130 for calculating a filling rate.
  • These steps are illustrated schematically by Figures 5, 6 and 7 in connection with sub-image II of the bin 30a, it being understood that each sub-image of an enclosure of each image acquired by the camera 10 is processed in the same way. manner by the different modules of the monitoring system according to the invention.
  • Figure 5 illustrates sub-image II of the skip 30a intended to be processed by the waste detection module 120 and by the module 130 for calculating a filling rate.
  • the background of the image is removed to retain only the bin 30a and the waste 32 stored in the bin.
  • modules 120 and 130 are not critical and that it is possible to first calculate the filling rate before determining the type of waste present in the bin 30a. This being said, in the following, it is expected that the determination of the type of waste is carried out before the calculation of the filling rate.
  • the module 120 is configured to detect the type of waste 32 present in the image. As indicated previously, the module 120 uses the trained machine learning model 119 which allows it to detect the types of waste present on sub-image II of the bin 30a.
  • Figure 6 illustrates another aspect of the processing carried out by the module 120.
  • the right view is the state of the bin 30a during processing and the left view is the state of the bin 30a during the previous acquisition of images of this same 30a skip.
  • These previous results are for example stored in the database 116.
  • the system can provide information on the variations in waste storage of the bin currently being analyzed.
  • the system can therefore not only know the composition of the bin 30a at time /, but also know the filling dynamics and the filling times of this bin 30a.
  • the accuracy of the period will depend on the frequency of image acquisition by the camera.
  • the second machine learning module can be implemented to determine if the contents of the enclosure have changed and/or if any trash has been moved within the enclosure. It is then possible to use an algorithm, of the type of the SIFT algorithm described previously, to detect more precisely the areas which have evolved between two images, and to cross-check this information with the results of the analysis carried out by the analysis module. machine learning, to know precisely the waste that has been added between two images.
  • Figure 7 schematically illustrates the principle of calculating the filling rate of the skip 30a according to one embodiment of the invention.
  • the module 130 retrieves from the database 116 a reference image Iref of the bin 30a currently being analyzed, this reference image Iref being an image of the same type of empty bin. This is the left image of Figure 7.
  • the module 120 then calculates the filling level of the bin in the right image of Figure 7 by comparison of this reference image Iref and the image of the bin 30a by implementing the SIFT algorithm previously described.
  • the invention is not limited to the described embodiments alone.
  • those skilled in the art will easily determine the possibilities offered by a system according to the invention from the different modules of the system.
  • it will be able to evaluate the mass and volume balance of each skip, make forecasts of skip filling periods based on skip filling histories, etc.
  • It is also possible to detect possible objects blocking the removal of the enclosure (vehicle parked in front of a collection bin, trenches dug around the bin, etc.). To do this, it is necessary to enrich the waste database used by the waste detection module with images of objects likely to hinder access to the enclosure.
  • a multispectral camera can be used to obtain images of waste in frequency bands other than the visible domain.
  • an infrared camera can be used to obtain infrared images of the bulk waste to be detected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Processing Of Solid Wastes (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un système de surveillance d'une enceinte (30) de collecte de déchets en vrac comprenant : une caméra d'acquisition d'images; une unité de traitement (100) des images; caractérisé en ce que ladite unité de traitement comprend au moins un module de détection de chaque enceinte de collecte présente au sein desdites images acquises à partir d'un premier modèle d'apprentissage automatique entraîné; un module de détermination du type de déchets présents dans chaque partie d'image détectée comme étant une enceinte de collecte à partir d'un deuxième modèle d'apprentissage automatique entraîné; un module de calcul d'un taux de remplissage de chaque enceinte de collecte par analyse desdites images d'enceinte détectées par ledit module de détection d'enceintes.

Description

DESCRIPTION
TITRE DE L’INVENTION : SYSTEME ET PROCEDE DE SURVEILLANCE D’ENCEINTES DE COLLECTE DE DECHETS
EN VRAC
Domaine technique de l’invention
Le domaine de l’invention est celui de la gestion des déchets industriels et commerciaux, en particulier celui de la surveillance et du suivi des enceintes de collecte de déchets industriels et commerciaux. L’invention concerne tout particulièrement un système et un procédé de surveillance d’enceintes de collecte de déchets en vrac, en particulier des déchets industriels et commerciaux.
Arrière-plan technologique
Les activités économiques et industrielles génèrent chaque minute dans le monde plus de 59400 tonnes de déchets, ce qui représente plus de 90% des déchets générés.
La problématique de collecte et de gestion de ces déchets industriels et commerciaux présente donc un enjeu majeur, à la fois économique et environnemental, et les défis opérationnels de collecte sont nombreux.
Il ressort d’études de terrain que 80% des bennes de collecte des déchets industriels ou commerciaux sont surchargées ou sous-chargées, ce qui présente dans les deux cas des problèmes spécifiques, en particulier liés au transport de ces bennes. En effet, les réglementations en vigueur imposent des tonnages au transport des déchets, qui sont en pratique souvent dépassés lorsque les bennes sont surchargées. Lorsque les bennes sont sous-chargées, leur transport génère un déplacement inutile, ce qui contribue à augmenter les coûts et le bilan carbone de leurs collectes.
Indépendamment des problèmes de transport des bennes surchargées ou souschargées, il ressort des études de terrain que 50% des déchets collectés sont mal triés ou contaminés par d’autres matériaux.
Il existe donc un besoin de disposer d’une solution permettant de surveiller les zones de collecte de déchets industriels et commerciaux de manière à pouvoir solliciter les véhicules de transport uniquement lorsque les bennes sont remplies à leur niveau nominal de collecte et/ou à pouvoir détecter les éventuels défauts de tri au niveau de la zone de collecte.
Dans toute la suite, on désigne par enceinte de collecte de déchets, un espace de stockage de déchets en vrac, avant leur transport vers un centre de retraitement, de recyclage ou d’incinération. Ces enceintes de collecte sont en général agencées au voisinage du site de production ou de collecte des déchets (usine, entrepôt, atelier, déchetterie ; etc.). A titre d’exemple non limitatif, une enceinte de collecte au sens de l’invention est un conteneur de déchets, une benne de collecte, une alvéole d’une déchetterie, une fosse de collecte d’un centre de stockage de déchets, etc. dont le contenu (et éventuellement le contenant) doit être ramassé par un véhicule de transport lorsque cette enceinte est remplie. Une enceinte de collecte de déchets est donc un espace délimité et destiné à recevoir des déchets.
Dans tout le texte, on désigne par zone de collectes de déchets, une zone géographique comprenant une ou plusieurs enceintes de collecte de déchets au sens de l’invention.
Il existe d’ores et déjà des solutions qui permettent de surveiller le niveau de remplissage d’un conteneur de déchets.
L’une de ces solutions connues met en œuvre un capteur à ultrason agencé sur le conteneur et orienté vers le fond du conteneur de manière à pouvoir mesurer la distance qui sépare le capteur des déchets logés dans le conteneur. Dès que la distance mesurée est inférieure à une distance prédéterminée, le conteneur est considéré comme rempli et son ramassage est organisé. Cette solution n’est pas adaptable aux zones de collecte ouvertes, du type alvéole de déchetterie ou benne ouverte. En outre, cette solution ne permet pas de détecter le type de déchets collectés et donc de détecter des éventuels défauts de collecte. Cette solution s’avère également peu efficace si le conteneur n’est pas rempli de manière uniforme. En particulier, si un déchet imposant est logé sous le capteur, le système va considérer que le conteneur est rempli alors que le reste du conteneur peut être libre de déchets. Enfin, cette solution nécessite d’équiper tous les contenants, ce qui peut s’avérer coûteux et peu réalisable, notamment lorsque le producteur de déchets loue des bennes de collecte à un prestataire extérieur, ce dernier n’ayant pas nécessairement prévu d’équiper toutes ces bennes avec une telle solution.
Le document US 10943356 décrit une autre solution connue mettant en œuvre une caméra d’acquisition d’images en lieu et place du capteur à ultrason. Cette caméra est logée dans un conteneur et associée à un logiciel d’analyse et de traitement d’images. A l’instar de la solution précédente, l’un des inconvénients de cette solution est qu’elle n’est pas adaptable aux zones de collecte du type alvéole de déchetterie ou benne ouverte. En outre, cette solution ne permet pas de détecter le type de déchets collectés et donc de détecter des éventuels défauts de collecte. Enfin, cette solution nécessite d’équiper tous les contenants, ce qui peut s’avérer coûteux et peu réalisable, notamment lorsque le producteur de déchets loue des bennes de collectes à un prestataire extérieur, ce dernier n’ayant pas nécessairement prévu d’équiper toutes ces bennes avec une telle solution.
Les inventeurs ont donc cherché à développer une nouvelle solution permettant de pallier au moins certains des inconvénients des solutions connues.
Objectifs de l’invention
L’invention vise à fournir un système et un procédé de surveillance des enceintes de collecte de déchets en vrac, tels que des déchets industriels ou commerciaux.
L’invention vise en particulier à fournir, dans au moins un mode de réalisation, un système et un procédé qui permettent de détecter automatiquement le niveau de remplissage des enceintes de collecte.
L’invention vise en particulier à fournir un système et un procédé qui permettent de détecter automatiquement le niveau de remplissage des enceintes de collecte de tous types, telles que des conteneurs ouverts de déchets, des bennes ouvertes de collecte, des alvéoles de déchetterie, des fosses de collecte.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un système et un procédé qui permettent de surveiller simultanément une zone de collecte comprenant plusieurs enceintes de collecte.
L’invention vise en particulier à fournir, dans au moins un mode de réalisation, un système et un procédé qui permettent de détecter automatiquement le type de déchets collectés et leurs proportions dans l’enceinte de collecte.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un système et un procédé qui permettent d’alerter les opérateurs sur le terrain en cas de défauts de collecte.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un système et un procédé qui permettent de prédire les moments propices au transport des déchets d’une enceinte de collecte.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un système et un procédé qui permettent d’améliorer l’empreinte carbone d’une activité industrielle ou commerciale générant des déchets.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un système et un procédé qui soient faciles à installer et à utiliser.
Exposé de l’invention
Pour ce faire, l’invention concerne un système de surveillance d’au moins une enceinte de collecte de déchets en vrac, telle qu’une benne, une alvéole, une fosse, comprenant : une caméra d’acquisition d’images configurée pour pouvoir faire, à intervalle de temps prédéterminé, une acquisition d’une image d’une zone dans laquelle est agencée chaque enceinte de collecte à surveiller, une unité de traitement des images acquises par ladite caméra.
Le système selon l’invention est caractérisé en ce que ladite unité de traitement comprend au moins les modules suivants : un module de détection de chaque enceinte de collecte présente au sein desdites images acquises à partir d’un premier modèle d’apprentissage automatique entraîné pour pouvoir détecter des enceintes de collecte, ce premier module d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dites banques d’enceintes, qui comportaient des parties d’images étiquetées comme reflétant la présence d’une enceinte de collecte et des parties d’images étiquetées comme reflétant l’absence d’une enceinte de collecte, un module de détermination du type de déchets présents dans chaque partie d’image détectée par ledit module de détection d’enceintes comme étant une enceinte de collecte, dites images d’enceintes, à partir d’un deuxième modèle d’apprentissage automatique entraîné, ce deuxième module d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dite banque de déchets, qui comprend des images de plusieurs types de déchets susceptibles d’être collectés dans une enceinte de collecte, un module de calcul d’un taux de remplissage de chaque enceinte de collecte par analyse desdites images d’enceinte détectées par ledit module de détection d’enceintes.
Le système selon l’invention comprend donc principalement une caméra et une unité de traitement des images acquises.
La caméra est configurée (champ de vue et orientation) de telle sorte qu’elle puisse imager une zone qui englobe au moins l’enceinte surveillée, voire plusieurs enceintes surveillées.
L’unité de traitement comprend au moins trois modules distincts d’analyse des images acquises par la caméra d’acquisition d’images.
L’ensemble des traitements réalisés par les trois modules distincts s’appuie sur les mêmes images, c’est-à-dire sur les images acquises par la caméra d’une zone dans laquelle se situe la (ou les) enceinte(s) surveillé(s) par le système selon l’invention, selon le même point de vue. Aucune image additionnelle fournie par un capteur additionnel n’est nécessaire pour le système selon l’invention. En outre, aucun capteur additionnel, autre qu’une caméra d’acquisition d’images n’est nécessaire pour le système selon l’invention.
Le premier module est un module de détection des enceintes présentes dans les images acquises par la caméra. Ce module est donc configuré pour extraire des images acquises par la caméra des sous-images limitées chacune à une enceinte de collecte. Ces sous-images sont désignées dans tout le texte par la terminologie d’image d’enceinte. Une zone de collecte peut comprendre une ou plusieurs enceintes et l’image acquise par la caméra peut donc comprendre une ou plusieurs enceintes. Ainsi, le premier module peut fournir plusieurs images d’enceintes à partir d’une seule image acquise par la caméra du système selon l’invention.
Ce premier module met en œuvre un premier modèle d’apprentissage automatique entrainé pour détecter les enceintes de collecte au sein des images. Ce modèle d’apprentissage a été entrainé à partir d’une banque d’images d’entrainement (aussi désignée dans le texte par la terminologie de banque d’enceintes). Cette banque d’enceintes est constituée d’images de différents types d’enceintes (bennes, alvéoles, fosses, etc.) et chaque image de cette banque d’enceintes comprend des parties d’images étiquetées (ou labellisées) comme contenant ou non une enceinte. Les parties d’images étiquetées comme reflétant la présence d’une enceinte de collecte comprennent de préférence les limites des enceintes de collecte. Le modèle d’apprentissage automatique mis en œuvre par ce premier module peut mettre en œuvre un réseau de neurones supervisé.
Les images d’enceintes détectées par le module de détection d’enceintes (aussi désigné par la terminologie de premier module dans le texte) sont ensuite traitées par le deuxième module de l’unité de traitement.
Ce deuxième module est un module de détermination du type de déchets présents dans chaque image d’enceinte. Ce module est donc configuré pour déterminer le type de déchets présent dans l’enceinte imagée par l’image d’enceinte traitée par ce module. Ces déchets sont par exemple formés de gravats, plastiques, bois, cartons, etc.
Ce deuxième module met en œuvre un deuxième modèle d’apprentissage automatique entraîné pour déceler le type de déchets présents dans l’image. Ce deuxième module d’apprentissage a été entrainé à partir d’une banque d’images d’entrainements (aussi désignée dans le texte par la terminologie de banque de déchets) qui comprend une pluralité d’images de plusieurs types de déchets susceptibles d’être collectés dans une enceinte de collecte. Chaque image de la banque de déchets est étiquetée avec le(s) déchet(s) visible(s) sur l’image. Le modèle d’apprentissage automatique mis en œuvre par ce deuxième module peut mettre en œuvre un réseau de neurones supervisé. Ce deuxième module fournit donc une indication des déchets présents dans chaque image d’enceinte. Le troisième module est un module de calcul du taux de remplissage de l’enceinte. Ce module est donc configuré pour fournir un niveau de remplissage de l’enceinte. Ainsi, dès que le niveau de remplissage atteint une valeur prédéterminée, une opération de collecte des déchets de l’enceinte peut être organisée, par exemple par l’envoi d’une notification à un équipement ou un opérateur.
Avantageusement, le module de calcul du taux de remplissage de chaque enceinte de collecte combine à la fois les résultats de l’analyse des images d’enceinte détectées par ledit module de détection d’enceintes et les résultats du type de déchets identifiés par ledit module de détermination du type de déchets.
Ainsi, le système permet, par la connaissance du type de déchets présents dans l’enceinte de l’image fournie par le deuxième module, et par le calcul du taux de remplissage, de connaitre la proportion des différents déchets. En effet, le système étant configuré pour faire l’acquisition des images à intervalle de temps prédéterminé, l’invention permet de suivre l’évolution du remplissage d’un conteneur et l’évolution du remplissage par type de déchets stockés dans l’enceinte.
Selon une variante de l’invention, ce troisième module met en œuvre un troisième modèle d’apprentissage automatique entraîné pour détecter le niveau de remplissage.
Ce troisième modèle d’apprentissage a été entrainé au moyen d’une banque d’images d’entrainements, dite banque de remplissage, qui comprend une pluralité d’images de différentes enceintes accueillant différents types de déchets à différents niveaux de remplissage. Chaque image de la banque de remplissage est étiquetée d’un niveau de remplissage compris entre 0 et 100% de remplissage. Le modèle d’apprentissage automatique mis en œuvre par ce troisième module, selon cette variante, peut mettre en œuvre un réseau de neurones supervisé.
Selon une autre variante de l’invention, ce troisième module calcule le taux de remplissage par la comparaison d’au moins une image de référence correspondant à une enceinte vide à l’image de ladite enceinte détectée par ledit module de détection d’enceintes. En d’autres termes et selon cette variante, le troisième module ne met pas en œuvre un modèle d’apprentissage entrainé, mais une comparaison de l’image d’enceinte issue du premier module avec une (ou plusieurs) image de référence correspondant à l’enceinte vide.
L’avantage de cette variante est qu’elle n’est plus dépendante de l’entrainement d’un réseau de neurones supervisé. Aussi, elle ne dépend pas de la labélisation des images d’entrainements, qui est une activité humaine qui peut donc varier selon la personne qui se charge de la labélisation des images de la base d’apprentissage. En outre, elle permet de faire l’impasse sur la base d’apprentissage (ou banque de remplissage) qui doit contenir au moins une dizaine de milliers d’images pour être réellement performante.
Avantageusement et selon cette variante, ladite comparaison de chaque image de référence avec ladite image d’enceinte comprend la détection et l’identification d’éléments clés similaires entre lesdites deux images, dits descripteurs d’images.
Selon cette variante, le troisième module compare les images à partir de descripteurs d’images, qui sont les points clés des images. Ces descripteurs sont par exemple fournis par un algorithme de transformation de caractéristiques visuelles invariantes à l’échelle, plus connu sous l’acronyme anglais SIFT pour « Scale- Invariant Feature Transform ». La mise en œuvre de cet algorithme permet d’identifier les zones de remplissage de l’enceinte, indépendamment des différences de luminosité, d’ombrage, et de positionnement de l’enceinte d’une image à l’autre. L’algorithme permet ainsi de détecter les caractéristiques clés de l’enceinte (par exemple les arêtes et les bords d’un conteneur dans le cas d’une telle enceinte). Le module de calcul du taux de remplissage peut ensuite déterminer la hauteur des déchets à une pluralité de zones du conteneur en déterminant les variations décelées au niveau de ces points caractéristiques.
Selon une autre variante, le module de calcul du taux de remplissage combine au moins en partie les deux variantes précédentes, c’est-à-dire qu’il met en œuvre un modèle d’apprentissage automatique entraîné pour détecter des caractéristiques spécifiques de l’image (par exemple les descripteurs d’images), associé à une comparaison de l’image avec une image de référence.
Avantageusement, le système selon l’invention comprend en outre un panneau solaire relié à ladite caméra d’acquisition d’images pour pouvoir l’alimenter en énergie électrique.
Le système selon cette variante est autonome en énergie et peut être aisément installé en tout lieu, indépendamment de la présence ou non d’une prise électrique.
Avantageusement, un système selon l’invention comprend un mât monté dans ladite zone dans laquelle est agencée ladite enceinte de collecte, ledit mât portant ladite caméra d’acquisitions d’images.
Cette variante permet d’installer la caméra au voisinage de l’enceinte à surveiller. Selon une autre variante, la caméra peut être montée sur un mur ou une structure présente au voisinage de l’enceinte à surveiller.
L’unité de traitement des images acquises peut être partiellement ou totalement embarquée dans la caméra d’acquisition d’images ou être formée partiellement ou totalement par un serveur distant de ladite caméra. Dans le cas où l’unité de traitement est totalement ou partiellement formée par un serveur distant, le système comprend avantageusement des moyens de communication sans fil configurés pour transmettre lesdites images acquises par ladite caméra à ladite unité de traitement.
Avantageusement et selon cette variante, lesdits moyens de communication sans fil comprennent au moins une connectivité 3G, 4G, 5G ou WIFI.
Cette connectivité permet non seulement de transmettre les images de la caméra vers l’unité de traitement, qui est par exemple formée d’une application logicielle présente sur un serveur distant ou d’un ensemble d’applications logicielles et bases de données présentes sur un ensemble de serveurs distants (désigné aussi par la terminologie de cloud), mais également de transmettre des instructions à la caméra.
En variante ou en combinaison, il est également possible de mettre en œuvre des moyens de communication sans fil qui utilisent une connectivité bas débit tel qu’un réseau SigFox® ou LoRa® ou tout réseau équivalent, pour la transmission de données de commande par exemple.
Avantageusement et selon l’invention, ledit intervalle de temps prédéterminé entre deux acquisitions d’images par ladite caméra est fonction de l’évolution du taux de remplissage calculé par ledit module de calcul du taux de remplissage et/ou du type de déchets déterminés par ledit module de détermination du type de déchets.
Le système selon cette variante permet d’adapter la fréquence d’acquisition d’images aux résultats fournis par l’unité de traitement. En particulier, si le niveau de remplissage augmente rapidement, la fréquence d’acquisition peut être augmentée. De même, selon le type de déchets détectés, il peut être nécessaire de surveiller plus régulièrement le remplissage. D’autres règles d’adaptation de la fréquence d’acquisitions (et donc de traitement) peuvent être prévues en fonction des objectifs de surveillance.
Avantageusement, un système selon l’invention comprend en outre un module d’évaluation d’un bilan massique et volumique des déchets présents dans ladite enceinte.
Selon cette variante, le système peut déterminer à partir des résultats fournis par le module de détermination de déchets et du module de calcul du taux de remplissage, le bilan massique et volumique des déchets présents dans l’enceinte. A cet effet, à chaque analyse d’images, le module d’évaluation du bilan massique récupère les informations relatives au type de déchets présents et au niveau de remplissage. Le module peut donc en déterminer le bilan massique et le volume massique correspondant. L’invention concerne aussi un procédé de surveillance d’au moins une enceinte de collecte de déchets en vrac, telle qu’une benne, une alvéole, une fosse, etc., ledit procédé comprenant : une acquisition d’images, à intervalle de temps prédéterminé, d’une zone dans laquelle est agencée chaque enceinte de collecte surveillée, un traitement des images acquises.
Le procédé est caractérisé en ce que ledit traitement d’images comprend : une détection de chaque enceinte de collecte présente au sein desdites images acquises par l’entrée des images dans un premier modèle d’apprentissage automatique entraîné, ce premier modèle d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dites banques d’enceintes, qui comportaient des parties d’images étiquetées comme reflétant la présence d’une enceinte de collecte et des parties d’images étiquetées comme reflétant l’absence d’une enceinte de collecte, les parties d’images étiquetées comme reflétant la présence d’une enceinte de collecte comprenant les limites des enceintes de collecte, une détermination du type de déchets présents dans chaque partie d’image détectée par ledit premier modèle d’apprentissage, par l’entrée de chaque image d’enceinte dans un deuxième modèle d’apprentissage automatique entraîné, ce deuxième modèle d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dite banque de déchets, qui comprend des images de plusieurs types de déchets susceptibles d’être collectés dans une enceinte de collecte, un calcul d’un taux de remplissage de chaque enceinte de collecte par analyse desdites images d’enceintes détectées par ledit modèle de détection d’enceintes.
Les avantages et effets techniques du système selon l’invention s’appliquent mutatis mutandis à un procédé selon l’invention.
L’invention concerne également un système et un procédé, caractérisés en combinaison par tout ou partie des caractéristiques mentionnées ci-dessus ou ci- après.
Liste des figures
D'autres buts, caractéristiques et avantages de l'invention apparaîtront à la lecture de la description suivante donnée à titre uniquement non limitatif et qui se réfère aux figures annexées dans lesquelles :
[Fig. 1] est une vue schématique d’un système selon un mode de réalisation de l’invention,
[Fig. 2] est une vue schématique fonctionnelle d’une unité de traitement d’un système selon un mode de réalisation de l’invention,
[Fig. 3] est une vue schématique d’une image acquise par une caméra d’un système selon un mode de réalisation de l’invention,
[Fig. 4] est une vue schématique des extraits d’images fournis par un module de détection d’enceintes d’un système selon un mode de réalisation de l’invention,
[Fig. 5] est une vue schématique d’une image d’une benne destinée à être traitée par les modules de détection du type de déchets et de calcul du taux de remplissage d’un système selon un mode de réalisation de l’invention,
[Fig. 6] est une vue schématique des images utilisées par un module de détermination du type de déchets d’un système selon un mode de réalisation de l’invention,
[Fig. 7] est une vue schématique des images utilisées par un module de calcul du taux de remplissage d’un système selon un mode de réalisation de l’invention.
Description détaillée d’un mode de réalisation de l’invention
Sur les figures, les échelles et les proportions ne sont pas strictement respectées et ce, à des fins d’illustration et de clarté. En outre, les éléments identiques, similaires ou analogues sont désignés par les mêmes références dans toutes les figures.
La figure 1 illustre un système selon un mode de réalisation de l’invention comprenant une caméra d’acquisition d’images numériques 10 d’une benne 30 de stockage de déchets et une unité de traitement 100 des images numériques acquises par la caméra 10. Les images acquises par la caméra 10 sont transmises à l’unité de traitement 100 par un réseau de communication sans fil 50, qui peut être de tous types connus.
Le mode de réalisation décrit en lien avec les figures comprend une unité de traitement formée d’un serveur distant de la caméra. Cela étant, rien n’empêche selon d’autres modes de réalisation que l’unité de traitement soit partiellement ou totalement embarquée sur la caméra d’acquisition d’images.
La caméra 10 peut être de tous types connus. Elle présente de préférence un grand angle ou très grand angle (caméra fish-eye) pour pouvoir imager une zone large comprenant la benne 30 de stockage à surveiller. La caméra est agencée à distance de la benne, par exemple en étant montée sur une structure, telle qu’un poteau 12. Cet agencement est réalisé de telle sorte que la caméra 10 surplombe la benne 30 et puisse effectuer une prise de vue de la benne 30 et des déchets 32 stockés dans la benne. En d’autres termes, la caméra 10 est orientée vers la benne 30 de manière à pouvoir effectuer des prises de vue de l’intérieur de la benne.
Le système selon l’invention peut surveiller plusieurs enceintes simultanément sous réserve qu’elles puissent être logées dans la zone couverte par la caméra d’images.
L’acquisition d’images est pilotée par une carte de commande logée dans la caméra 10. Cette commande peut par exemple consister à régler le grossissement de la caméra, la fréquence d’acquisition, le temps d’ouverture et l’ISO de la caméra, etc.
Le système comprend en outre une unité de traitement 100 des images acquises par la caméra 10. Cette unité de traitement 100 reçoit les images par des moyens de communication 50 sans fil reliant la caméra 10 et l’unité de traitement 100.
Dans le mode de réalisation des figures, l’unité de traitement est représentée comme un serveur distant relié à la caméra d’acquisition d’images par des moyens de communication sans fil. Cela étant, selon d’autres modes de réalisations non représentés sur les figures, l’unité de traitement peut être partiellement ou totalement embarquée dans la caméra d’acquisition d’images.
Cette unité de traitement 100 comprend au moins un processeur, des mémoires et des routines logicielles pouvant mettre en œuvre les différents modules de traitement décrits ci-après.
Dans toute la suite, on désigne par module, un élément logiciel, un sous- ensemble d’un programme logiciel, pouvant être compilé séparément, soit pour une utilisation indépendante, soit pour être assemblé avec d’autres modules d’un programme, ou un élément matériel, ou une combinaison d’un élément matériel et d’un sous-programme logiciel. Un tel élément matériel peut comprendre un circuit intégré propre à une application (plus connue sous l’acronyme ASIC pour la dénomination anglaise Application-Specific Integrated Circuit) ou un circuit logique programmable (plus connu sous l’acronyme FPGA pour la dénomination anglaise Field-Programmable Gate Array) ou un circuit de microprocesseurs spécialisés (plus connu sous l’acronyme DSP pour la dénomination anglaise Digital Signal Processor) ou tout matériel équivalent ou toute combinaison des matériels précités. D’une manière générale, un module est donc un élément (logiciel et/ou matériel) qui permet d’assurer une fonction.
L’unité de traitement 100 comprend trois modules principaux : un module de détection 110 des enceintes présentes dans les images acquises, un module de détermination 120 du type de déchets présents dans chaque partie d’image détectée par ledit module de détection 110, et un module de calcul 130 du taux de remplissage de chaque enceinte.
La figure 2 est un schéma fonctionnel de l’unité de traitement 100 mis en œuvre par un système selon l’invention.
L’unité de traitement 100 comprend par exemple un dispositif informatique 102 qui doit être entendu au sens large (ordinateur, pluralité d’ordinateurs, serveur virtuel sur internet, serveur virtuel sur Cloud, serveur virtuel sur une plate-forme, serveur virtuel sur une infrastructure locale, réseaux de serveurs, etc. ). Ce dispositif informatique comprend typiquement un ou plusieurs processeurs 106, une ou plusieurs mémoires 108 et une interface homme-machine 104. L’unité de traitement comprend également une base de données 116 permettant de sauvegarder les résultats du traitement et d’accéder à des informations relatives à des traitements précédents. Par exemple, la base de données 116 peut stocker les données relatives aux traitements des images précédemment acquises de la benne en cours de traitement, ce qui permet par exemple de déterminer la dynamique de stockage de la benne.
L’unité de traitement 100 comprend aussi des moyens de stockage des modèles d’apprentissage entrainés 118, 119 mis en œuvre par l’invention. Ces moyens de stockage des modèles d’apprentissage entrainés peuvent être des serveurs distincts de l’équipement 102 ou être sauvegardés au sein de l’équipement 102.
Le dispositif informatique 102 comprend en outre le module de détection 110, le module de détermination 120 et le module de calcul 130. Ces modules utilisent notamment les processeurs 106, les mémoires 108, la base de données 116 et les moyens de stockage des modèles d’apprentissage entrainés 118, 119, pour pouvoir être exécutés.
Les modèles d’apprentissages automatiques mis en œuvre par l’invention peuvent être de différents types. Il peut s’agir d’un réseau de neurones à apprentissage supervisé, d’une machine à vecteurs de support (plus connue sous l’acronyme anglais SVM pour Support Vector Machine) ou de tout autre algorithme de machine learning.
Le module 110 de détection des enceintes présentes dans les images acquises par la caméra 100 met en œuvre un modèle d’apprentissage automatique entrainé 118 pour détecter des enceintes de collecte au sein des images. La base d’apprentissage (ou banque d’enceintes) utilisée pour entrainer le modèle est constituée d’images de différents types d’enceintes (bennes, alvéoles, fosses, etc.) suivant différentes orientations et différentes échelles. Chaque image est labellisée par un opérateur humain par le type d’enceinte qu’elle contient et par la délimitation de l’enceinte au sein de l’image. L’entrainement du modèle permet à ce dernier de déterminer automatiquement les zones de présence d’une enceinte de collecte au sein de l’image et le type d’enceintes de stockage. Le module 110 peut alors extraire de l’image de la benne 30 fournie par la caméra 100, la zone de l’enceinte formant un extrait d’image, dit image d’enceinte. Cette image d’enceinte peut être utilisée par le module 120 de détection du type de déchets présents dans l’enceinte.
Dans le cas où plusieurs enceintes sont surveillées simultanément par la même caméra, le premier module permet de détecter l’ensemble des enceintes surveillées à partir d’une seule image fournie par la caméra d’acquisitions d’images.
Le système selon l’invention permet de détecter tout type d’enceintes agencées dans le champ de vue de la caméra. Aussi, si l’enceinte est remplacée par une autre ou déplacée au sein de la zone imagée par la caméra, le système continue d’être fonctionnel, sans avoir besoin d’être informée de ce changement d’enceinte ou de ce déplacement d’enceinte.
A noter que selon un mode de réalisation, ce module 110 de détection des enceintes peut en outre être configuré pour déterminer les dimensions principales de chaque enceinte détectée, notamment sa largeur, sa longueur et/ou sa hauteur. Pour ce faire, le module peut combiner la connaissance d’une dimension de référence connue au sein de l’image, obtenue par exemple lors d’une opération de calibrage du système, et la connaissance du champ de vue de la caméra pour en déduire les dimensions de l’enceinte détectée au sein de l’image. Cette dimension de référence est par exemple la longueur d’un mur voisin de la zone de collecte. Cette dimension de référence permet de déduire la zone couverte par un pixel de la caméra. Il est donc possible d’en déduire les dimensions des bords de l’enceinte à partir du nombre de pixels occupés par ces bords au sein de l’image. En outre, les enceintes présentent en général des dimensions standardisées et le système dispose d’une base de données des enceintes les plus fréquentes. Aussi, le module 110 peut comparer les dimensions mesurées à celles présentes dans la base de données pour confirmer les mesures et/ou obtenir l’éventuelle dimension manquante (par exemple la hauteur, à partir de la mesure de la longueur et de la largeur).
Le module 120 de détermination du type de déchets présent dans chaque extrait d’image met en œuvre un modèle d’apprentissage automatique entrainé 119 pour détecter les déchets présents sur l’extrait d’image détecté par le module 110. La base d’apprentissage (ou banque de déchets) utilisée pour entrainer le modèle est constituée d’images de différents types de déchets (cartons, bois, plastiques, etc.) susceptibles d’être présents dans une enceinte de stockage.
La génération de la banque d’images a été faite par le déposant en disposant des capteurs d’images sur des enceintes de collecte de différents types (benne, alvéole, stockage en vrac au sol) contenant chacune un ou plusieurs des types de déchets qu’on cherche à identifier. Un enceinte de collecte peut comprendre un type unique de déchets (par exemple, conteneur dédié à la collecte de carton) ou une pluralité de déchets (par exemple, conteneur tout- venant de déchetterie qui peut contenir du plâtre, de la laine de verre, des bois peints déchiquetés ou non, etc.)
Sur chaque image de la banque d’images ainsi générée, les objets présents sont annotés séparément par une approche de segmentation. Sur chaque segmentation, un label est attribué. En d’autres termes, chaque objet de chaque image est labellisé par un opérateur humain avec la mention du type de déchet qu’il représente. L’entrainement du modèle permet à ce dernier de déterminer automatiquement les contours des objets présents dans l’image et les types de déchets présents dans l’image.
Le déposant a également enrichi sa base d’ apprentissage avec la base connue sous l’acronyme TACO (disponible par exemple sur le site internet suivant httn://tacodataset.org, Cette base d’images contient une pluralité de déchets de tout type dans divers environnements. Ces images sont labélisées manuellement par des opérateurs. D’autres bases d’images peuvent également être utilisées pour enrichir la base d’apprentissage comme les bases connues sous les dénominations anglaises suivantes « Domestic Trash Dataset » ; « WaDaBa » ; « Open litter map ».
Le déposant a ainsi généré une base d’apprentissage contenant près de 80 000 images. A noter néanmoins qu’il est possible d’entrainer les modèles d’apprentissage avec un nombre plus réduit d’images, en fonction de la qualité des images et du nombre de déchets présents sur chaque image.
Selon une variante avantageuse, la même base d’images est utilisée pour le module de détection des enceintes et pour le module de détermination du type de déchet. La génération de la banque d’images a été faite par le déposant en disposant des capteurs d’images d’une pluralité d’enceintes de collecte de différents types (benne, alvéole, stockage en vrac au sol) contenant chacune un ou plusieurs des types de déchets qu’on cherche à identifier.
Sur chaque image de la banque d’images ainsi générée, chaque enceinte est annotée séparément par une approche de segmentation. Sur chaque segmentation, un label est attribué. En d’autres termes, chaque enceinte de chaque image est labellisée par un opérateur humain avec la mention du type d’enceinte.
De plus, à l’instar de la procédure décrite pour la banque de déchets, les objets présents sur chaque image sont annotés séparément par une approche de segmentation. Sur chaque segmentation, un label est attribué. En d’autres termes, chaque objet de chaque image est labellisé par un opérateur humain avec la mention du type de déchet qu’il représente.
Comme indiqué précédemment, les modèles d’apprentissages automatiques mis en œuvre par l’invention peuvent être des réseaux de neurones à apprentissage supervisé, des machines à vecteurs de support ou de tout autre algorithme de machine learning. Selon un mode de réalisation, un réseau de neurones convolutifs (connue sous l’acronyme CNN) est mis en œuvre pour chaque modèle d’apprentissage.
L’apprentissage est considéré performant s’il permet de définir un modèle prédictif qui s’adapte à la fois aux données d’apprentissage et aux nouvelles images, non labélisées. Si le modèle ne s’adapte pas aux images de la base d’apprentissage, le modèle souffre de sous-apprentissage. Si le modèle s’adapte trop bien aux images de la base d’apprentissage et n’est pas capable de classer correctement les nouvelles images, le modèle souffre de sur-apprentissage.
La phase d’apprentissage vise à définir l’architecture du réseau de neurones (nombre de couches, types de couches, pas d’apprentissage, etc.) et les paramètres associés (pondérations des couches et entre les couches) qui modélisent le mieux les différents labels des objets de la base d’apprentissage et ne génèrent ni un sous- apprentissage ni un sur- apprentissage. Cette étape d’apprentissage d’un réseau de neurones est connue de l’homme du métier et ce dernier peut se reporter à la littérature existante pour obtenir plus de détails sur les étapes à mettre en œuvre pour ce faire. Le module 130 de calcul du taux de remplissage de la benne 30 peut soit mettre en œuvre un autre modèle d’apprentissage automatique entraîné à partir d’une base d’apprentissage constituée d’images de différentes enceintes présentant différents remplissages entre 0 et 100%, soit comparer une image de référence à l’image de la benne en cours d’analyse.
La banque d’images utilisée pour le module de détection de chaque enceinte et pour le module de détermination du type de déchets peut également être utilisée pour le module de calcul du taux de remplissage, en labélisant chaque enceinte avec un taux de remplissage.
De préférence, le système met en œuvre la comparaison de l’extrait d’image avec une image de référence de l’enceinte.
Comme décrit précédemment, cette comparaison met de préférence en œuvre un algorithme SIFT qui permet d’identifier les zones de remplissage de l’enceinte, indépendamment des différences de luminosité, d’ombrage, et de positionnement de l’enceinte d’une image à l’autre. L’algorithme permet ainsi de détecter les caractéristiques clés de l’enceinte (par exemple les arêtes et les bords d’un conteneur dans le cas d’une telle enceinte). Le module de calcul du taux de remplissage peut ensuite déterminer la hauteur des déchets à une pluralité de zones du conteneur en déterminant les variations décelées au niveau de ces points caractéristiques.
Selon une autre variante, le module de calcul du taux de remplissage peut combiner au moins en partie les deux modes de réalisation précédents. Selon cette variante, un modèle d’apprentissage automatique est entraîné pour détecter des caractéristiques spécifiques de l’image, par exemple les bords des enceintes, et la comparaison d’images est utilisée pour comparer l’image avec une image de référence.
La figure 3 est une représentation schématique d’une image acquise par la caméra 100 à un instant donné. Cette image comprend deux bennes 30a, 30b agencées au voisinage l’une de l’autre. Le module 110 permet de détecter les deux bennes 30a et 30b et d’extraire les sous-images II, 12 qui comprennent chacune une benne surveillée par le système selon l’invention. La figure 4 illustre schématiquement les deux sous-images II et 12 comprenant respectivement les bennes 30a et 30b extraites de l’image acquise par la caméra 100. Le module 110 peut également, selon un mode de réalisation, être configuré pour anonymiser les images II et 12 de manière à garantir un respect du règlement de protection des données personnelles (plus connu sous l’acronyme RGPD en France).
Les étapes illustrées par les figures 3 et 4 sont mises en œuvre par le module 110 de détection d’enceintes dans l’image.
Chacune de ces deux sous-images II et 12 peut ensuite passer dans le module 120 de détermination du type de déchets et dans le module 130 de calcul d’un taux de remplissage. Ces étapes sont illustrées schématiquement par les figures 5, 6 et 7 en lien avec la sous-image II de la benne 30a, étant entendu que chaque sous-image d’une enceinte de chaque image acquise par la caméra 10 est traitée de la même manière par les différents modules du système de surveillance selon l’invention.
La figure 5 illustre la sous-image II de la benne 30a destinée à être traitée par le module 120 de détection des déchets et par le module 130 de calcul d’un taux de remplissage. Le fond de l’image est supprimé pour ne conserver que la benne 30a et les déchets 32 stockés dans la benne.
Il convient de noter que l’ordre d’exécution des modules 120 et 130 n’est pas critique et qu’il est possible de calculer d’abord le taux de remplissage avant de déterminer le type de déchets présents dans la benne 30a. Cela étant, dans la suite, on prévoit que la détermination du type de déchets est effectuée avant le calcul du taux de remplissage.
Le module 120 est configuré pour détecter le type de déchets 32 présents dans l’image. Comme indiqué précédemment, le module 120 utilise le modèle d’apprentissage automatique entrainé 119 qui lui permet de détecter les types de déchets présents sur la sous-image II de la benne 30a.
La figure 6 illustre un autre aspect du traitement réalisé par le module 120. La vue de droite est l’état de la benne 30a en cours de traitement et la vue gauche est l’état de la benne 30a lors de la précédente acquisition d’images de cette même benne 30a. Ces résultats précédents sont par exemple stockés dans la base de données 116. Ainsi, le système peut fournir des informations sur les variations de stockage de déchets de la benne en cours d’analyse. Le système peut donc, non seulement connaitre la composition de la benne 30a à l’instant /, mais également connaitre la dynamique de remplissage et les instants de remplissage de cette benne 30a. Il est notamment possible de connaitre, en cas de détection d’un déchet non admis dans la benne considérée, la période au cours de laquelle ce déchet a été ajouté dans la benne. La précision de la période dépendra de la fréquence d’acquisition d’images par la caméra.
Pour évaluer spécifiquement les déchets ajoutés entre les deux images, le deuxième module d’apprentissage automatique peut être mis en œuvre pour déterminer si le contenu de l’enceinte a évolué et/ou si des déchets ont été déplacés au sein de l’enceinte. Il est ensuite possible d’utiliser un algorithme, du type de l’algorithme SIFT décrit précédemment, pour détecter plus précisément les zones qui ont évoluées entre deux images, et recouper cette information avec les résultats de l’analyse faite par le module d’apprentissage automatique, pour connaitre précisément les déchets qui ont été ajoutés entre deux images.
La figure 7 illustre schématiquement le principe du calcul du taux de remplissage de la benne 30a selon un mode de réalisation de l’invention.
Le module 130 récupère de la base de données 116 une image de référence Iref de la benne 30a en cours d’analyse, cette image de référence Iref étant une image du même type de benne vide. C’est l’image de gauche de la figure 7. Le module 120 calcule ensuite le niveau de remplissage de la benne de l’image de droite de la figure 7 par comparaison de cette image de référence Iref e l’image de la benne 30a par la mise en œuvre de l’algorithme SIFT précédemment décrit.
L’invention ne se limite pas aux seuls modes de réalisation décrits. En particulier, l’homme du métier déterminera aisément les possibilités offertes par un système selon l’invention à partir des différents modules du système. En particulier, il pourra évaluer le bilan massique et volumique de chaque benne, faire des prévisions des périodes de remplissage de bennes à partir des historiques de remplissage des bennes, etc. Il est également possible d’étendre les routines de détection et de caractérisation des déchets aux zones voisines des enceintes, telles que les déchets stockés aux pieds des enceintes. Cela peut être obtenu en élargissant la zone d’analyse de l’image aux abords de l’enceinte. Il est également possible de détecter d’éventuels objets qui bloquent le retrait de l’enceinte (véhicule garé devant une benne de collecte, tranchées creusées autour de la benne, etc. ). Pour cela, il convient d’enrichir la base de déchets utilisée par le module de détection des déchets, d’images d’objets susceptibles d’entraver l’accès à l’enceinte. Il est également possible de constituer une base d’apprentissage spécifique et de mettre en œuvre un module d’apprentissage automatique additionnel spécifique à l’analyse des abords des enceintes de stockage.
Le système a été décrit avec une caméra d’acquisition d’images dans le domaine du visible. Cela étant, selon une variante de l’invention, une caméra multispectrale peut être utilisée pour obtenir des images des déchets dans d’autres bandes de fréquence que le domaine visible. En particulier, une caméra infrarouge peut être utilisée pour obtenir des images infrarouges des déchets en vrac à détecter.

Claims

REVENDICATIONS Système de surveillance d’au moins une enceinte (30, 30a, 30b) de collecte de déchets en vrac, ledit système comprenant : une caméra (10) d’acquisition d’images configurée pour pouvoir faire, à intervalle de temps prédéterminé, une acquisition d’une image d’une zone dans laquelle est agencée chaque enceinte (30, 30a, 30b) de collecte à surveiller, une unité de traitement (100) des images acquises par ladite caméra (10), caractérisé en ce que ladite unité de traitement (100) comprend au moins les modules suivants : un module de détection (110) de chaque enceinte (30a, 30b) de collecte présente au sein desdites images acquises à partir d’un premier modèle d’apprentissage automatique (118) entraîné pour pouvoir détecter des enceintes de collecte, ce premier module d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dites banques d’enceintes, qui comportaient des parties d’images étiquetées comme reflétant la présence d’une enceinte de collecte et des parties d’images étiquetées comme reflétant l’absence d’une enceinte de collecte, un module de détermination (120) du type de déchets (32) présents dans chaque partie d’image détectée par ledit module de détection d’enceintes comme étant une enceinte de collecte, dites images d’enceintes, à partir d’un deuxième modèle d’apprentissage automatique (119) entraîné, ce deuxième module d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dite banque de déchets, qui comprend des images de plusieurs types de déchets susceptibles d’être collectés dans une enceinte de collecte, un module de calcul (130) d’un taux de remplissage de chaque enceinte de collecte par analyse desdites images d’enceinte détectées par ledit module de détection d’enceintes. Système selon la revendication 1, caractérisé en ce que ledit module de calcul (130) du taux de remplissage met en œuvre un troisième modèle d’apprentissage automatique entraîné, ce troisième modèle d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dite banque de remplissage, qui comprend des images de différentes enceintes accueillant différents types de déchets, étiquetées chacune d’un niveau de remplissage compris entre 0 et 100% de remplissage. Système selon la revendication 1, caractérisé en ce que ledit module de calcul (130) du taux de remplissage comprend la comparaison d’au moins une image de référence correspondant à une enceinte vide à ladite image de ladite enceinte détectée par ledit module de détection d’enceintes. Système selon la revendication 3, caractérisé en ce que ladite comparaison de ladite image de référence avec ladite image d’enceinte comprend la détection et l’identification d’éléments clés similaires entre lesdites deux images, dits descripteurs d’images. Système selon l’une des revendications 1 à 4, caractérisé en ce qu’il comprend en outre un panneau solaire relié à ladite caméra (10) d’acquisition d’images pour pouvoir l’alimenter en énergie électrique. Système selon l’une des revendications 1 à 5, caractérisé en ce qu’il comprend en outre un mât (12) monté dans ladite zone dans laquelle est agencée ladite enceinte de collecte, ledit mât portant ladite caméra ( 10) d’ acquisition d’ images . Système selon l’une des revendications 1 à 6, caractérisé en ce que ledit intervalle de temps prédéterminé entre deux acquisitions d’images par ladite caméra (10) est fonction de l’évolution du taux de remplissage calculé par ledit module de calcul du taux de remplissage et/ou du type de déchets déterminés par ledit module de détermination du type de déchets. Système selon l’une des revendications 1 à 7, caractérisé en ce qu’il comprend en outre un module d’évaluation d’un bilan massique et volumique des déchets présents dans ladite enceinte. Système selon l’une des revendications 1 à 8, caractérisé en ce que ladite unité de traitement est formé par un serveur distant de ladite caméra et en ce qu’il comprend en outre des moyens de communication (50) sans fil configurés pour transmettre lesdites images acquises par ladite caméra à ladite unité de traitement. Système selon la revendication 9, caractérisé en ce que lesdits moyens de communication (50) sans fil comprennent au moins une connectivité 3G, 4G, 5G ou WIFI. Procédé de surveillance d’au moins une enceinte (30, 30a, 30b) de collecte de déchets en vrac, ledit procédé comprenant : une acquisition d’images, à intervalle de temps prédéterminé, d’une zone dans laquelle est agencée chaque enceinte de collecte surveillée, un traitement des images acquises, caractérisé en ce que ledit traitement d’images comprend : une détection de chaque enceinte de collecte présente au sein desdites images acquises par l’entrée des images dans un premier modèle d’apprentissage automatique entraîné, ce premier modèle d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dites banques d’enceintes, qui comportaient des parties d’images étiquetées comme reflétant la présence d’une enceinte de collecte et des parties d’images étiquetées comme reflétant l’absence d’une enceinte de collecte, les parties d’images étiquetées comme reflétant la présence d’une enceinte de collecte comprenant les limites des enceintes de collecte, une détermination du type de déchets présents dans chaque partie d’image détectée par ledit premier modèle d’apprentissage, par l’entrée de chaque image d’enceinte dans un deuxième modèle d’apprentissage automatique entraîné, ce deuxième modèle d’apprentissage ayant été entrainé au moyen d’une banque d’images d’entrainements, dite banque de déchets, qui comprend des images de plusieurs types de déchets susceptibles d’être collectés dans une enceinte de collecte, un calcul d’un taux de remplissage de chaque enceinte de collecte par analyse desdites images d’enceintes détectées par ledit modèle de détection d’enceintes.
PCT/EP2023/068359 2022-07-07 2023-07-04 Systeme et procede de surveillance d'enceintes de collecte de dechets en vrac WO2024008704A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2206935A FR3137779A1 (fr) 2022-07-07 2022-07-07 Systeme et procede de surveillance d’enceintes de collecte de dechets en vrac
FRFR2206935 2022-07-07

Publications (1)

Publication Number Publication Date
WO2024008704A1 true WO2024008704A1 (fr) 2024-01-11

Family

ID=83188533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/068359 WO2024008704A1 (fr) 2022-07-07 2023-07-04 Systeme et procede de surveillance d'enceintes de collecte de dechets en vrac

Country Status (2)

Country Link
FR (1) FR3137779A1 (fr)
WO (1) WO2024008704A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200222949A1 (en) * 2017-09-19 2020-07-16 Intuitive Robotics, Inc. Systems and methods for waste item detection and recognition
US10943356B2 (en) 2018-12-12 2021-03-09 Compology, Inc. Method and system for fill level determination
US20210188541A1 (en) * 2018-09-07 2021-06-24 Hemal B. Kurani Smart waste bin sensor device and methods for waste management system
US20210326658A1 (en) * 2020-04-20 2021-10-21 The Heil Co. Identifying overfilled containers

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200222949A1 (en) * 2017-09-19 2020-07-16 Intuitive Robotics, Inc. Systems and methods for waste item detection and recognition
US20210188541A1 (en) * 2018-09-07 2021-06-24 Hemal B. Kurani Smart waste bin sensor device and methods for waste management system
US10943356B2 (en) 2018-12-12 2021-03-09 Compology, Inc. Method and system for fill level determination
US20210326658A1 (en) * 2020-04-20 2021-10-21 The Heil Co. Identifying overfilled containers

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANDEOBU LYNDA ET AL: "Artificial intelligence applications for sustainable solid waste management practices in Australia: A systematic review", SCIENCE OF THE TOTAL ENVIRONMENT, ELSEVIER, AMSTERDAM, NL, vol. 834, 20 April 2022 (2022-04-20), XP087079483, ISSN: 0048-9697, [retrieved on 20220420], DOI: 10.1016/J.SCITOTENV.2022.155389 *
DAVIS PETER ET AL: "The classification of construction waste material using a deep convolutional neural network", AUTOMATION IN CONSTRUCTION, ELSEVIER, AMSTERDAM, NL, vol. 122, 15 December 2020 (2020-12-15), XP086433500, ISSN: 0926-5805, [retrieved on 20201215], DOI: 10.1016/J.AUTCON.2020.103481 *
LU WEISHENG ET AL: "Computer vision for solid waste sorting: A critical review of academic research", WASTE MANAGEMENT, ELSEVIER, NEW YORK, NY, US, vol. 142, 13 February 2022 (2022-02-13), pages 29 - 43, XP086984891, ISSN: 0956-053X, [retrieved on 20220213], DOI: 10.1016/J.WASMAN.2022.02.009 *

Also Published As

Publication number Publication date
FR3137779A1 (fr) 2024-01-12

Similar Documents

Publication Publication Date Title
US20230196307A1 (en) System and method for waste management
US11875301B2 (en) Refuse contamination analysis
US20230136451A1 (en) Systems and methods for waste item detection and recognition
Carletti et al. An intelligent flying system for automatic detection of faults in photovoltaic plants
US11615275B2 (en) Identifying overfilled containers
CN114993965B (zh) 一种污染源自动识别方法以及系统
Conley et al. Using a deep learning model to quantify trash accumulation for cleaner urban stormwater
FR2994486A1 (fr) Procede et dispositif pour modeliser un environnement
CN114078127B (zh) 物件的缺陷检测及计数方法、装置、设备和存储介质
CA2953764C (fr) Procede pour trier des objets postaux dans un casier de tri avec un denombrement automatique des objets tries
Christodoulou et al. Pavement defects detection and classification using smartphone-based vibration and video signals
KC Enhanced pothole detection system using YOLOX algorithm
WO2024008704A1 (fr) Systeme et procede de surveillance d'enceintes de collecte de dechets en vrac
FR3011960A1 (fr) Procede d'identification a partir d'un modele spatial et spectral d'objet
KR20180097421A (ko) 병 회수 장치 및 방법
KR101966750B1 (ko) 이미지 데이터로부터 기계학습에 의한 시정거리 예측 장치, 시스템, 및 방법
KR20230060605A (ko) 폐기물 정보 분석 시스템 및 방법
CN112183460A (zh) 一种智能识别环境卫生的方法及装置
Perry et al. Panel segmentation: A python package for automated solar array metadata extraction using satellite imagery
WO2023194693A1 (fr) Procédé d'estimation de la qualité d'un flux d'objets dans une ligne de tri
Sherwood Applying object detection to monitoring marine debris
US11651334B1 (en) Systems and methods for enhancing waste disposal and energy efficiency using sensor and alternative power technologies
CN112380986B (zh) 抗复杂街道背景干扰的车型检测方法、系统及存储介质
Malche et al. Efficient solid waste inspection through drone‐based aerial imagery and TinyML vision model
CN111814764B (zh) 一种遗撒物确定系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23736392

Country of ref document: EP

Kind code of ref document: A1