WO2024133353A1 - Procédé de détection de la position de récipients - Google Patents

Procédé de détection de la position de récipients Download PDF

Info

Publication number
WO2024133353A1
WO2024133353A1 PCT/EP2023/086769 EP2023086769W WO2024133353A1 WO 2024133353 A1 WO2024133353 A1 WO 2024133353A1 EP 2023086769 W EP2023086769 W EP 2023086769W WO 2024133353 A1 WO2024133353 A1 WO 2024133353A1
Authority
WO
WIPO (PCT)
Prior art keywords
containers
image
predefined
container
pixels
Prior art date
Application number
PCT/EP2023/086769
Other languages
English (en)
Inventor
Damien Cirette
Original Assignee
Sidel Participations
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sidel Participations filed Critical Sidel Participations
Publication of WO2024133353A1 publication Critical patent/WO2024133353A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Definitions

  • the technical field of the invention is that of container detection, preferably in container packaging lines.
  • the present invention relates to a method for detecting the position of containers and in particular for detecting their position via the detection of an upper surface of each container, knowing its size and its color.
  • the term "container” encompasses an individual object intended to contain, in a non-exhaustive manner, a fluid, a liquid, powders or granules, in particular of the agri-food or cosmetic type.
  • a container can be a bottle or flask, or a cardboard carton, or even a can.
  • a container can be made of any type of material, in particular plastic, metal or even glass. Depending on its shape and material, a container can be rigid or semi-rigid.
  • a container can have any type of shape, symmetrical or not, regular or irregular.
  • a container may have a rounded section, generally circular or ovoid in shape, or a polygonal section, in particular rectangular or square.
  • such a container comprises a bottom which may be flat or substantially flat, or, conversely, having one or more cavities, as is the case for example of a can with a concave bottom or of a bottle with a so-called “petaloid” bottom.
  • the containers can receive several different successive treatments, such as the manufacture of the container, for example during a plastic injection or stretch-blowing operation in the case of a plastic bottle, followed by filling and then closure with a cap and labeling. At the end of these treatments, the containers are said to be “finished”.
  • each batch comprises a group of several containers, grouped together in a matrix arrangement, generally of generally parallelepiped shape, often square or rectangular, in columns and rows.
  • a usual batch groups together six containers in two rows and three columns.
  • the containers are transported along the production line, in a direction of movement extending longitudinally, from upstream to downstream, between and within the different stations dedicated to each treatment that the containers must undergo. Such transport can be carried out through at least one conveyor installation.
  • the conveying is carried out by moving the containers resting directly at their bottom on the upper face of one or more conveyors.
  • This upper surface is movable, forming a belt, generally in the form of one or more endless belts wound around at least one motorized winding.
  • the containers can be transported in bulk, namely that the containers are positioned in a staggered and disordered manner, in particular against each other, over all or part of the width of a conveyor.
  • a view to specific treatment of containers, such as packaging it is necessary to order the bulk flow of containers in several lines, in particular with a view to ensuring their downstream grouping then batch coating from such a multi-filar flow of containers.
  • Such an operation is carried out by means of means for aligning the containers, generally taking the form of a funnel positioned above the conveyor, making it possible to receive the bulk flow of said containers as input and to align them according to several lines parallel to each other delivered as output.
  • an alignment means comprises vertical sheets mounted on a frame and spaced so as to form corridors.
  • the corridors are planned converging from upstream to downstream, tightening according to the direction of movement of the containers.
  • the decreasing width of corridors is configured as a function of the number of containers to be received at the input, to be channeled to obtain an output flow with lines composed of one or more containers wide, as well as the format of said containers , notably their diameter.
  • a disadvantage of such a funnel aligner lies in the recurring blocking of the containers at the entrance and inside the corridors. Indeed, the conveying speed, combined with the narrowing of the width of the corridors, often results in the front positioning of two containers which causes them to jam, in particular due to the friction of the products between them and against the walls of the sheets. It is then necessary to stop the conveying, in order to unblock the products, in particular by manual intervention of an operator: tedious and precarious operation to reach the containers to be unblocked. This blockage also leads to a loss of production and therefore a loss of line efficiency.
  • the invention offers a solution to the problems mentioned above, by proposing detection of the position of containers by image processing, requiring no annotation and few hardware resources.
  • One aspect of the invention relates to a computer-implemented method for detecting the position of a plurality of containers, each container comprising an upper face, the method comprising:
  • a position of the containers of each processed image is obtained from simple data such as the color of the upper surfaces of the containers and the dimension of the upper surfaces of the containers.
  • the method makes it possible to obtain container positions reliably, not requiring annotation of the position of similar containers on similar images unlike the prior art.
  • the image is obtained by at least one camera whose field of vision is directed towards the plurality of containers,
  • the method further comprises, after the combination of the masked image and the local binary patterns:
  • the method comprises: a first expansion of the sets of pixels representing the upper faces of the containers then a first erosion of the sets of pixels representing the upper faces of the containers then a second expansion of the sets of pixels representing the upper faces of the containers.
  • the position of each upper face obtained includes coordinates of the center of gravity of the upper face in the image.
  • the combination of the masked image and the local binary patterns is carried out by multiplication of a first matrix with a second matrix, the first matrix representing the masked image, the second matrix representing the patterns local binaries.
  • the predefined upper surface size and the predefined upper surface color are obtained from a man-machine interface, before obtaining local binary patterns and before applying a color mask to the acquired image.
  • the predefined upper surface size and the predefined upper surface color are stored in a database.
  • the predefined upper surface size of the container is transformed into the size of the upper surface of the container in pixels of the image acquired from a distance predefined between the camera and the upper surface of the containers and a predefined resolution of the camera in pixels.
  • Another aspect of the invention relates to a computer program product comprising instructions which, when the program is executed by a computer, lead it to implement the method according to the invention.
  • Another aspect of the invention relates to a computer-readable recording medium comprising instructions which, when executed by a computer, lead it to implement the method according to the invention.
  • Figure 1 shows a schematic representation of a packaging line in which the method according to the invention is implemented
  • FIG. 2 shows a schematic representation of the process according to the invention
  • FIG. 3 shows a schematic representation of results of the steps of the process according to the invention
  • Figures 4a and 4b show schematic representations of containers whose position can be obtained by the method according to the invention
  • Figure 5 shows a schematic representation of a step of the process according to the invention.
  • Figure 1 shows a schematic representation of a packaging line in which the method according to the invention can be implemented.
  • the method according to the invention makes it possible to detect the position of containers, for example in a packaging line.
  • Such a packaging line is for example the packaging line 10 of Figure 1.
  • the packaging line 10 comprises a belt 12, a set of corridors 13 and a plurality of containers 14.
  • the plurality of containers 14 circulate upright, that is to say resting on their bottom and with a free upper face.
  • the belt 1 1 makes it possible to move the containers 14 outside and into the corridors 13.
  • the invention applies to any packaging line and is not limited to packaging lines of the type of the packaging line presented in the Figure 1 .
  • the packaging line 10 is equipped with a camera 11.
  • the camera 11 is an image capture device, which can be of any type.
  • the camera 11 comprises an image sensor, for example of the CCD or CMOS type, and an optical means capable of redirecting the incident light rays towards the image sensor.
  • the camera 11 thus has a field of vision 111 defined in particular by the dimensions of its sensor and by the dimensions and type of its optical means(s).
  • This field of vision 1 1 1 is directed towards the containers 14 circulating in or on the packaging line.
  • directed towards the containers we mean that at least part of the containers 14, preferably a majority of the containers 14 circulating at a given position, are imaged on the sensor of the camera 11. In other words, at each moment, at least part of the containers 14, preferably a majority of the containers 14 circulating at a given position, are present on an image obtained by the camera 11 for the given moment.
  • the method 20 is shown schematically in Figure 2.
  • the method 20 is a computer-implemented method for detecting the position of a plurality of containers.
  • the method 20 can be implemented by computer or by a processor.
  • computer implemented we mean that the steps, or at least one step, are executed by at least one computer or processor or any other similar system. Thus, steps are carried out by the computer, possibly in a fully automatic or semi-automatic manner.
  • triggering at least some of the method steps may be accomplished by user-computer interaction.
  • the level of user-computer interaction required may depend on the level of automation intended and balanced against the need to implement the user's wishes. In examples, this level may be user defined and/or predefined.
  • a typical example of computer implementation of a method consists of executing the method with a system adapted for this purpose.
  • the system may include a processor coupled to a memory and a graphical user interface ("GUI"), the memory having stored thereon a computer program including instructions for implementing the method.
  • GUI graphical user interface
  • Memory can also store a database.
  • Memory is any hardware suitable for such storage, possibly comprising several distinct physical parts.
  • the method 20 comprises a first step 21 of acquiring at least one image of a plurality of containers 14.
  • the position of the plurality of containers 14 obtained at the end of the method is the position of the containers 14 included in the image, that is to say containers 14 represented in the form of pixels in the image.
  • the image includes a plurality of pixels.
  • the image can be obtained, by the processor or the computer implementing the method 20, directly from a camera 1 1, or from a local or remote database not shown.
  • the image can be acquired by the processor or computer via a wired or wireless connection.
  • the image is preferably acquired in digital form.
  • the image was previously obtained by camera 1 1.
  • the containers 14 present in the image must be seen from a low angle, that is to say that at least one predefined upper surface of the containers 14 must be visible. To do this, the camera must be placed at a height relative to the surface on which the containers 14 rest greater than the height of the containers 14.
  • the acquired image is for example image 11 shown in Figure 3, comprising a plurality of containers 14 which are bottles, each bottle comprising a substantially circular white cap.
  • the term “upper surface of the containers” means at least one end of the containers 14.
  • the upper surface of the bottle is the upper surface 141 , i.e. the surface of the bottle cap when the bottle is seen from above.
  • the upper surface of the can is the upper surface 141, that is to say the surface visible when the can is seen from above.
  • the container 14 is a brick or a box
  • the upper surface of the brick or the box is the upper surface 141, that is to say the surface visible when the brick or the can is seen from above .
  • the plurality of containers 14 can be in the form of batches.
  • the upper surface of the batch 41 is the surface visible when the batch 41 is seen from above.
  • the upper surface may be the upper surface of each container 14 of the batch 41.
  • the upper surface of a container 14 is the uppermost surface of the container 14 which is substantially flat or can be approximated by a substantially flat shape, for example by a disc or a solid rectangle.
  • An upper surface is preferably a surface in a horizontal plane, that is to say in a plane substantially parallel to the bottom of the container 14 on which the container 14 rests, and therefore substantially parallel to the surface on which the container 14 rests.
  • the “highest” surface is understood to be the highest surface relative to the bottom of the container 14.
  • the method then comprises a step 22 of acquiring a size of the upper surface of the containers 14 and a color of the upper surface of the containers 14. This implies that the position of the containers present on the acquired image in step 21 obtained at the end of the method 20 is the position of the containers present in the image and having an upper surface of the acquired size and the acquired color.
  • the upper surface size and the upper surface color are acquired, by the processor or the computer implementing the method 20, from from a remote and/or local database or directly from a human-machine interface.
  • the size of the upper surface of the containers 14 is for example defined in centimeters or millimeters.
  • the size of the upper surface is for example a size of a dimension of the upper surface of the containers 14.
  • a dimension of the upper surface of the containers 14 is for example a diameter of the upper surface 141, for example when the upper surface is the upper surface of a bottle or any container of circular, oval, substantially circular or substantially oval shape, for example a cap diameter when the upper surface is the upper surface of a cap of a bottle 14.
  • a dimension of the upper surface of the containers 14 is for example a width or a length of the upper surface 141, for example when the upper surface is the upper surface of a brick or any container of rectangular or substantially rectangular shape.
  • the color of the upper surface of the containers 14 is for example defined in RGB, YCbCr format, or any other color format.
  • the top surface color is a majority color of the top surface, the majority of color being defined in terms of surface. For example, for containers 14 which are bottles with blue caps, the color of the upper surface acquired is the color blue. Color can be a range of colors.
  • the size and color of the upper surface of the containers whose position is desired are predefined, that is to say they are defined before the start of the process 20 and/or before their use by method 20.
  • the size and color of the upper surface of the containers can be defined by an operator using a human-machine interface such as a touch screen, or a computer including a screen and a means of input data in the computer, for example a keyboard and/or mouse.
  • the size and color of the upper surface of the containers 14 can be stored in a database, accessible by the processor and/or the computer implementing the method 20.
  • the human interface -machine can be directly accessible by the processor and/or the computer implementing the method 20 to obtain the upper surface size and color data.
  • the size of the upper surfaces in pixels must be obtained.
  • the process is continued in step 23.
  • the size of the upper surfaces is indicated in a unit other than pixels, the size must be converted into pixels. For this, the conversion is carried out by knowing the definition of the image obtained by the camera 11 in pixels (and therefore the resolution of the sensor of the camera 11) and the distance between the camera 11 and the containers 14.
  • the method 20 then comprises two steps 23 and 24, which can be carried out simultaneously or sequentially, in any order. Steps 23 and 24 allow you to identify and extract features from the image. Step 23 makes it possible to identify and extract shape characteristics in the image 11, and step 24 makes it possible to identify and extract color characteristics in the image 11.
  • Step 23 is a step of calculating local binary patterns of the image acquired from a dimension of the upper surface of each container of the plurality of containers, the dimension of the upper surface of each container being calculated from a predefined upper surface size of the containers.
  • the predefined upper surface size of the containers 14 is equal to the predefined upper surface dimension, the latter is directly used in the calculation of local binary patterns.
  • the predefined upper surface dimension is for example the radius, the diameter, a width or a length of the upper surface.
  • the calculation of local binary patterns includes the use of an algorithm entitled “Local Binary Pattern” or “LBP”.
  • LBP Local Binary Pattern
  • the dimension of the upper surface obtained from the size acquired in step 22 is used to define the neighborhood of each pixel, in number of pixels. Neighborhood is used to compare the luminance level of a central pixel relative to the luminance level of its neighboring pixels in the neighborhood. For each pixel, called "central", a value is assigned which corresponds to a sequence of numbers (preferably '0' or '1'), each digit of the sequence of numbers corresponding to a luminance level of a pixel in the neighborhood relative to the central pixel.
  • a histogram is then calculated on the neighborhood of the frequency of appearance of each digit or number (preferably '0' or '1'), that is to say each combination of pixels having a smaller luminance level and larger than the central pixel.
  • This histogram can be considered as a feature vector. Concatenating histograms from all neighborhoods of the image allows local binary patterns to be obtained.
  • the invention can be implemented with any algorithm making it possible to obtain local binary patterns.
  • An example image with local binary patterns is shown in Figure 3, image I2.
  • Step 24 is a step of masking the image obtained in step 21 with a color mask.
  • a color mask makes it possible to modify the value of all pixels having a color equal to or close to the predefined color or included in a color range around the predefined color, or included in the predefined color range, and/or modify the value of all pixels having a color different from the predefined color not included in a color range around the predefined color or not included in the predefined color range. For example, if the chosen color is white, all white pixels can remain white and all non-white pixels can take on a similar value different from the value corresponding to the white color.
  • the invention can use any known color mask.
  • the resulting image is called masked or “partially” masked, in that only one color is masked.
  • mask we mean the application of a mask, whether it is a mask which reduces the presence of the predefined color or which attenuates it.
  • a color mask makes it easy to identify all pixels with the predefined color.
  • An example of a partially obscured image obtained is shown in Figure 3, image I3.
  • the images I2 and I3 obtained are then combined in a step 25.
  • the image obtained is a digital image in the form of a matrix.
  • the combination of the two images is preferably a multiplication of matrices.
  • the image I4 resulting from the combination of images I2 and I3 includes the information extracted from color and shape from image 11. This Taking into account two types of characteristics makes it possible to better detect the upper surfaces of the containers, and to eliminate at least part of the noise.
  • noise we mean the parts of the image extracted as corresponding to an upper surface of the container but not in reality corresponding there. For example, noise can be created by objects that are the same color as the predefined color but are not a container top surface.
  • an optional step 26 can be implemented.
  • Step 26 is shown in Figure 5 and preferably comprises three sub-steps 261 to 263. Step 26 is applied to sets of pixels from image I4, i.e. i.e. from the combination of images I2 and I3.
  • step 26 a succession of erosions and dilations of the sets of pixels resulting from the combined image are carried out.
  • the erosions and expansions carried out are as follows:
  • each set of pixels from image I4 we remove the sets of pixels that are too small, that is to say having a size smaller than the predefined upper surface size. Indeed, during the first erosion 261, all the pixels of a set of pixels may have been deleted, for example if the core cannot be included in its entirety in the set of pixels. Then, the resulting sets of pixels are expanded in a substep 262, to take a larger size but smaller than their original size. Finally, a second erosion removes the sets of pixels that are too small. Indeed, during the second erosion 261, all the pixels of a set of pixels may have been deleted, for example if the core cannot be included in its entirety in the set of pixels after dilation.
  • the pixels of the image I5 not belonging to the pixels of the plurality of sets of pixels can be assigned a predetermined value different from the pixels belonging to the pixels of the plurality of sets of pixels, for example the value 0.
  • any algorithm for extracting a set of similar pixels can be used, for example an algorithm called “label features” (literally translated “labeling of characteristics”). in French).
  • the method 20 comprises a final step 27 of calculating the centers of gravity of the sets of pixels of the image I5 to obtain the position of each container 14 in the image acquired in step 21.
  • This calculation step makes it possible to obtain coordinates of the containers 14 in the image.
  • To calculate the center of gravity of the sets of pixels for each set of pixels, the average of the pixel coordinates of the set of pixels makes it possible to obtain the center of gravity of the set of pixels.
  • the coordinates thus obtained can then be transformed into coordinates relating to the packaging line 10 to position each container 14 in relation to the packaging line 10 and not in relation to the camera 11.
  • the coordinates relating to the packaging line 10 can then be used to detect and/or predict the formation of blockages in the packaging line, by calculating for example the speed of the containers 14 and their position from successive images at successive times.
  • the process 20 can be repeated every predefined instant, for example every 0.2 seconds with a conveyor speed of 300 millimeters per second for a 60 millimeter bottle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Un aspect de l'invention concerne un procédé (20) mis en œuvre par ordinateur de détection de la position d'une pluralité de récipients (14), chaque récipient (14) comprenant une surface supérieure (141), le procédé comprenant : - Acquisition (21) d'au moins une image (I1) de la pluralité de récipients (14), - Obtention (23) de motifs binaires locaux (I2) de l'image (I1) acquise à partir d'une dimension de la surface supérieure (141) de chaque récipient (14) de la pluralité de récipients (14), la dimension de la surface supérieure (141) de chaque récipient (14) étant calculée à partir d'une taille de surface supérieure (141) prédéfinie des récipients (14), - Application (24) d'un masque de couleur à l'image (I1) acquise à partir d'une couleur de surface supérieure (141) prédéfinie des récipients (14) pour obtenir une image masquée (I3), - Combinaison (25) de l'image partiellement masquée (I3) et des motifs binaires locaux (I2) pour obtenir des ensembles de pixels représentant les surfaces supérieures (141) des récipients (14), - Calcul (27) de centres de gravités des ensembles de pixels représentant les surfaces supérieures (141) des récipients (14) de la pluralité de récipients (14) pour obtenir la position de chaque surface supérieure (141) des récipients (14).

Description

DESCRIPTION
Procédé de détection de la position de récipients
DOMAINE TECHNIQUE DE L’INVENTION
[0001] Le domaine technique de l’invention est celui de la détection de récipients, préférentiellement dans les lignes de conditionnement de récipients.
[0002] La présente invention concerne un procédé de détection de la position de récipients et en particulier de détection de leur position via la détection d’une surface supérieure de chaque récipient, en connaissant sa taille et sa couleur.
ARRIERE-PLAN TECHNOLOGIQUE DE L’INVENTION
[0003] Dans les lignes de conditionnement de récipients, les récipients sont acheminés entre différents postes de traitement via des bandes transporteuses.
[0004] Au sens de la présente invention, le terme « récipient >> englobe un objet individuel destiné à contenir, de façon non exhaustive, un fluide, un liquide, des poudres ou des granulés, notamment de type agroalimentaire ou cosmétique. Un tel récipient peut être une bouteille ou un flacon, ou une brique cartonnée, ou encore une cannette. Un récipient peut être en tout type de matériau, notamment en matériau plastique, en métal ou encore en verre. En fonction de sa forme et de son matériau, un récipient peut être rigide ou semi-rigide.
[0005] En outre, un récipient peut présenter tout type de forme, symétrique ou non, régulière ou irrégulière. De plus, un récipient peut avoir une section arrondie, globalement de forme circulaire ou ovoïdale, ou bien une section polygonale, notamment rectangle ou carrée.
[0006] En particulier, un tel récipient comprend un fond pouvant être plat ou sensiblement plat, ou bien, inversement, présentant une ou plusieurs cavités, comme c'est le cas par exemple d'une cannette avec un fond concave ou d'une bouteille avec un fond dit « pétaloïde ».
[0007] De manière connue, au sein d'une ligne industrielle, les récipients peuvent recevoir plusieurs traitements successifs différents, comme la fabrication du contenant, par exemple lors d'une opération d'injection plastique ou d'étirage-soufflage dans le cas d'une bouteille en matériau plastique, suivi du remplissage puis de la fermeture par un bouchon et l'étiquetage. A l'issue de ces traitements, les récipients sont dits "finis".
[0008] En vue de leur manutention, de tels récipients subissent un conditionnement en lot.
[0009] En outre, chaque lot comprend un groupe de plusieurs récipients, rassemblés selon une disposition en matrice, généralement de forme globalement parallélépipédique, souvent carrée ou rectangle, selon des colonnes et des rangées. A titre d'exemple, un lot habituel regroupe six récipients selon deux rangées et trois colonnes.
[0010] Au cours de ces différentes étapes, les récipients sont transportés le long de la ligne de production, selon une direction de déplacement s'étendant longitudinalement, depuis l'amont vers l'aval, entre et au sein des différents postes dédiés à chaque traitement que doivent subir les récipients. Un tel transport peut s'effectuer au travers d'au moins une installation de convoyage.
[0011] Plus avant, le convoyage s'effectue par déplacement des récipients reposant directement au niveau de leur fond en face supérieure d'un ou plusieurs convoyeurs. Cette surface supérieure est mobile, formant un tapis, généralement sous la forme d'une ou plusieurs bandes sans fin enroulées autour d'au moins un enroulement motorisé.
[0012] Le long d'une ligne de production, les récipients peuvent être transportés en vrac, à savoir que les récipients se positionnent en quinconce et de façon désordonnée, notamment les uns contre les autres, sur toute ou partie de la largeur d'un convoyeur. En vue d'un traitement spécifique des récipients, comme le conditionnement, il est nécessaire d'ordonner le flux en vrac de récipients selon plusieurs files, notamment en vue d'assurer en aval leur groupage puis l'enrobage en lot à partir d'un tel flux plurifilaire de récipients.
[0013] Une telle opération est effectuée par l'intermédiaire de moyens d'alignement des récipients, prenant globalement la forme d'un entonnoir positionné au-dessus du convoyeur, permettant de recevoir en entrée le flux en vrac desdits récipients et de les aligner selon plusieurs files parallèles entre elles délivrées en sortie. Plus avant, un tel moyen d'alignement comprend des tôles verticales montées sur un châssis et espacées de manière à former des couloirs. De plus, les couloirs sont prévus convergents depuis l'amont vers l'aval, se resserrant selon la direction de déplacement des récipients.
[0014] Ainsi, en entrée, le flux de récipients en vrac se sépare au contact de l'extrémité amont de chacune des tôles, les récipients se déportant latéralement de part et d'autre pour entrer dans chaque couloir. Au fil de leur avancement, la convergence dans chaque couloir forme un goulot d'étranglement, imposant aux bouteilles de se positionner l'une derrière l'autre, notamment par friction au contact des parois des tôles et par roulement et friction entre les récipients au fur et à mesure de leur avancement le long de chaque couloir.
[0015] En particulier, la largeur décroissante de couloirs est configurée en fonction du nombre de récipients à recevoir en entrée, à canaliser pour obtenir un flux en sortie avec des files composées de un ou plusieurs récipients de large, ainsi que le format desdits récipients, notamment leur diamètre.
[0016] Un inconvénient d'un tel aligneur en entonnoir réside dans le blocage récurrent des récipients en entrée et à l'intérieur des couloirs. En effet, la vitesse de convoyage, cumulée au rétrécissement de la largeur des couloirs, entraîne souvent le positionnement de front de deux récipients qui provoque leur coincement, notamment en raison de la friction des produits entre eux et contre les parois des tôles. Il est alors nécessaire d'arrêter le convoyage, en vue de débloquer les produits, notamment par intervention manuelle d'un opérateur : opération fastidieuse et précaire pour atteindre les récipients à débloquer. Ce blocage entraine également une perte de production et donc une perte d’efficience de la ligne.
[0017] Pour éviter ces blocages de récipients, certaines solutions proposent la détection de la position des récipients par apprentissage supervisé. Pour cela, une caméra est utilisée et la position des récipients est obtenue en sortie d’un algorithme d’apprentissage automatique utilisant un modèle entraîné à partir de données annotées. Ces solutions permettent, en obtenant la position du récipient, de déduire sa vitesse et donc de prédire des blocages à venir. Un inconvénient de telles solutions est qu’il nécessite une annotation manuelle de la position de chaque récipient sur une pluralité d’images. Lors d’un changement de récipient, de lignes de conditionnement et/ou de caméra, de nouvelles données annotées doivent être fournies au modèle, et donc de nouvelles annotations doivent être réalisées par un opérateur. [0018] Il existe donc un besoin d’avoir une solution simple permettant d’obtenir la position de récipients dans des lignes de conditionnement ne nécessitant pas d’opération complexe d’annotation lors de changements de format ou de nature de récipient.
RESUME DE L’INVENTION
[0019] L’invention offre une solution aux problèmes évoqués précédemment, en proposant une détection de position des récipients par traitement d’image, ne nécessitant pas d’annotation et peu de ressources matérielles.
[0020] Un aspect de l’invention concerne un procédé mis en oeuvre par ordinateur de détection de la position d’une pluralité de récipients, chaque récipient comprenant une face supérieure, le procédé comprenant :
Acquisition d’au moins une image de la pluralité de récipients,
Obtention de motifs binaires locaux de l’image acquise à partir d’une dimension de la face supérieure de chaque récipient de la pluralité de récipients, la dimension de la face supérieure de chaque récipient étant calculée à partir d’une taille de face supérieure prédéfinie des récipients,
Application d’un masque de couleur à l’image acquise à partir d’une couleur de face supérieure prédéfinie des récipients pour obtenir une image partiellement masquée,
Combinaison de l’image partiellement masquée et des motifs binaires locaux pour obtenir des ensembles de pixels représentant les faces supérieures des récipients,
Calcul de centres de gravités des ensembles de pixels représentant les faces supérieures des récipients de la pluralité de récipients pour obtenir la position de chaque face supérieure des récipients.
[0021] Grâce à l’invention, une position des récipients de chaque image traitée est obtenue à partir de données simples telles que la couleur des surfaces supérieures des récipients et la dimension des surfaces supérieures des récipients. Le procédé permet d’obtenir des positions de récipients de manière fiable, ne nécessitant pas d’annotation de la position de récipients similaires sur des images similaires au contraire de l’art antérieur. [0022] Selon des caractéristiques additionnelles, non limitatives, l’image est obtenue par au moins une caméra dont un champ de vision est dirigé vers la pluralité de récipients,
[0023] Selon des caractéristiques additionnelles, non limitatives, le procédé comprend en outre, après la combinaison de l’image masquée et des motifs binaires locaux :
Au moins une dilatation des ensembles de pixels représentant les faces supérieures des récipients,
Au moins une érosion des ensembles de pixels représentant les faces supérieures des récipients.
[0024] Selon un mode de réalisation, le procédé comprend : une première dilatation des ensembles de pixels représentant les faces supérieures des récipients puis une première érosion des ensembles de pixels représentant les faces supérieures des récipients puis une seconde dilatation des ensembles de pixels représentant les faces supérieures des récipients.
[0025] Selon un mode de réalisation, la position de chaque face supérieure obtenue comprend des coordonnées du centre de gravité de la face supérieure dans l’image.
[0026] Selon un mode de réalisation, la combinaison de l’image masquée et des motifs binaires locaux est réalisée par multiplication d’une première matrice avec une deuxième matrice, la première matrice représentant l’image masquée, la deuxième matrice représentant les motifs binaires locaux.
[0027] Selon un mode de réalisation, la taille de surface supérieure prédéfinie et la couleur de surface supérieure prédéfinie sont obtenues à partir d’une interface homme-machine, avant l’obtention de motifs binaires locaux et avant l’application d’un masque de couleur à l’image acquise.
[0028] Selon un mode de réalisation, la taille de surface supérieure prédéfinie et la couleur de surface supérieure prédéfinie sont stockées dans une base de données. [0029] Selon un mode de réalisation, avant le calcul de la dimension de la surface supérieure, la taille de surface supérieure de récipient prédéfinie est transformée en taille de surface supérieure de récipient en pixels de l’image acquise à partir d’une distance prédéfinie entre la caméra et la surface supérieure des récipients et d’une résolution prédéfinie de la caméra en pixels.
[0030] Un autre aspect de l’invention concerne un produit programme d'ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en oeuvre le procédé selon l’invention.
[0031] Un autre aspect de l’invention concerne un support d'enregistrement lisible par ordinateur comprenant des instructions qui, lorsqu'elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en oeuvre le procédé selon l’invention.
[0032] L’invention et ses différentes applications seront mieux comprises à la lecture de la description qui suit et à l’examen des figures qui l’accompagnent.
BREVE DESCRIPTION DES FIGURES
[0033] Les figures sont présentées à titre indicatif et nullement limitatif de l’invention.
La figure 1 montre une représentation schématique d’une ligne de conditionnement dans laquelle est mis en oeuvre le procédé selon l’invention,
La figure 2 montre une représentation schématique du procédé selon l’invention,
La figure 3 montre une représentation schématique de résultats des étapes du procédé selon l’invention,
Les figures 4a et 4b montrent des représentations schématiques de récipients dont la position peut être obtenue par le procédé selon l’invention,
La figure 5 montre une représentation schématique d’une étape du procédé selon l’invention.
DESCRIPTION DETAILLEE
[0034] Sauf précision contraire, un même élément apparaissant sur des figures différentes présente une référence unique. [0035] La figure 1 montre une représentation schématique d’une ligne de conditionnement dans laquelle peut être mis en oeuvre le procédé selon l’invention.
[0036] Le procédé selon l’invention, représenté schématiquement à la Figure 2, permet de détecter la position de récipients, par exemple dans une ligne de conditionnement.
[0037] Une telle ligne de conditionnement est par exemple la ligne de conditionnement 10 de la Figure 1 . La ligne de conditionnement 10 comprend un tapis 12, un ensemble de couloirs 13 et une pluralité de récipients 14. La pluralité de récipients 14 circule debout, c’est-à-dire reposant sur leur fond et avec une face supérieure libre. Le tapis 1 1 permet de déplacer les récipients 14 en dehors et dans les couloirs 13. L’invention s’applique à toute ligne de conditionnement et n’est pas limitée à des lignes de conditionnement du type de la ligne de conditionnement présentée à la Figure 1 .
[0038] Lorsque l’invention est appliquée à la ligne de conditionnement 10, la ligne de conditionnement 10 est équipée d’une caméra 1 1. La caméra 11 est un dispositif de captation d’image, qui peut être de tout type. Préférentiellement, la caméra 11 comprend un capteur d’image, par exemple de type CCD ou CMOS, et un moyen optique apte à rediriger les rayons lumineux incidents vers le capteur d’image. La caméra 1 1 a ainsi un champ de vision 11 1 défini notamment par les dimensions de son capteur et par les dimensions et le type de son ou ses moyen(s) optique(s). Ce champ de vision 1 1 1 est dirigé vers les récipients 14 circulant dans ou sur la ligne de conditionnement. Par « dirigé vers les récipients >> on entend qu’au moins une partie des récipients 14, préférentiellement une majorité des récipients 14 circulant à une position donnée sont imagés sur le capteur de la caméra 1 1 . Dit autrement, à chaque instant, au moins une partie des récipients 14 préférentiellement une majorité des récipients 14 circulant à une position donnée sont présents sur une image obtenue par la caméra 1 1 pour l’instant donné.
[0039] Le procédé 20 selon l’invention est représenté schématiquement à la Figure 2. Le procédé 20 est un procédé mis en oeuvre par ordinateur de détection de la position d’une pluralité de récipients.
[0040] Le procédé 20 peut être mis en oeuvre par ordinateur ou par un processeur. Par « mis en oeuvre par ordinateur >>, on entend que les étapes, ou au moins une étape, sont exécutées par au moins un ordinateur ou processeur ou tout autre système similaire. Ainsi, des étapes sont réalisées par le calculateur, éventuellement de manière entièrement automatique ou semi-automatique. Dans des exemples, le déclenchement d'au moins certaines des étapes du procédé peut être effectué par interaction utilisateur-ordinateur. Le niveau d'interaction utilisateur-ordinateur requis peut dépendre du niveau d'automatisme prévu et mis en balance avec la nécessité de mettre en oeuvre les souhaits de l'utilisateur. Dans des exemples, ce niveau peut être défini par l'utilisateur et/ou prédéfini.
[0041] Un exemple typique de mise en oeuvre par ordinateur d'un procédé consiste à exécuter le procédé avec un système adapté à cet effet. Le système peut comprendre un processeur couplé à une mémoire et une interface utilisateur graphique (« GUI »), la mémoire ayant enregistré dessus un programme informatique comprenant des instructions pour mettre en oeuvre le procédé. La mémoire peut également stocker une base de données. La mémoire est tout matériel adapté pour un tel stockage, comprenant éventuellement plusieurs parties physiques distinctes.
[0042] Le procédé 20 comprend une première étape 21 d’acquisition d’au moins une image d’une pluralité de récipients 14. La position de la pluralité de récipients 14 obtenue à la fin du procédé est la position des récipients 14 compris dans l’image, c’est-à-dire des récipients 14 représentés sous forme de pixels dans l’image. L’image comprend une pluralité de pixels. L’image peut être obtenue, par le processeur ou l’ordinateur mettant en oeuvre le procédé 20, directement auprès d’une caméra 1 1 , ou auprès d’une base de données locale ou distante non représentée. L’image peut être acquise par le processeur ou l’ordinateur via une connexion filaire ou sans-fil. L’image est acquise préférentiellement sous forme numérique. L’image a été obtenue précédemment par la caméra 1 1 . Les récipients 14 présents dans l’image doivent être vus en contre-plongée, c’est-à-dire qu’au moins une surface supérieure prédéfinie des récipients 14 doit être visible. Pour cela, la caméra doit être placée à une hauteur par rapport à la surface sur laquelle reposent les récipients 14 supérieure à la hauteur des récipients 14.
[0043] L’image acquise est par exemple l’image 11 représentée à la Figure 3, comprenant une pluralité de récipients 14 qui sont des bouteilles, chaque bouteille comprenant un bouchon de couleur blanche sensiblement circulaire. [0044] On entend par « surface supérieure des récipients >> au moins une extrémité des récipients 14. Par exemple, comme représenté à la Figure 4a, lorsque le récipient 14 est une bouteille, la surface supérieure de la bouteille est la surface supérieure 141 , c’est-à-dire la surface du bouchon de la bouteille lorsque la bouteille est vue de dessus. Par exemple, comme représenté à la Figure 4b, lorsque le récipient 14 est une canette, la surface supérieure de la canette est la surface supérieure 141 , c’est-à-dire la surface visible lorsque la canette est vue de dessus. Par exemple, lorsque le récipient 14 est une brique ou une boîte, la surface supérieure de la brique ou de la boite est la surface supérieure 141 , c’est-à-dire la surface visible lorsque la brique ou la canette est vue de dessus.
[0045] De la même façon, la pluralité de récipients 14 peut être sous forme de lots. Dans un tel cas, lorsque les récipients 14 sont sous forme de lots 41 , la surface supérieure du lot 41 est la surface visible lorsque le lot 41 est vu de dessus. Alternativement, lorsque les récipients 14 sont sous forme de lots, la surface supérieure peut être la surface supérieure de chaque récipient 14 du lot 41 .
[0046] De manière générale, la surface supérieure d’un récipient 14 est la surface la plus haute du récipient 14 sensiblement plane ou pouvant être approximée par une forme sensiblement plane, par exemple par un disque ou un rectangle plein. Une surface supérieure est préférentiellement une surface dans un plan horizontal, c’est- à-dire dans un plan sensiblement parallèle au fond du récipient 14 sur lequel le récipient 14 repose, et donc sensiblement parallèle à la surface sur laquelle le récipient 14 repose. La surface « la plus haute >> est entendu comme étant la surface la plus haute par rapport au fond du récipient 14.
[0047] Le procédé comprend ensuite une étape 22 d’acquisition d’une taille de la surface supérieure des récipients 14 et d’une couleur de la surface supérieure des récipients 14. Cela implique que la position des récipients présents sur l’image acquise à l’étape 21 obtenue à la fin du procédé 20 est la position des récipients présents sur l’image et présentant une surface supérieure de la taille acquise et de la couleur acquise.
[0048] La taille de surface supérieure et la couleur de surface supérieure sont acquises, par le processeur ou l’ordinateur mettant en oeuvre le procédé 20, auprès d’une base de données distante et/ou locale ou directement auprès d’une interface homme-machine.
[0049] La taille de la surface supérieure des récipients 14 est par exemple définie en centimètres ou en millimètres. La taille de la surface supérieure est par exemple une taille d’une dimension de la surface supérieure des récipients 14. Une dimension de la surface supérieure des récipients 14 est par exemple un diamètre de la surface supérieure 141 , par exemple lorsque la surface supérieure est la surface supérieure d’une bouteille ou de tout récipient de forme circulaire, ovale, sensiblement circulaire ou sensiblement ovale, par exemple un diamètre de bouchon lorsque la surface supérieure est la surface supérieure d’un bouchon d’une bouteille 14. Une dimension de la surface supérieure des récipients 14 est par exemple une largeur ou une longueur de la surface supérieure 141 , par exemple lorsque la surface supérieure est la surface supérieure d’une brique ou de tout récipient de forme rectangulaire ou sensiblement rectangulaire.
[0050] La couleur de la surface supérieure des récipients 14 est par exemple définie en format RGB, YCbCr, ou tout autre format de couleur. La couleur de la surface supérieure est une couleur majoritaire de la surface supérieure, la majorité de couleur étant définie en termes de surface. Par exemple, pour des récipients 14 qui sont des bouteilles avec des bouchons bleus, la couleur de la surface supérieure acquise est la couleur bleue. La couleur peut être une plage de couleurs.
[0051] La taille et la couleur de la surface supérieure des récipients dont l’obtention de la position est souhaitée sont prédéfinies, c’est-à-dire qu’elles sont définies avant le début du procédé 20 et/ou avant leur utilisation par le procédé 20. Par exemple, la taille et la couleur de la surface supérieure des récipients peuvent être définies par un opérateur utilisant une interface homme-machine telle qu’un écran tactile, ou un ordinateur comprenant un écran et un moyen d’entrer des données dans l’ordinateur, par exemple un clavier et/ou une souris. Après définition par un opérateur, la taille et la couleur de la surface supérieure des récipients 14 peuvent être stockées dans une base de données, accessible par le processeur et/ou l’ordinateur mettant en oeuvre le procédé 20. Alternativement, l’interface homme-machine peut être directement accessible par le processeur et/ou l’ordinateur mettant en oeuvre le procédé 20 pour obtenir les données de taille et de couleur de surface supérieure. [0052] Ainsi, grâce à l’invention, le changement de récipients dont la position est détectée est aisé, une simple information de couleur et de taille de bouchon étant alors simplement entré par un opérateur et/ou automatiquement récupéré, sans nécessiter d’entraînement long et complexe ni d’annotation de données, au contraire de l’art antérieur.
[0053] Une fois la taille et la couleur des surfaces supérieures des récipients obtenues à l’étape 22, la taille des surfaces supérieures en pixels doit être obtenue. Lorsque la taille des surfaces supérieures est déjà indiquée en pixels, le procédé est poursuivi à l’étape 23. Lorsque, au contraire, la taille des surfaces supérieures est indiquée en une autre unité que des pixels, la taille doit être convertie en pixels. Pour cela, la conversion est réalisée en connaissant la définition de l’image obtenue par la caméra 1 1 en pixels (et donc la résolution du capteur de la caméra 1 1 ) et la distance entre la caméra 1 1 et les récipients 14.
[0054] Le procédé 20 comprend ensuite deux étapes 23 et 24, qui peuvent être réalisées simultanément ou de manière séquentielle, dans n’importe quel ordre. Les étapes 23 et 24 permettent d’identifier et d’extraire des caractéristiques de l’image. L’étape 23 permet d’identifier et d’extraire des caractéristiques de forme dans l’image 11 , et l’étape 24 permet d’identifier et d’extraire des caractéristiques de couleur dans l’image 11 .
[0055] L’étape 23 est une étape de calcul de motifs binaires locaux de l’image acquise à partir d’une dimension de la surface supérieure de chaque récipient de la pluralité de récipients, la dimension de la surface supérieure de chaque récipient étant calculée à partir d’une taille de surface supérieure prédéfinie des récipients. Lorsque la taille de surface supérieure prédéfinie des récipients 14 est égale à la dimension de surface supérieure prédéfinie, celle-ci est directement utilisée dans le calcul de motifs binaires locaux. La dimension de surface supérieure prédéfinie est par exemple le rayon, le diamètre, une largeur ou une longueur de la surface supérieure.
[0056] Le calcul de motifs binaires locaux comprend l’utilisation d’un algorithme intitulé en anglais « Local Binary Pattern >> ou « LBP >>. La dimension de la surface supérieure obtenue à partir de la taille acquise à l’étape 22 est utilisée pour définir le voisinage de chaque pixel, en nombre de pixels. Le voisinage est utilisé pour comparer le niveau de luminance d’un pixel central par rapport au niveau de luminance de ses pixels voisins dans le voisinage. Pour chaque pixel, appelé « central >>, une valeur est attribuée qui correspond à une suite de chiffres (préférentiellement ‘0’ ou ‘1 ’), chaque chiffre de la suite de chiffres correspondant à un niveau de luminance d’un pixel dans le voisinage par rapport au pixel central. Un histogramme est ensuite calculé sur le voisinage, de la fréquence d'apparition de chaque chiffre ou nombre (préférentiellement ‘0’ ou ‘1 ’), c'est-à-dire chaque combinaison de pixels ayant un niveau de luminance plus petit et plus grand que le pixel central. Cet histogramme peut être considéré comme un vecteur de caractéristiques. La concaténation des histogrammes de tous les voisinages de l’image permet d’obtenir des motifs binaires locaux. L’invention peut être mise en oeuvre avec tout algorithme permettant d’obtenir des motifs binaires locaux. Un exemple d’image avec motifs binaires locaux est représenté à la Figure 3, image I2.
[0057] L’étape 24 est une étape de masquage de l’image obtenue à l’étape 21 avec un masque de couleur. Un tel masque de couleur permet de modifier la valeur de tous les pixels ayant une couleur égale ou proche de la couleur prédéfinie ou comprise dans une plage de couleur autour de la couleur prédéfinie, ou comprise dans la plage de couleurs prédéfinie, et/ou de modifier la valeur de tous les pixels ayant une couleur différente de la couleur prédéfinie non compris dans une plage de couleur autour de la couleur prédéfinie ou non compris dans la plage de couleur prédéfinie. Par exemple, si la couleur choisie est le blanc, tous les pixels blancs peuvent rester blancs et tous les pixels non blancs peuvent prendre une valeur similaire différente de la valeur correspondant à la couleur blanche. L’invention peut utiliser tout masque de couleur connu. L’image obtenue est dite masquée ou « partiellement >> masquée, en ce que seule une couleur est masquée. Par « masquer >> on entend l’application d’un masque, qu’il soit un masque qui réduit la présence de la couleur prédéfinie ou qui l’atténue. Un masque de couleur permet d’identifier facilement tous les pixels ayant la couleur prédéfinie. Un exemple d’image partiellement masquée obtenue est représenté à la Figure 3, image I3.
[0058] Les images I2 et I3 obtenues sont ensuite combinées à une étape 25. Pour cela, à chaque étape 23 et 24, l’image obtenue est une image numérique sous forme d’une matrice. La combinaison des deux images est préférentiellement une multiplication de matrices. Ainsi, l’image I4 résultant de la combinaison des images I2 et I3 comprend les informations extraites de couleur et de forme de l’image 11. Cette prise en compte de deux types de caractéristiques permet de mieux détecter les surfaces supérieures des récipients, et de supprimer au moins une partie du bruit. Par « bruit >> on entend les parties de l’image extraites comme correspondant à une surface supérieure de récipient mais n’y correspondant en réalité pas. Par exemple, du bruit peut être créé par des objets de même couleur que la couleur prédéfinie mais n’étant pas une surface supérieure de récipient.
[0059] Pour encore réduire le bruit, après la combinaison des images 12 et 13 à l’étape 25 pour obtenir l’image 14, une étape 26 facultative peut être mise en oeuvre.
[0060] L’étape 26, optionnelle, est représentée à la Figure 5 et comprend préférentiellement trois sous-étapes 261 à 263. L’étape 26 est appliquée à des ensembles de pixels issus de l’image I4, c’est-à-dire issus de la combinaison des images I2 et I3.
[0061] A l’étape 26, une succession d’érosions et de dilatations des ensembles de pixels issus de l’image combinée sont réalisées. Préférentiellement, les érosions et dilatations réalisées sont les suivantes :
Une première érosion 261 ,
Une première dilatation 262,
Un seconde érosion 263.
[0062] Cette succession d’érosions et de dilatation permet de supprimer les détections de petite taille, et ainsi réduire le bruit. La détection des surfaces supérieures en est alors améliorée.
[0063] On entend par « érosion >> le fait de ne conserver, pour une image, que les pixels pour lesquels un motif choisi appelé « noyau >> est inclus dans l’image. Ainsi, l’image est rétrécie.
[0064] On entend par « dilatation >> le fait de remplacer chaque pixel par un motif choisi appelé « noyau ». Ainsi, l’image est agrandie selon le noyau.
[0065] En appliquant des érosions et une dilatation à chaque ensemble de pixels issus de l’image I4, on supprime les ensembles de pixels trop petits, c’est-à-dire ayant une taille inférieure à la taille de surface supérieure prédéfinie. En effet, lors de la première érosion 261 , tous les pixels d’un ensemble de pixels peuvent avoir été supprimés, par exemple si le noyau ne peut pas être inclus en entier dans l’ensemble de pixels. Ensuite, les ensembles de pixels résultants sont dilatés à une sous-étape 262, pour prendre une taille plus importante mais inférieure à leur taille originelle. Enfin, une seconde érosion vient supprimer les ensembles de pixels de taille trop petite. En effet, lors de la seconde érosion 261 , tous les pixels d’un ensemble de pixels peuvent avoir été supprimés, par exemple si le noyau ne peut pas être inclus en entier dans l’ensemble de pixels après dilatation.
[0066] Il en résulte une pluralité d’ensemble de pixels dans l’image I5, correspondant à des surfaces supérieures de récipients 14. Par exemple, les pixels de l’image I5 n’appartenant pas aux pixels de la pluralité d’ensembles de pixels peuvent se voir attribuer une valeur prédéterminée différente des pixels appartenant aux pixels de la pluralité d’ensembles de pixels, par exemple la valeur 0.
[0067] Pour extraire les ensembles de pixels de l’image I5, tout algorithme d’extraction d’ensemble de pixels similaires peut être utilisé, par exemple un algorithme dit de « label features >> (traduit littéralement « labellisation de caractéristiques >> en français).
[0068] Enfin le procédé 20 comprend une étape finale 27 de calcul des centres de gravité des ensembles de pixels de l’image I5 pour obtenir la position de chaque récipient 14 dans l’image acquise à l’étape 21 . Cette étape de calcul permet d’obtenir des coordonnées des récipients 14 dans l’image. Pour calculer le centre de gravité des ensembles de pixels, pour chaque ensemble de pixels, la moyenne des coordonnées des pixels de l’ensemble de pixels permet d’obtenir le centre de gravité de l’ensemble de pixels.
[0069] Les coordonnées ainsi obtenues peuvent ensuite être transformées en coordonnées relatives à la ligne de conditionnement 10 pour positionner chaque récipient 14 par rapport à la ligne de conditionnement 10 et non par rapport à la caméra 11. Les coordonnées relatives à la ligne de conditionnement 10 peuvent ensuite être utilisées pour détecter et/ou prédire la formation de blocages dans la ligne de conditionnement, en calculant par exemple la vitesse des récipients 14 et leur position à partir d’images successives à des instants successifs. Pour cela, le procédé 20 peut être répété tous les instants prédéfinis, par exemple toutes les 0.2 secondes avec une vitesse de convoyeur de 300 millimètres par seconde pour une bouteille de 60 millimètres.

Claims

REVENDICATIONS
[Revendication 1 ] Procédé (20) mis en oeuvre par ordinateur de détection de la position d’une pluralité de récipients (14), chaque récipient (14) comprenant une surface supérieure (141 ), le procédé comprenant :
- Acquisition (21 ) d’au moins une image (11 ) de la pluralité de récipients (14),
- Obtention (23) de motifs binaires locaux (I2) de l’image (11 ) acquise à partir d’une dimension de la surface supérieure (141 ) de chaque récipient (14) de la pluralité de récipients (14), la dimension de la surface supérieure (141 ) de chaque récipient (14) étant calculée à partir d’une taille de surface supérieure (141 ) prédéfinie des récipients (14),
- Application (24) d’un masque de couleur à l’image (11 ) acquise à partir d’une couleur de surface supérieure (141 ) prédéfinie des récipients (14) pour obtenir une image masquée (I3),
- Combinaison (25) de l’image partiellement masquée (I3) et des motifs binaires locaux (I2) pour obtenir des ensembles de pixels représentant les surfaces supérieures (141 ) des récipients (14),
- Calcul (27) de centres de gravités des ensembles de pixels représentant les surfaces supérieures (141 ) des récipients (14) de la pluralité de récipients (14) pour obtenir la position de chaque surface supérieure (141 ) des récipients (14).
[Revendication 2] Procédé (20) selon la revendication 1 selon lequel l’image (11 ) est obtenue par au moins une caméra (1 1 ) dont un champ de vision (1 1 1 ) est dirigé vers la pluralité de récipients (14).
[Revendication 3] Procédé (20) selon l’une des revendications précédentes comprenant en outre, après la combinaison (25) de l’image masquée (I3) et des motifs binaires locaux (I2) :
- Au moins une dilatation (261 ,263) des ensembles de pixels représentant les surfaces supérieures (141 ) des récipients (14),
- Au moins une érosion (262) des ensembles de pixels représentant les surfaces supérieures (141 ) des récipients (14).
[Revendication 4] Procédé (20) selon la revendication 3 comprenant :
- une première dilatation (261 ) des ensembles de pixels représentant les surfaces supérieures (141 ) des récipients (14) puis
- une première érosion (262) des ensembles de pixels représentant les surfaces supérieures (141 ) des récipients (14) puis
- une seconde dilatation (263) des ensembles de pixels représentant les surfaces supérieures (141 ) des récipients (14).
[Revendication 5] Procédé (20) selon l’une des revendications précédentes selon lequel la position de chaque surface supérieure (141 ) obtenue comprend des coordonnées du centre de gravité de la surface supérieure (141 ) dans l’image.
[Revendication 6] Procédé (20) selon l’une des revendications précédentes selon lequel la combinaison (25) de l’image masquée (I3) et des motifs binaires locaux (I2) est réalisée par multiplication d’une première matrice avec une deuxième matrice, la première matrice représentant l’image masquée (I3), la deuxième matrice représentant les motifs binaires locaux (I2).
[Revendication 7] Procédé (20) selon l’une des revendications précédentes selon lequel la taille de surface supérieure (141 ) prédéfinie et la couleur de surface supérieure (141 ) prédéfinie sont obtenues à partir d’une interface homme-machine, avant l’obtention (22) de motifs binaires locaux et avant l’application (23) d’un masque de couleur à l’image (11 ) acquise.
[Revendication 8] Procédé (20) selon l’une des revendications précédentes selon lequel la taille de surface supérieure (141 ) prédéfinie et la couleur de surface supérieure (14) prédéfinie sont stockées dans une base de données.
[Revendication 9] Procédé (20) selon l’une des revendications précédentes selon lequel, avant le calcul de la dimension de la surface supérieure (141 ), la taille de surface supérieure (141 ) de récipient (14) prédéfinie est transformée en taille de surface supérieure (141 ) de récipient (14) en pixels de l’image acquise à partir d’une distance prédéfinie entre la caméra (1 1 ) et la surface supérieure des récipients (14) et d’une résolution prédéfinie de la caméra (1 1 ) en pixels.
[Revendication 10] Produit programme d'ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en oeuvre le procédé (20) selon l’une des revendications 1 à 8.
[Revendication 11] Support d'enregistrement lisible par ordinateur comprenant des instructions qui, lorsqu'elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en oeuvre le procédé (20) selon l’une des revendications 1 à 8.
PCT/EP2023/086769 2022-12-21 2023-12-19 Procédé de détection de la position de récipients WO2024133353A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2214149A FR3144278A1 (fr) 2022-12-21 2022-12-21 Procédé de détection de la position de récipients
FRFR2214149 2022-12-21

Publications (1)

Publication Number Publication Date
WO2024133353A1 true WO2024133353A1 (fr) 2024-06-27

Family

ID=85685375

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/086769 WO2024133353A1 (fr) 2022-12-21 2023-12-19 Procédé de détection de la position de récipients

Country Status (2)

Country Link
FR (1) FR3144278A1 (fr)
WO (1) WO2024133353A1 (fr)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001147199A (ja) * 1999-11-19 2001-05-29 Hitachi Eng Co Ltd ペットボトルキャップ締付け検査方法とその装置
JP5208868B2 (ja) * 2008-10-31 2013-06-12 シスメックス株式会社 検体処理装置
CN209685278U (zh) * 2018-12-26 2019-11-26 四川理工学院 一种根据瓶盖颜色分类输送瓶身的旋压密封装置
CN110223276A (zh) * 2019-05-28 2019-09-10 武汉楚锐视觉检测科技有限公司 一种基于图像处理的瓶盖检测方法及装置

Also Published As

Publication number Publication date
FR3144278A1 (fr) 2024-06-28

Similar Documents

Publication Publication Date Title
EP0115462B1 (fr) Procédé de reconnaissance automatique d'une image, à partir d'une image correspondante de référence
BE1022630B1 (fr) Procédé et système pour déterminer des candidats points de fuite pour la correction projective
BE1022636B1 (fr) Procede et methode de correction de distorsions projectives avec des etapes d'elimination a des multiples niveaux
FR3009518A1 (fr)
BE1025504B1 (fr) Système de reconnaissance de formes
CA3020716A1 (fr) Procede et dispositif d'orientation d'un fruit ombilique notamment en vue de son emballage
FR2973264A3 (fr) Procede et systeme pour identifier des conteneurs de dechets sur la base d'un motif
FR2510757A1 (fr) Procede et appareil pour la detection de defauts dans un objet
EP3963284B1 (fr) Ligne de contrôle de récipients vides en verre
FR2597636A1 (fr) Procede de reconnaissance automatique d'objets susceptibles de se chevaucher
WO2024133353A1 (fr) Procédé de détection de la position de récipients
WO2021219852A1 (fr) Procédé pour la vérification d'un code-barre
EP1109008A1 (fr) Procédé de contrôle de la qualité d'un article notamment en verre
EP3829995A1 (fr) Bouteille securisee et procede d'authentification correspondant
WO2020025790A1 (fr) Procede de securisation d'une bouteille et verification de la bouteille.
FR3082127A1 (fr) Installation de selection d'objets defilant sur une ligne de transfert
FR2899358A1 (fr) Procede et systeme de controle d'aspect d'un contenant, programmes d'ordinateur et dispositif de commande de controle correspondant
CN113758938A (zh) 烟包外观摄像装置、烟包外观图像管理方法和系统
FR2868971A1 (fr) Methode d'identification et/ou de tri par pieces, d'objets ou de produits utilisables pour la preparation de commande, le suivi de production ou la validation de commande
WO2024133606A1 (fr) Procédé de caractérisation de défauts d'une pluralité de lots dans une ligne de conditionnement
EP3124278B1 (fr) Dispositif et procédé d'optimisation de transformation par voie numérique d'un substrat
CN217033682U (zh) 卷烟小盒外观摄像装置、卷烟小盒外观图像管理系统
WO2019105670A1 (fr) Procédé de détection de défauts de laminage dans un verre imprimé
CN117557545B (zh) 一种360度传送带快速缺陷检测方法及装置
EP3577635B1 (fr) Procédé de vérification de l'authenticité d'un produit sensible