WO2023230687A1 - MÉTODO E SISTEMA DE PROCESSAMENTO LOCAL DE IMAGEM PARA IDENTIFICAÇÃO E CLASSIFICAÇÃO DE OBJETOS E GERAÇÃO DE KPIs - Google Patents

MÉTODO E SISTEMA DE PROCESSAMENTO LOCAL DE IMAGEM PARA IDENTIFICAÇÃO E CLASSIFICAÇÃO DE OBJETOS E GERAÇÃO DE KPIs Download PDF

Info

Publication number
WO2023230687A1
WO2023230687A1 PCT/BR2023/050167 BR2023050167W WO2023230687A1 WO 2023230687 A1 WO2023230687 A1 WO 2023230687A1 BR 2023050167 W BR2023050167 W BR 2023050167W WO 2023230687 A1 WO2023230687 A1 WO 2023230687A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pattern
specialized
mobile device
fact
Prior art date
Application number
PCT/BR2023/050167
Other languages
English (en)
French (fr)
Inventor
Julio Fabio DE OLIVEIRA CHAGAS
Original Assignee
Mc1 Technologies Inc.
Mc1 Tecnologia Ltda
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mc1 Technologies Inc., Mc1 Tecnologia Ltda filed Critical Mc1 Technologies Inc.
Publication of WO2023230687A1 publication Critical patent/WO2023230687A1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects

Definitions

  • the present invention relates to a local image processing method and system for identifying and classifying objects and generating at least one KPI. More specifically, the present invention relates to a method and system capable of identifying objects in the captured image and generating at least one KPIs locally, that is, outside a cloud environment.
  • cloud processing ends up generating a long waiting time for the end user, which also tends to affect their productivity, since the user must pass through several points of sale throughout the day.
  • the delay caused by processing via the internet in the cloud causes unnecessary delays even in other tasks eventually performed by the user in their work environment, even causing them to give up on ongoing image recognition due to the high delay at its conclusion.
  • An objective of the present invention is to provide a local image processing method for identifying and classifying objects and generating KPIs locally, that is, outside a cloud environment.
  • An objective of the present invention is to provide a local image processing system for identifying and classifying objects and generating KPIs, locally, that is, outside a cloud environment.
  • the present invention also aims to provide a method and system that can be operated without the need for an Internet connection.
  • the objectives of the present invention are achieved through a local image processing method and system for identifying and classifying objects and generating KPIs.
  • the steps of the method carried out via a mobile device, the method comprising at least the following steps: Defining at least one operation segment, receiving, via a connection network, on the mobile device, at least one database relating to to the operating segment, the database comprising a set of specialized models and being provided from a set of remote specialized models.
  • the method also comprises capturing at least one image using the mobile device, locally processing the image on the mobile device, detecting, in the captured image, at least one object pattern.
  • the method also includes the step of evaluating the object pattern of the image with the respective recognition pattern of the specialized model. Based on the evaluation between the image object pattern and the respective recognition pattern of the specialized model, classify the object, informing the user that the object has been classified. Generate, on the mobile device, at least one KPI from the object classification.
  • Figure 1 - is a block representation of a methodology known in the prior art
  • Figure 2 - is a simplified block representation of the image recognition methodology in accordance with the teachings of the present invention.
  • Figure 3 - is a block representation of one of the steps that integrate the methodology described in the present invention.
  • Figure 4 - is an additional representation of one of the steps that integrate the methodology described in the present invention.
  • Figure 5 - is a representation of one of the steps present in the methodology described in the present invention, indicating the generation of an image map
  • Figure 6 - is a representation of one of the steps present in the methodology described in the present invention, indicating the generation of an image map;
  • Figure 7 - is a block representation of one of the steps that integrate the methodology described in the present invention;
  • Figure 8 - is a block representation of one of the steps that integrate the methodology described in the present invention, indicating the receipt of specialized models for a plurality of users;
  • Figure 9 - is a representation of the step of capturing an image of a point of sale using a mobile device
  • Figure 10 - is a representation of the stage of detecting a plurality of objects in an image
  • Figure 11 - is a block representation of one of the steps that integrate the methodology described in the present invention, indicating the independent processing of a plurality of specialized models;
  • Figure 12 - is a representation of the step of capturing an image of a point of sale, indicating the presence of a gap on a shelf;
  • Figure 13 - is a representation in blocks of one of the steps that integrate the methodology described in the present invention, indicating the capture of price data for a certain product
  • Figure 14 - is a representation of the detection of a pattern of object in the captured image
  • Figure 15 - is a block representation of one of the steps that integrate the methodology proposed in the present invention.
  • Figure 16 - is a block representation of steps that integrate the methodology described in the present invention.
  • the present invention relates to a local image processing method and system for identification and classification of objects and generation of at least one KPI.
  • the present invention seeks to reduce the amount of data to be processed, thus making the methodology optimized for specific contexts in relation to the prior art.
  • teachings of the present invention allow for the delivery of results in a short period of time, so that the invention generally provides a result to the user in a matter of seconds, for example less than five seconds. In some cases, the result is immediately provided to the user, even without an Internet connection.
  • the present invention allows obtaining and generating various indicators in real time that can also be provided offline, such as the presence of objects (products) by category, the presence of objects by brand, the presence of products competition by category, brand and product, shelf share by category, brand and product, competition shelf share by category, brand and product, product front count (both your own products and competitors' products ), the conformity of the planogram execution, the location of the product (whether the product is placed in the right or wrong place and in the expected quantity).
  • the present invention allows multiple indicators to be delivered to the user of the present methodology, however, at least The proposed methodology does not require the use/purchase of expensive, powerful mobile devices with high processing capacity.
  • teachings of the present invention are based on the generation of a specialized model by, for example, the type of object, so that said specialized model is obtained/generated from an image previously known.
  • the present invention proposes a methodology capable of being executed locally, that is, in the environment of the mobile device used by the user, therefore not requiring an internet connection.
  • the present invention can initially be understood as a method of image processing and KPI generation locally, as will be explained in detail below.
  • the present invention relates to a method and system for processing an image locally.
  • teachings of the present invention are based on the use of a mobile device such as a cell phone, tablet, smartwatch, monitoring camera and the like, to capture an image of a certain location.
  • a mobile device such as a cell phone, tablet, smartwatch, monitoring camera and the like.
  • the mention of a cell phone, tablet, smartwatch, monitoring camera and the like should not be considered as a limitation of the present invention, so any device capable of capturing an image of a certain location can be used.
  • the captured image refers to a photo taken at a point of sale, such as a shelf or refrigerator where various products are displayed for sale.
  • the captured image refers to an image displayed in a printed material, such as the image of a menu or an advertisement (e.g., a sales advertisement) displayed in a public environment.
  • a printed material such as the image of a menu or an advertisement (e.g., a sales advertisement) displayed in a public environment.
  • Figure 1 illustrates a block representation of an image processing method as known in the prior art, that is, Figure 1 illustrates a method known and currently used, but which does not in itself achieve the advantages provided by present invention.
  • the method known in the prior art is based on capturing an image.
  • Said image may refer to a shelf in a point of sale, such as a shelf in a supermarket where different products are displayed.
  • this image may refer to the inside of a refrigerator/freezer, where products are displayed for sale.
  • image evaluation occurs through processing in the cloud, that is, the captured image is sent from the mobile device to a cloud environment.
  • FIG. 1 is a block representation of the method proposed in the present invention.
  • a user defines an operating segment, defined, for example, based on the location to be visited by the user, further defined based on products of a certain brand or further defined based on tasks assigned to the user.
  • This user is, for For example, an operations manager at that location, a sales promoter representing a certain company or even a coordinator of the methodology described in the present invention.
  • this step should be understood, for example, as defining the nature of that point of sale or commerce, such as, for example, pharmacy, supermarket, mechanic workshop, bakery, etc. Obviously these are just possible examples and are, therefore, not limiting to the present proposal.
  • the mobile device 20 may, therefore, receive at least one database relating to the operating segment.
  • Databases can be provided from a general portfolio that encompasses a plurality of databases.
  • a single point of sale or location may receive databases of different types different.
  • the point of sale or location is a supermarket or hypermarket that sells a wide range of items, it can receive a wide range of databases, such as food products, personal hygiene items and electronics.
  • the teachings of the present invention allow the databases to be provided to the user to be adjusted (formed) according to the characteristics of that point of sale, for example For example, grouping the databases and their specialized models according to the provisions of a specific aisle at that point of sale.
  • this feature becomes quite advantageous as it allows achieving great procedural savings as there is a drastic reduction in the data processed especially by the mobile device 20 compared to the state of the art, in which there is no segmentation or selection of the data initially sent so that the user receives a complete database that includes all registered products even if they are not part of the products sold there.
  • the proposed steps of defining the operating segment and receiving the specific database of that operating segment must be carried out, for example, at the beginning of a certain working day.
  • the user of this methodology (such as a promoter), throughout a work shift, will visit a first point of sale that comprises only products A and B and will then visit a second point of sale which comprises only products C and D.
  • Said remote system is responsible for providing the database of each segment to a plurality of users, such as a plurality of promoters, reference is made to figure 8.
  • said remote system is operated by a supervisor of users 1, 2 and 3 represented in figure 8. It is understood that said supervisor must, for example, define which types of products (product portfolio) that are (or should be) displayed in a given store and how such products should be arranged at the point of sale to generate good exposure to the customer. It is therefore understood that the supervisor must generate a base planogram for a given point of sale.
  • each of the users 1, 2 and 3 referenced in figure 8 receive a certain base planogram previously generated by the supervisor, so that, in each of the base planogram there are specialized models that must be used by the user, as will be further described below.
  • the database to be sent to the user will include information regarding the base planogram that was generated. Furthermore, it is understood that each point of sale will have its respective base planogram, a planogram that can be established, for example, based on requirements from a manufacturer of a certain product.
  • the set of specialized models (and consequently the database) can be sent to the mobile device from a set of remote specialized models according to a certain criterion, such as a criterion of time or location.
  • a certain criterion such as a criterion of time or location.
  • a certain user such as a sales promoter
  • the remote system can then provide the mobile device with the specialized model for point of sale B and optionally delete the already used model for point of sale A.
  • Said timing criterion This time can be programmed directly by the remote system management, that is, by assigning the following instruction: after a certain time, the mobile device must be updated with the specialized model of point of sale B.
  • said criterion can be a location criterion, that is, the remote system can create an instruction (criterion) that indicates that the specialized model of point of sale B should only be sent to the user when detected a change of user location from point of sale A and on direction to point of sale B.
  • the present invention further proposes a step of capturing an image using a mobile device (step A), that is, it proposes that a photo be taken using the mobile device 20, such as a cell phone.
  • the captured photo refers to a photo of a specific environment, region or area at the point of sale, such as a supermarket shelf on which products are displayed for sale. Any location that contains a product can be understood as a point of sale.
  • the captured image will include at least one object pattern, so that by object pattern is understood as the nature of the object that was detected in the image captured by the user.
  • an object pattern can be understood as a certain product arranged on a shelf. Furthermore, the object pattern can be understood as the shelf on which the product is arranged.
  • the methodology proposed in the present invention comprises the step of determining at least one object pattern present in the photo, as demonstrated in step B represented in figure 2.
  • the designation (determination) of the type of object that is essentially present in the captured image can be carried out automatically by the proposal of the present invention, for example, from of the base planogram, or, alternatively, the user himself can designate the type of object present in the image before or after and capture the image.
  • the user of the present methodology will capture a photo of a supermarket section containing a plurality of bread packages.
  • the user can provide information to the methodology indicating that the photo that will be captured (or that was captured) will essentially consist of bread packets.
  • said information is provided by the user through the user's interaction with the mobile device.
  • the present invention proposes that a specialized model linked to the image be assigned. More specifically, it is proposed that the specialized model is related to the specific type of object patterns present in the image. This leads to step D, as shown in figure 2.
  • the object pattern present in the image refers to bottles
  • the methodology described in the present invention will resort to a specialized model related to bottles, so that this model specialized was specifically created according to the types of bottles that were expected to be found in that particular location
  • each type of object will comprise an equivalent specialized model.
  • the type of object present in the photo is "soda cans”
  • each specialized model can be created using as criteria the products that the user expects to find at a given point of sale, products that were defined based on the base planogram generated by the remote system.
  • object types object pattern
  • their respective specialized models can be classified using a broad designation, as well as using increasingly restrictive classifications from this broad classification.
  • a specific specialized model may contain only soda cans from a specific brand as well as cans from a specific competitor, thus avoiding the need to know data on all soda cans.
  • the methodology proposed in the present invention will assign a specialized model, whether a broad or restricted specialized model, so that the determination of which specialized model will be used can be carried out by the user of the present methodology or may also be provided to the user according to the places to be visited on a given day of work, also considering, for example, the products that the user expects to find at the point of sale, products obtained from the base planogram.
  • the present invention is based on a certain specialized model related to a certain type of object, that is, the present invention is based on the use of specific specialized models related to objects (products) that a user expect to find at a particular point of sale.
  • the specialized model by type of object will be provided through the database referring to the operating segment.
  • a single database referring to the operating segment can comprise a plurality of models specialized by type of objects, so that said models are independent of each other.
  • the database relating to the operating segment can be understood as the branch of a given point of sale, for example, medicines (pharmacy), sporting goods, clothing, glasses, shoes, drinks, among others.
  • the model specialized by type of object refers to the type of object that is displayed at that point of sale, for example, shaving foam, soccer balls, men's blouses, sunglasses with black frames, high-heeled shoes loud, bottles of vodka, among others. It is noteworthy that a specific specialized model can be defined according to a plurality of criteria, such as the products of a specific manufacturer as well as the products displayed at a point of sale.
  • the methodology described in the present invention proposes that the object (or objects) present in the image are classified (step E) based on the specialized model and then the user is informed that the object has been classified, that is, obtaining information about what the object is (step F).
  • the user will receive an indication of which object was recognized on the screen of the mobile device that captured the photo.
  • Figure 9 illustrates an example of a way of applying the teachings of the present invention.
  • a given user captured an image of a point of sale that comprises a plurality of object patterns.
  • object patterns 30 designated as mustard in the upper portion of the shelf
  • second object pattern 40 designated as ketchup
  • third type of pattern 50 designated as milk
  • fourth object pattern 60 designated as grape juice bottle
  • fifth pattern type 70 designated as water bottle.
  • the user can be able to make adjustments to the captured image (or to be captured) in order to increase the accuracy of object recognition, thus, the user can, for example, calibrate the illumination of the captured image or even calibrate the lighting before the image is captured. It should be noted that this adjustment must be carried out by the user by manipulating the mobile device. Other types of adjustments can be made directly by the user, for example, by cropping the captured image to designate a specific area to be considered by the methodology.
  • the user can selectively enable the display, via the mobile device 20, so that the graphic indication 80 is generated only for the products that are part of the base planogram.
  • the present methodology is capable of detecting not only the object, but also detecting that said object is actually placed on a shelf.
  • Detecting that the object is effectively arranged on a shelf is advantageous because, once the product has been identified, it is possible, for example from graphic indication 80, to estimate the size of said product and then calculate the metric dimension of the area, thus determining a KPI referenced as space share. It is noteworthy that, alternatively, the size of the product could be previously known data.
  • the graphic indication 80 acts as a signal to the user, indicating to the user that a product (object pattern) has been detected in the photo.
  • each graphic indication 80 refers to a product, so, for example, the number of graphic indications 80 can be added together to determine the number of products arranged on the shelf.
  • the aforementioned graphic indication can be understood as a micro image or even a “crop” of the captured photo, in which in said micro image (i.e., within the graphic indication) there is a product.
  • figure 10 (b) does not contain the numerical indication “80” for all graphic indications, thus aiming not to pollute the figure too much, in any case, it must be understood that all rectangles illustrated in Said figure refers to a graphic indication, thus referring to a detected product.
  • Figure 11 is a block representation of the steps considered by the methodology of the present invention for identifying the object patterns illustrated in Figures 9 and 10.
  • the local image processing step can be understood as the detection, in the captured image, of at least one object pattern, that is, it was recognized that there is an object in the image (even if it cannot yet be classified ).
  • the step of generating, in the captured image, a graphic indication for each detected object pattern is proposed.
  • a graphic indication will be designated in the image displayed on the mobile device.
  • the step of generating the graphical indication also includes the step of recording the coordinates of said graphical indication present in the captured image, thus making it possible to store such coordinates and, thus establishing the correct position of the graphical indication (and consequently product) in the image.
  • such coordinates may be of Cartesian type and comprise points (X, Y) in a plane of said image.
  • the specific specialized model (or models) that will be used must be loaded so that the object classification can occur.
  • each type of object will be processed independently, that is, for each type of object, a mobile, a certain processing flow.
  • the proposed methodology can create independent processing flows for each type of object, so that such processing will be created on the mobile device itself.
  • the specialized model must be understood as the type of object that presents a certain set of characteristics (recognition pattern) that defines it. Examples of specialized models are:
  • - Food packet of rice, packet of beans, biscuits, juice, cereal bar;
  • Household utensils pot, pan, cutlery, paper towel, aluminum foil.
  • a pipeline represents a workflow generally related to data processing.
  • a pipeline can be understood as, for example, a processing flow, for each type of object detected or recognized in each captured image, that is, the pipeline represents the act of assigning, determining or classifying each object detected in relation to its respective specialized model.
  • each pipeline can be carried out individually for each object, as illustrated in figure 11. It is noteworthy that a pipeline can be created through the execution of multiple models, in which their results can be combined or chained.
  • each pipeline be considered separately from the subsequent pipeline, for example, and based on the representation of figure 1 1, it is proposed that initially the flow referring to mustard will be processed, subsequently the flow referring to ketchup, then the milk flow, and so on.
  • each specialized model is considered (processed) in a certain time interval, that is, each specialized model is processed independently of the subsequent specialized model. Even more specifically, each specialized model is processed separately from the other specialized models.
  • the present invention advantageously contemplates a distributed execution of independent processing flows using only the computational capacity of each mobile device 20 in a local and optimized way.
  • a specialized model should be understood as a set of data, such as a file or group of specific information related to the type or nature of a given object, capable of being read and processed by a computer, or even capable of being read and processed by a mobile device 20, such as a cell phone. Furthermore, said specialized model is also capable of being stored on said computer and/or mobile device 20.
  • Said recognition pattern indicates that a certain product comprises a certain characteristic, and this characteristic allows, based on the processing of the specialized model, the product to be identified and classified.
  • the recognition pattern stored in the specialized model can be understood as a shape pattern, that is, a set of information that indicates that a certain product comprises a certain shape.
  • Said set of information can be understood as a set of points, that is, a certain arrangement of points on a certain packaging that indicates that that packaging refers to a specific product.
  • the recognition pattern can be understood as an image, such as an image of a product, that is, such as the image delimited by the graphic indication.
  • the specialized model can be created from an image of a product, preferably from more than one image of this product, so that said specialized model can be used in the field.
  • a certain chocolate manufacturer may provide a product catalog that includes the products of the manufacturer in question, in which the catalog contains photos of the chocolates and their respective classification (which chocolate it is).
  • the management team responsible for using the methodology proposed here can create specialized models for this manufacturer based on the photos and classifications present in the catalog in question.
  • the recognition pattern can be understood as the photo itself, or as a part of said photo that was displayed in the catalog.
  • the recognition pattern stored in the specialized model can also be understood as a color pattern, that is, a set of information that indicates that a certain product comprises a certain color, or a certain arrangement of colors .
  • the recognition pattern can also be understood as a text pattern, i.e. a set of information that indicates that a certain product includes a certain text on its packaging.
  • some characteristics that can also be related to the set of information are related to the color palette of a given object as well as any textual information about it, which may be considered especially to allow differentiating potentially similar objects, such as, for example, For example, a packet of rice and a packet of beans - which have substantially the same shape and differ mainly in the color and text of the packets.
  • a given specialized model comprises a high set of recognition patterns, but only the patterns necessary so that the object can be recognized at a glance. from local processing of the specialized model.
  • the processing of said image can be understood as the detection of at least one object pattern for each of the products arranged on the shelf.
  • Object pattern can be understood, for example, as the image of the object delimited by the graphic indication 80.
  • each of the detected object patterns 30A, 40A, 50A, 60A and 70A must be evaluated with the respective recognition patterns contained in each of the specialized models. As already described when approaching at least figure 11, it is proposed that each of these evaluations occurs separately, that is, initially one must evaluate, for example, the first object pattern 30A with its respective recognition pattern and Once this evaluation is complete, you must proceed to the next processing.
  • the evaluation between the object pattern and the recognition pattern should be understood as applying an input (in this case, the object pattern) to a function (in this case, the recognition pattern of the specialized model) and get a way out.
  • KPIs are also generated on the mobile device itself, that is, from the generation of graphical indications for each detected product and the respective product classification, different types of KPIs can be generated, even locally, or that is, even on the mobile device.
  • KPIs are generated and viewed on the mobile device, a few moments, for example, 3 seconds after capturing the photo.
  • KPIs can be sent to the cloud.
  • the user may , then, indicate that the product was not detected and, if desired, the aforementioned object pattern must be sent to the remote system.
  • the person responsible for operating the remote system may, if desired, create a new specialized model that comprises a new product recognition pattern that corresponds to the object pattern previously captured in the image. Furthermore, the person in charge will be able to add said object pattern to an already existing specialized model, so that said model will thus have the capacity to improve the understanding of the object pattern.
  • the step of sending the object pattern to the remote system should preferably be carried out when the mobile device establishes an Internet connection.
  • the present invention can make use of various image recognition techniques, such as the use of models based on machine learning and more specifically deep neural networks, which can include different types of layers and architectures, such as CNN, RNNs and Transformers.
  • the present invention is based on specialized models related to certain types of objects, and is not based on a single general model, which would require excessive use of memory and unnecessarily large data processing.
  • each specialized model can be “processed” individually on the mobile device 20, that is, independently for each specialized model without being in any way related to other specialized models.
  • this allows the specialized model “bottles” to be processed separately from the specialized models “soda cans” and “bread package”, for example.
  • this step can be understood as creating a single workflow or “pipeline” for each specialized model, drastically reducing the requirements for data processing since each specialized model is processed individually on the device itself. mobile 20.
  • these can be obtained from a set of specialized models, so that said set of specialized models can be understood as a storage base (like a memory) that stores a series of specialized models, whether those specialized models are broad or narrow (restricted).
  • the set of specialized models be stored locally on the mobile device and obtained from a set of remote specialized models (stored in the cloud) used by the user, that is, the set of specialized models will be stored on the mobile device itself and not in a cloud environment.
  • the mobile device 20 will only receive sets of specialized models that correspond to products that will actually be used by the user.
  • the methodology described in the present invention can be updated in real time based on update data provided by the user of the present methodology.
  • the user when carrying out the proposal of the present invention, the user has received the information that the recognized object is product A, when, in fact, said object refers to product B.
  • the user can indicate, through the mobile device, that the recognition of the object was improper and update the information provided, that is, update the information (classification) that that object pattern refers to product B, and not to product A, so that the previously stored information will be updated to indicate that the object present in the image actually refers to product B.
  • the user provides update data for the proposal of the present invention, with said update data contains the information that the image (object pattern) actually refers to product B, and not product A. This step is commonly known as “annotation”.
  • the update data provided by the user from their mobile device 20 is automatically used to update the set of remote specialized models as well as update the comparison between the object pattern and the product recognition pattern, ensuring so that, in future readings, the comparison between the aforementioned object pattern with the specialized model obtained obtained from the update of the remote specialized model is correctly indicated to the user as product B.
  • This step beneficially allows the classifications carried out to be precisely correct, as the user himself is interested in the capture of the image and the data obtained from it being done accurately.
  • this step can be done by the user himself, that is, as the user who performed the image capture step also updates the object classification, it is possible to establish a feeding channel for learning the methodology proposed and scale it quite advantageously by distributing the annotation process among several users, and not concentrating it just in the back office.
  • the present invention proposes that said update data be sent, from the mobile device, to a remote environment , such as a cloud environment and comprising a set of remote specialized models.
  • a remote environment such as a cloud environment and comprising a set of remote specialized models.
  • the methodology described in the present invention proposes a step of synchronizing the set of remote specialized models from the update data, so that this synchronization occurs at the moment when the mobile device that comprises the set of specialized models ( and consequently understands the update data) establishes an Internet connection. [00183] Therefore, synchronization between the update data and the set of remote specialized models occurs such that the information previously present in the set of remote specialized models is updated with the information present in the set of local specialized models.
  • data present in the set of remote specialized models can be sent to a plurality of new mobile devices that execute the methodology proposed in the present invention, that is, being sent to the set of specialized models of each of the devices furniture 20 that execute the methodology proposed in the present invention. Note that said sending will occur when each of the mobile devices 20 is capable of establishing an internet connection.
  • the update data goes from a local environment (set of specialized models of a first mobile device 20') to a cloud environment (set of remote specialized models) and , later, to new local environments (set of specialized models already based on the updated remote specialized model). This way, it is guaranteed that, if the same object pattern is detected again in an image, the classification will, this time, be informed to the user with a greater chance of getting it right.
  • the present invention is based on capturing an image using a mobile device 20, 20', that is, capturing a photo using a mobile device, such as a cell phone.
  • the step of capturing an image can be understood as capturing a single photo, which will be processed in accordance with the teachings of the present invention.
  • the present invention also applies in a possible scenario in which there is a shortage of a certain product, whether partial, ie shortage or absence of at least one unit of that product, or total, ie shortage or absence of all units of that product. Such a lack is therefore called gap 15.
  • Detection of a missing product can be carried out, for example, by comparing the captured image with a base image, such as a base planogram.
  • the detected gap can also be related to a certain type of object, since it is known by the user that that shelf comprises certain types of specific objects.
  • an additional step is taken to inform the user via the mobile device 20 that that product is missing or missing on the shelf.
  • Such information can be carried out, for example, by text, sound warning, vibration, etc., so that the warning mode is not a limitation of the present invention as it can be carried out in countless ways.
  • the present invention may also include a step that allows the user to replace the missing or missing product. Replacement may be made by purchasing or purchasing from a supplier or by obtaining that product from a stock, whether internal or external.
  • Said image capture step, detection of a missing product and request to purchase the product can be carried out, for example, by the owner (retailer) of a commercial establishment.
  • teachings of the present invention can be absorbed by a specific user, which can be either by a promoter who goes to a point of sale to check how certain products of his brand (or competing brands) are available at the point of sale, or the retailer himself who owns a point of sale.
  • the objects considered here can be listed as “objects of interest” and “objects of non-interest”, thus being named according to the user's interests.
  • the methodology proposed in the present invention proposes that the image captured by the user can be formed from an image map 10, so that the image map 10 consists of a grouping of a plurality of images (two or more images) captured using the mobile device 20 or 20'.
  • Figure 5 illustrates an image map 10 composed of images 10A, 10B, 10C, 10D, 10E and 10F.
  • image map 10 is advantageous in cases where the methodology of the present invention needs to be used in a very large environment, that is, where it is not possible to capture a single image (photo) of the entire environment .
  • the user must capture several images 10A, 10B, 10C, 10D, 10E and 10F of the environment and add them to the image map 10, that is, the user will add each of the photos that will make up the map of image 10 to the mobile device 20, 20', so that such addition can occur both horizontally and vertically, that is, both on the X and Y axis of the image map 10 or, in more common jargon, in orientation portrait or landscape.
  • the image map 10 can be understood as a 2D map, so that the user can add multiple photos on the mobile device 20, 20' to assemble the image map 10 and then generate a single image to be processed. It is also understood that the user can move, for example, with the fingers, each of the photos in the image map 10 to generate a suitable image map 10. Thus, the user interacts with the mobile device 20,20' to generate the image map.
  • said image map 10 is converted, locally, into a single photo and the methodology described herein invention can proceed. This step is also called “mash” of the different images.
  • the generation of said image map 10 also brings numerous advantages in relation to the prior art, for example, suppose the user needs to capture images of a 5 meter long corridor. In the prior art, the user must basically capture one photo per meter and each of these photos will be sent to the cloud to be processed independently of each other, so that the customer's indicators are generated per photo, but not for the total space .
  • the user obtains a plurality of photos to compose the same 5 meters, thus generating said image map 10, and all captured photos are converted locally (on the mobile device) into a single photo, thus generating much more accurate indicators and also providing greater processing efficiency, since only a single image will be processed instead of several.
  • the image map 10 is generated by the user and locally on the mobile device, that is, not requiring a cloud environment. Likewise, said image map 10 is converted into a single photo, so that such conversion also occurs locally on the mobile device.
  • Figure 5 exemplifies the image map 10, which is formed by grouping each of the images 10A, 10B, 10C, 10D, 10E and 10F that are captured by the user. It is further understood that the image map 10 should be displayed on the screen of the mobile device 20, 20', as shown in figure 6.
  • the present invention also proposes an image quality detection tool, since the captured image may be blurry, excessively dark or unreadable. In this case, the present invention contemplates a step of suggesting a new image capture.
  • Another tool proposed in the present invention and also related to editing the already captured image is called “autocrop” or “automatic cropping”.
  • This tool allows, with a single command on the device 20, the captured image to be cropped in order to exclude images that are not useful depending on a certain area of interest, such as excluding the ceiling or floor of the room and keeping only one shelf to be identified.
  • the present invention is based on the use of a specialized model related to a certain type of object present in the image captured by the user.
  • An additional feature of the present invention resides in the fact that each specialized model must still be associated with a noise class, thus, each of the specialized models in the set of specialized models will be associated with a respective noise class, as shown figure 7.
  • the objective of the noise class is to improve the accuracy of the proposed methodology, so that, if the use of a specialized model related to a certain type of object recognizes an object inappropriately, generating an incorrect result, that result incorrect, the noise class linked to this specialized model will be added, allowing the proposed methodology to be constantly improved.
  • the noise class can be modified, generated and updated case by case, that is, according to the specialized model to which said noise class is associated.
  • noise can be understood as any type of information present in the captured image and that hinders the identification and classification of the object present in it.
  • a merchandising sign that at least partially overlaps a product is considered a noise, as is a refrigerator glass that is fogged up.
  • noise can be understood as any information that is extraneous to the object and that is present in the captured image in such a way as to hinder or impair its identification in accordance with the present teachings.
  • the present invention after image capture, it is possible to obtain geometric characteristics of the product such as, for example, its dimensions of the product and its packaging. It is also possible to identify other relevant visual information, such as color palette, textual fonts, etc. It is therefore understood that the present invention comprises the step of detecting the dimensions of a product package. Packaging dimensions should be understood as the dimensions of the object that is captured by the mobile device camera. Furthermore, in an equally valid embodiment, the geometric characteristics of the product can also, for example, be obtained from planograms.
  • the area and volume of the product can be calculated, thus measuring the space it occupies in that arrangement on the shelf in order to obtain relevant indicators called KPIs - Key Performance Indicators.
  • space share an important indicator called “space share” is exemplified, which can be advantageously obtained.
  • This indicator relates to the space that a given product occupies, for example, on a shelf, and allows you to assess whether it is beneficial to keep it in a certain position and arrangement or whether changes in arrangement or positioning are necessary.
  • informative areas related to said packaging can correspond to a plurality of relevant data about products and their packaging, such as, for example, price tags, promotions, alphanumeric textual information, interactive activations, barcodes, QR Codes, NFCs, tags, etc.
  • the present invention further proposes carrying out the step of inserting, into the specialized model related to the type of object, data linked to the informative areas.
  • such data linked to informative areas can be understood as being the price of a certain type of object.
  • the model specialized by type of object will not only comprise data that indicates what that specific object is, but it will also comprise data that indicate the price of that specific object at a given point of sale.
  • the methodology proposed in the present invention teaches that, having the object classified in the image (step E1), the user will be informed, on the screen of the electronic device, which was the recognized object (step E2). Subsequently, the user will be asked to capture data relating to the price of the recognized product, as indicated in step E3.
  • the user must, using the electronic device, capture an image of the price tag for that product. Subsequently, and as indicated in step E4, the The photographed price of that particular product will be associated with the product in question, for example, it will be associated that a certain product (grape juice) has a price of R$10.00 in that particular establishment. Thus, consolidated product and price data is generated, as indicated in step E5. Additionally, it should be noted that groups of products can be pre-defined, so that the price is shared between them, thus reducing the number of price photos to be taken. As an example, all 50g juices can be in a group, so that it is only necessary to take a photo of the grape juice to obtain the price of the lemon juice and others.
  • the user does not necessarily have to capture a photo of the product's price tag, so that, in some modalities, the photo captured by the user of the point of sale shelf allows identification of what the product is and what the price of that product is, thus, the price can be automatically associated with the product, thus generating the consolidated data discussed in step E5.
  • the described methodology further comprises the step of generating a guidance report from the generated KPIs. More specifically, said guidance report should be understood as providing an indication to the user, preferably through a text message, indicating to the user whether conformity has occurred in the planograms detected in the field based on a comparison with the base planogram, as well as such as indicating to the user, through a text message, the reason for the non-conformity in the detected planograms as well as the action plan to be taken by the user to correct the non-conformities.
  • said guidance report be generated, for example, through GPT or LLM style artificial intelligence, in so that said artificial intelligence will be responsible for interpreting the KPIs and providing the guidance report to the user. It is worth noting that the guidance report does not necessarily have to be generated using artificial intelligence.
  • an object of the present invention is a local image processing system for identifying and classifying objects and generating KPIs, which comprises at least one mobile device that can be connected to a network such as fixed or mobile internet, network location etc. and a remote database that has a general portfolio.
  • the mobile device 20 is provided with at least one memory unit, a comparison unit and a processing unit.
  • the mobile device 20 is configured to initially allow a user to define at least one operating segment in order to classify said location depending on its nature of action.
  • the mobile device 20 is configured to receive in the memory unit at least one database relating to the operating segment, wherein the database comprises a set of specialized models and is provided from the general portfolio, such as a base planogram.
  • the database received on the mobile device 20 is directly related to the field of activity at that location, that is, if the location is a sporting goods store, the mobile device 20 will receive at least one database related to sporting goods, without, therefore, receiving databases related to personal hygiene products, for example.
  • the mobile device 20 is equipped with image capture means such as, for example, a camera and thus allows capturing at least one image and processing said image, wherein said processing may include at least one of editing and local storage of the image. same.
  • image capture means such as, for example, a camera and thus allows capturing at least one image and processing said image, wherein said processing may include at least one of editing and local storage of the image. same.
  • Image editing can include a series of tools, such as luminosity, shadow, focus, brightness, sharpness, heat, cropping, selection, painting, deletion, etc. It is noteworthy that the user can choose a region of the photo, selecting, for example, a polygon of at least three points, in which the perspective of the chosen region is changed to compensate for variations in perspective, thus leaving the image as if it had been captured frontally.
  • the mobile device 20 will inform the user of such gap recognition and may allow acquisition of the missing object. For such acquisition, connection to a network may be necessary.
  • the device 20 assigns a specialized model linked to the captured image and linked to the objects present in the image.
  • the specialized model is, for example, related to a type of object present in the image, and is provided from the database already stored in the local device 20 and related to the field of activity at that location.
  • the specialized model may be cycling helmets.
  • the mobile device 20 is configured rado to process the captured image and locally compare the recognized object with the database and classify it according to its type, thus allowing the classification of that object.
  • the mobile device 20 is configured to compare the detected objects with the database and inform the user of the result of such comparison and recognition.
  • the corrected object type is then sent back to the database via the mobile device 20, in order to update said database such as sending feedback to the system in a closed loop.
  • This feature can be understood as a feedback to the system itself with this corrected information, that is, the system receives the information already corrected by the user and updates the database and general portfolio.
  • the system stores the set of specialized models and when connected to the network, allows the remote specialized model set to be updated.
  • the mobile device 20 is configured to synchronize a remote specialized template pool from the specialized template pool.
  • Each specialized model is also associated with a noise class.
  • the system can also generate, locally, based on a series of calculations, at least one KPI related to the recognized object, store the generated KPI in the memory unit and display it later on a display or screen, e.g. example.
  • the mobile device when capturing an image, is configured to also detect an informational area, wherein said informational area may correspond to a plurality of relevant data about the object detected in said image, such as price, code of bars, QR Code, etc.
  • the captured image can be formed from an image map 10, with the image map 10 consisting of a grouping of a plurality of images 10A, 10B, 10C, 10D, 10E, 10F.
  • the plurality of images 10A, 10B, 10C, 10D, 10E, 10F is also obtained by means of the mobile device 20, which is configured to group them by horizontally or vertically adding each image of the plurality of images 10A, 10B, 10C, 10D, 10E, 10F to 10 image map per user action on the device.
  • the image map 10 is generated locally on the mobile device 20, which is also converted locally on the mobile device 20. That is, from a plurality of images, a single image is generated on the same mobile device 20 allowing to process this single image later instead of the multiple captured images.
  • the system is further configured to automatically designate the specific type of object present in the image based on machine learning as previously described, thus being able to indicate the specific type of object present in the image after capturing said image by the mobile device 20.
  • the system can also automatically designate the specific type of object based on information contained in a base planogram.
  • the captured image refers to the image of a point of sale and/or refers to an image in a printed material, such as a leaflet, poster, banner , billboards and the like.
  • the system and consequently the mobile device, is capable of generating a graphic indication in the captured image, thus highlighting the detected objects to the user.
  • This graphic indication can be understood as a micro image of the captured image.
  • said graphic indication can be stored, processed and transmitted to/from a mobile device.
  • KPIs can be generated from the methodology described in the present invention: identification of presence or absence of products (out of stock), count of faces, share of shelf (share of shelf) by square footage and quantity, empty space, presence of invaders, count of invaders, participation of invaders in the space, full compliance (completeness of the planogram), positioning as planned in the planogram, price-gap (difference in applied and suggested price) and product mix.
  • teachings of this invention can also be implemented based on a neural network that can be “trained” to achieve the advances and advantages proposed here, that is, the present invention is fully compatible and can be implemented based on neural networks.
  • the invention can be implemented in a mobile application of an electronic device, such as a cell phone.
  • the invention is also based on the use of servers that communicate with the respective electronic device, such as servers arranged in the cloud.
  • the invention also addresses a non-transitory computer-readable medium that comprises a set of instructions capable of executing the steps of the previously described method as well as executing the functionalities of the described system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

A presente invenção refere-se a um método e sistema de processamento local de imagem para identificação e classificação de objetos e geração de KPIs: capturar uma imagem usando um dispositivo móvel (20), sendo que a imagem contém pelo menos um determinado tipo de objeto, atribuir um modelo especializado vinculado à imagem, sendo que o modelo especializado está relacionado ao determinado tipo de objeto presente na imagem, a partir do modelo especializado, reconhecer pelo menos um objeto presente na imagem, informar ao usuário que o objeto foi reconhecido e calcular ao menos um KPI relacionado a dito objeto.

Description

Relatório Descritivo da Patente de Invenção para “MÉTODO E SISTEMA DE PROCESSAMENTO LOCAL DE IMAGEM PARA IDENTIFICAÇÃO E CLASSIFICAÇÃO DE OBJETOS E GERAÇÃO DE KPIs”.
[001] A presente invenção refere-se a um método e sistema de processamento local de imagem para identificação e classificação de objetos e geração de ao menos um KPI. Mais especificamente, a presente invenção está relacionada a um método e sistema capazes de identificar objetos na imagem capturada e gerar localmente ao menos um KPIs, ou seja, fora de um ambiente de nuvem.
Descrição do Estado da Técnica
[002] Empresas compreendem uma ampla gama de produtos que são expostos à venda para os consumidores em geral, por exemplo, em uma variedade de pontos de venda. Existe assim uma necessidade de que tais empresas monitorem que a exposição à venda destes produtos está ocorrendo tal como desejado, tal como um processo de auditoria.
[003] Por exemplo, não é desejável que produtos de uma empresa estejam dispostos em uma geladeira de uma marca concorrente. Ainda, deseja-se que a exposição à venda do produto ocorra de modo adequado, por exemplo, na quantidade previamente acordada entre o fabricante e o ponto de venda.
[004] Assim, há a necessidade que o estado da técnica revele meios para que tais empresas possam realizar, em campo, e a partir da captura de imagens, uma auditoria referente a disposição de seus produtos.
[005] As metodologias conhecidas no estado da técnica realizam todo o processamento da imagem em um ambiente de nuvem, exigindo, portanto, que o usuário que utiliza essa metodologia tenha uma conexão ativa com a Internet e que essa conexão seja rápida e de boa qualidade, para que o processamento ocorra em um período de tempo aceitável. [006] O processamento em nuvem e a dependência de conexão com a Internet apresentam algumas desvantagens para o usuário da metodologia. Por exemplo, há a necessidade de um alto custo de infra- estrutura, causando, assim, ineficiência financeira, além disso, e em razão da necessidade de operação em nuvem e conexão à internet, é necessária a aquisição de dispositivos móveis que apresentem alta capacidade de processamento, dispositivos esses caros, aumentando também os custos.
[007] Obviamente, a dependência da internet é prejudicial por si só, pois se o usuário não estiver online, a metodologia simplesmente não funcionará.
[008] Além disso, o processamento em nuvem acaba gerando um longo tempo de espera para o usuário final, o que também tende a afetar sua produtividade, uma vez que o usuário deve passar por diversos pontos de venda ao longo do dia.
[009] Ademais, a demora causada pelo processamento pela internet em nuvem causa atrasos desnecessários inclusive em outras tarefas eventualmente desempenhadas pelo usuário em seu ambiente de trabalho, até mesmo gerando desistência do mesmo em relação ao reconhecimento de imagem em curso por conta da elevada demora em sua conclusão.
[0010] Outro obstáculo encontrado nas soluções do estado da técnica é que por trabalharem com modelos globais para todas as classes de objetos considerados, os modelos gerados ficam exageradamente grandes e pesados. Isso os torna inviáveis para serem enviados a dispositivos móveis para posterior operação por outros meios que não dependam de conexão com a internet e/ou nuvem.
[0011 ] Outro ponto desfavorável das soluções do estado da técnica é que em se tratando de captura de imagem em pontos de venda específicos, tal como lojas e mercados, por exemplo, por vezes o ambiente a ser registrado na imagem é muito grande, por exemplo com prateleiras de grandes dimensões separadas por corredores estreitos que dificultam a captura de imagem com precisão e qualidade de detalhes.
[0012] Mais especificamente, não é possível, por exemplo, capturar em uma única imagem ainda que em orientação paisagem, uma imagem de prateleira grande e que seja possível identificar produtos pequenos nela dispostos - por exemplo garrafas de bebidas -, com respectivos preços, rótulos e outras informações.
[0013] Nestes casos, é necessário capturar várias imagens e o estado da técnica propõe enviá-las para a nuvem, onde estas várias imagens são processadas. Ou seja, o processamento ocorre na nuvem e envolve várias imagens.
[0014] Para identificação de objetos, o estado da técnica comu- mente propõe realizar esta etapa considerando concomitantemente todos os objetos identificados em uma imagem. Isso torna o processamento muito mais lento e carregado, visto que uma elevada quantidade de objetos pode estar presente em uma única imagem.
[0015] Assim, há uma limitação física de processamento em função da capacidade do dispositivo que está realizando esta etapa, pois não é possível classificar uma ampla quantidade de objetos em um dispositivo com capacidade de processamento limitada pois a memória do dispositivo e sua capacidade de processamento não permitem esta implementação.
[0016] Adicionalmente, uma etapa amplamente difundida e conhecida como “annotation” ou anotações é corriqueiramente realizada online. Este processo refere-se a certas correções de identificação de objeto, na qual informa-se erros de identificação ou confusão de objetos por parte da própria plataforma e é usualmente feita em nuvem por apenas por uma equipe especializada.
[0017] Ainda, caso seja detectada uma lacuna na prateleira, via de regra é possível adquirir o produto faltante de modo online, o que causa dependência de qualidade de conexão e da rede, além de causar demora para finalizar uma eventual transação.
[0018] Outro tipo de solução que é frequentemente apresentada como uma ferramenta separada daquela de identificação de imagem e produtos em prateleiras refere-se a identificação de etiquetas de preço. Reforça-se que estas ferramentas são comumente apresentadas de maneira separada e distinta daquelas de identificação de produtos propriamente dita, o que requere uma etapa adicional de cruzamento de dados de produto e dados de preço para que estas informações sejam posteriormente vinculadas umas às outras.
[0019] Através das soluções conhecidas no estado da técnica, é possível realizar uma alimentação de base de dados “geral” demasiadamente onerosa e demorada, pois todo o processamento ocorre em nuvem. Assim, a alta quantidade de imagens a serem processadas para alimentar assim a base de dados quando realizada em nuvem sobrecarrega esta plataforma.
[0020] Sendo assim, não é vantajoso e tampouco produtivo realizar em nuvem este processamento de dados de imagem e posterior alimentação de base de dados por exemplo para obtenção de certos KPIs e realização de auditorias, justamente pelo altíssimo volume de dados a serem processados em nuvem e/ou rede.
[0021 ] Sendo assim, não se observa no estado da técnica soluções que utilizem arquivos leves e compactos suficiente para permitir que uma plataforma possa ser acessada sem conexão com internet e/ou nuvem, para assim realizar um reconhecimento de objetos específicos em determinado local de comércio através de ao menos uma imagem capturada por um dispositivo.
[0022] Ainda que o estado da técnica possa, em algumas situações, revelar metodologias que possam operar de modo off-line, tais soluções apresentam limitações, tal como a necessidade de utilização de dispositivos high-end ou um número limitado de produtos que podem ser identificados.
Objetivos da Invenção
[0023] Um objetivo da presente invenção é prover um método de processamento local de imagem para identificação e classificação de objetos e geração de KPIs localmente, ou seja, fora de um ambiente de nuvem.
[0024] Um objetivo da presente invenção é prover um sistema de processamento local de imagem para identificação e classificação de objetos e geração de KPIs, localmente, ou seja, fora de um ambiente de nuvem.
[0025] A presente invenção tem ainda como objetivo prover um método e sistema que possa ser operado sem a necessidade de conexão com a Internet.
Breve Descrição da Invenção
[0026] Os objetivos da presente invenção são alcançados por meio de um método e sistema de processamento local de imagem para identificação e classificação de objetos e geração de KPIs. As etapas do método realizadas através de um dispositivo móvel, o método compreendendo ao menos as seguintes etapas: Definição de ao menos um segmento de operação, receber, por meio de uma rede de conexão, no dispositivo móvel, ao menos uma base de dados referente ao segmento de operação, a base de dados compreendendo um conjunto de modelos especializados e sendo fornecida a partir de um conjunto de modelo especializados remotos. O método também compreende a captura de ao menos uma imagem usando o dispositivo móvel, processamento local da imagem no dispositivo móvel, detecção, na imagem capturada, de ao menos um padrão de objeto. [0027] Caso seja detectado ao menos um padrão de objeto, considerar, para o padrão de objeto detectado, um respectivo modelo especializado, em que o modelo especializado compreende ao menos um padrão de reconhecimento. O método compreende ainda a etapa de avaliar o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado. A partir da avaliação entre o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado, classificar o objeto, informar ao usuário que o objeto foi classificado. Gerar, no dispositivo móvel, ao menos um KPI a partir da classificação do objeto.
[0028] Descrição Resumida dos Desenhos
[0029] A presente invenção será, a seguir, mais detalhadamente descrita com base em um exemplo de execução representado nos desenhos. As figuras mostram:
[0030] Figura 1 - é uma representação em blocos de uma metodologia conhecida no estado da técnica;
[0031] Figura 2 - é uma representação simplificada em blocos da metodologia de reconhecimento de imagem de acordo com os ensinamentos da presente invenção;
[0032] Figura 3 - é uma representação em blocos de uma das etapas que integram a metodologia descrita na presente invenção;
[0033] Figura 4 - é uma representação adicional de uma das etapas que integram a metodologia descrita na presente invenção;
[0034] Figura 5 - é uma representação de uma das etapas presentes na metodologia descrita na presente invenção, indicando a geração de um mapa de imagem;
[0035] Figura 6 - é uma representação de uma das etapas presentes na metodologia descrita na presente invenção, indicando a geração de um mapa de imagem; [0036] Figura 7 - é uma representação em blocos de uma das etapas que integram a metodologia descrita na presente invenção;
[0037] Figura 8 - é uma representação em blocos de uma das etapas que integram a metodologia descrita na presente invenção, indicando o recebimento de modelos especializados para uma pluralidade de usuários;
[0038] Figura 9 - é uma representação da etapa de captura de uma imagem de um ponto de venda a partir da utilização de um dispositivo móvel;
[0039] Figura 10 - é uma representação da etapa de detecção de uma pluralidade de objetos em uma imagem;
[0040] Figura 11 - é uma representação em blocos de uma das etapas que integram a metodologia descrita na presente invenção, indicando o processamento independente de uma pluralidade de modelos especializados;
[0041] Figura 12 - é uma representação da etapa de captura de uma imagem de um ponto de venda, indicando a presença de uma lacuna em uma prateleira;
[0042] Figura 13 - é uma representação em blocos de uma das etapas que integram a metodologia descrita na presente invenção, indicando a captura de um dado de preço de um determinado produto [0043] Figura 14 - é uma representação da detecção de um padrão de objeto na imagem capturada;
[0044] Figura 15 - é uma representação em blocos de uma das etapas que integram a metodologia proposta na presente invenção.
[0045] Figura 16 - é uma representação em blocos de etapas que integram a metodologia descrita na presente invenção.
Descrição Detalhada das Figuras
[0046] Em referência as figuras 1 a 16, a presente invenção refere- se a um método e sistema de processamento local de imagem para identificação e classificação de objetos e geração de ao menos um KPI. [0047] Buscando superar os obstáculos do estado da técnica, a presente invenção busca reduzir a quantidade de dados a serem processados, tornando assim a metodologia otimizada para contextos específicos em relação ao estado da técnica.
[0048] Assim sendo, com a metodologia proposta na presente invenção, torna-se possível, por exemplo, identificar objetos e classificá- los localmente em um dispositivo móvel, ou seja, sem a necessidade de recorrer a dados armazenados na nuvem e sem a necessidade de estar conectado à internet (rede de conexão) no momento da execução/cap- tura da foto.
[0049] Além disso, os ensinamentos da presente invenção permitem a entrega de resultados em um curto período de tempo, de modo que a invenção geralmente fornece um resultado ao usuário em questão de segundos, por exemplo menos de cinco segundos. Em alguns casos, o resultado é fornecido imediatamente ao usuário, mesmo sem uma conexão com a Internet.
[0050] Além disso, a presente invenção permite obter e gerar vários indicadores em tempo real que também podem ser fornecidos off-line, tais como a presença de objetos (produtos) por categoria, a presença de objetos por marca, a presença de produtos da concorrência por categoria, marca e produto, a participação na prateleira por categoria, marca e produto, a participação na prateleira da concorrência por categoria, marca e produto, a contagem de frentes de produtos (tanto de seus próprios produtos quanto dos produtos da concorrência), a conformidade da execução do planograma, a localização do produto (se o produto está colocado no lugar certo ou errado e na quantidade esperada). [0051] Assim, a presente invenção permite que múltiplos indicadores sejam entregues ao usuário da presente metodologia, porém, a me- todologia proposta não requer o uso/compra de dispositivos móveis caros, potentes e com alta capacidade de processamento.
[0052] Conforme descrito em detalhes abaixo, os ensinamentos da presente invenção baseiam-se na geração de um modelo especializado pelo, por exemplo, pelo tipo de objeto, de modo que o referido modelo especializado é obtido/gerado a partir de uma imagem previamente conhecida.
[0053] Assim, a presente invenção propõe uma metodologia capaz de ser executada localmente, ou seja, no ambiente do dispositivo móvel utilizado pelo usuário, não necessitando, portanto, de conexão com a internet.
[0054] Dessa forma, com a utilização dos ensinamentos da presente invenção, há um menor custo de infraestrutura e maior eficiência econômica, aumentando a produtividade dos usuários, uma vez que eles não ficam dependentes de uma conexão com a internet nem precisam esperar que o processamento em nuvem seja realizado e concluído.
[0055] Com a presente invenção, excluem-se os riscos de que as atividades do usuário não sejam realizadas devido à ausência de conexão com a internet, problema este normalmente encontrado nas metodologias conhecidas no estado da técnica.
[0056] Várias outras vantagens obtidas com os ensinamentos da presente invenção serão discutidas mais adiante ao longo da presente descrição.
[0057] Com referência inicial às figuras 1 a 16, tem-se que a presente invenção pode ser entendida inicialmente como um método de processamento de imagem e geração de KPI localmente, conforme será detalhadamente explanado a seguir.
[0058] De modo geral, a presente invenção refere-se a um método e sistema para processar uma imagem localmente. Em resumo, os ensinamentos da presente invenção baseiam-se no uso de um dispositivo móvel tal como um telefone celular, tablet, smartwatch, câmera de monitoramento e similares, para capturar uma imagem de um determinado local. A menção a um telefone celular, tablet, smartwatch, câmera de monitoramento e similares não deve ser considerada como uma limitação da presente invenção, de modo que qualquer dispositivo capaz de capturar uma imagem de um determinado local pode ser usado.
[0059] Em uma modalidade válida, a imagem capturada refere-se a uma foto obtida em um ponto de venda, como uma prateleira ou geladeira onde vários produtos são exibidos para venda.
[0060] Em uma modalidade igualmente válida, a imagem capturada refere-se a uma imagem exibida em um material impresso, como a imagem de um cardápio ou de um anúncio (por exemplo, um anúncio de vendas) exibido em um ambiente público.
[0061] A Figura 1 ilustra uma representação em bloco de um método de processamento de imagem conforme conhecido no estado da técnica, ou seja, a Figura 1 ilustra um método conhecido e utilizado atualmente, mas que não alcança por si só as vantagens proporcionadas pela presente invenção.
[0062] Em uma etapa inicial, o método conhecido no estado da técnica baseia-se na captura de uma imagem. A referida imagem pode se referir a uma prateleira em um ponto de venda, como uma prateleira em um supermercado onde diferentes produtos são exibidos. Além disso, a referida imagem pode se referir à parte interna de um refrigerador/free- zer, onde os produtos são expostos para venda.
[0063] Posteriormente, a metodologia conhecida no estado da técnica ensina que a referida imagem será avaliada e os objetos presentes em tal imagem serão detectados. Em uma modalidade do estado da técnica, a avaliação da imagem ocorre através de um processamento em nuvem, ou seja, a imagem capturada é enviada, a partir do dispositivo móvel para um ambiente em nuvem.
[0064] A identificação de objetos na imagem pode ser realizada por meio de ferramentas computacionais especialmente desenvolvidas para este fim.
[0065] Se, por um lado, o estado da técnica revela meios para que um objeto seja identificado a partir do processamento de uma imagem, por outro lado, pode apresentar algumas desvantagens, como a necessidade de alta capacidade de processamento e tempo de processamento igualmente elevado, assim como a demanda de que o processamento da imagem ocorra na nuvem.
[0066] Adicionalmente, além da dependência de que o processamento ocorra na nuvem, o estado da técnica, considera, em seu processamento, informações desnecessárias para que o objeto seja identificado, informações estas que acabam somente retardando, e, em alguns casos, até mesmo impedindo, a identificação do objeto.
[0067] Ainda que o estado da técnica possa, em algumas situações, fornecer métodos de processamento fora da nuvem, este requer a análise e o processamento de uma elevada e desnecessária quantidade de informações para permitir a identificação do objeto.
[0068] Assim, a presente invenção supera as desvantagens encontradas no estado da técnica por meio de um método de processamento local de imagem para identificação e classificação de objetos e geração de KPIs. A Figura 2 é uma representação em bloco do método proposto na presente invenção.
[0069] Em uma etapa preliminar proposta pela presente invenção, tem-se que um usuário define um segmento de operação, definido, por exemplo, com base no local a ser visitado pelo usuário, definido ainda com base em produtos de uma determinada marca ou ainda definido com base em tarefas designadas ao próprio usuário. Este usuário é, por exemplo, um gerente de operações daquele local, um promotor de vendas que representa uma determinada empresa ou ainda um coordenador da metodologia descrita na presente invenção.
[0070] Em outras palavras, esta etapa deve ser entendida, por exemplo, como a definição da natureza daquele ponto de venda ou comércio como, por exemplo, farmácia, supermercado, oficina mecânica, padaria etc. Obviamente estes são apenas exemplos possíveis e não são, portanto, limitativos à presente proposta.
[0071] Feita tal etapa de definição, por um usuário através de seu dispositivo móvel 20, de ao menos um segmento de operação, de modo a classificar dito local em função de sua natureza de atuação, o dispositivo móvel 20 poderá, portanto, receber ao menos uma base de dados referente ao segmento de operação. As bases de dados podem ser fornecidas a partir de um portifólio geral que engloba uma pluralidade de bases de dados.
[0072] Estas etapas são de suma importância para os ensinamentos da presente invenção pois a partir dela, ou seja, a partir da definição da natureza do ponto de venda será estabelecido a natureza da base de dados ou portifólio que o usuário deverá receber em seu dispositivo móvel 20 para realização das demais etapas aqui propostas.
[0073] Na prática isto significa que o usuário irá receber tão somente as bases de dados relacionadas a natureza de atuação de seu ponto de venda ou local, ou seja, se o ponto de venda é uma farmácia o usuário irá receber apenas bases de dados inerentes aos produtos farmacêuticos ali vendidos e não irá receber uma base de dados relacionadas a outros produtos como, por exemplo, a produtos automotivos pois certamente estes produtos não serão encontrados naquele local.
[0074] De qualquer forma, em certas concretizações um único ponto de venda ou local poderá receber bases de dados de naturezas distintas. Por exemplo, se o ponto de venda ou local for um supermercado ou hipermercado que comercializa uma ampla gama de itens, ele poderá receber uma ampla gama de bases de dados como, por exemplo de produtos alimentícios, de itens de higiene pessoal e de eletrônicos.
[0075] Assim, caso o ponto de venda compreenda uma elevada gama de produtos, os ensinamentos da presente invenção permitem que as bases de dados a serem fornecidas ao usuário possam ser ajustadas (formadas) de acordo com as características daquele ponto de venda, por exemplo, agrupando as bases de dados e seus modelos especializados de acordo com as disposições de um determinado corredor daquele ponto de venda.
[0076] No mais, e considerando que os benefícios da presente invenção podem também ser absorvidos por fabricantes de determinados produtos, entende-se assim que pode-se gerar bases de dados específicas para os produtos daquele fabricante.
[0077] Adicionalmente, ao realizar as duas etapas descritas anteriormente (definir o segmento de operação e receber base de dados referente ao segmento de operação), esta característica torna-se bastante vantajosa pois permite atingir uma grande economia processual visto que há uma drástica redução nos dados processados especialmente pelo dispositivo móvel 20 em comparação com o estado da técnica, no qual não há segmentação ou seleção dos dados inicialmente enviados de modo que o usuário recebe integralmente uma base de dados que contempla todos os produtos cadastrados mesmo que não façam parte dos produtos ali comercializados.
[0078] Em uma modalidade, as etapas propostas de definir o segmento de operação e receber a base de dados específica daquele segmento de operação (e consequentemente receber o conjunto de modelos especializados) devem ser realizadas, por exemplo, no início de uma determinada jornada de trabalho. Assim, é sabido que o usuário da presente metodologia (tal como um promotor), ao longo de um turno de trabalho, irá visitar um primeiro ponto de venda que compreende somente os produtos A e B e em seguida irá visitar um segundo ponto de venda que compreende somente os produtos C e D.
[0079] Assim, antes do deslocamento do usuário aos referidos pontos de venda, dito usuário terá a base de dados (e o conjunto de modelos especializados) referente ao primeiro ponto de venda e referente ao segundo ponto de venda carregadas em seu dispositivo móvel. Tais bases de dado podem ser fornecidas, por exemplo, a partir de um sistema remoto, tal como um sistema remoto que gerencia a aplicação da metodologia da presente invenção. Referência é feita ao conteúdo da figura 8.
[0080] Dito sistema remoto é responsável por fornecer a base de dados de cada segmento para uma pluralidade de usuários, tal como uma pluralidade de promotores, referência é feita a figura 8.
[0081] Em uma modalidade, dito sistema remoto é operado por um supervisor dos usuários 1 , 2 e 3 representados na figura 8. Entende-se que dito supervisor, deve, por exemplo, definir quais tipos de produtos (portfolio de produtos) que estão (ou devem estar) dispostos em uma determinada loja e, como tais produtos devem ser dispostos no ponto de venda para gerar uma boa exposição ao cliente. Entende-se assim que o supervisor deve gerar um planograma base para um determinado ponto de venda.
[0082] Adicionalmente, propõe-se que cada um dos usuários 1 , 2 e 3 referenciados na figura 8 receba um determinado planograma base previamente gerado pelo supervisor, de modo que, em cada um do planograma base há os modelos especializados que devem ser utilizados pelo usuário, tal como será melhor descrito adiante.
[0083] Deste modo, ao ser gerado um planograma base a partir do sistema remoto, a base de dados a ser enviada para o usuário contemplará informações a respeito do planograma base que foi gerado. No mais, entende-se que cada ponto de venda compreenderá o seu respectivo planograma base, planograma este que pode ser estabelecido, por exemplo, a partir de requerimentos de um fabricante de um determinado produto.
[0084] Em uma modalidade válida da presente invenção, o conjunto de modelos especializados (e consequentemente a base de dados) pode ser enviado para o dispositivo móvel a partir de um conjunto de modelos especializados remotos de acordo com um determinado critério, tal como um critério de tempo ou localização. Por exemplo, sabe-se que no período da manhã um determinado usuário (tal como um promotor de vendas) irá visitar o ponto de venda A e no período da tarde irá visitar o ponto de venda B. Assim, durante a manhã, pode-se inicialmente somente carregar o dispositivo móvel deste promotor com o modelo especializado referente ao ponto de venda A e não carregar com o modelo especializado do ponto de venda B.
[0085] Ao ser determinado que um determinado critério de tempo foi atingido, o sistema remoto pode então fornecer ao dispositivo móvel o modelo especializado referente ao ponto de venda B e opcionalmente excluir o modelo já utilizado referente ao ponto de venda A. Dito critério de tempo pode ser programado diretamente pela gerência do sistema remoto, ou seja, atribuindo a seguinte instrução: após um determinado horário, deve-se atualizar o dispositivo móvel com o modelo especializado do ponto de venda B.
[0086] Alternativamente, ou adicionalmente, dito critério pode ser um critério de localização, ou seja, o sistema remoto pode criar uma instrução (critério) que indique que o modelo especializado do ponto de venda B deverá somente ser enviado ao usuário ao ser detectada uma mudança de localização do usuário a partir do ponto de venda A e em direção ao ponto de venda B.
[0087] Obviamente a descrição acima deve ser entendida como uma mera exemplificação, de modo que tais critérios podem compreender uma pluralidade de modelos especializados, e não somente os modelos atrelados ao ponto de venda A e B, conforme descrito.
[0088] A presente invenção propõe ainda uma etapa de captura de uma imagem usando um dispositivo móvel (etapa A), ou seja, propõe que uma foto seja tirada usando o dispositivo móvel 20, como um telefone celular.
[0089] Em uma configuração válida da presente invenção, a foto capturada refere-se a uma foto de um ambiente, região ou área específica no ponto de venda, como uma prateleira de supermercado na qual produtos são exibidos para venda. Qualquer local que compreenda um produto pode ser entendido como um ponto de venda.
[0090] Entende-se, portanto, que a imagem capturada incluirá pelo menos um padrão de objeto, de modo que, por padrão de objeto, en- tende-se como a natureza do objeto que foi detectado na imagem capturada pelo usuário.
[0091] Em uma modalidade, pode-se entender como padrão de objeto um determinado produto disposto em uma prateleira. No mais, pode-se entender como padrão de objeto a própria prateleira em que o produto encontra-se disposto.
[0092] Tendo sido capturada a foto, a metodologia proposta na presente invenção compreende a etapa de determinação de ao menos um padrão de objeto presente na foto, conforme demonstrado na etapa B representada na figura 2.
[0093] A designação (determinação) do tipo de objeto que está essencialmente presente na imagem capturada pode ser realizada automaticamente pela proposta da presente invenção, por exemplo, a partir do planograma base, ou, alternativamente, o próprio usuário pode designar o tipo de objeto presente na imagem antes ou depois e capturar a imagem.
[0094] Por exemplo, suponha que o usuário da presente metodologia irá capturar uma foto de uma seção de supermercado contendo uma pluralidade de pacotes de pão. Nesse caso, antes ou depois de capturar a imagem, o usuário pode fornecer informações à metodologia indicando que a foto que será capturada (ou que foi capturada) será composta essencialmente por pacotes de pão. Fazendo tal designação (ou utilizando uma designação automática), a metodologia proposta na presente invenção certamente será mais assertiva. Em uma das modalidades, a referida informação é fornecida pelo usuário por meio da interação do usuário com o dispositivo móvel.
[0095] Assim, na presente invenção, quando a imagem (foto) for capturada por meio do dispositivo móvel, será determinado se a referida imagem compreende ao menos um padrão de objeto.
[0096] Posteriormente, e tal como será melhor descrito adiante, a presente invenção propõe que seja atribuído um modelo especializado vinculado à imagem. Mais especificamente, propõe-se que o modelo especializado seja relacionado ao tipo específico de padrões de objeto presente na imagem. Isso leva à etapa D, conforme mostrado na figura 2.
[0097] Por exemplo, e tomando a Figura 2 como referência, o padrão de objeto presente na imagem refere-se a garrafas, nesse caso, a metodologia descrita na presente invenção recorrerá a um modelo especializado relacionado a garrafas, de modo que este modelo especializado foi especificamente criado de acordo com os tipos de garrafas que eram esperados ser encontrados naquele determinado local
[0098] Assim, entende-se que, de acordo com uma modalidade da presente invenção, cada tipo de objeto compreenderá um modelo especializado equivalente. Ou seja, se o tipo de objeto presente na foto for "latas de refrigerante", existirá um modelo especializado relacionado a "latas de refrigerante".
[0099] No mais, em uma modalidade igualmente válida, cada modelo especializado pode ser criado tendo como critério os produtos que o usuário espera encontrar em um determinado ponto de venda, produtos estes que foram definidos a partir do planograma base gerado pelo sistema remoto.
[00100] Entende-se também que os tipos de objetos (padrão de objeto) e seus respectivos modelos especializados podem ser classificados a partir de uma designação ampla, bem como usando classificações cada vez mais restritivas a partir dessa classificação ampla.
[00101] Por exemplo, há um tipo de objeto e seu respectivo modelo especializado classificado como "latas de refrigerante", mas pode haver um tipo de objeto adicional classificado como "latas de refrigerante de 350mL" junto com seu respectivo modelo especializado. Ainda, um determinado modelo especializado pode conter apenas as latas de refrigerante de uma determinada marca bem como latas de um determinado concorrente, evitando-se assim a necessidade de saber dados de todas as latas de refrigerante.
[00102] Além disso, pode haver um tipo de objeto e um modelo especializado ainda mais restrito, por exemplo, "latas de refrigerante de 350 ml comemorativas de Natal".
[00103] Assim, a partir da imagem capturada, a metodologia proposta na presente invenção atribuirá um modelo especializado, seja um modelo especializado amplo ou restrito, de modo que a determinação de qual modelo especializado será utilizado poderá ser realizada pelo usuário da presente metodologia ou poderá ainda ser fornecida ao usuário de acordo com os locais a serem visitados em um determinado dia de trabalho, considerando ainda, por exemplo, os produtos que o usuário espera encontrar no ponto de venda, produtos estes obtidos a partir do planograma base.
[00104] Assim, entende-se que a presente invenção se baseia em um determinado modelo especializado relacionado a um determinado tipo de objeto, ou seja, a presente invenção se baseia na utilização de modelos especializados específicos relacionados a objetos (produtos) que um usuário espera encontrar em um determinado ponto de venda. [00105] Tomando como base a descrição previamente realizada, destaca-se que o modelo especializado por tipo de objeto será fornecido através da base de dados referente ao segmento de operação. Assim, entende-se que uma única base de dados referente ao segmento de operação pode compreender uma pluralidade de modelos especializados por tipo de objetos, de modo que ditos modelos são independentes entre si.
[00106] Assim, a base de dados referente ao segmento de operação pode ser entendida como o ramo de um determinado ponto de venda, por exemplo, medicamentos (farmácia), artigos esportivos, vestuário, óculos, sapatos, bebidas, entre outros.
[00107] Já o modelo especializado por tipo de objeto refere-se ao tipo de objeto que é disposto naquele ponto de venda, por exemplo, espuma de barbear, bolas de futebol, blusas masculinas, óculos de sol com armação preta, sapatos de salto alto, garrafas de vodka, entre outros. Destaca-se que um determinado modelo especializado pode ser definido de acordo com uma pluralidade de critérios, tal como os produtos de um fabricante específico bem como os produtos dispostos em um ponto de venda.
[00108] Posteriormente, a metodologia descrita na presente invenção propõe que o objeto (ou os objetos) presente (s) na imagem seja classificado (etapa E) a partir do modelo especializado e, em seguida, o usuário seja informado de que o objeto foi classificado, ou seja, obtendo informações sobre o que é o objeto (etapa F). Em uma modalidade, o usuário receberá uma indicação de qual objeto foi reconhecido na tela do dispositivo móvel que capturou a foto.
[00109] A figura 9 ilustra uma exemplificação de uma forma de aplicação dos ensinamentos da presente invenção. Nesta exemplificação, observa-se que um determinado usuário captou uma imagem de um ponto de venda que compreende uma pluralidade de padrões de objeto. [00110] Assim, tomando como base a ilustração da figura 9, tem-se na porção superior da prateleira um primeiro padrão de objeto 30 designado como mostarda, seguido por um segundo padrão de objeto 40 designado como ketchup, seguido por um terceiro tipo de padrão 50 designado como leite, seguido por um quarto padrão de objeto 60 designado por garrafa de suco de uva e seguido por um quinto tipo de padrão 70 designado como garrafa d’água.
[00111 ] Destaca-se que o usuário pode ser apto a realizar ajustes na imagem capturada (ou a ser capturada) de modo a aumentar a acuraci- dade do reconhecimento do objeto, assim, o usuário pode, por exemplo, calibrar a iluminação da imagem captada ou ainda, calibrar a iluminação antes da imagem ser captada. Destaca-se que dito ajuste deve ser realizado pelo usuário através da manipulação do dispositivo móvel. Outros tipos de ajustes podem ser realizados diretamente pelo usuário, como por exemplo, através do corte da imagem captada para assim designar uma área específica a ser considerada pela metodologia.
[00112] Tendo sido captada a imagem, tal como ilustra a figura 9, os objetos presentes na referida imagem serão detectados. Dita etapa é, de modo exemplificative, ilustrada na figura 10. Propõe-se que o usuário receba uma indicação 80 de que os objetos presentes na imagem foram detectados, dita indicação pode ser de qualquer tipo, desde que seja perceptível ao usuário (tal como uma indicação gráfica, sonora e/ou de texto). Assim, nas figuras 10 (a) e 10 (b), tem-se uma indicação 80 gráfica, em que cada objeto detectado é contornado por um retângulo, por exemplo.
[00113] Em uma modalidade não limitativa, o usuário pode seletivamente habilitar a exibição, através do dispositivo móvel 20, para que a indicação gráfica 80 seja gerada apenas para os produtos que fazem parte do planograma base.
[00114] Adicionalmente, além da indicação gráfica 80 referente a detecção do objeto em si, pode-se, adicionalmente, ou opcionalmente, também indicar ao usuário que uma prateleira foi detectada, tal como ilustra a figura 10 (b) a partir da indicação 90. Assim, a presente metodologia é capaz de detectar não somente o objeto, mas também detectar que o referido objeto se encontra efetivamente disposto em uma prateleira.
[00115] A detecção de que o objeto encontra-se efetivamente disposto em uma prateleira é vantajosa pois, tendo sido identificado o produto, pode-se, por exemplo a partir da indicação gráfica 80, estimar o tamanho do referido produto e então calcular a dimensão métrica da área, determinando assim um KPI referenciado como participação de espaço. Destaca-se que, alternativamente, o tamanho do produto poderia ser um dado previamente conhecido.
[00116] Assim, a indicação gráfica 80 atua como um sinalizador ao usuário, indicando a este que um produto (padrão de objeto) foi detectado na foto. Assim, entende-se que cada indicação gráfica 80 remete a um produto, assim, pode-se, por exemplo, somar a quantidade de indicações gráficas 80 para assim determinar a quantidade de produtos dispostos na prateleira. Simplificadamente, pode-se entender a referida indicação gráfica como uma micro imagem ou até mesmo um “recorte” da foto capturada, em que na dita micro imagem (ou seja, dentro da indicação gráfica) há um produto. [00117] Destaca-se que a figura 10 (b) não contem a indicação numérica “80” para todas as indicações gráficas, visando assim não poluir em demasia a figura, de qualquer modo, deve-se entender que todos os retângulos ilustrados na referida figura remetem a uma indicação gráfica, remetendo assim a um produto detectado.
[00118] A figura 11 é uma representação em blocos das etapas consideradas pela metodologia da presente invenção para identificação dos padrões de objetos ilustrados nas figuras 9 e 10.
[00119] Tal como já descrito anteriormente, tem-se as etapas iniciais de captura e ajuste da imagem. Dito ajuste pode ser entendido como a realização de cortes na imagem ou ainda ajustes de iluminação e/ou de perspectiva. Posteriormente, inicia-se o processamento local da referida imagem, ou seja, o processamento da imagem no dispositivo móvel 20.
[00120] A etapa de processamento local da imagem pode ser entendida como a detecção, na imagem capturada, de ao menos um padrão de objeto, ou seja, foi reconhecido que existe um objeto na imagem (mesmo que ainda não se possa classificá-lo).
[00121] Tendo sido detectado que há um padrão de objeto, propõe- se a etapa de gerar, na imagem captada, uma indicação gráfica para cada padrão de objeto detectado. Ou seja, para cada objeto detectado, será designado, na imagem exposta no dispositivo móvel, uma indicação gráfica.
[00122] Destaca-se que a etapa de gerar a indicação gráfica compreende ainda a etapa de registrar as coordenadas da referida indicação gráfica presentes na imagem capturada, tornando assim possível armazenar tais coordenadas e, estabelecendo assim a correta posição da indicação gráfica (e consequentemente do produto) na imagem. Em uma concretização possível, tais coordenadas podem ser do tipo cartesianas e compreender pontos (X, Y) em um plano da dita imagem. [00123] Posteriormente, e a partir da indicação gráfica, deve-se carregar o modelo (ou os modelos) especializado específico que será utilizado para que a classificação do objeto possa ocorrer.
[00124] No caso específico representado na figura 11 , sabe-se que aquele determinado ponto de venda compreende os seguintes produtos: mostarda, ketchup, leite, garrafa suco e garrafa d’água. Assim, estes serão os modelos especializados carregados e utilizados para que a classificação do produto possa ocorrer.
[00125] Para que o reconhecimento do produto possa ocorrer de modo offline e sem qualquer tipo de restrição, propõe-se que cada tipo de objeto será processado de modo independente, ou seja, para cada tipo de objeto, poderá ser criada, no dispositivo móvel, um determinado fluxo de processamento.
[00126] Assim, a metodologia proposta poderá criar fluxos de processamentos independentes para cada tipo de objeto, de modo que tais processamentos serão criados no próprio dispositivo móvel. Destaca-se que no contexto da presente invenção, o modelo especializado deve ser entendido como o tipo de objeto que apresenta determinado conjunto de características (padrão de reconhecimento) que o define. São exemplos de modelos especializados:
- De vestimenta: calçado, camiseta, calça, meias, bermuda;
- Alimentício: pacote de arroz, pacote de feijão, bolacha, suco, barra de cereal;
- Utensílios domésticos: pote, panela, talher, papel toalha, papel alumínio.
[00127] Obviamente estas são apenas citações exemplificativas e não limitativas da presente invenção, aqui apresentadas para ilustrar especialmente uma concretização da mesma e alguns possíveis modelos especializados que podem estar presentes em determinado ponto de venda no qual a presente invenção é implementada. [00128] Adicionalmente, no contexto da presente invenção deve ser entendido que um pipeline representa um fluxo de trabalho geralmente relacionado a um processamento de dados. Mais detalhadamente, tem- se que um pipeline pode ser entendido como, por exemplo, como um fluxo de processamento, para cada tipo de objeto detectado ou reconhecido em cada imagem capturada, ou seja, o pipeline representa o ato de atribuir, determinar ou classificar cada objeto detectado em relação a seu respectivo modelo especializado. Novamente, destaca-se que cada pipeline pode ser realizado individualmente para cada objeto, tal como ilustra a figura 11 . Destaca-se que um pipeline pode ser realizado através da execução de múltiplos modelos, em que seus resultados podem ser combinados ou encadeados.
[00129] Em referência a figura 11 , observa-se a criação de processamentos para cada tipo de objeto (mostarda, ketchup, leite, garrafa suco e garrafa d’água), ou seja, observa-se a criação de fluxos de processamento independentes e localmente no dispositivo móvel 20 sem necessidade de que haja conexão com uma rede de internet.
[00130] Mais especificamente, propõe-se que cada pipeline seja considerado separadamente do pipeline posterior, por exemplo, e tomando como base a representação da figura 1 1 , propõe-se que inicialmente será processado o fluxo referente a mostarda, posteriormente o fluxo referente a ketchup, posteriormente o fluxo referente a leite, e assim por diante.
[00131] Entende-se assim que cada modelo especializado é considerado (processado) em um determinado intervalo de tempo, ou seja, cada modelo especializado é processado de modo independente ao modelo especializado posterior. Ainda de modo mais específico, tem-se que cada modelo especializado é processado separadamente dos demais modelos especializados.
[00132] Tomando como base a ilustração da figura 11 , tem-se que o modelo especializado de mostarda é processado em um instante t=0, o modelo de ketchup é processado em um instante seguinte t=1 , o modelo de leite processado em um próximo instante t=2, o modelo de garrafa de suco processado em t=3 e o modelo de garrafa d’água é processado em t=4.
[00133] Deste modo, processando cada pipeline de modo separado, torna-se possível otimizar a realização de cada processamento no próprio dispositivo móvel visto que em cada instante uma baixa quantidade de informações será processada por fluxo de processamento, sem a necessidade de conexão com a Internet e sem nenhum tipo de restrição referente ao tamanho da imagem ou referente a quantidade de objetos dispostos na imagem. Ou seja, a presente invenção contempla vantajosamente uma execução distribuída de fluxos de processamento independentes utilizando tão somente a capacidade computacional de cada dispositivo móvel 20 de modo local e otimizado.
[00134] Assim, podemos notar que os fluxos de processamentos podem ser implementados, por exemplo, através de threads ou processos. [00135] No mais, destaca-se que os ensinamentos da presente invenção, bem como a descrição previamente realizada para a figura 11 , também englobam o diagrama em blocos ilustrado na figura 16.
[00136] Assim, e tomando como referência a figura 16, após a geração das indicações gráficas, carrega-se um único modelo especializado específico para aquele determinado ponto de venda, modelo especializado este já previamente treinado para identificar e classificar os produtos dispostos naquele ponto de venda, ou seja, no presente caso, mostarda, ketchup, leite, garrafa suco e garrafa d’água.
[00137] Alinhado ao acima, destaca-se que modelo especializado deve ser entendido como um conjunto de dados, tal como um arquivo ou grupo de informações específicas relacionadas ao tipo ou natureza de determinado objeto, apto a ser lido e processado por um computador, ou ainda apto a ser lido e processado por um dispositivo móvel 20, tal como um telefone celular. Ainda, dito modelo especializado é também apto a ser armazenado no referido computador e/ou dispositivo móvel 20.
[00138] Armazenado no referido modelo especializado, deve-se ter ao menos um padrão de reconhecimento atrelado a ao menos um determinado produto. Dito padrão de reconhecimento indica que um determinado produto compreende uma determinada característica, e esta característica permite que, a partir do processamento do modelo especializado, o produto possa ser identificado e classificado.
[00139] Assim, o padrão de reconhecimento armazenado no modelo especializado pode ser entendido como um padrão de forma, ou seja, um conjunto de informações que indique que um determinado produto compreende uma determinada forma. Dito conjunto de informações pode ser entendido como um conjunto de pontos, ou seja, uma determinada disposição de pontos de uma determinada embalagem e que indique que aquela embalagem remete a um determinado produto. Assim, pode-se estabelecer, na criação do modelo especializado, que dita quantidade de pontos é suficiente para detectar o objeto e também é suficiente para que o modelo possa ser carregado e processado localmente no dispositivo móvel.
[00140] Alternativamente, ou adicionalmente, o padrão de reconhecimento pode ser entendido como uma imagem, tal como uma imagem de um produto, ou seja, tal como a imagem delimitada pela indicação gráfica. Assim, pode-se criar o modelo especializado a partir de uma imagem de um produto, de modo preferencial, a partir de mais de uma imagem deste produto, para que assim dito modelo especializado possa ser usado em campo.
[00141] Por exemplo, um determinado fabricante de chocolates pode fornecer um catálogo de produtos que compreenda os produtos do fabricante em questão, em que no referido catálogo existem fotos dos chocolates e a sua respectiva classificação (qual chocolate é). Assim, a equipe gerencial responsável por utilizar a metodologia aqui proposta pode criar modelos especializados para este fabricante a partir das fotos e classificações presentes no catálogo em questão. Neste caso, o padrão de reconhecimento pode ser entendido como a própria foto, ou como uma parte da referida foto que foi disposta no catálogo.
[00142] Em alguns cenários, a criação do modelo especializado a partir da utilização de poucas fotos pode acarretar que, quando colocado em prática, dito modelo não terá uma acuracidade aceitável ou levará um certo tempo para que este venha a ser treinado adequadamente, assim, propõe-se que, nestes casos técnicas de “augmentation” (aumento de dados) possam ser usadas nas imagens inicialmente recebidas.
[00143] Assim, ditas técnicas de “augmentation” são usadas a partir, por exemplo, das fotos dispostas no catálogo, permitindo assim a criação de um modelo especializado que tenha ótima acuracidade e que tenha sido formado a partir de uma pouca quantidade de fotos iniciais.
[00144] De modo exemplificative, pode-se utilizar diferentes formas de aumento de dados nas imagens inicialmente recebidas, tais como: mudança de escala, translação, rotação, flip, noise, dropout, manipulação de contraste, entre outras.
[00145] Alternativamente, ou adicionalmente, o padrão de reconhecimento armazenado no modelo especializado pode ser entendido também como um padrão de cor, ou seja, um conjunto de informações que indique que um determinado produto compreende uma determinada cor, ou uma determinada disposições de cores.
[00146] Alternativamente, ou adicionalmente, o padrão de reconhecimento pode ser entendido também como um padrão de texto, ou seja, um conjunto de informações que indique que um determinado produto compreende um determinado texto em sua embalagem.
[00147] Em outras palavras, algumas características que também podem ser relacionadas ao conjunto de informações estão relacionadas à paleta de cores de determinado objeto bem como a eventuais informações textuais do mesmo, que poderão ser consideradas especialmente para permitir diferenciar objetos potencialmente similares como, por exemplo, um pacote de arroz e um pacote de feijão - que possuem substancialmente mesmo formato e diferem-se majoritariamente pela coloração e texto dos pacotes.
[00148] De qualquer modo, e para que os objetivos da presente invenção possam ser atingidos, não é aconselhável que um determinado modelo especializado compreenda um elevado conjunto de padrões de reconhecimento, mas tão somente os padrões necessários para que o objeto possa ser reconhecido a partir do processamento local do modelo especializado.
[00149] Nota-se que é plenamente possível adaptar o modelo especializado para que este compreenda somente o padrão de reconhecimento necessário para detecção do objeto, já que, a partir dos ensinamentos da presente invenção, cada modelo especializado será transmitido ao usuário a partir da definição do segmento de operação.
[00150] Assim, ao ser captada a imagem de um ponto de venda por um determinado usuário, o processamento da referida imagem pode ser entendido como a detecção de ao menos um padrão de objeto para cada um dos produtos dispostos na prateleira.
[00151] Assim, fazendo referência ao menos às figuras 9 e 14, para o primeiro tipo de objeto 30 será detectado um primeiro padrão de objeto 30A, para o segundo tipo de objeto 40 será detectado um segundo padrão de objeto 40A, para o terceiro tipo de objeto 50 será determinado um padrão de objeto 50A, para o quarto tipo de objeto 60 será detectado um padrão de objeto 60A, e para o quinto tipo de objeto 70 será determinado um padrão de objeto 70A. Por padrão de objeto, pode-se entender, por exemplo, como a imagem do objeto delimitada pela indicação gráfica 80.
[00152] Assim, deve-se avaliar cada um dos padrões de objeto 30A, 40A, 50A, 60A e 70A detectados com o respectivos padrões de reconhecimento contidos em cada um dos modelos especializados. Tal como já descrito quando da abordagem ao menos da figura 11 , propõe- se que cada uma destas avaliações ocorra separadamente, ou seja, inicialmente deve-se avaliar, por exemplo, o primeiro padrão de objeto 30A com o seu respectivo padrão de reconhecimento e, finalizada dita avaliação, deve-se seguir para o processamento seguinte.
[00153] A avaliação entre o padrão de objeto e o padrão de reconhecimento, deve-se entender como a aplicação de uma entrada (neste caso, o padrão de objeto) em uma função (neste caso, o padrão de reconhecimento do modelo especializado) e obter uma saída.
[00154] Assim, e tomando como base também a ilustração da figura 15, caso a comparação do padrão de objeto com o seu respectivo padrão de reconhecimento indique que um produto foi reconhecido, deve- se assim informar ao usuário, indicando qual seria o produto em questão (classificação do produto).
[00155] Em referência ainda a figura 15, caso a classificação do objeto tenha sido realizada corretamente, o usuário poderá emitir uma confirmação, alternativamente, ou seja, caso a classificação tenha sido incorreta, o usuário deverá, através do dispositivo móvel, gerar um dado de atualização, ou seja, emitir um dado de treinamento do modelo, indicando assim que aquele determinado padrão de objeto não refere-se ao produto informado. Destaca-se que detalhamentos adicionais a respeito do dado de atualização serão apresentados adiante. [00156] Consequentemente, tendo sido detectado o objeto na imagem através de um processamento local, a informação referente a qual é o tipo de objeto é fornecida diretamente para o usuário em seu dispositivo móvel, ou seja, não existe a necessidade de realizar qualquer tipo de processamento em nuvem. Com isto, os indicadores (KPIs) são também gerados no próprio dispositivo móvel, ou seja, a partir da geração das indicações gráficas para cada produto detectado e a respectiva classificação do produto, pode-se gerar diversos tipos de KPIs, ainda localmente, ou seja, ainda no dispositivo móvel. Ou seja, com a presente invenção, os KPIs são gerados e visualizados no dispositivo móvel, poucos instantes, por exemplo, 3 segundos após a captura da foto.
[00157] Em um momento posterior, ou seja, quando o usuário estabelecer uma conexão com a Internet, tais KPIs podem ser enviados para a nuvem.
[00158] Ainda em referência a figura 15, caso a comparação entre o padrão do objeto (imagem capturada) e o padrão de reconhecimento de produto (modelo especializado) não detecte um produto (ou prateleira) que deveria ter sido detectado, o usuário poderá, então, indicar que o produto não foi detectado e, caso desejável, deve-se enviar o referido padrão do objeto para o sistema remoto.
[00159] Assim, ao receber o padrão de objeto, o responsável por operar o sistema remoto poderá, caso desejável, criar um novo modelo especializado e que compreenda um novo padrão de reconhecimento de produto que corresponda ao padrão de objeto previamente capturado na imagem. Ainda, o responsável poderá adicionar dito padrão de objeto a um modelo especializado já existente, de modo que dito modelo terá assim a capacidade melhorar a compreensão do padrão de objeto.
[00160] Deste modo, tendo sido criado este novo modelo especializado, o produto em questão será adequadamente identificado e classificado em futuras capturas de imagem. [00161] Destaca-se que a etapa de enviar o padrão do objeto para o sistema remoto deve, preferencialmente, ser realizada no momento em que o dispositivo móvel estabeleça uma conexão com a Internet.
[00162] Para que o objeto na imagem possa ser reconhecido, pode- se utilizar, por exemplo, a ferramenta de código aberto yolovõ, porém, e de acordo com os ensinamentos da presente invenção, propõe-se a utilização de modelos especializados específicos para cada tipo de objeto, em vez de um único modelo para uma pluralidade de objetos. Propõe- se ainda que ditos modelos especializados específicos sejam processados separadamente, tal como descrito anteriormente.
[00163] No mais, entende-se que a presente invenção pode fazer uso de diversas técnicas de reconhecimento de imagem, tal como o uso de modelos baseados em aprendizado de máquina e mais especificamente redes neurais profundas, que podem incluir diferentes tipos de camadas e arquiteturas, como CNN, RNNs e Transformers.
[00164] Entende-se, portanto, que a presente invenção se baseia em modelos especializados relacionados a determinados tipos de objetos, não se baseando em um único modelo geral, o que demandaria um uso excessivo de memória e grande processamento de dados desnecessariamente.
[00165] Mais detalhadamente, deve ser entendido a partir dos presentes ensinamentos que para cada tipo de objeto presente na imagem capturada existirá um respectivo modelo especializado - p. ex.: garrafas, latas de refrigerante, pacote de pão, bem como produtos de uma determinada marca.
[00166] Deste modo, cada modelo especializado poderá ser “processado” individualmente no dispositivo móvel 20, ou seja, de maneira independente para cada modelo especializado sem que esteja de alguma forma relacionado a outros modelos especializados. [00167] Na prática, isso permite que o modelo especializado “garrafas” seja processado separadamente dos modelos especializados “latas de refrigerante” e “pacote de pão”, por exemplo.
[00168] Em outras palavras, esta etapa pode ser entendida como a criação de um único fluxo de trabalho ou “pipeline” para cada modelo especializado, reduzindo drasticamente os requerimentos para processamento de dados uma vez que cada modelo especializado é processado individualmente no próprio dispositivo móvel 20.
[00169] Com relação aos modelos especializados utilizados na presente invenção, estes podem ser obtidos a partir de um conjunto de modelos especializados, de modo que o referido conjunto de modelos especializados pode ser entendido como uma base de armazenamento (como uma memória) que armazena uma série de modelos especializados, sejam esses modelos especializados amplos ou estreitos (restritos).
[00170] Além disso, propõe-se que o conjunto de modelos especializados seja armazenado localmente no dispositivo móvel e obtido a partir de um conjunto de modelos especializados remotos (armazenados na nuvem) utilizado pelo usuário, ou seja, o conjunto de modelos especializados será armazenado no próprio dispositivo móvel e não em um ambiente de nuvem.
[00171] Alinhado ao já discutido previamente, deve ser destacado que, de acordo com a presente proposta, o dispositivo móvel 20 receberá apenas conjuntos de modelos especializados que correspondam a produtos que serão de fato utilizados pelo usuário.
[00172] Por exemplo, caso o usuário esteja em um ambiente que comercializa apenas produtos do gênero alimentício, nesta etapa ele não receberá um conjunto de modelos especializados relacionados a itens de higiene pessoal. Assim, é possível diminuir o uso do próprio dispositivo 20 gerando benéfica economia processual do mesmo. [00173] Além disso, e com referência à figura 3, a metodologia descrita na presente invenção pode ser atualizada em tempo real a partir de dados de atualização fornecidos pelo próprio usuário da presente metodologia.
[00174] Por exemplo, suponha-se que, ao realizar a proposta da presente invenção, o usuário tenha recebido a informação de que o objeto reconhecido é o produto A, quando, na verdade, o referido objeto se refere ao produto B. Nesse caso, o usuário pode indicar, através do dispositivo móvel, que o reconhecimento do objeto foi indevido e atualizar as informações fornecidas, ou seja, atualizar a informação (classificação) de que aquele padrão de objeto refere-se ao produto B, e não ao produto A, de modo que as informações armazenadas previamente serão atualizadas para indicar que o objeto presente na imagem realmente se refere ao produto B. Assim, o usuário fornece um dado de atualização para a proposta da presente invenção, sendo que o referido dado de atualização contém a informação de que a imagem (padrão de objeto) realmente se refere ao produto B, e não ao produto A. Esta etapa é comumente conhecida como “annotation” ou “anotações”.
[00175] No processo de anotação local, quando corrigindo identificações, o usuário pode se limitar a escolher dentre os produtos que estão no planograma base. Com este método, o processo de seleção é simplificado, assim, a indústria tem maior velocidade em produzir anotações, com o processo sendo distribuído entre pessoas.
[00176] Feito isso, os dados de atualização fornecidos pelo usuário a partir de seu dispositivo móvel 20 são automaticamente usados para atualizar o conjunto de modelos especializados remotos bem como atualizar a comparação entre o padrão de objeto e o padrão de reconhecimento do produto, garantindo assim que, em leituras futuras, a comparação entre o referido padrão de objeto com o modelo especializado ob- tido a partir da atualização do modelo especializado remoto seja corretamente indicada ao usuário como produto B.
[00177] Esta etapa permite beneficamente que as classificações realizadas estejam precisamente corretas, pois o próprio usuário tem interesse em que a captura da imagem e os dados obtidos a partir dela sejam feitos de maneira acurada.
[00178] Adicionalmente, como esta etapa pode ser feita pelo próprio usuário, ou seja, como o próprio usuário que realizou a etapa de captura de imagem também realiza a atualização da classificação do objeto, é possível estabelecer um canal de alimentação de aprendizagem da metodologia proposta e escalá-lo bastante vantajosamente por distribuir o processo de anotação (annotation) entre vários usuários, e não concen- trá-lo apenas no back office.
[00179] Isto porque como cada usuário realiza suas próprias atualizações, atualizando assim a comparação entre o conjunto de modelos especializados e o padrão de objeto, todos os demais usuários que também utilizarem os conjuntos de modelos especializados e que venham a detectar o mesmo padrão de objeto irão se beneficiar da atualização feita por aquele usuário. Isso gera um efeito cascata ou dominó, tornando a presente invenção escalável e extremamente vantajosa frente ao estado da técnica.
[00180] Como o conjunto de modelos especializados é armazenado localmente no dispositivo móvel usado pelo usuário, a atualização a partir dos dados de atualização também é realizada localmente, ou seja, no próprio dispositivo móvel.
[00181] Em todo caso, para evitar que essa atualização seja capturada apenas pelo usuário do dispositivo móvel que enviou os dados de atualização, a presente invenção propõe que os referidos dados de atualização sejam enviados, a partir do dispositivo móvel, para um ambiente remoto, tal como um ambiente em nuvem e que compreende um conjunto de modelos especializados remotos. Assim, quando a internet estiver disponível, o dispositivo móvel enviará apenas as partes das imagens que foram corrigidas, ou seja, apenas a parte da imagem (indicação gráfica 80) que remete ao produto alvo da anotação, não sendo necessário o envio da imagem por completa. Deste modo, é utilizado menos largura de banda.
[00182] Assim, a metodologia descrita na presente invenção propõe uma etapa de sincronização do conjunto de modelos especializados remotos a partir dos dados de atualização, de modo que essa sincronização ocorra no momento em que o dispositivo móvel que compreende o conjunto de modelos especializados (e que consequentemente compreenda os dados de atualização) estabeleça uma conexão com a Internet. [00183] Portanto, a sincronização entre os dados de atualização e o conjunto de modelos especializados remotos ocorre de modo que as informações previamente presentes no conjunto de modelos especializados remotos sejam atualizadas com as informações presentes no conjunto de modelos especializados locais.
[00184] Dessa forma, os dados presentes no conjunto de modelos especializados remotos podem ser enviados para uma pluralidade de novos dispositivos móveis que executam a metodologia proposta na presente invenção, ou seja, sendo enviados para o conjunto de modelos especializados de cada um dos dispositivos móveis 20 que executam a metodologia proposta na presente invenção. Note-se que o referido envio ocorrerá quando cada um dos dispositivos móveis 20 for capaz de estabelecer uma conexão com a internet.
[00185] Com isso, garante-se que os dados de atualização recebidos a partir do dispositivo móvel 20 serão retransmitidos para o conjunto de modelos especializados remotos, assegurando, assim, que os dados de atualização fornecidos localmente por um único usuário possam ser recebidos por todos os usuários da metodologia. [00186] Novamente, estas características são de suma importância pois trazem grandes vantagens frente ao estado da técnica, especialmente ao tornar a presente invenção escalável, uma vez que cada usuário por si só poderá realizar dita sincronização e assim beneficiar em escala todos os demais usuários da presente invenção.
[00187] Em resumo, e tomando também a Figura 4 como referência, os dados de atualização vão de um ambiente local (conjunto de modelos especializados de um primeiro dispositivo móvel 20') para um ambiente de nuvem (conjunto de modelos especializados remotos) e, posteriormente, para novos ambientes locais (conjunto de modelos especializados já baseados no modelo especializado remoto atualizado). Assim, é garantido que, caso o mesmo padrão de objeto seja novamente detectado em uma imagem, a classificação será, dessa vez, informada ao usuário com maiores chances de acerto.
[00188] Conforme mencionado acima, a presente invenção baseia- se na captura de uma imagem usando um dispositivo móvel 20, 20', ou seja, na captura de uma foto usando um dispositivo móvel, como um telefone celular.
[00189] Em uma incorporação válida da presente invenção, a etapa de captura de uma imagem pode ser entendida como a captura de uma única foto, que será processada de acordo com os ensinamentos da presente invenção.
[00190] É possível ainda que seja detectado que há um espaço vazio ou lacuna 15 em uma prateleira, tal como ilustra a figura 12 ou seja, há falta de ao menos uma unidade de determinado produto quando da captura daquela imagem.
[00191] Em outras palavras, na prática a presente invenção também se aplica em um cenário possível de que haja falta de determinado produto, seja ela parcial, i. e. falta ou ausência de ao menos uma unidade daquele produto, ou total, i.e. falta ou ausência de todas as unidades daquele produto. Tal falta é denominada, portanto, lacuna 15. A detecção de um produto faltante pode ser realizada, por exemplo, comparando a imagem captada com uma imagem base, tal como um plano- grama base.
[00192] A lacuna detectada também pode ser relacionada a determinado tipo de objeto, uma vez que é sabido pelo usuário que aquela prateleira compreende determinados tipos de objetos específicos.
[00193] Neste caso, é realizada uma etapa adicional de informar ao usuário através do dispositivo móvel 20 que aquele produto está faltando ou ausente na prateleira. Tal informação pode ser realizada por exemplo por texto, aviso sonoro, vibração etc., de modo que o modo de aviso não é uma limitação da presente invenção por poder ser realizado de inúmeras formas.
[00194] Realizada esta etapa, a presente invenção pode contemplar ainda uma etapa que permite que o usuário reponha o produto ausente ou faltante. A reposição poderá ser feita mediante compra ou aquisição de um fornecedor ou através de obtenção daquele produto de um estoque, seja interno ou externo.
[00195] Assim, é possível integrar a presente proposta a uma plataforma de aquisição de produtos faltantes. Em outras palavras, é possível comprar aquele produto detectado como faltante ou ausente através da imagem capturada pelo dispositivo móvel 20 e realizar sua reposição caso assim deseje o usuário.
[00196] Assim, deve ser entendido que o tipo de objeto detectado em etapas anteriores pode também ser relacionado a uma indicação de sua falta ou ausência conforme já aqui detalhado.
[00197] Dita etapa de captura de imagem, detectação de um produto faltante e requisição de compra do produto pode ser realizada, por exemplo, pelo próprio dono (lojista) de um estabelecimento comercial. [00198] Entende-se assim que os ensinamentos da presente invenção podem ser absorvidos por determinado usuário, que pode ser tanto por um promotor que se desloca até um ponto de venda para verificar como determinados produtos de sua marca (ou de marcas concorrentes) estão dispostos no ponto de venda, ou o próprio lojista que é dono de um ponto de venda. De qualquer modo, cumpre citar que os objetos aqui considerados podem ser elencados como “objetos de interesse” e “objetos de não interesse”, sendo assim nomeados de acordo com os interesses do usuário.
[00199] Em outras modalidades igualmente válidas, a metodologia proposta na presente invenção propõe que a imagem capturada pelo usuário possa ser formada a partir de um mapa de imagens 10, de modo que o mapa de imagens 10 consista em um agrupamento de uma pluralidade de imagens (duas ou mais imagens) capturadas utilizando o dispositivo móvel 20 ou 20'. A Figura 5 ilustra um mapa de imagens 10 composto pelas imagens 10A, 10B, 10C, 10D, 10E e 10F.
[00200] A proposta de utilização do mapa de imagens 10 é vantajosa nos casos em que a metodologia da presente invenção precisa ser utilizada em um ambiente muito amplo, ou seja, onde não é possível capturar uma única imagem (foto) de todo o ambiente.
[00201] Nesse caso, o usuário deverá capturar diversas imagens 10A, 10B, 10C, 10D, 10E e 10F do ambiente e adicioná-las ao mapa de imagem 10, ou seja, o usuário adicionará cada uma das fotos que comporão o mapa de imagem 10 ao dispositivo móvel 20, 20', de modo que tal adição poderá ocorrer tanto na horizontal quanto na vertical, ou seja, tanto no eixo X quanto no eixo Y do mapa de imagem 10 ou, ainda em jargão mais usual, em orientação retrato ou paisagem.
[00202] Assim, entende-se que o mapa de imagens 10 pode ser entendido como um mapa 2D, de modo que o usuário pode adicionar várias fotos no dispositivo móvel 20, 20' para montar o mapa de imagens 10 e, então, gerar uma única imagem a ser processada. Entende-se também que o usuário pode mover, por exemplo, com os dedos, cada uma das fotos no mapa de imagens 10 para gerar um mapa de imagens 10 considerado adequado. Assim, o usuário interage com o dispositivo móvel 20,20' para gerar o mapa de imagens.
[00203] Tendo gerado o referido mapa de imagens 10, ou seja, tendo agrupado todas as fotos que comporão o mapa conforme determinado pelo usuário, o referido mapa de imagens 10 é convertido, localmente, em uma única foto e a metodologia descrita na presente invenção pode prosseguir. Esta etapa é chamada também de “mash” das diversas imagens.
[00204] A geração do referido mapa de imagens 10 também traz inúmeras vantagens em relação ao estado da técnica, por exemplo, suponha que o usuário precise capturar imagens de um corredor de 5 metros de comprimento. No estado da técnica, o usuário deverá basicamente capturar uma foto por metro e cada uma dessas fotos será enviada para a nuvem para ser processada independentemente uma da outra, de modo que os indicadores do cliente sejam gerados por foto, mas não para o espaço total.
[00205] Na presente invenção, e como já descrito, o usuário obtém uma pluralidade de fotos para compor os mesmos 5 metros, gerando assim o referido mapa de imagens 10, e todas as fotos capturadas são convertidas localmente (no dispositivo móvel) em uma única foto, gerando assim indicadores muito mais precisos e também proporcionando maior eficiência de processamento, uma vez que apenas uma única imagem será processada ao invés de várias.
[00206] Entende-se, portanto, que na presente invenção o mapa de imagens 10 é gerado pelo próprio usuário e localmente no dispositivo móvel, ou seja, não necessitando de um ambiente de nuvem. Da mesma forma, o referido mapa de imagens 10 é convertido em uma única foto, de modo que tal conversão também ocorre localmente no dispositivo móvel.
[00207] A Figura 5 exemplifica o mapa de imagens 10, que é formado pelo agrupamento de cada uma das imagens 10A, 10B, 10C, 10D, 10E e 10F que são capturadas pelo usuário. Entende-se ainda que o mapa de imagens 10 deve ser exibido na tela do dispositivo móvel 20, 20', conforme mostrado na figura 6.
[00208] Em relação às imagens capturadas, a presente invenção propõe ainda uma ferramenta de detecção de qualidade de imagem, uma vez que a imagem capturada pode estar borrada, excessivamente escura ou ilegível. Neste caso, a presente invenção contempla uma etapa de sugestão de nova captura de imagem.
[00209] Outra ferramenta proposta na presente invenção e também relacionada a edição da imagem já capturada é chamada “autocrop” ou “corte automático”. Esta ferramenta permite que com um único comando no dispositivo 20, a imagem capturada seja cortada de modo a excluir imagens que não sejam úteis em função de uma determinada área de interesse, como por exemplo excluindo-se teto ou piso do ambiente e mantendo apenas uma prateleira a ser identificada.
[00210] De todo modo, a presente invenção baseia-se no uso de um modelo especializado relacionado a um determinado tipo de objeto presente na imagem capturada pelo usuário.
[00211] Dessa forma, a precisão da metodologia na tarefa de reconhecimento de objetos é aumentada, uma vez que cada tipo de objeto terá seu próprio modelo especializado. Assim, trabalhando com um modelo especializado para cada tipo de objeto (ao contrário do estado da técnica que considera um único modelo para uma pluralidade de objetos), o tamanho do modelo pode ser reduzido, permitindo que as vantagens da invenção sejam alcançadas.
[00212] Por exemplo, e tomando como referência a Figura 2, em que o modelo especializado se refere ao tipo de objeto entendido como "garrafas", ao utilizar os ensinamentos da presente invenção, a precisão no reconhecimento desse tipo de objeto é aumentada, ou seja, a precisão do modelo em reconhecer garrafas presentes em uma imagem é aumentada.
[00213] Assim, com o uso de vários modelos especializados para diferentes tipos de objetos, a precisão da metodologia é aprimorada como um todo.
[00214] Uma característica adicional da presente invenção reside no fato de que cada modelo especializado ainda deve ser associado a uma classe de ruído, assim, cada um dos modelos especializados do conjunto de modelos especializados será associado a uma respectiva classe de ruído, como mostra a figura 7.
[00215] Assim, entende-se que cada modelo especializado associado a um determinado tipo de objeto será associado a uma classe de ruído.
[00216] O objetivo da classe de ruído é melhorar a precisão da metodologia proposta, de modo que, se a utilização de um modelo especializado relacionado a um determinado tipo de objeto reconhecer um objeto de forma inadequada, gerando um resultado incorreto, a esse resultado incorreto será adicionada a classe de ruído vinculada a esse modelo especializado, permitindo que a metodologia proposta seja constantemente aprimorada.
[00217] Assim, entende-se que a classe de ruído pode ser modificada, gerada e atualizada caso a caso, ou seja, de acordo com o modelo especializado ao qual a referida classe de ruído está associada.
[00218] Em uma exemplificação, pode-se entender como ruído como qualquer tipo de informação presente na imagem capturada e que atrapalhe a identificação e classificação do objeto nela presente. Por exem- pio, uma placa de merchandising que se sobrepõe ao menos parcialmente a um produto é considerada um ruído, bem como um vidro de uma geladeira que encontra-se embaçado. Ou seja, de modo geral um ruído pode ser entendido como qualquer informação alheia ao objeto e que esteja presente na imagem capturada de modo a atrapalhar ou prejudicar sua identificação de acordo com os presentes ensinamentos.
[00219] Em uma concretização da presente invenção, tem-se que após a captura de imagem, é possível obter características geométricas do produto como, por exemplo, suas dimensões do produto e sua embalagem. É possível ainda identificar outras informações visuais relevantes, tal como paleta de cores, fontes textuais, etc. Entende-se assim que a presente invenção compreende a etapa de detectar as dimensões de uma embalagem do produto. Por dimensões da embalagem, deve- se entender como as dimensões do objeto que é capturado pela câmera do dispositivo móvel. Ainda, em uma modalidade igualmente válida, as características geométricas do produto podem também, por exemplo, serem obtidas a partir dos planogramas.
[00220] Com base nas características geométricas, pode-se calcular a área e volume do produto, aferindo assim o espaço que ele ocupa naquela disposição na prateleira de modo a obter indicadores relevantes denominados KPIs - Key Performance Indicators.
[00221] Dentre estes, exemplifica-se um importante indicador chamado “participação de espaço” que poderá ser vantajosamente obtido. Este indicador relaciona-se ao espaço que determinado produto ocupa, por exemplo, em uma prateleira, e permite avaliar se é benéfico mantê- lo em determinada posição e disposição ou se são necessárias alterações de disposição ou posicionamento.
[00222] Em uma configuração possível da presente invenção, é proposto ainda que mediante a etapa de captura de imagem usando um dispositivo móvel, sejam detectadas além dos produtos e embalagens já descritas acima, áreas informativas relacionadas a ditas embalagens. [00223] Estas áreas informativas podem corresponder a uma pluralidade de dados relevantes sobre os produtos e suas embalagens como, por exemplo, etiquetas de preço, promoções, informações textuais alfanuméricas, ativações interativas, códigos de barras, QR Codes, NFCs, tags etc.
[00224] Para estas áreas informativas, propõe-se que sejam capturadas em imagem e devidamente identificadas, de modo que posteriormente é possível que informações adicionais como por exemplo, de preço e promoções sejam atreladas aos respectivos produtos também capturados em imagem de acordo com os ensinamentos acima.
[00225] Em uma modalidade válida, a presente invenção propõe ainda a realização da etapa de inserir, no modelo especializado relacionado ao tipo de objeto, dados atrelados às áreas informativas.
[00226] De modo mais específico, pode-se entender tais dados atrelados às áreas informativas como sendo o preço de um determinado tipo de objeto. Assim, o modelo especializado por tipo de objeto não compreenderá somente dados que indiquem qual é aquele objeto específico, mas também compreenderá dados que indiquem o preço daquele objeto específico em um determinado ponto de venda.
[00227] Em uma modalidade, e fazendo referência ao menos a ilustração da figura 13, metodologia proposta na presente invenção ensina que, tendo sido o objeto classificado na imagem (etapa E1), o usuário será informado, na tela do dispositivo eletrônico, qual foi o objeto reconhecido (etapa E2). Posteriormente, será solicitado ao usuário a captura de um dado referente ao preço do produto reconhecido, tal como indica a etapa E3.
[00228] Sendo assim, o usuário deverá, através da utilização do dispositivo eletrônico, realizar a captura de uma imagem da etiqueta de preço daquele produto. Posteriormente, e tal como indica a etapa E4, o preço fotografado daquele determinado produto será associado ao produto em questão, por exemplo, será associado que um determinado produto (suco de uva) tem o preço de R$ 10,00 naquele determinado estabelecimento. Assim, é gerado um dado consolidado de produto e preço, tal como indica a etapa E5. Adicionalmente, destaca-se que grupos de produtos podem ser pré-definidos, de maneira que o preço seja compartilhado entre eles, reduzindo assim a quantidade de fotos de preços a serem tiradas. Como exemplo, todos os sucos de 50g podem estar em um grupo, de forma que seja necessário apenas tirar foto do suco de uva para obter preço do suco de limão e demais.
[00229] Destaca-se que não necessariamente o usuário deverá capturar a foto da etiqueta de preço do produto, de modo que, em algumas modalidades, a própria foto capturada pelo usuário da prateleira do ponto de venda permite a identificação de qual é o produto e qual é o preço daquele produto, assim, pode-se associar, automaticamente, o preço ao produto, gerando assim o dado consolidado abordado na etapa E5.
[00230] Em uma modalidade válida da presente invenção, a metodologia descrita compreende ainda a etapa de gerar um relatório de orientação a partir dos KPIs gerados. Mais especificamente, dito relatório de orientação deve ser entendido como o fornecimento de uma indicação ao usuário, preferencialmente através de uma mensagem em texto, indicando ao usuário se ocorreu uma conformidade nos planogramas detectados em campo a partir de uma comparação com o planograma base, bem como indicando ao usuário, através de uma mensagem de texto, qual o motivo da não conformidade nos planogramas detectados bem como qual é o plano de ação a ser tomado pelo usuário para correção das não conformidades.
[00231] Propõe-se que dito relatório de orientação seja gerado, por exemplo, através de uma inteligência artificial estilo GPT ou LLMs, de modo que a referida inteligência artificial será responsável por interpretar os KPIs e fornecer o relatório de orientação ao usuário. Destaca-se que não necessariamente o relatório de orientação deve ser gerado a partir de inteligência artificial.
[00232] É também objeto da presente invenção um sistema de processamento local de imagem para identificação e classificação de objetos e geração de KPIs, o qual compreende ao menos um dispositivo móvel que pode ser conectado a uma rede tal como internet fixa ou móvel, rede local etc. e uma base de dados remota que possui um portifólio geral.
[00233] Deve ser entendido que o sistema ora proposto é integralmente compatível com o método já descrito previamente, de modo que as características do método aplicam-se mutatis mutandis ao sistema também objeto da presente invenção.
[00234] De qualquer forma, para atingir os objetivos da presente invenção, tem-se que o dispositivo móvel 20 é dotado de ao menos uma unidade de memória, uma unidade de comparação e uma unidade de processamento.
[00235] Neste contexto, tem-se que o dispositivo móvel 20 é configurado para inicialmente permitir que um usuário defina ao menos um segmento de operação de modo a classificar dito local em função de sua natureza de atuação.
[00236] O dispositivo móvel 20 é configurado para receber na unidade de memória ao menos uma base de dados referente ao segmento de operação, em que a base de dados compreende um conjunto de modelos especializados e sendo fornecida a partir do portifólio geral, tal como um planograma base.
[00237] Como já citado, a base de dados recebida no dispositivo móvel 20 é diretamente relacionada ao campo de atuação daquele local, ou seja, se o local for uma loja de artigos esportivos o dispositivo móvel 20 receberá ao menos uma base de dados relacionada a artigos esportivos, sem receber, portanto, bases de dados relacionadas a produtos de higiene pessoal, por exemplo.
[00238] O dispositivo móvel 20 é dotado de meios de captura de imagem como, por exemplo, uma câmera e permite assim capturar ao menos uma imagem e tratar dita imagem, em que dito tratamento pode contemplar ao menos um dentre edição e armazenamento local da mesma.
[00239] A edição de imagem pode contemplar uma série de ferramentas, tais como luminosidade, sombra, foco, brilho, nitidez, calor, corte, seleção, pintura, exclusão, etc. Destaca-se que o usuário pode escolher uma região da foto, selecionando, por exemplo, um polígono de ao menos três pontos, em que a perspectiva da região escolhida é alterada para compensar variações de perspectiva, deixando assim a imagem como se tivesse sido capturada frontalmente.
[00240] De qualquer modo, caso seja detectada uma lacuna na imagem capturada, o dispositivo móvel 20 irá informar ao usuário tal reconhecimento de lacuna e poderá permitir aquisição do objeto faltante. Para tal aquisição, a conexão com rede pode se fazer necessária.
[00241] Caso seja detectada a presença de um objeto na imagem capturada, o dispositivo 20 atribui um modelo especializado vinculado à imagem capturada e vinculado aos objetos presentes na imagem.
[00242] Ou seja, o modelo especializado está, por exemplo, relacionado a um tipo de objeto presente na imagem, e é fornecido a partir da base de dados já armazenada no dispositivo local 20 e relacionada ao ramo de atuação daquele local.
[00243] Por exemplo, no caso de artigos esportivos, o modelo especializado poderá ser de capacetes de ciclismo.
[00244] Com a imagem capturada, o dispositivo móvel 20 é configu- rado para processar a imagem capturada e comparar localmente o objeto reconhecido com a base de dados e classificá-lo quanto a seu tipo, permitindo assim classificar aquele objeto.
[00245] No exemplo citado anteriormente, podem ter sido detectados e classificados, por exemplo, capacetes de ciclismo de estrada, mountain bike e urbanos.
[00246] Para tal, o dispositivo móvel 20 é configurado para comparar os objetos detectados com a base de dados e informar ao usuário o resultado de tal comparação e reconhecimento.
[00247] Caso a comparação com a base de dados não corresponda com o tipo de objeto ali presente, permitir que o usuário corrija o tipo de objeto reconhecido no próprio dispositivo móvel 20, e gerar um tipo de objeto corrigido.
[00248] No mesmo exemplo, suponha-se que um capacete de ciclismo de estrada aerodinâmico tenha sido classificado como capacete urbano. O usuário saberá que tal classificação está equivocada e poderá informar esta ocorrência de erro por meio do próprio dispositivo móvel 20, gerando assim um tipo de objeto corrigido.
[00249] O tipo de objeto corrigido é então enviado de volta para a base de dados através do dispositivo móvel 20, de modo a atualizar dita base de dados tal como um envio de feedback ao sistema em uma malha fechada.
[00250] Esta característica pode ser entendida como uma realimen- tação do próprio sistema com esta informação corrigida, ou seja, o sistema recebe a informação já corrigida pelo usuário e atualiza a base de dados e portifólio geral.
[00251 ] Portanto, em outras palavras o sistema armazena o conjunto de modelos especializados e quando conectado à rede, o permite que o conjunto de modelos especializados remoto seja atualizado.
[00252] Com isso, em uma concretização o dispositivo móvel 20 é configurado para sincronizar um conjunto de modelos especializados remotos a partir do conjunto de modelos especializados. Cada modelo especializado é associado ainda a uma classe de ruído.
[00253] O sistema pode ainda gerar, localmente, com base em uma série de cálculos, ao menos um KPI relacionado ao objeto reconhecido, armazená-lo na unidade de memória o KPI gerado e exibi-lo posteriormente em um display ou tela, por exemplo.
[00254] Adicionalmente, quando da captura de imagem, o dispositivo móvel é configurado para detectar também uma área informativa, em que dita área informativa pode corresponder a uma pluralidade de dados relevantes sobre o objeto detectado na dita imagem, tal como preço, código de barras, QR Code, etc.
[00255] Cumpre notar também que a imagem capturada pode ser formada a partir de um mapa de imagens 10, sendo que o mapa de imagens 10 consiste em um agrupamento de uma pluralidade de imagens 10A, 10B, 10C, 10D, 10E, 10F.
[00256] A pluralidade de imagens 10A, 10B, 10C, 10D, 10E, 10F também é obtida por meio do dispositivo móvel 20, o qual é configurado para agrupá-las adicionando horizontal ou verticalmente cada imagem da pluralidade de imagens 10A, 10B, 10C, 10D, 10E, 10F ao mapa de imagens 10 por ação do usuário no dispositivo.
[00257] De qualquer modo, o mapa de imagens 10 é gerado localmente no dispositivo móvel 20, o qual é convertido também localmente no dispositivo móvel 20. Ou seja, a partir de uma pluralidade de imagens, gera-se uma única imagem no próprio dispositivo móvel 20 permitindo processar esta única imagem posteriormente ao invés das várias imagens capturadas.
[00258] O sistema é configurado ainda para designar automaticamente o tipo específico de objeto presente na imagem com base em aprendizado de máquina tal como descrito previamente, podendo assim indicar o tipo específico de objeto presente na imagem depois de capturar dita imagem pelo dispositivo móvel 20. O sistema pode ainda designar automaticamente o tipo específico de objeto a partir de informações contidas em um planograma base.
[00259] Observa-se que, de acordo com a presente invenção, a imagem capturada refere-se à imagem de um ponto de venda e/ou refere- se a uma imagem em um material impresso, tal como um folheto, cartaz, banner, outdoor e afins.
[00260] No mais, propõe-se que o sistema, e consequentemente o dispositivo móvel, seja apto a gerar uma indicação gráfica na imagem captada, destacando assim para o usuário os objetos detectados. Dita indicação gráfica pode ser entendida como uma micro imagem da imagem captada.
[00261] Entende-se que dita indicação gráfica (micro imagem) possa ser armazenada, processada e transmitida de/para um dispositivo móvel.
[00262] Por fim, ao menos os seguintes KPIs podem ser gerados a partir da metodologia descrita na presente invenção: identificação de presença ou ausência de produtos (out of stock), contagem de faces, participação na prateleira (share of shelf) por metragem e quantidade, espaço vazio, presença de invasores, contagem de invasores, participação de invasores no espaço, full compliance (completude do planograma), posicionamento como planejado no planograma, price-gap (diferença de preço aplicado e sugerido) e mix de produtos.
[00263] Entende-se ainda que um determinado modelo especializado pode ser criado a partir de produtos de um fabricante e também a partir de produtos de seu concorrente. Assim, ao ser captada a foto, será possível detectar e classificar se existe algum produto do concorrente indevidamente disposto no ponto de venda.
[00264] É válido destacar ainda que os ensinamentos da presente invenção também podem ser concretizados com base em uma rede neural que pode ser “treinada” para permitir atingir os avanços e vantagens aqui propostos, ou seja, a presente invenção é plenamente compatível e pode ser implementada com base em redes neurais.
[00265] Entende-se assim que uma das vantagens da presente invenção decorre do fato de que os modelos são especializados, ou seja, podendo considerar uma menor gama de produtos, sendo assim, tais modelos fornecem maior acuracidade dentro do seu contexto, já que tais modelos não precisam considerar contextos desnecessários.
[00266] Assim, de acordo com os ensinamentos descritos, entende- se que a invenção pode ser implementada em um aplicativo móvel de um dispositivo eletrônico, tal como um telefone celular.
[00267] Ainda, e conforme descrito, a invenção se baseia também no uso de servidores que se comunicam com o respectivo dispositivo eletrônico, tal como servidores dispostos em nuvem.
[00268] Entende-se assim que a invenção também aborda um meio não transitório legível por computador que compreende um conjunto de instruções apto a executar as etapas do método previamente descrito bem como executar as funcionalidades do sistema descrito.
[00269] Tendo sido descrito um exemplo de concretização preferido, deve ser entendido que o escopo da presente invenção abrange outras possíveis variações, sendo limitado tão somente pelo teor das reivindicações apensas, aí incluídos os possíveis equivalentes.

Claims

REIVINDICAÇÕES
1 . Método de processamento local de imagem para identificação e classificação de objetos e geração de KPIs sendo as etapas do método realizadas através de um dispositivo móvel (20), o método sendo caracterizado por compreender ao menos as seguintes etapas:
- Definição de ao menos um segmento de operação,
- Receber, por meio de uma rede de conexão, no dispositivo móvel (20), ao menos uma base de dados referente ao segmento de operação, a base de dados compreendendo um conjunto de modelos especializados e sendo fornecida a partir de um conjunto de modelo especializados remotos;
- Captura de ao menos uma imagem usando o dispositivo móvel (20);
- Processamento local da imagem no dispositivo móvel (20);
- Detecção, na imagem capturada, de ao menos um padrão de objeto;
- Caso seja detectado ao menos um padrão de objeto, considerar, para o padrão de objeto detectado, um respectivo modelo especializado, em que o modelo especializado compreende ao menos um padrão de reconhecimento,
- Avaliar o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado,
- A partir da avaliação entre o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado, classificar o objeto,
- Informar ao usuário que o objeto foi classificado;
- Gerar, no dispositivo móvel (20), ao menos um KPI a partir da classificação do objeto.
2. Método de acordo com a reivindicação 1 , caracterizado pelo fato de que o modelo especializado é considerado a partir de um conjunto de modelos especializados, em que cada modelo especializado do con- junto de modelos especializados é relacionado a ao menos um determinado padrão de objeto e armazenado localmente no dispositivo móvel (20).
3. Método de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que cada modelo especializado compreende ao menos um padrão de reconhecimento, o padrão de reconhecimento sendo configurado de modo a indicar que um objeto compreende uma determinada característica, de modo que dita característica permite a identificação do objeto.
4. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o padrão de reconhecimento é configurado como ao menos um entre: padrão de forma, padrão de imagem, padrão de cor, padrão de texto e suas combinações.
5. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o conjunto de modelos especializados é enviado para o dispositivo móvel de acordo com ao menos um critério, tal como um critério de tempo e de localização.
6. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que caso na imagem captada seja detectada uma pluralidade de padrões de objeto, em que cada padrão de objeto compreende o seu respectivo modelo especializado, realizar uma etapa de processar separadamente cada um dos modelos especializados.
7. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o modelo especializado compreende ao menos um padrão de reconhecimento, em que a etapa de processamento local da imagem compreende processar separadamente cada padrão de reconhecimento do modelo especializado.
8. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que caso a comparação entre o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado não permita classificar o objeto, realizar uma etapa de enviar o padrão de objeto da imagem para um sistema remoto e criar um novo modelo especializado a partir do padrão de objeto, em que no novo modelo especializado o padrão de reconhecimento será o padrão de objeto, de modo a atualizar o conjunto de modelos especializados remotos.
9. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que a etapa de informar ao usuário que o objeto foi classificado ainda compreende a etapa de receber uma confirmação do usuário, em que dita confirmação pode ser uma confirmação positiva ou negativa, de modo que, caso a confirmação do usuário seja uma confirmação negativa, realizar uma etapa de gerar um dado de atualização e estabelecer um canal de alimentação de aprendizagem, em que o dado de atualização atualiza a classificação do objeto, em que o dado de atualização é um dado de aprendizagem relacionado a avaliação entre o padrão de objeto e o padrão de reconhecimento.
10. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o conjunto de modelos especializados remotos é atualizado a partir de ao menos um dentre os dados de atualização e o novo modelo especializado.
11. Método de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que a etapa de captura de imagem usando um dispositivo móvel pode incluir ainda detecção de uma área informativa, em que dita área informativa pode corresponder a uma pluralidade de dados relevantes sobre o objeto detectado na dita imagem.
12. Método de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que a imagem capturada na etapa de captura de imagem pode ser formada a partir de um mapa de imagens (10), sendo que o mapa de imagens (10) consiste em um agrupamento de uma pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F), sendo que a pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F) é obtida por meio do dispositivo móvel (20, 20'), em que o agrupamento da pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F) é realizado pelo usuário do dispositivo móvel (20, 20') adicionando cada imagem da pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F) ao mapa de imagens (10), sendo que essa adição ao mapa de imagens (10) pode ser realizada horizontal ou verticalmente.
13. Método de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que compreende ainda as etapas de:
- Gerar o mapa de imagens (10) localmente no dispositivo móvel (20) e
- Converter o mapa de imagens (10) em uma única imagem, sendo que essa conversão ocorre localmente no dispositivo móvel (20,20').
14. Método de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que a etapa de detectar ao menos um padrão de objeto ainda compreende as etapas de:
- Gerar uma indicação gráfica para cada padrão de objeto detectado, e
- Registrar as coordenadas na imagem capturada de cada padrão de objeto detectado.
15. Sistema para processamento local de imagem para identificação e classificação de objetos e geração de KPIs, o sistema compreendendo ao menos um dispositivo móvel (20) e uma base de dados remota que possui um portifólio geral, em que o dispositivo móvel (20) é dotado de ao menos uma unidade de memória e de uma unidade de comparação e pode ser conectado a uma rede, o sistema sendo caracterizado pelo fato de que o dispositivo móvel (20) é configurado para:
- definir ao menos um segmento de operação; - Receber na unidade de memória ao menos uma base de dados referente ao segmento de operação, em que a base de dados compreende um conjunto de modelos especializados e sendo fornecida a partir de um conjunto de modelo especializados remotos;
- Capturar ao menos uma imagem;
- Processar localmente a imagem capturada;
- Detectar, na imagem capturada, ao menos um padrão de objeto;
- Caso seja detectado ao menos um padrão de objeto, considerar, para o padrão de objeto detectado, um respectivo modelo especializado, em que o modelo especializado compreende ao menos um padrão de reconhecimento;
- Avaliar o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado;
- A partir da avaliação entre o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado, classificar o objeto;
- Informar ao usuário que o objeto foi classificado;
- Gerar, no dispositivo móvel (20), ao menos um KPI a partir da classificação do objeto.
16. Sistema de acordo com a reivindicação 15, caracterizado pelo fato de que o modelo especializado é considerado a partir de um conjunto de modelos especializados, em que cada modelo especializado do conjunto de modelos especializados é relacionado a ao menos um determinado padrão de objeto e armazenado localmente no dispositivo móvel (20).
17. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que cada modelo especializado compreende ao menos um padrão de reconhecimento, o padrão de reconhecimento sendo configurado de modo a indicar que um objeto compreende uma determinada característica, de modo que dita característica permite a identificação do objeto.
18. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o padrão de reconhecimento é configurado como ao menos um entre: padrão de forma, padrão de imagem, padrão de cor, padrão de texto e suas combinações.
19. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o conjunto de modelos especializados é enviado para o dispositivo móvel de acordo com ao menos um critério, tal como um critério de tempo e de localização.
20. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que caso na imagem captada seja detectada uma pluralidade de padrões de objeto, em que cada padrão de objeto compreende o seu respectivo modelo especializado, o dispositivo móvel (20) é configurado para processar separadamente cada um dos modelos especializados.
21. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o modelo especializado compreende ao menos um padrão de reconhecimento, em que o processamento local da imagem compreende processar separadamente cada padrão de reconhecimento do modelo especializado.
22. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que, caso a comparação entre o padrão de objeto da imagem com o respectivo padrão de reconhecimento do modelo especializado não permita classificar o objeto, é configurado para enviar o padrão de objeto da imagem para um sistema remoto e criar um novo modelo especializado a partir do padrão de objeto, em que no novo modelo especializado o padrão de reconhecimento será o padrão de objeto, de modo a atualizar o conjunto de modelos especializados remotos.
23. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que é configurado para, ao informar ao usuário que o objeto foi classificado, ainda receber uma confirmação do usuário, em que dita confirmação pode ser uma confirmação positiva ou negativa, de modo que, caso a confirmação do usuário seja uma confirmação negativa, gere um dado de atualização e estabeleça um canal de alimentação de aprendizagem, em que o dado de atualização atualiza a classificação do objeto, em que o dado de atualização é um dado de aprendizagem relacionado a avaliação entre o padrão de objeto e o padrão de reconhecimento.
24. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o conjunto de modelos especializados remotos é atualizado a partir de ao menos um dentre os dados de atualização e o novo modelo especializado.
25. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o dispositivo móvel (20) é configurado para, quando da captura de imagem, realizar ainda uma detecção de uma área informativa, em que dita área informativa pode corresponder a uma pluralidade de dados relevantes sobre o objeto detectado na dita imagem.
26. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que a imagem capturada pode ser formada a partir de um mapa de imagens (10), sendo que o mapa de imagens (10) consiste em um agrupamento de uma pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F), sendo que a pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F) é obtida por meio do dispositivo móvel (20, 20'), em que o agrupamento da pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F) é realizado pelo usuário do dispositivo móvel (20, 20') adicionando cada imagem da pluralidade de imagens (10A, 10B, 10C, 10D, 10E, 10F) ao mapa de imagens (10), sendo que essa adição ao mapa de imagens (10) pode ser realizada horizontal ou verticalmente.
27. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o mapa de imagens (10) é gerado no dispositivo móvel (20), o mapa de imagens (10) sendo convertido localmente em uma única imagem também no dito dispositivo móvel (20, 20’).
28. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que é configurado para gerar uma indicação gráfica para cada padrão de objeto detectado e registrar as coordenadas na imagem capturada de cada padrão de objeto detectado.
29. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que é configurado para indicar o tipo específico de objeto presente na imagem antes ou depois de capturar uma imagem pelo dispositivo móvel (20).
30. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que é configurado de modo que cada modelo especializado é associado ainda a uma classe de ruído.
31. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que a imagem capturada re- fere-se à imagem de um ponto de venda e/ou refere-se a uma imagem em um material impresso.
32. Sistema de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que é compatível com o método da reivindicação 1.
33. Objeto disposto em uma prateleira e presente em uma imagem capturada em dispositivo móvel (20) caracterizado pelo fato de que é reconhecido através do método da reivindicação 1 com base no sistema da reivindicação 15.
34. Meio não transitório legível por computador caracterizado pelo fato de que compreende um conjunto de instruções configurado para executar o método definido na reivindicação 1 e baseado no sistema da reivindicação 15.
PCT/BR2023/050167 2022-05-31 2023-05-30 MÉTODO E SISTEMA DE PROCESSAMENTO LOCAL DE IMAGEM PARA IDENTIFICAÇÃO E CLASSIFICAÇÃO DE OBJETOS E GERAÇÃO DE KPIs WO2023230687A1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263365522P 2022-05-31 2022-05-31
US63/365,522 2022-05-31

Publications (1)

Publication Number Publication Date
WO2023230687A1 true WO2023230687A1 (pt) 2023-12-07

Family

ID=87312184

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/BR2023/050167 WO2023230687A1 (pt) 2022-05-31 2023-05-30 MÉTODO E SISTEMA DE PROCESSAMENTO LOCAL DE IMAGEM PARA IDENTIFICAÇÃO E CLASSIFICAÇÃO DE OBJETOS E GERAÇÃO DE KPIs

Country Status (1)

Country Link
WO (1) WO2023230687A1 (pt)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170109599A1 (en) * 2015-10-20 2017-04-20 Sandeep Gupta Real-time diet assessment and food identification using thermal imaging
WO2017201483A1 (en) * 2016-05-19 2017-11-23 Simbe Robotics Inc. Method for tracking placement of products on shelves in a store
US20190294879A1 (en) * 2018-03-20 2019-09-26 Ambatana Holdings B.V. Clickless identification and online posting
WO2021256735A1 (ko) * 2020-06-15 2021-12-23 삼성전자 주식회사 전자 장치 및 그 동작방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170109599A1 (en) * 2015-10-20 2017-04-20 Sandeep Gupta Real-time diet assessment and food identification using thermal imaging
WO2017201483A1 (en) * 2016-05-19 2017-11-23 Simbe Robotics Inc. Method for tracking placement of products on shelves in a store
US20190294879A1 (en) * 2018-03-20 2019-09-26 Ambatana Holdings B.V. Clickless identification and online posting
WO2021256735A1 (ko) * 2020-06-15 2021-12-23 삼성전자 주식회사 전자 장치 및 그 동작방법

Similar Documents

Publication Publication Date Title
US20210398099A1 (en) Estimating shelf capacity from image data to improve store execution
US20180101810A1 (en) Method and system for providing information of stored object
US11935104B2 (en) Method, medium, and system for shopper integrity estimation in frictionless retail stores
US20170300926A1 (en) System and method for surveying display units in a retail store
US20160042315A1 (en) System and methods for order fulfillment, inventory management, and providing personalized services to customers
KR20180004738A (ko) 선반 디스플레이 유닛을 제어하고 선반 디스플레이 유닛 상의 정보를 그래픽으로 나타내는 시스템 및 방법
JP2020534630A (ja) 電子棚札付き棚のカメラ実装商品レイアウト管理方法
WO2021185281A1 (zh) 货架交互方法和货架
JP2018531463A (ja) 小売店における生鮮品の廃棄を減らすためのシステム及び方法
JP2018531463A6 (ja) 小売店における生鮮品の廃棄を減らすためのシステム及び方法
US20180204172A1 (en) Inventory management system
CN104112216A (zh) 存货管理与行销的图像辨识方法
US10360613B2 (en) System and method for monitoring display unit compliance
US20210256540A1 (en) Alcohol information management system and management method
US11783405B2 (en) Device, medium, and method for utilizing wearable technology to facilitate fulfilling customer orders
US11748787B2 (en) Analysis method and system for the item on the supermarket shelf
US20230306451A1 (en) Using machine learning to identify substitutions and recommend parameter changes
US20230005001A1 (en) System for automated and dynamic pricing and donation
TW201433992A (zh) 存貨管理與行銷之圖像辨識系統
Mankodiya et al. Challenges and opportunities for embedded computing in retail environments
CN111047245A (zh) 一种商品缺货时快速补货的方法
TW202006635A (zh) 線下商品資訊查詢方法、裝置、設備及系統
WO2023230687A1 (pt) MÉTODO E SISTEMA DE PROCESSAMENTO LOCAL DE IMAGEM PARA IDENTIFICAÇÃO E CLASSIFICAÇÃO DE OBJETOS E GERAÇÃO DE KPIs
US20170300927A1 (en) System and method for monitoring display unit compliance
JP2005034358A (ja) 商品陳列棚システムおよび欠品商品情報表示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23741582

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)