FR3096787A1 - Procédé, système et appareil pour la détection d’espaces vides dans des structures de support dotées de régions de broches - Google Patents

Procédé, système et appareil pour la détection d’espaces vides dans des structures de support dotées de régions de broches Download PDF

Info

Publication number
FR3096787A1
FR3096787A1 FR2005770A FR2005770A FR3096787A1 FR 3096787 A1 FR3096787 A1 FR 3096787A1 FR 2005770 A FR2005770 A FR 2005770A FR 2005770 A FR2005770 A FR 2005770A FR 3096787 A1 FR3096787 A1 FR 3096787A1
Authority
FR
France
Prior art keywords
tag
depth
indicator
label
search space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2005770A
Other languages
English (en)
Other versions
FR3096787B1 (fr
Inventor
Mohsen Ghazel
Joseph Lam
Qifeng GAN
Kiril Lomakin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of FR3096787A1 publication Critical patent/FR3096787A1/fr
Application granted granted Critical
Publication of FR3096787B1 publication Critical patent/FR3096787B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Procédé, système et appareil pour la détection d’espaces vides dans des structures de support dotées de régions de broches La présente invention concerne un procédé (400) de détection d’espaces vides sur une structure de support comportant : l’obtention (405), sur une unité de commande d’imagerie, (i) d’une pluralité de mesures de profondeur représentant la structure de support selon un cadre commun de référence, et (ii) d’une pluralité d’indicateurs d’étiquette, définissant chacun une position d’étiquette dans le cadre commun de référence ; pour chacun des indicateurs d’étiquettes : la classification (410) de l’indicateur d’étiquette, soit comme étiquette de broche, soit comme étiquette de gondole, sur la base d’une partie des mesures de profondeur sélectionnées selon la position d’étiquette, et d’une partie des mesures de profondeur adjacentes à la position d’étiquette ; la génération (415) d’un espace de recherche d’article dans le cadre commun de référence, selon la classe de l’indicateur d’étiquette ; et la détermination (420), sur la base d’un sous-ensemble des mesures de profondeur au sein de l’espace de recherche d’article, permettant de savoir si l’espace de recherche d’article contient un article. Fig. 4

Description

Procédé, système et appareil pour la détection d’espaces vides dans des structures de support dotées de régions de broches
Arrière-plan
Les environnements où sont gérés les objets, tels que les installations de vente au détail, les installations d’entreposage et de distribution et analogues, permettent de stocker ces objets dans des régions telles que les allées de structures de support (par exemple, des modules de gondole). Par exemple, une installation de vente au détail peut comporter des objets tels que les produits à acheter, et une installation de distribution peut comporter des objets tels que des colis ou des palettes. Un appareil d’automatisation mobile peut être déployé dans ces installations pour effectuer des tâches à différents endroits. Par exemple, un appareil d’automatisation mobile peut être déployé pour capturer des données représentant une allée dans une installation de vente au détail, afin de les utiliser pour identifier des informations de statuts de produits. Les structures de support dans l’installation peuvent toutefois présenter des caractéristiques structurelles variables, ce qui peut réduire la précision de la détermination de statuts de produits.
Brève description des différentes vues des dessins
Les figures d’accompagnement, où les mêmes chiffres de référence font référence à des éléments identiques ou fonctionnellement similaires dans les différentes vues, ainsi que la description détaillée ci-dessous, sont incorporées dans la spécification et en font partie, et servent à illustrer davantage les modes de réalisation de concepts qui comportent l’invention revendiquée, et à expliquer les divers principes et avantages de ces modes de réalisation.
est un schéma d’un système d’automatisation mobile.
représente un appareil d’automatisation mobile dans le système de la FIG. 1.
est un schéma de principe de certains composants internes de l’appareil d’automatisation mobile dans le système de la FIG. 1.
est un organigramme d’un procédé de détection d’espaces vides sur des structures de support dans le système de la FIG. 1.
est un diagramme illustrant des exemples de données d’entrées pour le procédé de la FIG. 4.
est un organigramme d’un procédé de réalisation du bloc 410 du procédé de la FIG. 4.
est un diagramme illustrant l’accomplissement des blocs 610, 615 et 620 du procédé de la FIG. 6.
est un organigramme d’un procédé de réalisation du bloc 415 du procédé de la FIG. 4.
est un diagramme illustrant des exemples d’accomplissement du procédé de la FIG. 8.
est un diagramme illustrant un ensemble de résultats du procédé de la FIG. 8.
est un organigramme d’un procédé de réalisation du bloc 420 du procédé de la FIG. 4.
est un diagramme illustrant l’accomplissement du procédé de la FIG. 11.
Les hommes du métier apprécieront le fait que les éléments des figures sont illustrés par souci de simplicité et de clarté et n’ont pas nécessairement été dessinés à l’échelle. Par exemple, les dimensions de certains éléments des figures peuvent être exagérées par rapport à d’autres éléments afin de contribuer à améliorer la compréhension des modes de réalisation de la présente invention.
Les composants de l’appareil et du procédé ont été représentés, le cas échéant, par des symboles conventionnels dans les dessins, montrant uniquement les détails spécifiques qui sont pertinents pour la compréhension des modes de réalisation de la présente invention, afin de ne pas obscurcir la divulgation par des détails qui seront évidents pour les personnes de compétence ordinaire dans l’art bénéficiant de la présente description.
Description détaillée
Les exemples présentés ici concernent un procédé de détection d’espaces vides sur une structure de support, le procédé comprenant les étapes consistant à : obtenir, sur une unité de commande d’imagerie, (i) une pluralité de mesures de profondeur représentant la structure de support selon un cadre commun de référence, et (ii) une pluralité d’indicateurs d’étiquette, définissant chacun une position d’étiquette dans le cadre commun de référence ; pour chacun des indicateurs d’étiquettes : classer l’indicateur d’étiquette, soit comme étiquette de broche, soit comme étiquette de gondole, sur la base d’une partie des mesures de profondeur sélectionnées selon la position d’étiquette, et d’une partie des mesures de profondeur adjacentes à la position d’étiquette ; générer un espace de recherche d’article dans le cadre commun de référence, selon la classe de l’indicateur d’étiquette ; et déterminer, sur la base d’un sous-ensemble des mesures de profondeur au sein de l’espace de recherche d’article, si l’espace de recherche d’article contient un article.
D’autres exemples présentés ici concernent un dispositif informatique comprenant : une mémoire stockant (i) une pluralité de mesures de profondeur représentant une structure de support selon un cadre commun de référence, et (ii) une pluralité d’indicateurs d’étiquette, définissant chacun une position d’étiquette dans le cadre commun de référence ; une unité de commande d’imagerie configurée, pour chacun des indicateurs d’étiquette, pour : classer l’indicateur d’étiquette, soit comme étiquette de broche, soit comme étiquette de gondole, sur la base d’une partie des mesures de profondeur sélectionnées selon la position d’étiquette, et d’une partie des mesures de profondeur adjacentes à la position d’étiquette ; générer un espace de recherche d’article dans le cadre commun de référence, selon la classe de l’indicateur d’étiquette ; et déterminer, sur la base d’un sous-ensemble des mesures de profondeur au sein de l’espace de recherche d’article, si l’espace de recherche d’article contient un article.
La FIG. 1 décrit un système 100 d’automatisation mobile en conformité avec les enseignements de cette divulgation. Le système 100 comporte un serveur 101 en communication avec au moins un appareil 103 d’automatisation mobile (également appelé ici simplement l’appareil 103) et au moins un dispositif informatique client 104, via des liaisons 105 de communication, illustrées dans le présent exemple comme comportant des liaisons sans fil. Dans le présent exemple, les liaisons 105 sont fournies par un réseau local sans fil (WLAN) déployé via un ou plusieurs points d’accès (non montrés). Dans d’autres exemples, le serveur 101, le dispositif client 104, ou les deux, sont situés à distance (c’est-à-dire en dehors de l’environnement dans lequel l’appareil 103 est déployé), et les liaisons 105 comportent, par conséquent, des réseaux étendus tels que l’Internet, les réseaux mobiles, et analogues. Le système 100 comporte également une station 106 pour l’appareil 103 dans le présent exemple. La station 106 est en communication avec le serveur 101 via une liaison 107 qui, dans le présent exemple est une liaison filaire. Dans d’autres exemples, cependant, la liaison 107 est une liaison sans fil.
Le dispositif informatique client 104 est illustré dans la FIG. 1 comme un dispositif informatique mobile, tel qu’une tablette, un téléphone intelligent ou analogues. Dans d’autres exemples, le dispositif client 104 est mis en œuvre comme un autre type de dispositif informatique, tel qu’un ordinateur de bureau, un ordinateur portable, un autre serveur, un kiosque, un moniteur, et analogues. Le système 100 peut comporter une pluralité de dispositifs clients 104 en communication avec le serveur 101 via des liaisons 105 respectives.
Le système 100 est déployé, dans l’exemple illustré, dans une installation de vente au détail comportant une pluralité de structures de support, telles que les modules de gondole 110-1, 110-2, 110-3, et ainsi de suite (collectivement appelés modules de gondole 110 ou gondoles 110, et désignés de manière générique par module de gondole 110 ou gondole 110 – cette nomenclature est également employée pour d’autres éléments abordés ici). Chaque module de gondole 110 supporte une pluralité d’articles, également appelés ici produits 112. Chaque module de gondole 110 comporte un fond de gondole 116-1, 116-2, 116-3 et une surface de support (par exemple, la surface de support 117-3 comme illustré dans la FIG. 1) s’étendant du fond de gondole 116 à un bord de gondole 118-1, 118-2, 118-3. Comme nous le verrons plus loin, les modules de gondole 110 peuvent également comporter des zones dans lesquelles les produits 112 sont supportés par des broches s’étendant à partir du fond de gondole 116, plutôt que par les surfaces de support 117.
Les modules de gondole 110 (également appelés sous-régions de l’installation) sont généralement agencés en une pluralité d’allées (également appelées régions de l’installation), dont chacune comporte une pluralité de modules 110 alignés de bout en bout. Dans ces aménagements, les bords de gondole 118 font face aux allées dans lesquelles peuvent se déplacer les clients se trouvant dans l’installation de vente au détail, de même que l’appareil 103. Comme le montre la FIG. 1, le terme "bord de gondole" 118, tel qu’il est employé ici, qui peut également être désigné par le bord d’une surface de support (par exemple, les surfaces de support 117), fait référence à une surface délimitée par des surfaces adjacentes ayant des angles d’inclinaison différents. Dans l’exemple illustré dans la FIG. 1, le bord de gondole 118-3 est à un angle d’environ quatre-vingt-dix degrés par rapport à la surface de support 117-3 et par rapport à la face inférieure (non montrée) de la surface de support 117-3. Dans d’autres exemples, les angles entre le bord de gondole 118-3 et les surfaces adjacentes, telles que la surface de support 117-3, est supérieur ou inférieur à quatre-vingt-dix degrés.
L’appareil 103 est équipé d’une pluralité de capteurs 108 de navigation et de capture de données, tels que les capteurs d’images (par exemple, une ou plusieurs caméras numériques) et les capteurs de profondeur (par exemple, un ou plusieurs capteurs de détection et de télémétrie par la lumière (LIDAR), une ou plusieurs caméras de profondeur employant des motifs de lumière structurés, tels que la lumière infrarouge, ou analogues). L’appareil 103 est déployé au sein de l’installation de vente au détail et, via la communication avec le serveur 101 et l’utilisation des capteurs 108, navigue de manière autonome ou partiellement autonome sur une longueur 119 d’au moins une partie des gondoles 110.
Tout en navigant parmi les gondoles 110, l’appareil 103 peut capturer des images, des mesures de profondeur et autres, représentant les gondoles 110 (globalement appelées données de gondole ou données capturées). La navigation peut être effectuée selon un cadre de référence 102 établi au sein de l’installation de vente au détail. L’appareil 103 suit donc sa posture (c’est-à-dire son emplacement et son orientation) dans le cadre de référence 102.
Le serveur 101 comporte une unité de commande à usage spécial, telle qu’un processeur 120, spécialement conçue pour commander et/ou assister l’appareil 103 d’automatisation mobile dans sa navigation dans l’environnement et dans la capture des données. Le processeur 120 est également spécialement conçu, comme nous le verrons en détail dans le présent document, pour traiter les données d’image et les mesures de profondeur capturées par l’appareil 103 représentant les modules de gondole 110, afin de détecter des espaces vides sur les modules de gondole 110 où les produits 112 devraient apparaître, mais où ils n’apparaissent pas actuellement (c’est-à-dire indiquant qu’un produit peut être en rupture de stock). Les espaces vides détectés qui en résultent peuvent être fournis à des mécanismes de traitement de statut des produits (qui peuvent également être mis en œuvre par le processeur 120 lui-même).
Le processeur 120 est interconnecté avec un support de stockage lisible par ordinateur non transitoire, tel qu’une mémoire 122. La mémoire 122 comporte une combinaison de mémoire volatile (par exemple une mémoire vive ou RAM) et de mémoire non volatile (par exemple une mémoire morte ou ROM, une mémoire morte programmable effaçable électriquement ou EEPROM, une mémoire Flash). Le processeur 120 et la mémoire 122 comprennent chacun un ou plusieurs circuits intégrés. Dans certains modes de réalisation, le processeur 120 est mis en œuvre sous la forme d’une ou plusieurs unités centrales de traitement (UTC) et/ou unités de traitement graphique (UTG).
La mémoire 122 stocke des instructions lisibles par ordinateur pour effectuer des fonctionnalités variées, comportant la commande de l’appareil 103 pour la navigation des modules 110 et la capture de données de gondole, ainsi que le post-traitement des données de gondole. L’exécution des instructions susmentionnées par le processeur 120 configure le serveur 101 pour effectuer les actions variées abordées ici. Les applications stockées dans la mémoire 122 comportent une application 124 de détection d’espaces vides (également, appelée simplement l’application 124). En général, via l’exécution de l’application 124 ou de ses sous-composants, et en conjonction avec d’autres composants du serveur 101, le processeur 120 effectue des actions variées, pour détecter dans des mesures de profondeur représentant les gondoles 110 (par exemple, des données capturées par l’appareil 103) des espaces vides indicatifs de produits 112 qui sont en rupture de stock, à utiliser dans un traitement en aval pour détecter des informations de statut de produit et agir en fonction de celles-ci.
Certains exemples de composants de l’application 124 montrés dans la FIG. 1 comportent un classificateur d’étiquette 126. Le classificateur d’étiquette 126 attribue des classifications à des indicateurs d’étiquettes reçus en entrée à l’application 124. Plus précisément, le classificateur 126 détermine si chaque indicateur d’étiquette correspond à une étiquette montée sur gondole ou à une étiquette montée sur broche. Comme pourront le constater les hommes de l’art, la mise en place des produits 112 par rapport à des étiquettes correspondantes dans l’installation varie selon que les produits 112 ont pour support les surfaces de support 117 ou les broches. La classification des étiquettes comme étiquettes de broche ou de gondole permet au serveur 101 de sélectionner les régions appropriées des données capturées associées à chaque étiquette afin de détecter les espaces vides.
L’application 124 comporte également un générateur d’espace de recherche pour sélectionner les régions susmentionnées, dans lesquelles le serveur 101 doit rechercher des espaces vides, et un détecteur d’espaces vides 130 pour déterminer si des espaces vides sont présents dans les régions. Dans d’autres modes de réalisation, l’application 124 peut être mise en œuvre sous la forme d’une suite d’applications logiquement distinctes, chacune mettant en œuvre une partie appropriée de la fonctionnalité abordée ci-dessous. Par exemple, le classificateur 126, le générateur d’espace de recherche 128, et le détecteur d’espaces vides 130 peuvent être mis en œuvre sous la forme d’applications distinctes.
La mémoire 122 peut également stocker des données à utiliser dans la commande susmentionnée de l’appareil 103, telles qu’un répertoire 132 contenant une carte de l’environnement de la vente au détail et toute autre donnée appropriée (par exemple, les contraintes de fonctionnement à utiliser dans la commande de l’appareil 103, les données capturées par l’appareil 103, et analogues).
Le processeur 120, tel qu’il est configuré via l’exécution de l’application de commande 128, est également désigné ici par unité de commande 120 d’imagerie, ou simplement unité de commande 120. Comme cela sera mis en évidence, une partie ou la totalité des fonctionnalités mises en œuvre par l’unité de commande 120 d’imagerie décrite ci-dessous peuvent également être effectuées par des unités de commande de matériel à usage spécial préconfigurées (par exemple, un ou plusieurs agencements de circuits logiques configurés spécialement pour optimiser la vitesse de traitement d’images, par exemple via des FPGA et/ou des circuits intégrés à application spécifique (ASIC) configurés à cet effet), plutôt que par l’exécution de l’application 124 par le processeur 120.
Le serveur 101 comporte également une interface de communication 134 interconnectée avec le processeur 120. L’interface de communication 134 comporte un matériel approprié (par exemple, des émetteurs, des récepteurs, des unités de commande d’interface réseau et analogues) permettant au serveur 101 de communiquer avec d’autres dispositifs informatiques – notamment l’appareil 103, le dispositif client 104 et la station 106 – via les liaisons 105 et 107. Les liaisons 105 et 107 peuvent être des liaisons directes, ou des liaisons qui traversent un ou plusieurs réseaux, comportant à la fois des réseaux locaux et étendus. Les composants spécifiques de l’interface de communication 134 sont sélectionnés en fonction du type de réseau ou d’autres liaisons par lesquels le serveur 101 doit communiquer. Dans le présent exemple, comme indiqué précédemment, un réseau local sans fil est mis en œuvre au sein de l’installation de vente au détail via le déploiement d’un ou de plusieurs points d’accès sans fil. Les liaisons 105 comportent donc l’une ou l’autre des liaisons sans fil, ou les deux, entre l’appareil 103, le dispositif mobile 104 et les points d’accès susmentionnées, et une liaison filaire (par exemple, une liaison basée sur Ethernet) entre le serveur 101 et le point d’accès.
Le processeur 120 peut donc obtenir des données capturées par l’appareil 103 via l’interface de communication 134 pour stockage (par exemple, dans le répertoire 132) et pour traitement ultérieur (par exemple, pour détecter une mise en avant de produits, comme mentionné ci-dessus). Le serveur 101 peut également transmettre au dispositif client 104 des notifications de statut (par exemple, des notifications indiquant que des produits sont en rupture de stock, en faible stock ou mal placés), en réponse à la détermination de données de statut de produit. Le dispositif client 104 comporte une ou plusieurs unités de commande (par exemple, des unités centrales de traitement (UTC) et/ou des réseaux pré-diffusés programmable par l’utilisateur (FPGA) et analogues) configurées pour traiter (par exemple, pour afficher) les notifications reçues à partir du serveur 101.
S’agissant maintenant de la FIG. 2, l’appareil 103 d’automatisation mobile est montré de façon plus détaillée. L’appareil 103 comporte un châssis 201 contenant un ensemble de locomotion 203 (par exemple, une ou plusieurs roues motrices de moteurs électriques, des rails ou analogues). L’appareil 103 comporte en outre un mât de capteur 205 supporté sur le châssis 201 et, dans le présent exemple, s’étendant vers le haut (par exemple, sensiblement verticalement) à partir du châssis 201. Le mât 205 supporte les capteurs 108 mentionnés plus haut. En particulier, les capteurs 108 comportent au moins un capteur d’imagerie 207, tel qu’une caméra numérique. Dans le présent exemple, le mât 205 supporte sept caméras numériques 207-1 à 207-7, orientées de manière à faire face aux gondoles 110.
Le mât 205 supporte également au moins un capteur de profondeur 209, tel qu’une caméra numérique 3D, capable de capturer à la fois des données de profondeur et des données d’image. L’appareil 103 comporte également des capteurs de profondeur supplémentaires, tels que des capteurs LIDAR211. Dans le présent exemple, le mât 205 supporte deux capteurs LIDAR 211-1 et 211-2. Dans d’autres exemples, le mât 205 peut supporter des capteurs LIDAR 211 supplémentaires (par exemple, quatre LIDAR 211). Comme le montre la FIG. 2, les caméras 207 et les capteurs LIDAR 211 sont agencés sur un côté du mât 205, tandis que le capteur de profondeur 209 est agencé sur l’avant du mât 205. Autrement dit, le capteur de profondeur 209 est tourné vers l’avant (c’est-à-dire qu’il capture les données dans la direction de la circulation de l’appareil 103), tandis que les caméras 207 et les capteurs LIDAR 211 sont tournés vers le côté (c’est-à-dire qu’ils capturent les données le long de l’appareil 103, dans une direction perpendiculaire à la direction de circulation). Dans d’autres exemples, l’appareil 103 comporte des capteurs supplémentaires, tels qu’un ou plusieurs lecteurs RFID (dentification par radiofréquence), capteurs de température, et analogues.
Le mât 205 supporte également une pluralité d’ensembles d’éclairage 213, configurés pour éclairer les champs de vision des caméras 207 respectives. C’est-à-dire que l’ensemble d’éclairage 213-1 éclaire le champ de vision de la caméra 207-1, et ainsi de suite. Les caméras 207 et les LIDAR 211 sont orientés sur le mât 205 de sorte que les champs de vision des capteurs soient tournés chacun vers une gondole 110 sur la longueur 119 de laquelle se déplace l’appareil 103. Comme indiqué précédemment, l’appareil 103 est configuré pour suivre une posture de l’appareil 103 (par exemple, un emplacement et une orientation du centre du châssis 201) dans le cadre de référence 102, ce qui permet d’enregistrer les données capturées par l’appareil 103 dans le cadre de référence 102 pour un traitement ultérieur.
En se référant à la FIG. 3, certains composants de l’appareil 103 d’automatisation mobile sont montrés en plus des caméras 207, du capteur de profondeur 209, des LIDAR 211, et des ensembles d’éclairage 213 mentionnés ci-dessus. L’appareil 103 comporte une unité de commande à usage spécial, telle qu’un processeur 300, interconnectée avec un support de stockage lisible par ordinateur non transitoire, tel qu’une mémoire 304. La mémoire 304 comporte une combinaison appropriée de mémoire volatile (par exemple, une mémoire vive ou RAM) et de mémoire non volatile (par exemple, une mémoire morte ou ROM, une mémoire morte programmable effaçable électriquement ou EEPROM, une mémoire Flash). Le processeur 300 et la mémoire 304 comprennent chacun un ou plusieurs circuits intégrés. La mémoire 304 stocke des instructions lisibles par ordinateur pour exécution par le processeur 300. En particulier, la mémoire 304 stocke une application 308 de commande d’appareil qui, lorsqu’elle est exécutée par le processeur 300, configure le processeur 300 pour effectuer des fonctions variées liées à la navigation dans l’installation et à la commande des capteurs 108 pour capturer des données, par exemple en réponse à des instructions provenant du serveur 101. Les hommes de l’art apprécieront le fait que la fonctionnalité mise en œuvre par le processeur 300 via l’exécution de l’application 308 peut également être mise en œuvre par un ou plusieurs composants matériels et micrologiciels spécialement conçus, tels que les FPGA, les ASIC et analogues dans d’autres modes de réalisation.
La mémoire 304 peut également stocker un répertoire 312, contenant par exemple une carte de l’environnement dans lequel fonctionne l’appareil 103, à utiliser pendant l’exécution de l’application 308. L’appareil 103 comporte également une interface de communication 316 permettant à l’appareil 103 de communiquer avec le serveur 101 (par exemple, via la liaison 105 ou via la station 106 et la liaison 107), pour recevoir par exemple des instructions pour naviguer vers des emplacements spécifiés et initier des opérations de capture de données.
En plus des capteurs mentionnés plus haut, l’appareil 103 comporte un capteur de mouvement 318, tel qu’un ou plusieurs odomètres à roue, couplé à l’ensemble de locomotion 203. Le capteur de mouvement 318 peut comporter également, en plus ou au lieu du/des odomètre(s) à roue susmentionné(s), une centrale à inertie (IMU) configurée pour mesurer une accélération le long d’une pluralité d’axes.
Les actions effectuées par le serveur 101, et plus précisément par le processeur 120 tel que configuré via l’exécution de l’application 124, pour classer des indicateurs d’étiquettes et détecter des espaces vides à partir de données capturées représentant les gondoles 110 (par exemple, les mesures de profondeur capturées par l’appareil 103) seront maintenant examinées de façon plus détaillée en se référant à la FIG. 4. La FIG. 4 illustre un procédé 400 de détection d’espaces vides. Le procédé 400 sera décrit en conjonction avec son accomplissement dans le système 100, et en particulier par le serveur 101, en se référant aux composants illustrés dans la FIG. 1. Comme on le verra dans la discussion ci-dessous, dans d’autres exemples, une partie ou la totalité du traitement décrit ci-dessous comme étant effectué par le serveur 101 peut, en variante, être effectué par l’appareil 103.
Commençant au bloc 405, le serveur 101 obtient une pluralité de mesures de profondeur (c’est-à-dire un nuage de points) représentant une structure de support telle qu’un ou plusieurs des modules de gondole 110 susmentionnés. Les mesures de profondeur peuvent être récupérées à partir de la mémoire 122 (par exemple à partir du répertoire 132), ayant été préalablement stockées sur le serveur 101 à la suite de leur réception à partir de l’appareil 103. Les mesures de profondeur représentent la position, en trois dimensions (par exemple selon le cadre de référence 102), d’une pluralité d’emplacements sur la structure de support.
Le serveur 101 obtient également, au bloc 405, une pluralité d’indicateurs d’étiquette. Les indicateurs d’étiquettes définissent des positions (par exemple des boîtes englobantes), également selon le cadre de référence 102, d’étiquettes sur la structure de support représentée par le nuage de points mentionné ci-dessus. Plus particulièrement, les indicateurs d’étiquettes définissent généralement des boîtes englobantes indiquant l’étendue de chaque étiquette. Les indicateurs d’étiquettes peuvent être générés via des mécanismes variés, aussi bien sur le serveur 101 lui-même que sur un autre dispositif informatique. Par exemple, les indicateurs d’étiquettes peuvent être générés en détectant des caractéristiques d’étiquettes (par exemple, des codes à barres, un texte, des dégradés et analogues) sur des images capturées par l’appareil 103.
S’agissant de la FIG. 5, celle-ci montre un exemple de nuage de points 500 représentant une structure de support qui comporte les deux surfaces de support 117 (ayant des bords de gondole 118) et un certain nombre de broches 502. Comme le montre la FIG. 5, chaque broche 502 s’étend vers l’extérieur à partir du fond de gondole 116, et un ou plusieurs produits 112 peuvent être suspendus à partir de la broche 502. Des indicateurs d’étiquettes 504 sont également illustrés dans la FIG. 5. Plus précisément, les indicateurs d’étiquettes 504-1, 504-2 et 504-3 indiquent les positions d’étiquettes placées sur le bord de gondole 118, tandis que les indicateurs d’étiquettes 504-4, 504-5, 504-6, 504-7 et 504-8 indiquent les positions d’étiquettes montées sur les extrémités des broches 502 respectives. Chaque étiquette est associée à un espace sur la surface de support 117 ou broche 502 correspondante, qui supporte un produit donné, généralement identifié par l’étiquette elle-même. Comme le montre la FIG. 5, certaines broches 502 supportent des produits 112, tandis que d’autres broches 502 sont vides. De même, certaines parties de la surface de gondole 117 supportent des produits 112, tandis que d’autres (telles que la partie de la surface de gondole 117 au-dessus de l’indicateur d’étiquette 504-3) sont vides. Grâce au processus de classification d’étiquettes et de détection d’espaces vides abordé ici, le serveur 101 détermine quelles broches 502 et/ou régions de gondole sont vides (c’est-à-dire quelles parties de la structure de support présentent des espaces vides où des produits 112 sont prévus).
S’agissant de la FIG. 4 de nouveau, au bloc 410 le serveur 101, et en particulier le classificateur d’étiquette 126, classe les indicateurs d’étiquettes 504. Chaque indicateur d’étiquette 504 est classé, soit comme étiquette de gondole (c’est-à-dire qu’il correspond à une étiquette montée sur un bord de gondole 118), soit comme étiquette de broche (c’est-à-dire qu’il correspond à une étiquette montée sur une broche 502). Comme nous le verrons plus loin, les indicateurs d’étiquettes 504 sont classés sur la base des sous-ensembles des mesures de profondeur, sélectionnées selon l’emplacement des indicateurs d’étiquettes 504.
S’agissant de la FIG. 6, un procédé 600 de classification des indicateurs d’étiquettes 504 (c’est-à-dire de réalisation du bloc 410 du procédé 400) est illustré. Le procédé 600 est effectué pour chaque indicateur d’étiquette 504 obtenu au bloc 405. À l’issue du procédé 600 pour chaque indicateur d’étiquette 504, le serveur 101 retourne au procédé 400 lui-même (plus précisément, au bloc 415).
Au bloc 605, avant de commencer la classification des indicateurs d’étiquettes 504, le serveur 101 peut effectuer une ou plusieurs actions de prétraitement sur les indicateurs d’étiquettes 504. Par exemple, le serveur 101 peut retirer des indicateurs d’étiquettes 504 erronés et/ou ajuster la position de l’indicateur d’étiquette 504. La détection des étiquettes, par exemple à partir de données d’image comme mentionné ci-dessus, peut parfois donner lieu à des erreurs de position mineures, où l’indicateur d’étiquette 504 s’écarte dans une certaine mesure de l’étiquette réelle dont il indique la position. Le serveur 101, au bloc 605, tente de corriger de tels écarts en générant un ensemble d’indicateurs d’étiquettes 504 candidats ajustés. Par exemple, huit indicateurs d’étiquettes candidats ajustés peuvent être générés, chacun décalé dans une direction différente (par exemple, gauche, gauche et haut, haut, droite et haut, droite, droite et bas, bas, gauche et bas) d’une distance prédéfinie (par exemple, 5 mm). Le classificateur d’étiquette 126 détermine alors une mesure de variabilité pour les mesures de profondeur dans chaque candidat (ainsi que dans l’indicateur 504 original). Autrement dit, pour chaque candidat, le classificateur d’étiquette 126 sélectionne toutes les mesures de profondeur dont les coordonnées sur les axes X et Z (comme le montre la FIG. 5) sont comprises dans l’indicateur de candidat concerné. La mesure de variabilité peut par exemple être l’écart-type des mesures de profondeur. Le classificateur d’étiquette 126 sélectionne celui parmi les candidats ou l’indicateur 504 original qui possède la plus faible variabilité. La faible variabilité indique que l’indicateur de candidat englobe une surface sensiblement plane (c’est-à-dire une étiquette), plutôt qu’une partie d’étiquette et qu’une partie d’une autre structure, telle qu’un produit 112, le fond de gondole 116, ou autres.
D’autres opérations de prétraitement peuvent également être effectuées au bloc 605. Par exemple, le classificateur d’étiquette 126 peut également rejeter tout indicateur d’étiquette 504 dont les dimensions dépassent un certain seuil maximal configurable, aussi bien que tout indicateur d’étiquette 504 dont les dimensions ne dépassent pas un seuil minimal configurable. Dans un autre exemple, dans certains modes de réalisation, les indicateurs d’étiquettes reçus au bloc 405 peuvent ne pas avoir encore été vérifiés pour la détection de doublons des mêmes étiquettes physiques. Le classificateur d’étiquette 126 peut donc également déterminer si chaque indicateur d’étiquette 504 chevauche un autre indicateur d’étiquette 504 (par exemple, avec un degré de chevauchement quelconque, ou répondant au moins à un seuil de chevauchement minimal). Les indicateurs d’étiquettes 504 qui se chevauchent suffisamment sont combinés en un indicateur d’étiquette 504 unique, soit en rejetant tous les indicateurs 504 qui se chevauchent sauf un, soit en calculant un nouvel indicateur d’étiquette centré sur une moyenne des centres des indicateurs 504 qui se chevauchent, ou autre. Dans d’autres exemples, le bloc 605 peut simplement être omis.
Au bloc 610, le classificateur d’étiquette 126 détermine si l’indicateur d’étiquette 504 en cours de classification est situé à une distance de seuil configurable d’un indicateur 504 d’étiquette adjacent. Plus précisément, la distance évaluée au bloc 610 est la distance à l’indicateur d’étiquette 504 adjacent gauche et/ou droit (plutôt qu’aux indicateurs 504 au-dessus ou en dessous de l’indicateur 504 en cours de traitement). La distance de seuil peut être, par exemple, une distance égale à la largeur prévue d’une étiquette dans l’installation où le nuage de points 500 a été capturé. Cependant, une grande variété d’autres distances de seuil peuvent également être appliquées. Lorsque la détermination au bloc 610 est négative (c’est-à-dire que l’indicateur d’étiquette 504 est suffisamment espacé de ses voisins), l’accomplissement du procédé 600 passe au bloc 615. Lorsque la détermination au bloc 610 est positive, l’accomplissement du procédé 600 passe au bloc 620. Les blocs 615 et 620 seront abordés ci-dessous, en se référant à la FIG. 7.
La FIG. 7 illustre un exemple d’accomplissement du bloc 615, et un exemple d’accomplissement du bloc 620. Dans le premier exemple, pendant le traitement de l’indicateur d’étiquette 504-4, le classificateur d’étiquette 126 identifie l’indicateur d’étiquette 504-5 comme le voisin le plus proche à gauche ou à droite (comme le montre la FIG. 5, l’indicateur d’étiquette 504-4 n’a pas d’indicateurs à gauche). Le classificateur d’étiquette 126 détermine la distance 800 entre les indicateurs 504-4 et 504-5, et compare la distance 800 à un seuil, tel que la largeur W de l’indicateur 504-4 lui-même. La largeur W est inférieure à la distance 800, et le classificateur d’étiquette 126 passe donc au bloc 615. Au bloc 615, le classificateur d’étiquette 126 sélectionne des mesures de profondeur selon une fenêtre d’étiquette 804-4 ainsi que des fenêtres voisines gauche et droite 808-L et 808-R. La fenêtre 804-4 a la même taille et le même emplacement que l’indicateur d’étiquette 504-4, et les fenêtres 808-L et 808-R ont la même taille que l’indicateur d’étiquette 504-4, mais des emplacements qui sont immédiatement adjacents à l’indicateur d’étiquette 504-4.
Chacune des fenêtres 804 et 808, comme le montre la FIG. 7, définit une colonne s’étendant de la fenêtre elle-même au fond de gondole 116. Ainsi, le classificateur d’étiquette 126 est configuré pour sélectionner trois sous-ensembles des mesures de profondeur au bloc 615 : un sous-ensemble contenu dans la colonne définie par la fenêtre 808-L, et des sous-ensembles supplémentaires contenus dans les colonnes définies par les fenêtres 804-4 et 808-R.
La section inférieure de la FIG. 7 illustre l’évaluation au bloc 610 pour l’indicateur d’étiquette 504-7. Comme illustré, une distance 810 entre l’indicateur d’étiquette 504-7 et l’indicateur d’étiquette 504-8 est inférieure à la largeur W, et la détermination au bloc 610 est donc négative. Si des fenêtres étaient sélectionnées pour l’indicateur d’étiquette 504-7 de la même manière que celle illustrée pour le bloc 615, la fenêtre voisine droite inclurait une partie importante des mesures de profondeur dans l’indicateur d’étiquette 504-8. Comme nous le verrons plus loin, la classification des indicateurs d’étiquettes 504 est basée sur des différences de profondeurs entre l’indicateur d’étiquette 504 et la zone environnante. Plus précisément, les étiquettes de broche sont supposées avoir des profondeurs sensiblement différentes de celles de leurs zones environnantes, tandis que les étiquette de gondoles devraient avoir sensiblement la même profondeur que leurs zones environnantes (parce que ces zones environnantes sont supposées contenir des bords de gondole 118). Les indicateurs d’étiquettes 504 rapprochés, tels que les indicateurs 504-7 et 504-8, sont donc susceptibles d’être incorrectement classés comme étiquettes de gondole.
Pour atténuer ces erreurs de classification, au bloc 620, le classificateur d’étiquette 126 sélectionne quatre sous-ensembles de mesures de profondeur plutôt que les trois sous-ensembles susmentionnés. En particulier, le classificateur d’étiquette 126 sélectionne un sous-ensemble d’étiquette qui consiste en deux colonnes de mesures de profondeur, définies par les fenêtres d’étiquettes 804-7 et 804-8. Le classificateur d’étiquette 126 sélectionne également une fenêtre gauche 818-L adjacente à la fenêtre 804-7, et une fenêtre droite 818-R adjacente à la fenêtre 804-8. Enfin, le classificateur d’étiquette sélectionne une fenêtre d’espace vide 818-G entre les fenêtres 804-7 et 804-8. En d’autres termes, les sous-ensembles sélectionnés au bloc 620 entraînent le traitement simultané des deux indicateurs d’étiquettes 504 adjacents, ainsi que la sélection d’une plus petite fenêtre 818-G entre les fenêtres 804-7 et 804-8. L’accomplissement du bloc 620 peut également englober plus de deux indicateurs d’étiquettes 504 adjacents.
S’agissant de la FIG. 6 de nouveau, au bloc 625 le classificateur d’étiquette 126 génère une métrique de profondeur pour chacun des sous-ensembles sélectionnés de mesures de profondeur (c’est-à-dire chacune des fenêtres 804, 808, 818 abordées ci-dessus). Dans le présent exemple, les métriques de profondeur sont des vecteurs unidimensionnels. Plus précisément, un vecteur de profondeur est généré au bloc 625 pour chaque fenêtre sélectionnée. Le vecteur de profondeur pour une fenêtre donnée contient une ou plusieurs mesures liées à la profondeur, dérivées des mesures de profondeur à l’intérieur de cette fenêtre. Des exemples de ces mesures sont (a) un nombre de mesures de profondeur dans la fenêtre, (b) une profondeur minimale représentée dans la fenêtre, (c) une profondeur maximale représentée dans la fenêtre, (d) une moyenne des mesures de profondeur dans la fenêtre, (e) une première profondeur quartile dans la fenêtre, (f) une troisième profondeur quartile dans la fenêtre, (g) une médiane des mesures de profondeur dans la fenêtre, (h) une plage (c’est-à-dire une différence entre les profondeurs minimale et maximale susmentionnées), et (i) un écart-type.
Au bloc 630, le classificateur d’étiquette 126 compare les métriques générées au bloc 625 en générant des mesures d’erreurs entre diverses paires des métriques. Lorsque le bloc 615 est effectué, une mesure d’erreurs est générée entre la métrique pour la fenêtre gauche (par exemple, 808-L) et la fenêtre d’étiquette (par exemple, 804-4), et une autre mesure d’erreurs est générée entre la métrique pour la fenêtre d’étiquette et la fenêtre droite (par exemple, 808-R). La mesure d’erreurs peut être, par exemple, une valeur d’erreur quadratique moyenne (RMSE) calculée pour chacune des paires susmentionnées.
Lorsque le bloc 620 est effectué, trois mesures d’erreurs sont générées. Les mesures d’erreurs comportent une première mesure d’erreurs entre la métrique pour les fenêtres d’étiquettes (par exemple, 804-7 et 804-8) et la métrique pour la fenêtre gauche (par exemple, 818-L), et une deuxième mesure d’erreurs entre la métrique pour les fenêtres d’étiquettes et la métrique pour la fenêtre droite (par exemple, 818-R). Les mesures d’erreurs comportent également une troisième mesure d’erreurs entre la métrique pour les fenêtres d’étiquettes et la métrique pour la fenêtre d’espace vide (par exemple, 818-G).
La détermination au bloc 630 est positive lorsque toutes les mesures d’erreurs susmentionnées dépassent un certain seuil configurable. Comme cela sera mis en évidence, les mesures d’erreurs qui dépassent le seuil indiquent des profils de profondeur sensiblement différents entre les diverses fenêtres, qui indiquent à leur tour que la zone entourant l’indicateur d’étiquette 504 (ou plusieurs indicateurs 504, dans le cas du bloc 620) se trouve dans un plan sensiblement différent de l’indicateur d’étiquette 504 lui-même. L’indicateur d’étiquette 504 représente donc probablement une étiquette de broche, et est classé comme étiquette de broche au bloc 635. Lorsqu’au moins une des mesures d’erreurs susmentionnées ne dépasse pas le seuil, la détermination au bloc 630 est négative, et l’indicateur d’étiquette 504 est classé comme étiquette de gondole au bloc 640.
Au bloc 645, le classificateur d’étiquette 126 peut éventuellement reclasser chaque indicateur d’étiquette 504, une fois que tous les indicateurs d’étiquettes 504 ont été classés, en se basant sur les voisins les plus proches de l’indicateur d’étiquette 504. L’accomplissement du bloc 645 reflète une hypothèse selon laquelle les étiquettes de broche ont tendance à être regroupées, tout comme les étiquettes de gondole. Autrement dit, on suppose qu’il est peu probable qu’une seule étiquette de broche soit entourée d’étiquettes de gondole. Par conséquent, au bloc 645, les classes des voisins les plus proches (par exemple, un à trois voisins à gauche, et un à trois voisins à droite) d’un indicateur 504 peuvent être récupérées, et l’indicateur d’étiquette peut être reclassé dans la classe de la majorité des indicateurs 504 voisins. Dans d’autres exemples toutefois, le bloc 645 peut être omis.
Après l’achèvement du procédé 600 pour chaque indicateur d’étiquette 504, le serveur 101 retourne au procédé 400 (plus précisément, au bloc 415). Au bloc 415, le générateur d’espace de recherche 128 définit des espaces de recherche d’articles pour chaque indicateur d’étiquette 504, sur la base de la classe attribuée à l’indicateur d’étiquette 504 au bloc 410. Les espaces de recherche d’articles définis au bloc 415 représentent, pour chaque indicateur d’étiquette 504, une région dans le nuage de points 500 dans lequel devrait apparaître un produit 112 correspondant à l’indicateur d’étiquette 504. L’emplacement d’un produit donné 112 par rapport à l’étiquette correspondante varie toutefois, en fonction de la nature de la structure de support où sont situés le produit 112 et l’étiquette.
Plus précisément, comme indiqué précédemment, les broches 502 supportent les étiquettes au niveau de leurs extrémités et supportent les produits 112 sous les broches 502. Autrement dit, les produits 112 devraient généralement apparaître en dessous des indicateurs d’étiquettes 504 correspondants lorsque les indicateurs d’étiquettes 504 sont classés comme étiquettes de broche. Pour leur part, les étiquettes de gondole sont supportées par les bords de gondole 118, et les produits correspondants apparaissent sur la surface de support 117 tout de suite sur le bord de gondole 118. Les produits 112 devraient donc apparaître au-dessus des indicateurs d’étiquettes 504 correspondants lorsque les indicateurs d’étiquettes 504 sont classés comme étiquettes de gondole.
S’agissant de la FIG. 8, un procédé 800 de génération d’espaces de recherche d’articles (c’est-à-dire de réalisation du bloc 415 du procédé 400) est illustré. Le procédé 800 est effectué pour chaque indicateur d’étiquette 504. Le générateur d’espace de recherche 128 détermine, au bloc 805, si l’indicateur d’étiquette 504 est classé comme étiquette de gondole ou étiquette de broche. Lorsque l’indicateur d’étiquette est classé comme étiquette de broche, le générateur d’espace de recherche 128 définit des limites d’un espace de recherche pour l’indicateur d’étiquette aux blocs 810, 815 et 820, qu’il ne faut pas effectuer dans l’ordre montré dans la FIG. 8.
Au bloc 810, une limite supérieure est définie en fonction de l’indicateur d’étiquette lui-même. En particulier, comme le montre la FIG. 9, des limites supérieures pour les étiquettes de broche sont placées en ligne avec le bord inférieur de l’indicateur d’étiquette 504. Ainsi, une limite supérieure 900 d’un espace de recherche 904-5 correspondant à l’indicateur d’étiquette 504-5 se trouve en ligne avec le bord inférieur de l’indicateur d’étiquette 504-5. De même, une limite supérieure 910 d’un espace de recherche 904-7 correspondant à l’indicateur d’étiquette 504-7 se trouve en ligne avec le bord inférieur de l’indicateur d’étiquette 504-7.
S’agissant de la FIG. 8 de nouveau, au bloc 815, les limites latérales sont définies sur la base des voisins à gauche et à droite de l’indicateur d’étiquette 504. En particulier, comme le montre la FIG. 9, les limites latérales 906-1 et 906-2 de l’espace de recherche 904-5 sont placées à une fraction prédéfinie (à mi-chemin, dans le présent exemple) de la distance entre l’indicateur d’étiquette 504-5 et des indicateurs d’étiquettes 504-4 et 504-6 voisins. Une limite latérale 914-2 de l’espace de recherche 904-7 est attribuée de manière similaire. Cependant, la limite latérale 914-1 opposée de l’espace de recherche 904-7 est placée en ligne avec le bord gauche de l’indicateur d’étiquette 504-7, parce que l’indicateur d’étiquette 504-7 n’a pas d’indicateur d’étiquette 504 voisin à gauche. Dans d’autres modes de réalisation, en l’absence de voisin pertinent, les limites peuvent être placées selon divers autres critères (par exemple, à une distance prédéfinie du côté correspondant de l’indicateur d’étiquette 504).
Au bloc 820, une limite inférieure est définie selon la classification de l’indicateur d’étiquette 504 le plus proche en dessous (c’est-à-dire le voisin le plus bas) de l’indicateur d’étiquette 504 en cours de traitement. Plus précisément, la limite inférieure est placée en ligne avec le bord supérieur du voisin le plus bas si le voisin le plus bas est une étiquette de broche, ou à une fraction prédéfinie d’une distance entre l’indicateur d’étiquette 504 et le voisin le plus bas, si le voisin le plus bas est une étiquette de gondole. Se référant à nouveau à la FIG. 9, une limite inférieure 908 de l’espace de recherche 904-5 est placée en ligne avec le bord supérieur de l’indicateur d’étiquette 504-7. L’indicateur d’étiquette 504-7 est le voisin le plus bas de l’indicateur d’étiquette 504-5, et est classé comme étiquette de broche. En revanche, une limite inférieure 918 de l’espace de recherche 904-7 est placée à mi-chemin entre l’indicateur d’étiquette 504-7 et le voisin le plus bas de l’indicateur d’étiquette 504-7, qui est classé comme étiquette de gondole.
Lorsque l’indicateur d’étiquette 504, pour lequel un espace de recherche doit être généré, est une étiquette de gondole, les limites de l’espace de recherche sont générées par le générateur d’espace de recherche 128 selon les blocs 825, 830 et 835 (bien que, comme indiqué ci-dessus, les blocs 825, 830 et 835 ne doivent pas être effectués dans l’ordre montré).
Au bloc 825, une limite inférieure de l’espace de recherche est générée sur la base de l’indicateur d’étiquette 504. En particulier, en se référant à la FIG. 9, la limite inférieure est placée en ligne avec le bord supérieur de l’indicateur d’étiquette 504. Par exemple, les limites inférieures 928 et 938 des espaces de recherche 904-3 et 904-2 sont placées en ligne respectivement avec les bords supérieurs des indicateurs d’étiquettes 504-3 et 504-2. Au bloc 830, les limites latérales sont placées en fonction de l’indicateur d’étiquette 504 lui-même et de l’indicateur d’étiquette 504 voisin gauche. S’agissant de nouveau de la FIG. 9, les limites droites 924-2 et 934-2 des espaces de recherche 904-3 et 904-2 sont placées en ligne avec les bords droits des indicateurs d’étiquettes 504-3 et 504-2, respectivement. Les limites gauches 924-1 et 934-1, pour leur part, sont placées en ligne avec les bords droits des indicateurs voisins d’étiquette 504-2 et 504-1, respectivement. Enfin, au bloc 835, une limite supérieure est générée sur la base de la classification du voisin supérieur (c’est-à-dire l’indicateur d’étiquette 504 le plus proche au-dessus de l’indicateur d’étiquette 504 en cours de traitement via le procédé 800).
En se référant encore une fois à la FIG. 9, le voisin supérieur de l’indicateur d’étiquette 504-3 (l’indicateur d’étiquette 504-7) est une étiquette de broche, et une limite supérieure 920 de l’espace de recherche 904-3 est donc placée à une fraction prédéfinie (par exemple, à mi-chemin) de la distance entre les indicateurs d’étiquettes 504-3 et 504-7. Le voisin supérieur de l’indicateur d’étiquette 504-2 (l’indicateur d’étiquette 504-10) est, pour sa part, classé comme étiquette de gondole. Une limite supérieure 930 de l’espace de recherche 904-2 est donc placée sur le bord inférieur de l’indicateur d’étiquette 504-10.
La FIG. 10 illustre un ensemble d’espaces de recherche générés via le procédé 800 pour chacun des indicateurs d’étiquettes 504. En plus des espaces de recherche 904 mentionnés ci-dessus, la FIG. 10 illustre les espaces de recherche 1004-1, 1004-4-, 1004-6, 1004-8, 1004-9 et 1004-10. Comme on le verra dans la FIG. 10, certains espaces de recherche (par exemple, les espaces de recherche 1004-1 et 1004-9) s’étendent jusqu’aux limites du module de gondole 110 lui-même, en l’absence d’indicateurs d’étiquettes 504 voisins pertinents. Lorsque les espaces de recherche pour chaque indicateur d’étiquette 504 ont été générés via le procédé 800, l’accomplissement du procédé 400 se poursuit au bloc 420.
S’agissant de la FIG. 4 de nouveau, au bloc 420 le détecteur d’espaces vides 130 détermine, sur la base des mesures de profondeur au sein de l’espace de recherche pour chaque indicateur d’étiquette 504, si un article (c’est-à-dire un produit 112, dans l’exemple illustré) est présent dans l’espace de recherche correspondant à cet indicateur d’étiquette 504. Divers mécanismes sont envisagés pour la réalisation du bloc 420. Dans certains exemples, au bloc, 420 le détecteur d’espaces vides 130 génère une métrique de profondeur, telle que le vecteur de profondeur préalablement mentionné, sur la base des mesures de profondeur au sein de l’espace de recherche. Le détecteur d’espaces vides 130 peut alors déterminer une grandeur du vecteur de profondeur (par exemple, en calculant la norme du vecteur de profondeur) et comparer la grandeur à un seuil prédéfini. Un vecteur de profondeur d’un espace de recherche qui ne contient aucun produit 112 a généralement des profondeurs minimale et maximale supérieures, des profondeurs moyenne et médiane supérieures, et des première et troisième profondeurs quartiles supérieures à celles d’un vecteur de profondeur d’un espace de recherche qui contient des produits 112. Par conséquent, si la norme du vecteur de profondeur dépasse le seuil, la détermination au bloc 420 est négative (c’est-à-dire que l’espace de recherche ne contient aucun produit 112). À la suite d’une détermination négative au bloc 420, le détecteur d’espaces vides 130 signale un espace vide au bloc 425. Par exemple, le détecteur d’espaces vides 130 peut générer un indicateur d’espace vide définissant un emplacement dans le cadre de référence 102 de l’espace vide détecté. L’emplacement peut par exemple être défini par la même boîte englobante que l’espace de recherche évalué au bloc 420.
Lorsque la détermination au bloc 420 est positive (c’est-à-dire lorsque le vecteur de profondeur susmentionné ne dépasse pas le seuil), le détecteur d’espaces vides passe au bloc 430. Au bloc 430, le détecteur d’espaces vides 130 peut signaler un indicateur d’article. L’indicateur d’article peut comporter une boîte englobante équivalente à l’espace de recherche, et peut comporter également le vecteur de profondeur.
Dans d’autres modes de réalisation, le détecteur d’espaces vides 130 peut effectuer une opération de segmentation sur les mesures de profondeur dans l’espace de recherche pour y identifier les articles (par exemple les produits 112). La FIG. 11 illustre un procédé 1100 de réalisation du bloc 420 dans de tels modes de réalisation. Au bloc 1105, le détecteur d’espaces vides 130 peut adapter une surface tridimensionnelle aux mesures de profondeur dans l’espace de recherche, selon toute opération d’adaptation de surface appropriée (par exemple, une opération d’interpolation basée sur un maillage). Dans certains exemples, le bloc 1105 peut être omis, par exemple, si l’espace de recherche contient une densité minimale de mesures de profondeur.
Au bloc 1110 le détecteur d’espaces vides 130 génère une carte bidimensionnelle de profondeur à partir de la surface de bloc 1105 (ou directement à partir des mesures de profondeur dans l’espace de recherche, si le bloc 1105 est omis). La carte de profondeur projette les mesures de profondeur, ou des parties de la surface adaptée, en deux dimensions, et attribue une valeur d’intensité à chaque partie ou mesure de profondeur sur la base de la profondeur de cette partie ou mesure de profondeur. La FIG. 12 illustre une carte de profondeur 1200 générée à partir des mesures de profondeur dans l’espace de recherche 904-5.
Au bloc 1115, le détecteur d’espaces vides 130 génère une pluralité de masques binaires à partir de la carte de profondeur, en appliquant une série de seuils d’intensité (qui sont donc effectivement des seuils de profondeur) à la carte de profondeur. Pour chaque seuil d’intensité, tous les pixels de la carte de profondeur dont l’intensité est inférieure au seuil (c’est-à-dire représentant des profondeurs plus importantes) se voient accorder une première intensité dans le masque binaire, tandis que tous les pixels restants se voient accorder une deuxième intensité dans le masque binaire. Les seuils d’intensité sont par exemple sélectionnés en tant que fractions d’une profondeur maximale dans l’espace de recherche. Par exemple, une série de seuils d’intensité peuvent être générés, de 95% de la profondeur maximale à 50% de la profondeur maximale, à des intervalles de 5%. Cependant, une grande variété d’autres séries de seuils d’intensité peuvent également être employées.
La FIG. 12 illustre un ensemble de quatre masques binaires 1204, 1208, 1212 et 1216. Le masque binaire 1204 correspond à un seuil d’intensité de 50% de la profondeur maximale dans l’espace de recherche 904-5. La profondeur maximale est la profondeur du fond de gondole 116, et dans l’exemple illustré, on suppose que 50% de la profondeur maximale se trouve devant le produit 112. Par conséquent, aucun pixel de la carte de profondeur 1200 n’est en dessous du seuil, et le masque binaire 1204 est entièrement constitué de pixels "zéro", ce qui indique qu’aucun article n’est présent.
Les masques 1208, 1212 et 1216 correspondent à des seuils progressivement plus élevés (par exemple, se terminant à 95% de la profondeur maximale). Chaque masque binaire comporte donc une région (indiquée en noir) de haute intensité, correspondant à des pixels de la carte de profondeur dont les intensités sont inférieures au seuil correspondant. Le détecteur d’espaces vides 130, pour chaque masque binaire, détermine si une quelconque région contiguë de haute intensité est présente, selon toute opération de détection de grands objets binaires appropriée. Ces régions contiguës représentent des articles potentiels (par exemple, les produits 112) au sein de l’espace de recherche.
Au bloc 1120, le détecteur d’espaces vides 130 détermine si les régions contiguës détectées dans les masques binaires indiquent la présence d’un produit 112. Le détecteur d’espaces vides 130 peut par exemple déterminer si l’une des régions satisfait à des critères dimensionnels, tels qu’une largeur minimale et/ou une hauteur minimale. Le détecteur d’espaces vides 130 peut également déterminer si l’une des régions satisfait à un critère de détection, tel qu’un nombre minimal de régions qui se chevauchent, à partir de masques binaires adjacents. S’agissant de la FIG. 12, il est évident que les masques 1208, 1212 et 1216 contiennent chacun des régions qui se chevauchent (la région du masque 1208 est représentée par des lignes blanches en pointillés dans le masque 1212, et les régions des masques 1208 et 1212 sont représentées par des lignes blanches en pointillés dans le masque 1216). Ainsi, les régions dans les masques 1208, 1212 et 1216 correspondent probablement au même article physique, qui a donc été détecté dans trois masques.
Lorsque la détermination au bloc 1120 est positive, le détecteur d’espaces vides 130 passe au bloc 430 comme indiqué ci-dessus. En revanche, lorsque la détermination au bloc 1120 est négative, le détecteur d’espaces vides 130 passe au bloc 425 comme indiqué ci-dessus.
Le serveur 101 est activé, via les procédés abordés ci-dessus, pour distinguer des parties d’une structure de support où les produits 112 sont suspendus aux broches 502, et des parties de la structure de support qui supporte les produits 112 sur les surfaces 117. Le serveur 101 est en outre activé pour déterminer, sur la base de la distinction ci-dessus, la définition des espaces de recherche dans lesquels rechercher les produits 112, et pour renvoyer soit des indicateurs d’articles, soit des indicateurs d’espaces vides en conséquence. Les indicateurs d’articles ou d’espaces vides sont stockés dans la mémoire 122 (par exemple, dans le répertoire 132), et destinés à être utilisés dans le cadre d’un traitement supplémentaire, par exemple pour générer des alertes de rupture de stock à transmettre au dispositif client 104. Les indicateurs d’articles ou d’espaces vides peuvent également être transmis à d’autres dispositifs informatiques, présentés sur un dispositif d’affichage connecté au serveur 101, ou analogues.
Dans la spécification précédente, des modes de réalisation spécifiques ont été décrits. Cependant, une personne de compétence ordinaire dans l’art sait que diverses modifications et changements peuvent être apportés sans s’écarter de la portée de l’invention, telle qu’exposée dans les revendications ci-dessous. En conséquence, la spécification et les figures doivent être considérées dans un sens illustratif plutôt que restrictif, et toutes ces modifications sont destinées à être incluses dans la portée des présents enseignements.
Les bénéfices, les avantages, les solutions aux problèmes, et tout élément qui peut faire apparaître ou s’accentuer tout bénéfice, avantage, ou solution ne doivent pas être interprétés comme des caractéristiques ou des éléments cruciaux, nécessaires, ou essentiels de l’une quelconque ou de toutes les revendications. L’invention est définie uniquement par les revendications annexées, y compris toute modification apportée pendant l’existence de la présente demande et tous les équivalents de ces revendications tels que délivrés.
De plus, dans ce document, des termes relationnels tels que premier et deuxième, haut et fond, et analogues, peuvent être utilisés uniquement pour distinguer une entité ou une action d’une autre entité ou action, sans nécessairement exiger ou impliquer une relation ou un ordre réel entre ces entités ou actions. Le termes "comprend," "comprenant," "a", "ayant", "comporte", "comportant", "contient", "contenant" ou toute autre variante de ces termes, sont destinés à couvrir une inclusion non exclusive, de sorte qu’un processus, procédé, article, ou appareil qui comprend, a, comporte, contient une liste d’éléments ne comporte pas seulement ces éléments, mais peut comporter d’autres éléments qui ne sont pas expressément énumérés ou inhérents à ce processus, procédé, article, ou appareil. Un élément précédé de "comprend …un", "a … un ", "comporte … un ", "contient … un " n’exclut pas, sans plus de contraintes, l’existence d’autres éléments identiques dans le processus, procédé, article, ou appareil qui comprend, a, comporte, contient l’élément. Les termes "un/une/des" sont définis comme singuliers ou pluriels, sauf indication contraire explicite dans le présent document. Les termes "sensiblement", "essentiellement", "approximativement", "environ" ou toute autre version de ces termes, sont définis comme étant proches de ce que comprend une personne de compétence ordinaire dans l’art, et dans un mode de réalisation non limitatif, le terme est défini à 10 % près, dans un autre mode de réalisation à 5% près, dans un autre mode de réalisation à 1% près et dans un autre mode de réalisation à 0,5% près. Le terme "couplé" tel qu’il est utilisé ici est défini comme étant relié, mais pas nécessairement directement et pas nécessairement mécaniquement. Un dispositif ou une structure qui est "configuré" d’une certaine manière est configuré au moins de cette manière, mais peut également être configuré dans de manières qui ne sont pas énumérées.
Il sera apprécié que certains modes de réalisation puissent être constitués d’un ou de plusieurs processeurs spécialisés (ou "dispositifs de traitement") tels que des microprocesseurs, des processeurs de signaux numériques, des processeurs personnalisés et des réseaux pré-diffusés programmables par l’utilisateur (FPGA) et des instructions de programme stockées uniques (comportant à la fois le logiciel et le micrologiciel) qui commandent le ou les processeurs pour mettre en œuvre, conjointement avec certains circuits non processeurs, certaines, la plupart ou toutes les fonctions du procédé et/ou appareil décrits ici. En variante, une partie ou la totalité des fonctions pourraient être mises en œuvre par une machine d’état qui n’a pas d’instructions de programme stockées, ou dans un ou plusieurs circuits intégrés à application spécifique (ASIC), dans lesquels chaque fonction ou certaines combinaisons de certaines des fonctions sont mises en œuvre comme une logique personnalisée. Bien entendu, une combinaison des deux approches pourrait être utilisée.
De plus, un mode de réalisation peut être mis en œuvre en tant que support de stockage lisible par ordinateur sur lequel est stocké un code lisible par ordinateur, pour programmer un ordinateur (par exemple, comprenant un processeur), afin d’effectuer un procédé tel que décrit et revendiqué dans le présent document. Des exemples de tels supports de stockage lisibles par ordinateur comportent, sans s’y limiter, un disque dur, un CD-ROM, un dispositif de stockage optique, un dispositif de stockage magnétique, une ROM (mémoire morte), une PROM (mémoire morte programmable), une EPROM (mémoire morte programmable effaçable), une EEPROM (mémoire morte programmable effaçable électriquement) et une mémoire Flash. En outre, on s’attend à ce qu’une personne de compétence ordinaire, en dépit d’efforts éventuellement importants et de nombreux choix de conception motivés, par exemple, par le temps disponible, la technologie actuelle et des considérations économiques, lorsqu’elle est guidée par les concepts et les principes divulgués dans le présent document, soit capable de générer facilement ces instructions et programmes logiciels et ces CI avec un minimum d’expérimentation.
L’abrégé de la divulgation est fourni pour permettre au lecteur de déceler rapidement la nature de la divulgation technique. Il est soumis avec la compréhension qu’il ne sera pas utilisé pour interpréter ou limiter la portée ou la signification des revendications. En outre, dans la description détaillée qui précède, on peut voir que diverses caractéristiques sont regroupées sous divers modes de réalisation afin de rationaliser la divulgation. Ce procédé de divulgation ne doit pas être interprété comme reflétant une intention selon laquelle les modes de réalisation revendiqués nécessitent plus de caractéristiques que celles qui sont expressément énumérées dans chaque revendication. Au contraire, comme le reflètent les revendications suivantes, l’objet inventif réside dans moins que toutes les caractéristiques d’un seul mode de réalisation divulgué. Les revendications suivantes sont donc incorporées dans la description détaillée, chaque revendication étant considérée comme un objet revendiqué séparément.

Claims (20)

  1. Procédé (400) de détection d’espaces vides sur une structure de support, le procédé comprenant les étapes consistant à :
    - obtenir (405), sur une unité de commande d’imagerie (120), (i) une pluralité de mesures de profondeur représentant la structure de support selon un cadre commun de référence, et (ii) une pluralité d’indicateurs d’étiquettes (504), définissant chacun une position d’étiquette dans le cadre commun de référence ;
    - pour chacun des indicateurs d’étiquettes (504) :
    classer (410) l’indicateur d’étiquette (504), soit comme étiquette de broche, soit comme étiquette de gondole, sur la base d’une partie des mesures de profondeur sélectionnées selon la position d’étiquette, et d’une partie des mesures de profondeur adjacentes à la position d’étiquette
    générer (415) un espace de recherche d’article dans le cadre commun de référence, selon la classe de l’indicateur d’étiquette (504) ; et
    détermine (420)r, sur la base d’un sous-ensemble des mesures de profondeur au sein de l’espace de recherche d’article, si l’espace de recherche d’article contient un article.
  2. Procédé (400) selon la revendication 1, comprenant en outre l’étape consistant à : lorsque la détermination est négative, générer un indicateur d’espace vide en association avec l’indicateur d’étiquette.
  3. Procédé (400) selon la revendication 1, dans lequel la classification des indicateurs d’étiquettes (504) comprend :
    - la sélection, en tant que partie des mesures de profondeur, (i) d’une fenêtre d’étiquette (804) à la position d’étiquette, et (ii) de fenêtres voisines (808) sur l’un ou l’autre des côtés de la position d’étiquette ;
    - la génération de métriques de profondeur pour chacune de la fenêtre d’étiquette (804) et des fenêtres voisines (808) ;
    - lorsque des mesures d’erreurs entre la métrique de profondeur de fenêtre d’étiquette et chacune des métriques de profondeur de fenêtres voisines dépassent un certain seuil, la classification de l’indicateur d’étiquette (504) comme étiquette de broche ; et
    - autrement, la classification de l’indicateur d’étiquette (504) comme étiquette de gondole.
  4. Procédé (400) selon la revendication 1, dans lequel la classification des indicateurs d’étiquettes (504) comprend :
    - l’identification d’une paire d’indicateurs d’étiquettes (504) adjacents séparés par une distance inférieure à un seuil de distance ;
    - la sélection, en tant que partie des mesures de profondeur, (i) de fenêtres d’étiquettes (804) aux positions d’étiquettes de chacun de la paire d’indicateurs, (ii) de fenêtres voisines (808) sur l’un ou l’autre des côtés des positions d’étiquettes de la paire d’indicateurs, et (iii) d’une fenêtre d’espace vide entre les positions d’étiquettes de la paire d’indicateurs ;
    - la génération d’une métrique unique de profondeur pour les fenêtres d’étiquettes (804) ;
    - la génération de métriques de profondeur pour chacune des fenêtres voisines (808) et de la fenêtre d’espace vide ;
    lorsque des mesures d’erreurs entre la métrique unique de profondeur et chacune des métriques de profondeur de fenêtres voisines et de la métrique de profondeur de fenêtre d’espace vide dépassent un certain seuil, la classification de l’indicateur d’étiquette (504) comme étiquette de broche ; et
    autrement, la classification de l’indicateur d’étiquette (504) comme étiquette de gondole.
  5. Procédé (400) selon la revendication 3, dans lequel la métrique de profondeur est un vecteur contenant au moins l’un parmi : un nombre de mesures de profondeur, une profondeur minimale, une profondeur maximale, une profondeur moyenne, une première profondeur quartile, une troisième profondeur quartile, une profondeur médiane, une plage de profondeurs, et un écart-type.
  6. Procédé (400) selon la revendication 5, dans lequel les mesures d’erreurs sont des erreurs quadratiques moyennes (RMSE).
  7. Procédé (400) selon la revendication 1, dans lequel la génération de l’espace de recherche d’article comporte, lorsque l’indicateur d’étiquette (504) est classé comme étiquette de broche :
    - le paramétrage de limites latérales sur la base d’indicateurs d’étiquettes (504) voisins gauches et droits ;
    - le paramétrage d’une limite supérieure en dessous de l’indicateur d’étiquette (504) ; et
    - le paramétrage d’une limite inférieure selon une classe d’un indicateur d’étiquette (504) voisin inférieur.
  8. Procédé (400) selon la revendication 1, dans lequel la génération de l’espace de recherche d’article comporte, lorsque l’indicateur d’étiquette (504) est classé comme étiquette de gondole :
    - le paramétrage de limites latérales sur la base de l’indicateur d’étiquette (504) et d’un indicateur d’étiquette (504) voisin ;
    -le paramétrage d’une limite supérieure selon une classe d’un indicateur d’étiquette (504) voisin supérieur ; et
    -le paramétrage d’une limite inférieure sur la base de l’indicateur d’étiquette (504).
  9. Procédé (400) selon la revendication 1, dans lequel le fait de déterminer si l’espace de recherche d’article contient un article comprend :
    - la génération d’une métrique de profondeur à partir des mesures de profondeur au sein de l’espace de recherche d’article ;
    - lorsque la métrique atteint un certain seuil, la détermination de la présence d’un article dans l’espace de recherche d’article ; et
    - lorsque la métrique n’atteint pas un certain seuil, la détermination de la présence d’un espace vide dans l’espace de recherche d’article.
  10. Procédé (400) selon la revendication 1, dans lequel le fait de déterminer si l’espace de recherche d’article contient un article comprend :
    - la génération d’une carte de profondeur à partir des mesures de profondeur au sein de l’espace de recherche d’article ;
    - la génération d’un ensemble de masques binaires à partir de la carte de profondeur ; et
    - la détection de la présence ou de l’absence d’un article en se basant sur les masques binaires.
  11. Dispositif informatique comprenant :
    - une mémoire stockant (i) une pluralité de mesures de profondeur représentant une structure de support selon un cadre commun de référence, et (ii) une pluralité d’indicateurs d’étiquette, définissant chacun une position d’étiquette dans le cadre commun de référence ;
    - une unité de commande d’imagerie (120) configurée, pour chacun des indicateurs d’étiquette, pour :
    .classer l’indicateur d’étiquette (504), soit comme étiquette de broche, soit comme étiquette de gondole, sur la base d’une partie des mesures de profondeur sélectionnées selon la position d’étiquette, et d’une partie des mesures de profondeur adjacentes à la position d’étiquette ;
    .générer un espace de recherche d’article dans le cadre commun de référence, selon la classe de l’indicateur d’étiquette (504) ; et
    .déterminer, sur la base d’un sous-ensemble des mesures de profondeur au sein de l’espace de recherche d’article, si l’espace de recherche d’article contient un article.
  12. Dispositif informatique de la revendication 11, dans lequel l’unité de commande d’imagerie (120) est en outre configurée pour : lorsque la détermination est négative, générer un indicateur d’espace vide en association avec l’indicateur d’étiquette (504).
  13. Dispositif informatique de la revendication 11, dans lequel, afin de classer les indicateurs d’étiquette, l’unité de commande d’imagerie (120) est en outre configurée pour :
    - sélectionner, en tant que partie des mesures de profondeur, (i) une fenêtre d’étiquette (804) à la position d’étiquette, et (ii) des fenêtres voisines (808) sur l’un ou l’autre des côtés de la position d’étiquette ;
    - générer des métriques de profondeur pour chacune de la fenêtre d’étiquette (804) et des fenêtres voisines (808) ;
    - lorsque des mesures d’erreurs entre la métrique de profondeur de fenêtre d’étiquette et chacune des métriques de profondeur de fenêtres voisines dépassent un certain seuil, classer l’indicateur d’étiquette (504) comme étiquette de broche ; et
    - autrement, classer l’indicateur d’étiquette (504) comme étiquette de gondole.
  14. Dispositif informatique de la revendication 11, dans lequel, afin de classer les indicateurs d’étiquette, l’unité de commande d’imagerie (120) est en outre configurée pour :
    - identifier une paire d’indicateurs d’étiquettes (504) adjacents séparés par une distance inférieure à un seuil de distance ;
    - sélectionner, en tant que partie des mesures de profondeur, (i) des fenêtres d’étiquettes (804) aux positions d’étiquettes de chacun de la paire d’indicateurs, (ii) des fenêtres voisines (808) sur l’un ou l’autre des côtés des positions d’étiquettes de la paire d’indicateurs, et (iii) une fenêtre d’espace vide entre les positions d’étiquettes de la paire d’indicateurs ;
    - générer une métrique unique de profondeur pour les fenêtres d’étiquettes (804) ;
    - générer des métriques de profondeur pour chacune des fenêtres voisines (808) et de la fenêtre d’espace vide ;
    - lorsque des mesures d’erreurs entre la métrique unique de profondeur et chacune de la métrique de profondeur de fenêtre voisine et de la métrique de profondeur de fenêtre d’espace vide dépassent un certain seuil, classer l’indicateur d’étiquette (504) comme étiquette de broche ; et
    - autrement, classer l’indicateur d’étiquette (504) comme étiquette de gondole.
  15. Dispositif informatique de la revendication 13, dans lequel la métrique de profondeur est un vecteur contenant au moins l’un parmi un nombre de mesures de profondeur, une profondeur minimale, une profondeur maximale, une profondeur moyenne, une première profondeur quartile, une troisième profondeur quartile, une profondeur médiane, une plage de profondeurs, et un écart-type.
  16. Dispositif informatique de la revendication 15, dans lequel les mesures d’erreurs sont des erreurs quadratiques moyennes (RMSE).
  17. Dispositif informatique de la revendication 11, dans lequel, afin de générer l’espace de recherche d’article, lorsque l’indicateur d’étiquette (504) est classé comme étiquette de broche, l’unité de commande d’imagerie (120) est en outre configurée pour :
    - paramétrer des limites latérales sur la base d’indicateurs d’étiquettes (504) voisins gauches et droits ;
    - paramétrer une limite supérieure en dessous de l’indicateur d’étiquette (504) ; et
    - paramétrer une limite inférieure selon une classe d’un indicateur d’étiquette (504) voisin inférieur.
  18. Dispositif informatique de la revendication 11, dans lequel, afin de générer l’espace de recherche d’article, lorsque l’indicateur d’étiquette (504) est classé comme étiquette de gondole, l’unité de commande d’imagerie (120) est en outre configurée pour :
    - paramétrer des limites latérales sur la base de l’indicateur d’étiquette (504) et d’un indicateur d’étiquette (504) voisin ;
    - paramétrer une limite supérieure selon une classe d’un indicateur d’étiquette (504) voisin supérieur ; et
    - paramétrer une limite inférieure sur la base de l’indicateur d’étiquette (504).
  19. Dispositif informatique de la revendication 11, dans lequel, afin de déterminer si l’espace de recherche d’article contient un article, l’unité de commande d’imagerie (120) est en outre configurée pour :
    - générer une métrique de profondeur à partir des mesures de profondeur au sein de l’espace de recherche d’article ;
    - lorsque la métrique atteint un certain seuil, déterminer que l’espace de recherche d’article contient un article ; et
    - lorsque la métrique n’atteint pas un certain seuil, déterminer que l’espace de recherche d’article contient un espace vide.
  20. Dispositif informatique de la revendication 11, dans lequel, afin de déterminer si l’espace de recherche d’article contient un article, l’unité de commande d’imagerie (120) est en outre configurée pour :
    - générer une carte de profondeur à partir des mesures de profondeur au sein de l’espace de recherche d’article ;
    - générer un ensemble de masques binaires à partir de la carte de profondeur ; et
    - détecter la présence ou l’absence d’un article en se basant sur les masques binaires.
FR2005770A 2019-06-03 2020-06-02 Procédé, système et appareil pour la détection d’espaces vides dans des structures de support dotées de régions de broches Active FR3096787B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/429,687 2019-06-03
US16/429,687 US11080566B2 (en) 2019-06-03 2019-06-03 Method, system and apparatus for gap detection in support structures with peg regions

Publications (2)

Publication Number Publication Date
FR3096787A1 true FR3096787A1 (fr) 2020-12-04
FR3096787B1 FR3096787B1 (fr) 2022-07-29

Family

ID=73549727

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2005770A Active FR3096787B1 (fr) 2019-06-03 2020-06-02 Procédé, système et appareil pour la détection d’espaces vides dans des structures de support dotées de régions de broches

Country Status (3)

Country Link
US (1) US11080566B2 (fr)
FR (1) FR3096787B1 (fr)
WO (1) WO2020247087A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020210822A1 (fr) * 2019-04-11 2020-10-15 Carnegie Mellon University Système et procédé pour associer des produits et des étiquettes de produits
US20240112136A1 (en) 2022-09-29 2024-04-04 NOMAD Go, Inc. Methods and apparatus for machine learning system for edge computer vision and active reality

Family Cites Families (440)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5214615A (en) 1990-02-26 1993-05-25 Will Bauer Three-dimensional displacement of a body with computer interface
US5209712A (en) 1991-06-24 1993-05-11 Frederic Ferri Proprioceptive exercise, training and therapy apparatus
US5408322A (en) 1993-04-26 1995-04-18 Materials Research Corporation Self aligning in-situ ellipsometer and method of using for process monitoring
JP3311830B2 (ja) 1993-09-20 2002-08-05 株式会社東芝 3次元動画作成装置
KR100197676B1 (ko) 1993-09-27 1999-06-15 윤종용 로보트 청소기
WO1995015533A1 (fr) 1993-11-30 1995-06-08 Burke Raymond R Systeme informatise permettant a un consommateur d'acheter depuis son domicile des marchandises emballees
US5414268A (en) 1994-02-01 1995-05-09 The Coe Manufacturing Company Light scanner with interlaced camera fields and parallel light beams
JPH0996672A (ja) 1995-09-29 1997-04-08 Sukuuea:Kk 3次元位置データ生成システムおよび方法
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US6034379A (en) 1996-03-01 2000-03-07 Intermec Ip Corp. Code reader having replaceable optics assemblies supporting multiple illuminators
US5831719A (en) 1996-04-12 1998-11-03 Holometrics, Inc. Laser scanning system
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US5953055A (en) 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
JP3371279B2 (ja) 1997-03-10 2003-01-27 ペンタックス プレシジョン株式会社 Tvカメラ用レンズの選択方法および選択装置
US6026376A (en) 1997-04-15 2000-02-15 Kenney; John A. Interactive electronic shopping system and method
GB2330265A (en) 1997-10-10 1999-04-14 Harlequin Group Limited The Image compositing using camera data
IL122079A (en) 1997-10-30 2002-02-10 Netmor Ltd Ultrasound system for positioning and tracking
WO1999023600A1 (fr) 1997-11-04 1999-05-14 The Trustees Of Columbia University In The City Of New York Detection de regions d'un visage dans un signal video
US6975764B1 (en) 1997-11-26 2005-12-13 Cognex Technology And Investment Corporation Fast high-accuracy multi-dimensional pattern inspection
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6332098B2 (en) 1998-08-07 2001-12-18 Fedex Corporation Methods for shipping freight
US6820895B2 (en) 1998-09-23 2004-11-23 Vehicle Safety Systems, Inc. Vehicle air bag minimum distance enforcement apparatus, method and system
US6442507B1 (en) 1998-12-29 2002-08-27 Wireless Communications, Inc. System for creating a computer model and measurement database of a wireless communication network
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6388688B1 (en) 1999-04-06 2002-05-14 Vergics Corporation Graph-based visual navigation through spatial environments
US6850946B1 (en) 1999-05-26 2005-02-01 Wireless Valley Communications, Inc. Method and system for a building database manipulator
US6721723B1 (en) 1999-12-23 2004-04-13 1St Desk Systems, Inc. Streaming metatree data structure for indexing information in a data base
US6687388B2 (en) 2000-01-28 2004-02-03 Sony Corporation Picture processing apparatus
US6711283B1 (en) 2000-05-03 2004-03-23 Aperio Technologies, Inc. Fully automatic rapid microscope slide scanner
US20020021756A1 (en) 2000-07-11 2002-02-21 Mediaflow, Llc. Video compression using adaptive selection of groups of frames, adaptive bit allocation, and adaptive replenishment
GB0020850D0 (en) 2000-08-23 2000-10-11 Univ London A system and method for intelligent modelling of public spaces
TW512478B (en) 2000-09-14 2002-12-01 Olympus Optical Co Alignment apparatus
US7213023B2 (en) 2000-10-16 2007-05-01 University Of North Carolina At Charlotte Incremental clustering classifier and predictor
US7054509B2 (en) 2000-10-21 2006-05-30 Cardiff Software, Inc. Determining form identification through the spatial relationship of input data
US20040021313A1 (en) 2000-11-21 2004-02-05 Gardner Michael Stuart Tag marking
US7068852B2 (en) 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image
JP2002321698A (ja) 2001-04-27 2002-11-05 Mitsubishi Heavy Ind Ltd 航空貨物運搬用ボーディング・ブリッジ
EP1402230A1 (fr) 2001-06-29 2004-03-31 Square D Company Systeme et procede aeriens de dimensionnement
US7046273B2 (en) 2001-07-02 2006-05-16 Fuji Photo Film Co., Ltd System and method for collecting image information
US6995762B1 (en) 2001-09-13 2006-02-07 Symbol Technologies, Inc. Measurement of dimensions of solid objects from two-dimensional image(s)
EP1436742A1 (fr) 2001-09-18 2004-07-14 Pro-Corp Holdings International Limited Systeme d'inventaire permanent de reconnaissance d'images
US6722568B2 (en) 2001-11-20 2004-04-20 Ncr Corporation Methods and apparatus for detection and processing of supplemental bar code labels
US7233699B2 (en) 2002-03-18 2007-06-19 National Instruments Corporation Pattern matching using multiple techniques
US20060106742A1 (en) 2002-04-29 2006-05-18 Speed Trac Technologies, Inc. System and method for weighing and tracking freight
US7149749B2 (en) 2002-06-03 2006-12-12 International Business Machines Corporation Method of inserting and deleting leaves in tree table structures
US6928194B2 (en) 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
US6845909B2 (en) 2002-10-31 2005-01-25 United Parcel Service Of America, Inc. Systems and methods of inventory management utilizing unattended facilities
EP1434170A3 (fr) 2002-11-07 2006-04-05 Matsushita Electric Industrial Co., Ltd. Procédé et dispositif pour ajouter des ornements sur un portrait
JP3862652B2 (ja) 2002-12-10 2006-12-27 キヤノン株式会社 印刷制御方法及び情報処理装置
US7248754B2 (en) 2003-05-05 2007-07-24 International Business Machines Corporation Apparatus and method for determining whether machine readable information on an item matches the item
US7137207B2 (en) 2003-06-23 2006-11-21 Armstrong Timothy D Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US7493336B2 (en) 2003-07-22 2009-02-17 International Business Machines Corporation System and method of updating planogram information using RFID tags and personal shopping device
DE10336638A1 (de) 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
TWI266035B (en) 2003-11-11 2006-11-11 Hon Hai Prec Ind Co Ltd A system and method for measuring point-cloud
US20050174351A1 (en) 2004-02-11 2005-08-11 Yuh-Jye Chang Method and apparatus for large-scale two-dimensional mapping
SE0400556D0 (sv) 2004-03-05 2004-03-05 Pricer Ab Electronic shelf labelling system, electronic label, handheld device and method in an electronic labelling system
WO2005098475A1 (fr) 2004-03-29 2005-10-20 Evolution Robotics, Inc. Dispositif et procede de detection permettant de mesurer la position et l'orientation par rapport a de multiples sources lumineuses
WO2005098476A1 (fr) 2004-03-29 2005-10-20 Evolution Robotics, Inc. Procede et appareil d'estimation de position a l'aide de sources de lumiere reflechie
US7885865B2 (en) 2004-05-11 2011-02-08 The Kroger Co. System and method for mapping of planograms
US7245558B2 (en) 2004-06-18 2007-07-17 Symbol Technologies, Inc. System and method for detection using ultrasonic waves
US7168618B2 (en) 2004-08-12 2007-01-30 International Business Machines Corporation Retail store method and system
US8207964B1 (en) 2008-02-22 2012-06-26 Meadow William D Methods and apparatus for generating three-dimensional image data models
US7643665B2 (en) 2004-08-31 2010-01-05 Semiconductor Insights Inc. Method of design analysis of existing integrated circuits
WO2006065563A2 (fr) 2004-12-14 2006-06-22 Sky-Trax Incorporated Procede et appareil de determination de la position et l'orientation rotative d'un objet
US7783383B2 (en) 2004-12-22 2010-08-24 Intelligent Hospital Systems Ltd. Automated pharmacy admixture system (APAS)
WO2006136958A2 (fr) 2005-01-25 2006-12-28 Dspv, Ltd. Systeme et procede permettant d'ameliorer la lisibilite et l'applicabilite d'images de documents, par le biais d'un renforcement d'image a base de forme
US7440903B2 (en) 2005-01-28 2008-10-21 Target Brands, Inc. System and method for evaluating and recommending planograms
DE102005007536A1 (de) 2005-02-17 2007-01-04 Isra Vision Systems Ag Verfahren zur Kalibrierung eines Messsystems
US7751928B1 (en) 2005-03-11 2010-07-06 Amazon Technologies, Inc. Method and system for agent exchange-based materials handling
US9534899B2 (en) 2005-03-25 2017-01-03 Irobot Corporation Re-localization of a robot for slam
US8429004B2 (en) 2005-04-13 2013-04-23 Store Eyes, Inc. Method and system for automatically measuring retail store display compliance
US20080175513A1 (en) 2005-04-19 2008-07-24 Ming-Jun Lai Image Edge Detection Systems and Methods
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US7590053B2 (en) 2005-06-21 2009-09-15 Alcatel Lucent Multiple endpoint protection using SPVCs
PL1899678T5 (pl) 2005-06-28 2018-12-31 Outotec Pty Ltd System i sposób pomiaru i odwzorowywania powierzchni względem odniesienia
US7817826B2 (en) 2005-08-12 2010-10-19 Intelitrac Inc. Apparatus and method for partial component facial recognition
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
EP1934936A2 (fr) 2005-10-10 2008-06-25 Nordic Bioscience A/S Procede de segmentation d'une image
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7508794B2 (en) 2005-11-29 2009-03-24 Cisco Technology, Inc. Authorizing an endpoint node for a communication service
US8577538B2 (en) 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
JP4730121B2 (ja) 2006-02-07 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
US20070197895A1 (en) 2006-02-17 2007-08-23 Sdgi Holdings, Inc. Surgical instrument to assess tissue characteristics
US8157205B2 (en) 2006-03-04 2012-04-17 Mcwhirk Bruce Kimberly Multibody aircrane
US20100171826A1 (en) 2006-04-12 2010-07-08 Store Eyes, Inc. Method for measuring retail display and compliance
CA2545118C (fr) 2006-04-28 2011-07-05 Global Sensor Systems Inc. Appareil de mesure des dimensions d'un paquet
ATE470912T1 (de) 2006-04-28 2010-06-15 Toyota Motor Europ Nv Robuster detektor und deskriptor für einen interessenspunkt
US20070272732A1 (en) 2006-05-26 2007-11-29 Mettler-Toledo, Inc. Weighing and dimensioning system and method for weighing and dimensioning
EP2041516A2 (fr) 2006-06-22 2009-04-01 Roy Sandberg Procédé et appareil pour une planification, une sélection et une visualisation de trajectoire robotique
JP4910507B2 (ja) 2006-06-29 2012-04-04 コニカミノルタホールディングス株式会社 顔認証システム及び顔認証方法
US7647752B2 (en) 2006-07-12 2010-01-19 Greg Magnell System and method for making custom boxes for objects of random size or shape
US7940955B2 (en) 2006-07-26 2011-05-10 Delphi Technologies, Inc. Vision-based method of determining cargo status by boundary detection
JP5112666B2 (ja) 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
US7693757B2 (en) 2006-09-21 2010-04-06 International Business Machines Corporation System and method for performing inventory using a mobile inventory robot
JP5368311B2 (ja) 2006-11-02 2013-12-18 クィーンズ ユニバーシティー アット キングストン 固有受容機能を評価するための方法および装置
WO2008057504A2 (fr) 2006-11-06 2008-05-15 Aman James A Système de suivi de charge fixé sur un chariot élévateur à fourche autosuiveur
US8531457B2 (en) 2006-11-29 2013-09-10 Technion Research And Development Foundation Ltd. Apparatus and method for finding visible points in a cloud point
US7474389B2 (en) 2006-12-19 2009-01-06 Dean Greenberg Cargo dimensional and weight analyzing system
US8189926B2 (en) 2006-12-30 2012-05-29 Videomining Corporation Method and system for automatically analyzing categories in a physical space based on the visual characterization of people
US20080164310A1 (en) 2007-01-09 2008-07-10 Dupuy Charles G Labeling system
US9305019B2 (en) 2007-01-30 2016-04-05 Craxel, Inc. Method of associating user related data with spatial hierarchy identifiers for efficient location-based processing
US20100141806A1 (en) 2007-03-15 2010-06-10 Kansai University Moving Object Noise Elimination Processing Device and Moving Object Noise Elimination Processing Program
US7940279B2 (en) 2007-03-27 2011-05-10 Utah State University System and method for rendering of texel imagery
US8132728B2 (en) 2007-04-04 2012-03-13 Sick, Inc. Parcel dimensioning measurement system and method
US8094937B2 (en) 2007-04-17 2012-01-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for labeling feature clusters in frames of image data for optical navigation
JP4561769B2 (ja) 2007-04-27 2010-10-13 アイシン・エィ・ダブリュ株式会社 経路案内システム及び経路案内方法
US20080294487A1 (en) 2007-04-27 2008-11-27 Kamal Nasser Methods and apparatus to monitor in-store media and consumer traffic related to retail environments
EP2158576A1 (fr) 2007-06-08 2010-03-03 Tele Atlas B.V. Procédé et appareil permettant de produire un panorama à plusieurs points de vue
WO2008154611A2 (fr) 2007-06-11 2008-12-18 Honeywell International Inc. Système de lecture optique pour extraire des informations dans une image numérique
US7982423B2 (en) 2007-07-04 2011-07-19 Bossa Nova Concepts, Llc Statically stable biped robotic mechanism and method of actuating
JP4661838B2 (ja) 2007-07-18 2011-03-30 トヨタ自動車株式会社 経路計画装置及び方法、コスト評価装置、並びに移動体
KR100922494B1 (ko) 2007-07-19 2009-10-20 삼성전자주식회사 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치
US7726575B2 (en) 2007-08-10 2010-06-01 Hand Held Products, Inc. Indicia reading terminal having spatial measurement functionality
WO2009024974A2 (fr) 2007-08-21 2009-02-26 Yoav Namir Systèmes et procédés de sélection rationnelle de séquences de contexte et de modèles de séquence
US8950673B2 (en) 2007-08-30 2015-02-10 Symbol Technologies, Inc. Imaging system for reading target with multiple symbols
US7949568B2 (en) 2007-08-31 2011-05-24 Accenture Global Services Limited Determination of product display parameters based on image processing
US8189855B2 (en) 2007-08-31 2012-05-29 Accenture Global Services Limited Planogram extraction based on image processing
US8630924B2 (en) 2007-08-31 2014-01-14 Accenture Global Services Limited Detection of stock out conditions based on image processing
US8009864B2 (en) 2007-08-31 2011-08-30 Accenture Global Services Limited Determination of inventory conditions based on image processing
US9135491B2 (en) 2007-08-31 2015-09-15 Accenture Global Services Limited Digital point-of-sale analyzer
US8295590B2 (en) 2007-09-14 2012-10-23 Abbyy Software Ltd. Method and system for creating a form template for a form
JP4466705B2 (ja) 2007-09-21 2010-05-26 ヤマハ株式会社 ナビゲーション装置
US8396284B2 (en) 2007-10-23 2013-03-12 Leica Geosystems Ag Smart picking in 3D point clouds
US8091782B2 (en) 2007-11-08 2012-01-10 International Business Machines Corporation Using cameras to monitor actual inventory
US20090125350A1 (en) 2007-11-14 2009-05-14 Pieter Lessing System and method for capturing and storing supply chain and logistics support information in a relational database system
US20090160975A1 (en) 2007-12-19 2009-06-25 Ncr Corporation Methods and Apparatus for Improved Image Processing to Provide Retroactive Image Focusing and Improved Depth of Field in Retail Imaging Systems
US8423431B1 (en) 2007-12-20 2013-04-16 Amazon Technologies, Inc. Light emission guidance
US20090192921A1 (en) 2008-01-24 2009-07-30 Michael Alan Hicks Methods and apparatus to survey a retail environment
US8353457B2 (en) 2008-02-12 2013-01-15 Datalogic ADC, Inc. Systems and methods for forming a composite image of multiple portions of an object from multiple perspectives
US7971664B2 (en) 2008-03-18 2011-07-05 Bossa Nova Robotics Ip, Inc. Efficient actuation and selective engaging and locking clutch mechanisms for reconfiguration and multiple-behavior locomotion of an at least two-appendage robot
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US8064729B2 (en) 2008-04-03 2011-11-22 Seiko Epson Corporation Image skew detection apparatus and methods
US7707073B2 (en) 2008-05-15 2010-04-27 Sony Ericsson Mobile Communications, Ab Systems methods and computer program products for providing augmented shopping information
US20150170256A1 (en) 2008-06-05 2015-06-18 Aisle411, Inc. Systems and Methods for Presenting Information Associated With a Three-Dimensional Location on a Two-Dimensional Display
JP4720859B2 (ja) 2008-07-09 2011-07-13 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
JP5259286B2 (ja) 2008-07-16 2013-08-07 株式会社日立製作所 3次元物体認識システム及びそれを用いた棚卸システム
US8184196B2 (en) 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
US8353456B2 (en) 2008-08-08 2013-01-15 Snap-On Incorporated Image-based inventory control system
US9841314B2 (en) 2008-08-29 2017-12-12 United Parcel Service Of America, Inc. Systems and methods for freight tracking and monitoring
WO2010029553A1 (fr) 2008-09-11 2010-03-18 Netanel Hagbi Procédé et système permettant de composer une scène de réalité augmentée
US20100070365A1 (en) 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Planogram guided shopping
EP2332094B1 (fr) 2008-09-14 2014-03-12 Eliezer Magal Système d'identification automatique pour des objets orientés de manière aléatoire
US20100091094A1 (en) 2008-10-14 2010-04-15 Marek Sekowski Mechanism for Directing a Three-Dimensional Camera System
US8737168B2 (en) 2008-10-20 2014-05-27 Siva Somasundaram System and method for automatic determination of the physical location of data center equipment
US8479996B2 (en) 2008-11-07 2013-07-09 Symbol Technologies, Inc. Identification of non-barcoded products
KR101234798B1 (ko) 2008-11-24 2013-02-20 삼성전자주식회사 이동 로봇의 위치 측정 방법 및 장치
US8463079B2 (en) 2008-12-16 2013-06-11 Intermec Ip Corp. Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner
US8732139B2 (en) 2008-12-18 2014-05-20 Sap Ag Method and system for dynamically partitioning very large database indices on write-once tables
US8812226B2 (en) 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8265895B2 (en) 2009-03-27 2012-09-11 Symbol Technologies, Inc. Interactive sensor systems and methods for dimensioning
US8260742B2 (en) 2009-04-03 2012-09-04 International Business Machines Corporation Data synchronization and consistency across distributed repositories
US8284988B2 (en) 2009-05-13 2012-10-09 Applied Vision Corporation System and method for dimensioning objects using stereoscopic imaging
US8743176B2 (en) 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
US8049621B1 (en) 2009-05-28 2011-11-01 Walgreen Co. Method and apparatus for remote merchandise planogram auditing and reporting
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US7997430B2 (en) 2009-06-30 2011-08-16 Target Brands, Inc. Display apparatus and method
US20120019393A1 (en) 2009-07-31 2012-01-26 Robert Wolinsky System and method for tracking carts in a retail environment
CA2754159C (fr) 2009-08-11 2012-05-15 Certusview Technologies, Llc Systemes et methodes applicables au traitement d'evenements complexes d'information relative a des vehicules
WO2011022722A1 (fr) 2009-08-21 2011-02-24 Syngenta Participations Ag Système automatisé pour analyser la vigueur de plantes
KR101619076B1 (ko) 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US8942884B2 (en) 2010-01-14 2015-01-27 Innovative Transport Solutions, Llc Transport system
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20110216063A1 (en) 2010-03-08 2011-09-08 Celartem, Inc. Lidar triangular network compression
US8456518B2 (en) 2010-03-31 2013-06-04 James Cameron & Vincent Pace Stereoscopic camera with automatic obstruction removal
US8996563B2 (en) 2010-04-06 2015-03-31 Tokutek, Inc. High-performance streaming dictionary
US8570343B2 (en) 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US8199977B2 (en) 2010-05-07 2012-06-12 Honeywell International Inc. System and method for extraction of features from a 3-D point cloud
US8134717B2 (en) 2010-05-21 2012-03-13 LTS Scale Company Dimensional detection system and associated method
US9109877B2 (en) 2010-05-21 2015-08-18 Jonathan S. Thierman Method and apparatus for dimensional measurement
US20110310088A1 (en) 2010-06-17 2011-12-22 Microsoft Corporation Personalized navigation through virtual 3d environments
US8756383B2 (en) 2010-07-13 2014-06-17 Red Hat Israel, Ltd. Random cache line selection in virtualization systems
US20120022913A1 (en) 2010-07-20 2012-01-26 Target Brands, Inc. Planogram Generation for Peg and Shelf Items
JP4914528B1 (ja) 2010-08-31 2012-04-11 新日鉄ソリューションズ株式会社 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム
US9398205B2 (en) 2010-09-01 2016-07-19 Apple Inc. Auto-focus control using image statistics data with coarse and fine auto-focus scores
US8571314B2 (en) 2010-09-02 2013-10-29 Samsung Electronics Co., Ltd. Three-dimensional display system with depth map mechanism and method of operation thereof
EP2612297B1 (fr) 2010-09-03 2017-08-09 California Institute of Technology Système d'imagerie en trois dimensions
US8872851B2 (en) 2010-09-24 2014-10-28 Intel Corporation Augmenting image data based on related 3D point cloud data
EP2439487B1 (fr) 2010-10-06 2012-08-22 Sick Ag Dispositif de mesure de volume pour objets mobiles
US8174931B2 (en) 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
US9171442B2 (en) 2010-11-19 2015-10-27 Tyco Fire & Security Gmbh Item identification using video recognition to supplement bar code or RFID information
US20120133639A1 (en) 2010-11-30 2012-05-31 Microsoft Corporation Strip panorama
US8867793B2 (en) 2010-12-01 2014-10-21 The Trustees Of The University Of Pennsylvania Scene analysis using image and range data
SG190730A1 (en) 2010-12-09 2013-07-31 Univ Nanyang Tech Method and an apparatus for determining vein patterns from a colour image
US8773946B2 (en) 2010-12-30 2014-07-08 Honeywell International Inc. Portable housings for generation of building maps
US8744644B2 (en) 2011-01-19 2014-06-03 Electronics And Telecommunications Research Institute Apparatus and method for detecting location of vehicle
KR101758058B1 (ko) 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
CN103443802B (zh) 2011-01-24 2016-12-14 数据逻辑Adc公司 用于读取光学代码的系统和方法
US20120190453A1 (en) 2011-01-25 2012-07-26 Bossa Nova Robotics Ip, Inc. System and method for online-offline interactive experience
US20120191880A1 (en) 2011-01-26 2012-07-26 Bossa Nova Robotics IP, Inc System and method for identifying accessories connected to apparatus
CN104898652B (zh) 2011-01-28 2018-03-13 英塔茨科技公司 与一个可移动的远程机器人相互交流
WO2012100593A1 (fr) 2011-01-30 2012-08-02 浙江省电力公司 Système de vérification totalement automatisé pour dispositifs intelligents de mesure d'énergie électrique
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US8447549B2 (en) 2011-02-11 2013-05-21 Quality Vision International, Inc. Tolerance evaluation with reduced measured points
US8660338B2 (en) 2011-03-22 2014-02-25 Honeywell International Inc. Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
JPWO2012132324A1 (ja) 2011-03-31 2014-07-24 日本電気株式会社 店舗システム及びその制御方法及び制御プログラム並びに情報アクセスシステム
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US8693725B2 (en) 2011-04-19 2014-04-08 International Business Machines Corporation Reliability in detecting rail crossing events
CA2835830A1 (fr) 2011-05-11 2012-11-15 Proiam, Llc Appareil d'inscription, systeme et procede avec camera tridimensionnelle
US20120287249A1 (en) 2011-05-12 2012-11-15 Electronics And Telecommunications Research Institute Method for obtaining depth information and apparatus using the same
US8902353B2 (en) 2011-05-12 2014-12-02 Symbol Technologies, Inc. Imaging reader with independently controlled illumination rate
US9785898B2 (en) 2011-06-20 2017-10-10 Hi-Tech Solutions Ltd. System and method for identifying retail products and determining retail product arrangements
US9064394B1 (en) 2011-06-22 2015-06-23 Alarm.Com Incorporated Virtual sensors
US9070285B1 (en) 2011-07-25 2015-06-30 UtopiaCompression Corporation Passive camera based cloud detection and avoidance for aircraft systems
US8768620B2 (en) 2011-07-27 2014-07-01 Msa Technology, Llc Navigational deployment and initialization systems and methods
KR101907081B1 (ko) 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US9129277B2 (en) 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
TWI622540B (zh) 2011-09-09 2018-05-01 辛波提克有限責任公司 自動化儲存及取放系統
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US11074495B2 (en) 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US10330491B2 (en) 2011-10-10 2019-06-25 Texas Instruments Incorporated Robust step detection using low cost MEMS accelerometer in mobile applications, and processing methods, apparatus and systems
US9159047B2 (en) 2011-11-11 2015-10-13 James T. Winkel Projected image planogram system
US9033239B2 (en) 2011-11-11 2015-05-19 James T. Winkel Projected image planogram system
US8726200B2 (en) 2011-11-23 2014-05-13 Taiwan Semiconductor Manufacturing Co., Ltd. Recognition of template patterns with mask information
US8706293B2 (en) 2011-11-29 2014-04-22 Cereson Co., Ltd. Vending machine with automated detection of product position
US9072929B1 (en) 2011-12-01 2015-07-07 Nebraska Global Investment Company, LLC Image capture system
US8793107B2 (en) 2011-12-01 2014-07-29 Harris Corporation Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling
CN103164842A (zh) 2011-12-14 2013-06-19 鸿富锦精密工业(深圳)有限公司 点云提取系统及方法
US20130154802A1 (en) 2011-12-19 2013-06-20 Symbol Technologies, Inc. Method and apparatus for updating a central plan for an area based on a location of a plurality of radio frequency identification readers
US20130162806A1 (en) 2011-12-23 2013-06-27 Mitutoyo Corporation Enhanced edge focus tool
KR101881190B1 (ko) 2012-01-06 2018-07-23 선라이즈 알앤디 홀딩스, 엘엘씨 제품 정보를 표시하는 프로젝터를 가진 디스플레이 선반 모듈, 및 상기 디스플레이 선반 모듈을 포함한 모듈러 선반 시스템
EP2615580B1 (fr) 2012-01-13 2016-08-17 Softkinetic Software Étalonnage de scène automatique
US9530060B2 (en) 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
US9037287B1 (en) 2012-02-17 2015-05-19 National Presort, Inc. System and method for optimizing a mail document sorting machine
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
US8668136B2 (en) 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
DK2634120T3 (en) 2012-03-01 2015-05-11 Caljan Rite Hite Aps Extendable conveyor with light
US20130235206A1 (en) 2012-03-12 2013-09-12 Numerex Corp. System and Method of On-Shelf Inventory Management
US9329269B2 (en) 2012-03-15 2016-05-03 GM Global Technology Operations LLC Method for registration of range images from multiple LiDARS
WO2013151553A1 (fr) 2012-04-05 2013-10-10 Intel Corporation Procédé et appareil de gestion de placement de produit sur un rayonnage de magasin
US8989342B2 (en) 2012-04-18 2015-03-24 The Boeing Company Methods and systems for volumetric reconstruction using radiography
US9153061B2 (en) 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
US9525976B2 (en) 2012-05-10 2016-12-20 Honeywell International Inc. BIM-aware location based application
US8941645B2 (en) 2012-05-11 2015-01-27 Dassault Systemes Comparing virtual and real images in a shopping experience
WO2013170260A1 (fr) 2012-05-11 2013-11-14 Proiam, Llc Appareil portable, système et procédé de capture de dimension
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9135543B2 (en) 2012-06-20 2015-09-15 Apple Inc. Compression and obfuscation of three-dimensional coding
US9420265B2 (en) 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
US9418352B2 (en) 2012-06-29 2016-08-16 Intel Corporation Image-augmented inventory management and wayfinding
US20140003655A1 (en) 2012-06-29 2014-01-02 Praveen Gopalakrishnan Method, apparatus and system for providing image data to represent inventory
US8971637B1 (en) 2012-07-16 2015-03-03 Matrox Electronic Systems Ltd. Method and system for identifying an edge in an image
KR101441187B1 (ko) 2012-07-19 2014-09-18 고려대학교 산학협력단 자율 보행 로봇 경로 계획 방법
EP2877959B1 (fr) 2012-07-24 2018-04-18 Datalogic USA, Inc. Systèmes et procédés de mesure d'objet dans un lecteur de données automatisé
ES2545374T3 (es) 2012-07-31 2015-09-10 Sick Ag Sistema de detección para el montaje en una cinta transportadora
US8757479B2 (en) 2012-07-31 2014-06-24 Xerox Corporation Method and system for creating personalized packaging
US8923893B2 (en) 2012-08-07 2014-12-30 Symbol Technologies, Inc. Real-time planogram generation and maintenance
US20140047342A1 (en) 2012-08-07 2014-02-13 Advanced Micro Devices, Inc. System and method for allocating a cluster of nodes for a cloud computing system based on hardware characteristics
CN103679164A (zh) 2012-09-21 2014-03-26 阿里巴巴集团控股有限公司 一种基于移动终端的标志识别处理方法和系统
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140192050A1 (en) 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
US9472022B2 (en) 2012-10-05 2016-10-18 University Of Southern California Three-dimensional point processing and model generation
FR2996512B1 (fr) 2012-10-05 2014-11-21 Renault Sa Procede d'evaluation du risque de collision a une intersection
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
WO2014066422A2 (fr) 2012-10-22 2014-05-01 Bossa Nova Robotics Ip, Inc. Élément de support auto-déployant, et procédés et appareil l'utilisant
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9635606B2 (en) 2012-11-04 2017-04-25 Kt Corporation Access point selection and management
JPWO2014068784A1 (ja) 2012-11-05 2016-09-08 三菱電機株式会社 三次元画像撮影システム及び粒子線治療装置
ITVI20120303A1 (it) 2012-11-09 2014-05-10 St Microelectronics Srl Metodo per rilevare una linea retta in un'immagine digitale
US9562971B2 (en) 2012-11-22 2017-02-07 Geosim Systems Ltd. Point-cloud fusion
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US9380222B2 (en) 2012-12-04 2016-06-28 Symbol Technologies, Llc Transmission of images for inventory monitoring
US10701149B2 (en) 2012-12-13 2020-06-30 Level 3 Communications, Llc Content delivery framework having origin services
MY172143A (en) 2012-12-13 2019-11-14 Mimos Berhad Method for non-static foreground feature extraction and classification
CA2895765A1 (fr) 2012-12-21 2014-06-26 Sca Hygiene Products Ab Systeme et procede permettant d'aider a localiser et choisir un article souhaite dans un lieu de stockage
US20140195373A1 (en) 2013-01-10 2014-07-10 International Business Machines Corporation Systems and methods for managing inventory in a shopping store
US20140214547A1 (en) 2013-01-25 2014-07-31 R4 Technologies, Llc Systems and methods for augmented retail reality
US20140214600A1 (en) 2013-01-31 2014-07-31 Wal-Mart Stores, Inc. Assisting A Consumer In Locating A Product Within A Retail Store
DE102013002554A1 (de) 2013-02-15 2014-08-21 Jungheinrich Aktiengesellschaft Verfahren zur Erkennung von Objekten in einem Lager und/oder zur räumlichen Orientierung in einem Lager
JP6108159B2 (ja) 2013-03-04 2017-04-05 日本電気株式会社 情報処理システム、情報処理装置およびその制御方法と制御プログラム
US9349238B2 (en) 2013-03-13 2016-05-24 Pantry Retail, Inc. Vending kit and method
US20140279294A1 (en) 2013-03-14 2014-09-18 Nordstrom, Inc. System and methods for order fulfillment, inventory management, and providing personalized services to customers
US8965561B2 (en) 2013-03-15 2015-02-24 Cybernet Systems Corporation Automated warehousing using robotic forklifts
TWI594933B (zh) 2013-03-15 2017-08-11 辛波提克有限責任公司 自動化貯藏及取放系統
US9154773B2 (en) 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
US9558559B2 (en) 2013-04-05 2017-01-31 Nokia Technologies Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
WO2014181323A1 (fr) 2013-05-05 2014-11-13 Trax Technology Solutions Pte Ltd. Système et procédé d'analyse des images d'un magasin de détail
CA2815156C (fr) 2013-05-06 2020-05-05 Ibm Canada Limited - Ibm Canada Limitee Gestion d'ordre de documents par le biais d'un indexage a noeud souple
US9744669B2 (en) 2014-06-04 2017-08-29 Intelligrated Headquarters, Llc Truck unloader visualization
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
CN105246744A (zh) 2013-05-29 2016-01-13 丰田自动车株式会社 驻车支援装置
US9158988B2 (en) 2013-06-12 2015-10-13 Symbol Technclogies, LLC Method for detecting a plurality of instances of an object
US10268983B2 (en) 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US9443297B2 (en) 2013-07-10 2016-09-13 Cognex Corporation System and method for selective determination of point clouds
JP6310202B2 (ja) 2013-07-24 2018-04-11 古野電気株式会社 状態算出装置、移動体、状態算出方法、および状態算出プログラム
US10290031B2 (en) 2013-07-24 2019-05-14 Gregorio Reid Method and system for automated retail checkout using context recognition
US9473747B2 (en) 2013-07-25 2016-10-18 Ncr Corporation Whole store scanner
US10349031B2 (en) 2013-07-28 2019-07-09 Michael J. DeLuca Augmented reality based user interfacing
US20150088618A1 (en) 2013-08-26 2015-03-26 Ims Solutions, Inc. Road tolling
US20150088701A1 (en) 2013-09-23 2015-03-26 Daniel Norwood Desmarais System and method for improved planogram generation
US9886678B2 (en) 2013-09-25 2018-02-06 Sap Se Graphic representations of planograms
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US9248611B2 (en) 2013-10-07 2016-02-02 David A. Divine 3-D printed packaging
US20150106403A1 (en) 2013-10-15 2015-04-16 Indooratlas Oy Generating search database based on sensor measurements
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9565400B1 (en) 2013-12-20 2017-02-07 Amazon Technologies, Inc. Automatic imaging device selection for video analytics
US9349076B1 (en) 2013-12-20 2016-05-24 Amazon Technologies, Inc. Template-based target object detection in an image
US11593821B2 (en) 2014-02-14 2023-02-28 International Business Machines Corporation Mobile device based inventory management and sales trends analysis in a retail environment
WO2015125053A1 (fr) 2014-02-21 2015-08-27 Telefonaktiebolaget L M Ericsson (Publ) Prédiction de débit de réseau local sans fil (wlan)
MY177646A (en) 2014-02-28 2020-09-23 Icm Airport Technics Australia Pty Ltd Luggage processing station and system thereof
US20150310601A1 (en) 2014-03-07 2015-10-29 Digimarc Corporation Methods and arrangements for identifying objects
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20150262116A1 (en) 2014-03-16 2015-09-17 International Business Machines Corporation Machine vision technology for shelf inventory management
US9953420B2 (en) 2014-03-25 2018-04-24 Ford Global Technologies, Llc Camera calibration
CN103945208B (zh) 2014-04-24 2015-10-28 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
CN104023249B (zh) 2014-06-12 2015-10-21 腾讯科技(深圳)有限公司 电视频道识别方法和装置
US9659204B2 (en) 2014-06-13 2017-05-23 Conduent Business Services, Llc Image processing methods and systems for barcode and/or product label recognition
US10453046B2 (en) 2014-06-13 2019-10-22 Conduent Business Services, Llc Store shelf imaging system
US10176452B2 (en) 2014-06-13 2019-01-08 Conduent Business Services Llc Store shelf imaging system and method
US9542746B2 (en) 2014-06-13 2017-01-10 Xerox Corporation Method and system for spatial characterization of an imaging system
AU2015280776B2 (en) 2014-06-27 2019-08-22 Crown Equipment Corporation Vehicle positioning or navigation utilizing associated feature pairs
US11051000B2 (en) 2014-07-14 2021-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating cameras with non-overlapping views
DE102014011821A1 (de) 2014-08-08 2016-02-11 Cargometer Gmbh Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
US20160044862A1 (en) 2014-08-14 2016-02-18 Raven Industries, Inc. Site specific product application device and method
CN104200086B (zh) 2014-08-25 2017-02-22 西北工业大学 宽基线可见光相机位姿估计方法
US20160061591A1 (en) 2014-08-28 2016-03-03 Lts Metrology, Llc Stationary Dimensioning Apparatus
JP2016057108A (ja) 2014-09-08 2016-04-21 株式会社トプコン 演算装置、演算システム、演算方法およびプログラム
US10296950B2 (en) 2014-09-30 2019-05-21 Apple Inc. Beacon triggered processes
EP3201709B1 (fr) 2014-09-30 2021-03-17 NEC Corporation Procédé et système pour déterminer une trajectoire d'un objet pour un déplacement d'un état initial à un ensemble d'états finaux en évitant un ou plusieurs obstacles
US9576194B2 (en) 2014-10-13 2017-02-21 Klink Technologies Method and system for identity and age verification
US9706105B2 (en) 2014-10-20 2017-07-11 Symbol Technologies, Llc Apparatus and method for specifying and aiming cameras at shelves
US9796093B2 (en) 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US9600892B2 (en) 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
JP5946073B2 (ja) 2014-11-07 2016-07-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 推定方法、推定システム、コンピュータ・システムおよびプログラム
US10022867B2 (en) 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action
US9916002B2 (en) 2014-11-16 2018-03-13 Eonite Perception Inc. Social applications for augmented reality technologies
WO2016081722A1 (fr) 2014-11-20 2016-05-26 Cappasity Inc. Systèmes et procédés pour la capture tridimensionnelle (3d) d'objets à l'aide de multiples appareils photographiques télémétriques et de multiples appareils photographiques rvb
US10248653B2 (en) 2014-11-25 2019-04-02 Lionbridge Technologies, Inc. Information technology platform for language translation and task management
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
US9483704B2 (en) 2014-12-10 2016-11-01 Ricoh Co., Ltd. Realogram scene analysis of images: superpixel scene analysis
US9928708B2 (en) 2014-12-12 2018-03-27 Hawxeye, Inc. Real-time video analysis for security surveillance
US9996818B1 (en) 2014-12-19 2018-06-12 Amazon Technologies, Inc. Counting inventory items using image analysis and depth information
US9628695B2 (en) 2014-12-29 2017-04-18 Intel Corporation Method and system of lens shift correction for a camera array
US20160253735A1 (en) 2014-12-30 2016-09-01 Shelfscreen, Llc Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers
EP3054404A1 (fr) 2015-02-04 2016-08-10 Hexagon Technology Center GmbH Modélisation d'informations de travail
JP6599999B2 (ja) 2015-02-19 2019-10-30 マイクロニック アーベー 表面実装技術システムのキャリア上に配列されているディスプレイ上に情報を提供する方法、表面実装技術システム、キャリアおよびコンピュータプログラム製品
US10071891B2 (en) 2015-03-06 2018-09-11 Walmart Apollo, Llc Systems, devices, and methods for providing passenger transport
US9367831B1 (en) 2015-03-16 2016-06-14 The Nielsen Company (Us), Llc Methods and apparatus for inventory determinations using portable devices
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
US9600731B2 (en) 2015-04-08 2017-03-21 Toshiba Tec Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable storage medium
US9120622B1 (en) 2015-04-16 2015-09-01 inVia Robotics, LLC Autonomous order fulfillment and inventory control robots
US9868443B2 (en) 2015-04-27 2018-01-16 GM Global Technology Operations LLC Reactive path planning for autonomous driving
WO2016179065A1 (fr) 2015-05-04 2016-11-10 Sunrise R&D Holdings, Llc Systèmes et procédés permettant de commander des unités de présentoir à tablettes et présenter des informations de manière graphique sur des unités de présentoir à tablettes
US10455226B2 (en) 2015-05-26 2019-10-22 Crown Equipment Corporation Systems and methods for image capture device calibration for a materials handling vehicle
US9646410B2 (en) 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
US10410096B2 (en) 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US20170011308A1 (en) 2015-07-09 2017-01-12 SunView Software, Inc. Methods and Systems for Applying Machine Learning to Automatically Solve Problems
EP3152893B1 (fr) 2015-07-10 2020-04-08 SZ DJI Technology Co., Ltd. Système à double lentille ayant un séparateur de lumière
WO2017013022A1 (fr) 2015-07-17 2017-01-26 Nestec S.A. Emballage composite à plusieurs contenants
US10455216B2 (en) 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
US9549125B1 (en) 2015-09-01 2017-01-17 Amazon Technologies, Inc. Focus specification and focus stabilization
GB2542115B (en) 2015-09-03 2017-11-15 Rail Vision Europe Ltd Rail track asset survey system
WO2017040949A1 (fr) 2015-09-04 2017-03-09 Crown Equipment Corporation Véhicule industriel avec localisation et navigation basées sur des caractéristiques
US9684081B2 (en) 2015-09-16 2017-06-20 Here Global B.V. Method and apparatus for providing a location data error map
US10262466B2 (en) 2015-10-14 2019-04-16 Qualcomm Incorporated Systems and methods for adjusting a combined image visualization based on depth information
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US9517767B1 (en) 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
WO2017083424A1 (fr) 2015-11-09 2017-05-18 Simbe Robotics, Inc. Procédé pour suivre un niveau de stock dans un magasin
US20170150129A1 (en) 2015-11-23 2017-05-25 Chicago Measurement, L.L.C. Dimensioning Apparatus and Method
US20170147966A1 (en) 2015-11-24 2017-05-25 Verizon Patent And Licensing Inc. Inventory monitoring sensor system
US10592854B2 (en) 2015-12-18 2020-03-17 Ricoh Co., Ltd. Planogram matching
US10445821B2 (en) * 2015-12-18 2019-10-15 Ricoh Co., Ltd. Planogram and realogram alignment
US9984451B2 (en) * 2015-12-18 2018-05-29 Michael Gormish Linear grouping of recognized items in an image
US10336543B1 (en) 2016-01-21 2019-07-02 Wing Aviation Llc Selective encoding of packages
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
KR102373926B1 (ko) 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
US10197400B2 (en) 2016-02-25 2019-02-05 Sharp Laboratories Of America, Inc. Calibration methods and systems for an autonomous navigation vehicle
US10229386B2 (en) 2016-03-03 2019-03-12 Ebay Inc. Product tags, systems, and methods for crowdsourcing and electronic article surveillance in retail inventory management
US9928438B2 (en) 2016-03-10 2018-03-27 Conduent Business Services, Llc High accuracy localization system and method for retail store profiling via product image recognition and its corresponding dimension database
US20170261993A1 (en) 2016-03-10 2017-09-14 Xerox Corporation Systems and methods for robot motion control and improved positional accuracy
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US10262294B1 (en) 2016-03-28 2019-04-16 Amazon Technologies, Inc. Location estimation using array of capacitive sensors
US10565548B2 (en) 2016-03-29 2020-02-18 Bossa Nova Robotics Ip, Inc. Planogram assisted inventory system and method
US9805240B1 (en) 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning
US10558943B2 (en) 2016-04-20 2020-02-11 Wishelf Ltd. System and method for monitoring stocking shelves
US9791862B1 (en) 2016-04-25 2017-10-17 Thayermahan, Inc. Systems and method for unmanned undersea sensor position, orientation, and depth keeping
CA3023233A1 (fr) 2016-05-04 2017-11-09 Walmart Apollo, Llc Systemes et procedes de robot autonome distribues
WO2017196822A1 (fr) 2016-05-09 2017-11-16 Grabango Co. Système et procédé pour des applications informatiques commandées par la vision dans un environnement
US10467587B2 (en) 2016-05-19 2019-11-05 Simbe Robotics, Inc. Method for tracking placement of products on shelves in a store
JP6744430B2 (ja) 2016-05-19 2020-08-19 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. 製品を店舗内の棚構造に割り当てる棚割表を自動的に生成する方法
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US10394244B2 (en) 2016-05-26 2019-08-27 Korea University Research And Business Foundation Method for controlling mobile robot based on Bayesian network learning
JP6339633B2 (ja) 2016-06-28 2018-06-06 新日鉄住金ソリューションズ株式会社 システム、情報処理装置、情報処理方法、及び、プログラム
EP3479298A4 (fr) 2016-06-30 2020-01-22 Bossa Nova Robotics IP, Inc. Système à caméras multiples pour suivi d'inventaire
US10785418B2 (en) 2016-07-12 2020-09-22 Bossa Nova Robotics Ip, Inc. Glare reduction method and system
WO2018018007A1 (fr) 2016-07-22 2018-01-25 Focal Systems, Inc. Détermination d'un emplacement dans un magasin à partir d'images
US9827683B1 (en) 2016-07-28 2017-11-28 X Development Llc Collaborative inventory monitoring
US10071856B2 (en) 2016-07-28 2018-09-11 X Development Llc Inventory management
EP3495907A4 (fr) 2016-08-03 2019-10-23 SZ DJI Osmo Technology Co., Ltd. Procédé et système de commande de support
US10054447B2 (en) 2016-08-17 2018-08-21 Sharp Laboratories Of America, Inc. Lazier graph-based path planning for autonomous navigation
US20180053091A1 (en) 2016-08-17 2018-02-22 Hawxeye, Inc. System and method for model compression of neural networks for use in embedded platforms
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
TWI618916B (zh) 2016-09-23 2018-03-21 啟碁科技股份有限公司 貨架庫存估測方法與系統
US20180101813A1 (en) 2016-10-12 2018-04-12 Bossa Nova Robotics Ip, Inc. Method and System for Product Data Review
US10289990B2 (en) 2016-10-17 2019-05-14 Conduent Business Services, Llc Store shelf imaging system and method
US10210603B2 (en) 2016-10-17 2019-02-19 Conduent Business Services Llc Store shelf imaging system and method
US10019803B2 (en) 2016-10-17 2018-07-10 Conduent Business Services, Llc Store shelf imaging system and method using a vertical LIDAR
US20180114183A1 (en) 2016-10-25 2018-04-26 Wal-Mart Stores, Inc. Stock Level Determination
US10451405B2 (en) 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
US9778388B1 (en) 2016-12-22 2017-10-03 Thayermahan, Inc. Systems and methods for autonomous towing of an underwater sensor array
US10121072B1 (en) 2016-12-30 2018-11-06 Intuit Inc. Unsupervised removal of text from form images
JP6938169B2 (ja) 2017-03-01 2021-09-22 東芝テック株式会社 ラベル生成装置及びプログラム
US10643177B2 (en) 2017-03-21 2020-05-05 Kellogg Company Determining product placement compliance
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
US10229322B2 (en) 2017-04-06 2019-03-12 Ants Technology (Hk) Limited Apparatus, methods and computer products for video analytics
US10534122B2 (en) 2017-04-19 2020-01-14 Sunrise R&D Holdings, Llc Fiber optic shelving system
WO2018204342A1 (fr) 2017-05-01 2018-11-08 Symbol Technologies, Llc Système de détection d'état de produit
DE112018002314T5 (de) 2017-05-01 2020-01-23 Symbol Technologies, Llc Verfahren und vorrichtung zur erkennung eines objektstatus
US20180314908A1 (en) 2017-05-01 2018-11-01 Symbol Technologies, Llc Method and apparatus for label detection
US10505057B2 (en) 2017-05-01 2019-12-10 Symbol Technologies, Llc Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10726273B2 (en) * 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
CN107067382A (zh) 2017-05-11 2017-08-18 南宁市正祥科技有限公司 一种改进的图像边缘检测方法
US20190034864A1 (en) 2017-07-25 2019-01-31 Bossa Nova Robotics Ip, Inc. Data Reduction in a Bar Code Reading Robot Shelf Monitoring System
US10127438B1 (en) 2017-08-07 2018-11-13 Standard Cognition, Corp Predicting inventory events using semantic diffing
US10474988B2 (en) * 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US10861302B2 (en) 2017-08-17 2020-12-08 Bossa Nova Robotics Ip, Inc. Robust motion filtering for real-time video surveillance
WO2019040659A1 (fr) 2017-08-23 2019-02-28 Bossa Nova Robotics Ip, Inc. Procédé de détection de nouveau paquet
US10489677B2 (en) 2017-09-07 2019-11-26 Symbol Technologies, Llc Method and apparatus for shelf edge detection
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
JP6608890B2 (ja) 2017-09-12 2019-11-20 ファナック株式会社 機械学習装置、ロボットシステム及び機械学習方法
JP7019357B2 (ja) 2017-09-19 2022-02-15 東芝テック株式会社 棚情報推定装置及び情報処理プログラム
US10386851B2 (en) 2017-09-22 2019-08-20 Locus Robotics Corp. Multi-resolution scan matching with exclusion zones
US20190180150A1 (en) 2017-12-13 2019-06-13 Bossa Nova Robotics Ip, Inc. Color Haar Classifier for Retail Shelf Label Detection
JP7081140B2 (ja) 2017-12-25 2022-06-07 富士通株式会社 物体認識装置、物体認識方法及び物体認識プログラム
US20190236530A1 (en) 2018-01-31 2019-08-01 Walmart Apollo, Llc Product inventorying using image differences
US11049279B2 (en) 2018-03-27 2021-06-29 Denso Wave Incorporated Device for detecting positional relationship among objects
US10726264B2 (en) 2018-06-25 2020-07-28 Microsoft Technology Licensing, Llc Object-based localization
US10992860B2 (en) 2019-03-29 2021-04-27 Nio Usa, Inc. Dynamic seam adjustment of image overlap zones from multi-camera source images

Also Published As

Publication number Publication date
WO2020247087A1 (fr) 2020-12-10
US11080566B2 (en) 2021-08-03
FR3096787B1 (fr) 2022-07-29
US20200380317A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
US11216868B2 (en) Computer vision system and method for automatic checkout
US10572763B2 (en) Method and apparatus for support surface edge detection
US10373116B2 (en) Intelligent inventory management and related systems and methods
US9594979B1 (en) Probabilistic registration of interactions, actions or activities from multiple views
CN110472515B (zh) 货架商品检测方法及系统
AU2019247400B2 (en) Method, system, and apparatus for correcting translucency artifacts in data representing a support structure
EP3271869B1 (fr) Procédé de traitement d'un signal asynchrone
Vargheese et al. An IoT/IoE enabled architecture framework for precision on shelf availability: Enhancing proactive shopper experience
US11195017B2 (en) Image acquisition device, goods shelf, monitoring method and device for goods shelf, and image recognition method
FR3096787A1 (fr) Procédé, système et appareil pour la détection d’espaces vides dans des structures de support dotées de régions de broches
US11798380B2 (en) Identifying barcode-to-product mismatches using point of sale devices
EP3746967A1 (fr) Méthodes et systèmes d'assistance a l'achat en un point de vente physique
FR3090167A1 (fr) Procédé d’amélioration de la précision d’un ensemble de données d’images d’apprentissage d’un réseau neuronal à convolution pour des applications de prévention des pertes
FR3076643A1 (fr) Calcul de densite de parois de paquets dans l'industrie de chargement de remorque commerciale
US20190325379A1 (en) Intelligent inventory management using cleaning machines
US11600019B2 (en) Image-based inventory estimation
US11200677B2 (en) Method, system and apparatus for shelf edge detection
FR3096816A1 (fr) Procédé, système et appareil pour la détection de façades de produits
FR2958767A1 (fr) Procede de detection de cibles dans des images stereoscopiques.
FR3090166A1 (fr) Procédé, système et appareil d'assistance à la navigation
WO2023042059A1 (fr) Système mis en œuvre par ordinateur et procédé de détection de présence et d'intégrité d'un joint d'étanchéité de récipient
FR3112467A1 (fr) Magasin autonome de vente au détail en libre-service
FR3112466A1 (fr) Magasin autonome de vente au détail en libre-service
FR3135789A1 (fr) Dispositif de détection d'objets en trois dimensions dans un environnement matériel
WO2010020851A1 (fr) Procede et systeme de surveillance de scenes

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211112

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5