BE1026161A9 - Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie - Google Patents
Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie Download PDFInfo
- Publication number
- BE1026161A9 BE1026161A9 BE201905216A BE201905216A BE1026161A9 BE 1026161 A9 BE1026161 A9 BE 1026161A9 BE 201905216 A BE201905216 A BE 201905216A BE 201905216 A BE201905216 A BE 201905216A BE 1026161 A9 BE1026161 A9 BE 1026161A9
- Authority
- BE
- Belgium
- Prior art keywords
- subset
- depth
- depth measurements
- primary
- plank
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000004807 localization Effects 0.000 title claims abstract description 42
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 1
- 238000005259 measurement Methods 0.000 claims abstract description 101
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002483 medication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Werkwijze voor mobiele automatiseringsinrichting-lokalisatie in een navigatieregelaar, waarbij de werkwijze omvat: het regelen van een dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat; het selecteren van een primaire deelverzameling van de dieptemetingen; het selecteren, uit de primaire deelverzameling, van een hoekkandidaat- deelverzameling van de dieptemetingen; het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur; het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand; het selecteren, uit de pad-deelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monster- vlakken die zich uitstrekken vanaf de dieptesensor; het genereren van een plankvlak uit de lokale minimum-dieptemetingen; en het updaten van een lokalisatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.
Description
Werkwijze, systeem en inrichting voor mobiele
AUTOMATISERINGSINRICHTING LOKALISATIE
Achtergrond
Omgevingen waarin objecten moeten worden beheerd, zoals detailhandel-voorzieningen, kunnen complex en veranderlijk zijn. Een detailhandel-voorziening kan bijvoorbeeld objecten omvatten zoals producten voor verkoop, een distributie-omgeving kan objecten omvatten zoals pakketten of pallets, een fabricage-omgeving kan objecten zoals componenten of samenstellen omvatten, een gezondheidszorgomgeving kan objecten omvatten zoals medicamenten of medische apparaten.
Een mobiele inrichting kan worden gebruikt om taken uit te voeren in de omgeving, zoals het opnemen van data voor gebruik in het identificeren van producten die uitverkocht zijn, onjuist zijn gelokaliseerd en dergelijke. Om binnen de omgeving te bewegen wordt een pad gegenereerd dat zich uitstrekt vanaf een startlocatie naar een bestemmingslocatie en de inrichting reist het pad af naar de bestemming. Om accuraat langs het bovengenoemde pad te bewegen volgt de inrichting typisch zijn locatie binnen de omgeving. Echter dergelijke locatievolging (waarnaar ook wordt verwezen als lokalisatie) is onderworpen aan verscheidene bronnen van ruis en afwijkingen, die kunnen optellen tot een voldoende graad om navigationele accuraatheid te beïnvloeden en de uitvoering van taken door de inrichting te hinderen, zoals data-opname taken.
Samenvatting
Volgens een aspect van de uitvinding wordt een werkwijze verschaft voor mobiele automatiseringsinrichting lokalisatie in een navigatieregelaar, waarbij de werkwijze omvat: het regelen van een
BE2019/5216 dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat; het selecteren van een primaire deelverzameling van de dieptemetingen; het selecteren, uit de primaire deelverzameling, van een hoekkandidaatdeelverzameling van de dieptemetingen; het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur; het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand; het selecteren, uit de pad-deelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor; het genereren van een plankvlak uit de lokale minimum-dieptemetingen; en het updaten van een lokahsatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.
Verder kan de werkwijze omvatten, voorafgaand aan het opnemen van de dieptemetingen: het ontvangen van een instructie om een pad over te steken dat wordt geassocieerd met de navigatiestructuur; het verkrijgen van een locatie van de navigatiestructuur in een globaal referentiekader; en het regelen van een zich bewegend mechanisme van de mobiele automatiseringsinrichting om naar de locatie te bewegen.
In een aspect kan het selecteren van de primaire deelverzameling het genereren van een primair selectiegebied omvatten dat is gecentreerd op de dieptesensor, en het selecteren van de dieptemetingen binnen het primaire selectiegebied. Het primaire selectiegebied is bijvoorbeeld een cilinder.
Het selecteren van de pad-deelverzameling kan het verdelen omvatten van de primaire deelverzameling in twee gedeeltes overeenkomstig de hoekrand en het selecteren van één van de gedeeltes.
Alternatief en/of bijkomend kan het updaten van de lokalisatie het initialiseren omvatten van een lokaal referentiekader dat een oorsprong
BE2019/5216 heeft gebaseerd op de hoekrand en het plankvlak. De geüpdatet lokalisatie kan worden verschaft aan een Kalman filter.
De werkwijze kan verder omvatten: het opnemen van beelddata met de dieptemetingen; het detecteren van een plankrand in de beelddata; en het valideren van het plankvlak overeenkomstig de plankrand.
De werkwijze kan verder omvatten: het initiëren van een oversteek van het pad; het regelen van de dieptesensor om een verder meervoudig aantal dieptemetingen op te nemen; het selecteren van een verdere primaire deelverzameling van dieptemetingen uit het verdere meervoudig aantal dieptemetingen; het selecteren van een verdere paddeelverzameling van de dieptemetingen uit de verdere primaire deelverzameling; het genereren van een verder plankvlak gebaseerd op de verdere pad-deelverzameling; en het verder updaten van de lokalisatie gebaseerd op het verdere plankvlak.
Additioneel kan de werkwijze verder omvatten: het bepalen van een hoek van het verdere plankvlak ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verwerpen van het verdere plankvlak als de hoek een drempel overschrijdt.
Volgens een verder aspect van de uitvinding wordt een rekeninrichting verschaft voor mobiele automatiseringsinrichtinglokalisatie, waarbij de rekeninrichting omvat: een dieptesensor, een navigatieregelaar die is ingericht om: de dieptesensor te regelen om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatiestructuur omvat; een primaire deelverzameling van de dieptemetingen te selecteren; uit de primaire deelverzameling, een hoekkandidaat-deelverzameling van de dieptemetingen te selecteren; uit de hoekkandidaat-deelverzameling een hoekrand te genereren corresponderend met de navigatiestructuur; een pad-deelverzameling van de dieptemetingen te selecteren uit de primaire deelverzameling, overeenkomstig de hoekrand; uit de pad-deelverzameling een lokale
BE2019/5216 minimum-dieptemeting te selecteren voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor; een plankvlak te genereren uit de lokale minimum-dieptemetingen; en een lokalisatie van de mobiele automatiseringsinrichting te updaten gebaseerd op de hoekrand en het plankvlak.
Voordeligerwijs is de navigatieregelaar verder ingericht om, voorafgaand aan het regelen van de dieptesensor om de dieptemetingen op te nemen: een instructie te ontvangen om een pad over te steken dat wordt geassocieerd met de navigatiestructuur; een locatie van de navigatiestructuur te verkrijgen in een globaal referentiekader; en een bewegend mechanisme te regelen van de mobiele automatiseringsinrichting om naar de locatie te bewegen.
Alternatief en/of additioneel is de navigatieregelaar verder ingericht om de primaire deelverzameling te selecteren door: een primair selectiegebied te genereren dat is gecentreerd op de dieptesensor; en het selecteren van de dieptemetingen binnen het primaire selectiegebied. Het primaire selectiegebied is bijvoorbeeld een cilinder.
De navigatieregelaar van de rekeninrichting kan verder zijn ingericht om de pad-deelverzameling te selecteren door de primaire deelverzameling te verdelen in twee gedeeltes in overeenstemming met de hoekrand, en één van de gedeeltes te selecteren.
Alternatief en/of bijkomend kan de navigatieregelaar verder zijn ingericht om de lokalisatie te updaten door een lokaal referentiekader te initialiseren dat een oorsprong heeft gebaseerd op de hoekrand en het plankvlak.
De navigatieregelaar kan verder zijn ingericht om de geüpdatete lokalisatie aan een Kalman filter te verschaffen.
De navigatieregelaar is verder ingericht om: de beeldsensor te regelen om beelddata op te nemen met de dieptemetingen; een plankrand te
BE2019/5216 detecteren in de beelddata; en het plankvlak te valideren in overeenstemming met de plankrand.
Voordeligerwijs is de navigatieregelaar verder ingericht om: een oversteek van het pad te initiëren; de dieptesensor te regelen om een verder meervoudig aantal dieptemetingen op te nemen; een verdere primaire deelverzameling van dieptemetingen te selecteren uit het verdere meervoudig aantal dieptemetingen; een verdere pad-deelverzameling van de dieptemetingen te selecteren uit de verdere primaire deelverzameling; een verder plankvlak te genereren gebaseerd op de verdere paddeelverzameling; en de lokalisatie verder te updaten gebaseerd op het verdere plankvlak.
Verder kan de navigatieregelaar zijn ingericht om: een hoek van het verdere plankvlak te bepalen ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verdere plankvlak te verwerpen als de hoek een drempel overschrijdt.
Korte beschrijving van de verschillende aanzichten van de tekeningen
De begeleidende figuren, waarbij gehjke verwijzingscijfers verwijzen naar identieke of functioneel vergelijkbare elementen in de afzonderlijke aanzichten, tezamen met de figuurbeschrijving hieronder, zijn ingehjfd in en maken deel uit van de beschrijving en dienen om uitvoeringsvormen van concepten die de geclaimde uitvinding omvatten verder te illustreren en leggen verscheidene principes en voordelen van deze uitvoeringsvormen uit. Hierin toont
FIG. 1 een schets van een mobiel automatiseringssysteem;
FIG. 2A een mobiele automatiseringsinrichting in het systeem van FIG. 1;
BE2019/5216
FIG. 2B een blokdiagram van bepaalde interne hardware componenten van de mobiele automatiseringsinrichting in het systeem van FIG. 1;
FIG. 3 een blokdiagram van bepaalde interne componenten van de mobiele automatiseringsinrichting van FIG. 1;
FIG. 4 een stroomdiagram van lokalisatiewerkwijze voor de mobiele automatiseringsinrichting van FIG. 1;
FIG. 5 bovenaanzicht van een pad waar de mobiele automatiseringsinrichting van FIG. 1 naar toe zal bewegen;
FIG. 6 a gedeeltelijk bovenaanzicht van het pad van FIG. 5, dat de geaccumuleerde lokalisatie-afwijking toont wanneer de mobiele automatiseringsinrichting van FIG. 1 het pad heeft bereikt;
FIG. 7 een perspectiefaanzicht van een gedeelte van het pad getoond in FIG. 6;
FIGS. 8A en 8B diepte- en beeld-data die zijn vastgelegd door de mobiele automatiseringsinrichting van FIG. 1 gedurende de uitvoering van de werkwijze van FIG. 4;FIGS. 9A-9D een voorbeelduitvoering van blokken 410, 415 en 420 van de werkwijze van FIG. 4;
FIGS 10A-10C een voorbeelduitvoering van blokken 425 en 430 van de werkwijze van FIG. 4;
FIG. 11 een geüpdatete lokalisatie die het resultaat is van de uitvoering van de werkwijze van FIG. 4;
FIG. 12 een stroomdiagram van een andere lokalisatiewerkwijze voor de mobiele automatiseringsinrichting van FIG. 1;
FIG. 13 een voorbeelduitvoering van de werkwijze van FIG. 12, en
FIG. 14 een geüpdatete lokalisatie die het resultaat is van de uitvoering van de werkwijze van FIG. 12.
Elementen in de figuren worden getoond voor eenvoud en duidelijkheid en zijn niet noodzakelijk op schaal getekend. De afmetingen van sommige van de elementen in de figuren kunnen bijvoorbeeld zijn
BE2019/5216 overdreven ten opzichte van andere elementen om het begrijpen van uitvoeringsvormen van de onderhavige uitvinding te helpen verbeteren.
De inrichting en werkwijze componenten worden gerepresenteerd, waar het geschikt is, door conventionele symbolen in de figuren, waarbij alleen die specifieke details worden getoond die relevant zijn voor het begrijpen van de uitvoeringsvormen van de onderhavige uitvinding om zo niet de beschrijving onduidelijk te maken met details die op zichzelf gemakkelijk duidelijk zijn.
Uitgebreide beschrijving
Voorbeelden die hierin zijn geopenbaard zijn gericht op een werkwijze voor mobiele automatiseringsinrichting-lokalisatie in een navigatieregelaar, de werkwijze omvat: het regelen van een dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat; het selecteren van een primaire deelverzameling van de dieptemetingen; het selecteren, uit de primaire deelverzameling, van een hoekkandidaat-deelverzameling van de dieptemetingen; het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur; het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand; het selecteren, uit de paddeelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monster-vlakken die zich uitstrekken vanaf de dieptesensor; het genereren van een plankvlak uit de lokale minimumdieptemetingen; en het updaten van een lokalisatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.
Bijkomende voorbeelden die hierin zijn geopenbaard zijn gericht op een rekenapparaat voor mobiele automatiseringsinrichting-lokalisatie, omvattende: een dieptesensor, een navigatieregelaar die is ingericht om: de dieptesensor te regelen om een meervoudig aantal dieptemetingen op te
BE2019/5216 nemen die corresponderen met een gebied dat een navigatiestructuur omvat; een primaire deelverzameling van de dieptemetingen te selecteren; uit de primaire deelverzameling, een hoekkandidaat-deelverzameling van de dieptemetingen te selecteren; uit de hoekkandidaat-deelverzameling een hoekrand te genereren corresponderend met de navigatiestructuur; een paddeelverzameling van de dieptemetingen te selecteren uit de primaire deelverzameling, overeenkomstig de hoekrand; uit de pad-deelverzameling een lokale minimum-dieptemeting te selecteren voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor; een plankvlak te genereren uit de lokale minimumdieptemetingen; en een lokahsatie van de mobiele automatiseringsinrichting te updaten gebaseerd op de hoekrand en het plankvlak.
FIG. 1 toont een mobiele automatiseringsinrichting 100 in overeenstemming met de leer van deze beschrijving. Het systeem 100 omvat een server 101 in communicatie met ten minste één mobiele automatiseringsinrichting 103 (waarnaar hier ook simpelweg wordt verwezen als de inrichting 103) en met ten minste één cliënt rekeninrichting 105 via communicatie-verbindingen 107, die in het onderhavige voorbeeld zijn geïllustreerd als omvattende draadloze verbindingen. In het onderhavige voorbeeld zijn de verbindingen 107 verschaft door een draadloos local area netwerk (WLAN) dat wordt ingezet in de detailhandel-omgeving door één of meerdere toegangspunten (niet getoond). In andere voorbeelden zijn de server 101, het cliëntapparaat 105 of beide geplaatst buiten de detailhandel-omgeving en omvatten de verbindingen 107 daarom wide-area netwerken zoals het internet, mobiele netwerken en dergelijke. Het systeem 100 omvat ook een doek 108 voor de inrichting 103 in het onderhavige voorbeeld. Het doek 108 staat in verbinding met de server 101 via een verbinding 109 die in het onderhavige
BE2019/5216 voorbeeld een bedrade verbinding is. Echter, in andere voorbeelden is de verbinding 109 een draadloze verbinding
De cliënt-rekeninrichting 105 wordt getoond in FIG. 1 als een mobiele rekeninrichting, zoals een tablet, smartphone of dergelijke. In andere voorbeelden is de cliëntinrichting 105 geïmplementeerd als een ander type rekeninrichting, zoals een desktopcomputer, een laptopcomputer, een andere server, een kiosk, een monitor, en dergelijke. Het systeem 100 kan een meervoudig aantal chëntinrichtingen 105 omvatten in verbinding met de server 101 via de verbindingen 107.
Het systeem 100 wordt ingezet in het geïllustreerde voorbeeld in een detailhandel-omgeving die een meervoudig aantal plank-modules 110-1, 110-2, 110-3 enzovoort (waarnaar gezamenlijk wordt verwezen als planken 110, en waarnaar in het algemeen wordt verwezen als een plank 110 - deze naamgeving wordt ook gebruikt voor andere elementen die hierin worden besproken) omvat. Elke plank-module 110 ondersteunt een meervoudig aantal producten 112. Elke plank-module 110 omvat een plankachterkant 116-1, 116-2, 116-3 en een ondersteuningsoppervlak (bijvoorbeeld ondersteuningsoppervlak 117-3 zoals getoond in FIG. 1) dat zich uitstrekt vanaf de plankachterkant 116 naar een plankrand 118-3, 118-2, 118-3.
De plankmodules 110 zijn typisch opgesteld in een meervoudig aantal paden, waarvan elk een meervoudig aantal module 110 omvat die zijn uitgelijnd van eind naar eind. In dergelijke opstellingen zijn de plankranden 118 naar de paden toe gekeerd, waardoor klanten in de detailhandelomgeving als ook de inrichting 103 zich kunnen verplaatsen. Bij elk uiteinde van een pad vormt één van de modules 110 een padeindstuk (endcap), waarbij bepaalde van de plankranden 118 van die module 110 niet naar het pad zijn gekeerd, maar naar buiten toe vanaf het uiteinde van het pad. In sommige voorbeelden (niet getoond) zijn eindstuk structuren geplaatst aan de uiteindes van de paden. De eindstuk structuren kunnen bijkomstige plankmodules 110 zijn, die bijvoorbeeld een
BE2019/5216 gereduceerde lengte hebben ten opzichte van de modules 110 binnen het pad, en haaks op de modules 110 binnen het pad zijn opgesteld.
Zoals duidelijk zal zijn uit FIG. 1, verwijst de uitdrukking “plankrand” 118 zoals hierin gebruikt, waarnaar ook kan worden verwezen als de rand van een ondersteuningsoppervlak (bijvoorbeeld de ondersteuningsoppervlakken 117), naar een oppervlak begrensd door naburige oppervlakken met verschillende hellingshoeken. In het voorbeeld getoond in FIG. 1 maakt de plankrand 118-3 een hoek van ongeveer negentig graden ten opzichte van elk van de ondersteuningsoppervlakken 117-3 en de onderzijde (niet getoond) van het ondersteuningsoppervlak 1173. In andere voorbeelden zijn de hoeken tussen de plankrand 118-3 en de naburige oppervlakken, zoals het ondersteuningsoppervlak 117-3, meer of minder dan negentig graden. Zoals de vakman zich realiseert, is een ondersteuningsoppervlak niet beperkt tot een plankondersteuningsoppervlak. In een uitvoeringsvorm kan een ondersteuningsoppervlak bijvoorbeeld een tafel-ondersteuningsoppervlak (bijvoorbeeld een tafel-bovenkant) zijn. In zo’n uitvoeringsvorm corresponderen een “plankrand” en een “plankvlak” respectievelijk met een rand van een ondersteuningsoppervlak, zoals een tafelondersteuningsoppervlak en een vlak dat de rand van het tafelondersteuningsoppervlak omvat.
De inrichting 103 wordt ingezet in de detailhandel-omgeving, en communiceert met de server 101 (bijvoorbeeld via de verbinding 107) om autonoom of deels autonoom te navigeren langs een lengte 119 van ten minste een gedeelte van de planken 110. De inrichting 103 is ingericht om te midden van de planken 110 te navigeren, bijvoorbeeld overeenkomstig een referentiekader 102 dat is ingesteld binnen de detailhandel-omgeving. Naar het referentiekader 102 kan ook worden verwezen als een globaal referentiekader. De inrichting 103 is ingericht om gedurende dergelijke navigatie de locatie van de inrichting 103 te volgen ten opzichte van het
BE2019/5216 referentiekader 102. Met andere woorden, de inrichting 103 is ingericht om lokalisatie uit te voeren. Zoals hierna in meer detail zal worden beschreven is de inrichting 103 ook ingericht om de bovengenoemde lokalisatie te updaten door bepaalde structurele kenmerken binnen de detailhandelomgeving te detecteren.
De inrichting 103 is voorzien van een meervoudig aantal navigatie en data-opname sensors 104, zoals beeldsensors (bijvoorbeeld één of meerdere digitale camera’s) en dieptesensors (bijvoorbeeld één of meerdere Licht Detectie en Bereik (LIDAR) sensors, één of meerdere dieptecamera’s die gestructureerde lichtpatronen gebruiken, zoals infrarood licht of dergelijke). De inrichting 103 kan worden ingericht om de sensors 104 te gebruiken om zowel te midden van de planken 110 te navigeren als ook om plankdata op te nemen gedurende dergelijke navigatie.
De server 101 omvat een speciaal-doel regelaar (special purpose controller), zoals een processor 120, die specifiek is ontworpen om de mobiele automatiseringsinrichting 103 te regelen en/of te assisteren om door de omgeving te navigeren en data vast te leggen. Daartoe is de server 101 ingericht om in een geheugen 122 dat is verbonden met de processors 120 een geheugenmodule 132 te onderhouden die data omvat gebruik in navigatie door de inrichting 103.
De processor 120 kan verder worden ingericht om de vastgelegde data te verkrijgen via een communicatie-interface 124 voor latere verwerking (bijvoorbeeld om objecten te detecteren zoals op een plank geplaatste producten in de vastgelegde data, en statusinformatie te detecteren corresponderend met de objecten). De server 101 kan ook worden ingericht om statusmeldingen te versturen (bijvoorbeeld meldingen die aangeven dat producten uitverkocht, laag voorradig of fout geplaatst zijn) aan de cliëntinrichting 105 als antwoord op de bepaling van productstatusdata. De chëntinrichting 105 omvat één of meerdere regelaars (bijvoorbeeld centrale verwerkingseenheden (CPUs) en/of veld
BE2019/5216 programmeerbare gate arrays (FPGAs) en dergelijke) die zijn ingericht om meldingen te verwerken (bijvoorbeeld om te tonen) die zijn ontvangen van de server 101.
De processor 120 is onderling verbonden met een nietvergankelijk door de computer leesbaar opslagmedium, zoals het bovenvermelde geheugen 122, waarop door de computer leesbare instructies zijn opgeslagen voor het uitvoeren van verscheidene functionaliteiten, inclusief regeling van de inrichting 103 om door de modules 110 te navigeren en plankdata vast te leggen, als ook na-verwerking van de plankdata. Het geheugen 122 omvat een combinatie van volatiel (bijvoorbeeld Random Access Memory of RAM) en niet-volatiel geheugen (bijvoorbeeld read only memory of ROM, Eletrically Erasable PRogrammable Read Only Memory of EEPROM, flash geheugen). De processor 120 en het geheugen 122 omvatten elk één of meerdere geïntegreerde circuits. In sommige uitvoeringsvormen is de processor 120 geïmplementeerd als één of meerdere centrale verwerkingseenheden (CPUs) en/of grafische verwerkingseenheden (GPUs).
De server 101 omvat ook de bovenvermelde communicatieinterface 124 die onderling is verbonden met de processor 120. De communicatie-interface 124 omvat geschikte hardware (bijvoorbeeld zenders, ontvangers, netwerk-interface regelaars en dergelijke) die het de server 101 mogelijk maken te communiceren met andere rekeninrichtingen - in het bijzonder de inrichting 103, de chëntinrichting 105 en het doek 108 -via de verbindingen 107 en 109. De verbindingen 107 en 109 kunnen directe verbindingen zijn of verbindingen die één of meerdere netwerken doorkruisen, waaronder zowel lokale als wide-area netwerken zijn begrepen. De specifieke componenten van de communicatie-interface 124 worden geselecteerd op basis van de het type netwerk of andere verbindingen waarover de server 101 dient te communiceren. In het onderhavige voorbeeld, zoals eerder opgemerkt, is een draadloos local-area netwerk
BE2019/5216 geïmplementeerd in de detailhandelomgeving door middel van de inzet van één of meerdere draadloze toegangspunten. De verbindingen 107 omvatten daarom draadloze verbindingen tussen de inrichting 103 en de mobiele inrichting 105 en de bovengenoemde toegangspunten, en/of een bedrade verbinding (bijvoorbeeld een Ethernet-geb aseerde verbinding) tussen de server 101 en het toegangspunt.
Het geheugen 122 slaat een meervoudig aantal applicaties op, waarbij elk een meervoudig aantal door de computer leesbare instructies omvat die door de processor 120 kunnen worden uitgevoerd. De uitvoering van de hiervoor genoemde instructies door de processor 120 richt de server 101 in om verscheidene handelingen uit te voeren die hierin zijn besproken. De applicaties die zijn opgeslagen in het geheugen 122 omvatten een regelapplicatie 128, die ook kan worden geïmplementeerd als een stel (suite) van logisch verschillende applicaties. In het algemeen is de processor 120 ingericht om, via uitvoering van de applicatie 128 of sub-componenten daarvan en in samenwerking met de andere componenten van de server 101, verscheidene functionaliteiten te implementeren. Naar de processor 120, zoals ingericht via de uitvoering van de regelapplicatie 128, wordt hierin ook verwezen als de regelaar 120. Zoals nu duidelijk zal zijn, kan een deel of alle functionaliteit die wordt geïmplementeerd door de regelaar 120, die hierna wordt beschreven, ook worden uitgevoerd door vooraf ingerichte hardware elementen (bijvoorbeeld één of meerdere FPGAs en/of applicatiespecifieke geïntegreerde circuits (ASICs))) in plaats van uitvoering van de regelapplicatie 128 door de processor 120.
Onder verwijzing naar FIGs. 2A en 2B wordt de mobiele automatiseringsinrichting 103 nu in meer detail getoond. De inrichting 103 omvat een chassis 201 dat een bewegend mechanisme 203 omvat (bijvoorbeeld één of meerdere elektrische motoren die de wielen, rupsbanden of dergelijke aandrijven). De inrichting 103 omvat verder een sensormast 205 die wordt ondersteund op het chassis 201 en in het onderhavige
BE2019/5216 voorbeeld zich omhoog uitstrekt (bijvoorbeeld hoofdzakelijk verticaal) vanaf het chassis 201. De mast 205 ondersteunt de sensors 104 die eerder zijn genoemd. In het bijzonder omvatten de sensors 104 ten minste één beeldverwerkingssensor 207, zoals een digitale camera, als ook ten minste één dieptesensor 209, zoals een 3D digitale camera die in staat is om zowel dieptedata als beelddata vast te leggen. De inrichting 103 omvat ook bijkomende dieptesensors, zoals LIDAR sensors 211. In andere voorbeelden omvat de inrichting 103 bijkomende sensors, zoals één of meerdere RFID lezers, temperatuursensors, en dergelijke.
In het onderhavige voorbeeld ondersteunt de mast 205 zeven digitale camera’s 207-1 tot en met 207-7 en twee LIDAR sensors 211-1 en 211-2. De mast 205 ondersteunt ook een meervoudig aantal verlichtingssamenstellen 213, die zijn ingericht om de gezichtsvelden van de camera’s 207 te verlichten. Dat wil zeggen, het verlichtingssamenstel 213-1 verlicht het gezichtsveld van de camera 207-1, enzovoort. De sensors 207 en 211 zijn zodanig georiënteerd op de mast dat de gezichtsvelden van elke sensor naar een plank 110 zijn gekeerd langs de lengte 119 waarlangs de inrichting 103 beweegt. De inrichting 103 is ingericht om een locatie van de inrichting 103 te volgen (bijvoorbeeld een locatie van het middelpunt van het chassis 201) in een gemeenschappelijk referentiekader dat eerder is ingesteld in de detailhandel faciliteit, wat het mogelijk maakt dat data die is vastgelegd door de mobiele automatiseringsinrichting wordt gerapporteerd aan het gemeenschappelijke referentiekader.
De mobiele automatiseringsinrichting 103 omvat een speciaaldoel regelaar, zoals een processor 220, zoals getoond in FIG. 2B, die onderling is verbonden met een niet-vergankelijk door de computer leesbaar opslagmedium, zoals een geheugen 222. Het geheugen 222 omvat een combinatie van volatiel (bijvoorbeeld Random Access Memory of RAM) en niet-volatiel geheugen (bijvoorbeeld read only memory of ROM, Eletrically Erasable PRogrammable Read Only Memory of EEPROM, flash geheugen).
BE2019/5216
De processor 220 en het geheugen 222 omvatten elk één of meerdere geïntegreerde circuits. Het geheugen 222 slaat door de computer leesbare instructies op voor uitvoering door de processor 220. In het bijzonder slaat het geheugen 222 een regelapplicatie 228 op die, wanneer uitgevoerd door de processor 220, de processor 220 inricht om verscheidene functies uit te voeren die hierna in meer detail worden besproken en zijn gerelateerd aan de navigatie van de inrichting 103 (bijvoorbeeld door het regelen van het bewegende mechanisme 203). De apphcatie 228 kan ook worden geïmplementeerd als een stel verschillende applicaties in andere voorbeelden.
Naar de processor 220, wanneer deze zo is ingericht door de ruitvoering van de applicatie 228, kan ook worden verwezen al een regelaar 220. Zoals de vakman waardeert, kan de functionaliteit geïmplementeerd door de processor 220 via de uitvoering van de applicatie 288 ook worden geïmplementeerd door één of meerdere speciaal ontworpen hardware of firmware componenten, zoals FPGAs, ASICs en dergelijke in andere uitvoeringsvormen.
Het geheugen 222 kan ook een geheugenmodule 232 opslaan die bijvoorbeeld een kaart van de omgeving omvat waarin de inrichting 103 functioneert, voor gebruik gedurende de uitvoering van de applicatie 228. De inrichting 103 kan verder communiceren met de server 101, bijvoorbeeld om instructies te ontvangen om naar gespecificeerde locaties te navigeren (bijvoorbeeld naar het uiteinde van een bepaald pad dat een stel modules 110 omvat) en om data-vastleg bewerkingen te initiëren (bijvoorbeeld om het boven genoemde pad te doorkruisen gedurende het vastleggen van beeld en/of dieptedata), via een communciatie-interface 224 over de verbinding 107 getoond in FIG. 1. De communicatie-interface 224 stelt de inrichting 103 ook in staat te communiceren met de server 101 via het doek 108 en de verbinding 109.
BE2019/5216
In het onderhavige voorbeeld, zoals hierna besproken, is de inrichting 103 ingericht (via de uitvoering van de applicatie 228 door de processor 220) om een lokalisatie te onderhouden die een locatie van de inrichting 103 representeert binnen een referentiekader, zoals (maar niet noodzakelijk beperkt tot) het globale referentiekader 102. Het onderhouden van een geüpdatete lokalisatie stelt de inrichting 103 in staat om commando’s te genereren voor het bedienen van het bewegende mechanisme 203 om te bewegen naar andere locaties, zoals een pad dat is gespecificeerd in een instructie die is ontvangen van de server 101. Zoals duidelijk zal zijn voor de vakman, kan lokalisatie gebaseerd op inertiaal meting (bijvoorbeeld via versnellingsmeters en gyroscopen) als ook lokalisatie gebaseerd op odometrie (bijvoorbeeld via een wielcodeerinrichting die is gekoppeld met het bewegende mechanisme) fouten maken die over tijd accumuleren. De inrichting 103 is daarom ingericht, zoals hierna in meer detail wordt besproken, om de lokalisatiedata te updaten door bepaalde navigatiestructuren te detecteren binnen de detailhandelomgeving. In het bijzonder kunnen pad-eindstukken en plankvlakken worden gebruikt door de inrichting 103 om lokalisatiedata te updaten.
Zoals duidelijk zal zijn in de bespreking hierna, kan in andere voorbeelden enige of alle verwerking uitgevoerd door de server 101 worden uitgevoerd door de inrichting 103, en enige of alle verwerking uitgevoerd door de inrichting 103 kan worden uitgevoerd door de server 101.
Onder verwijzing naar FIG. 3, alvorens de handelingen te beschrijven die worden ondernomen door de inrichting 103 om de lokalisatiedata te updaten, worden bepaalde componenten van de applicatie 228 in meer detail besproken. Zoals duidelijk zal zijn voor de vakman, kunnen in andere voorbeelden de componenten van de applicatie 228 worden gescheiden in verschillende applicaties, of worden gecombineerd in andere verzamelingen van componenten. Sommige of alle van de componenten getoond in FIG. 3 kunnen ook worden geïmplementeerd als
BE2019/5216 daartoe uitgeruste hardware componenten, zoals één of meerdere ASICs of FPGAs.
De applicatie 228 omvat een preprocessor 300 die is ingericht om een primaire deelverzameling te selecteren van dieptemetingen voor verdere verwerking om de inrichting 103 te lokaliseren. De applicatie 228 omvat ook een hoekgenerator 304 die is ingericht om bepaalde navigatiestructuren te detecteren waar lokalisatie-updates op worden gebaseerd. In het onderhavige voorbeeld wordt naar de generator 304 verwezen als een hoekgenerator omdat de navigatiestructuur die door de hoekgenerator 304 is gedetecteerd een hoek is (bijvoorbeeld een verticale rand) van een plankmodule 110, waarnaar ook kan worden verwezen als een eindstukhoek. De applicatie 228 omvat verder een plankvlakgenerator 308 die is ingericht om op basis van de vastgelegde dieptedata of een deelverzameling daarvan een vlak te genereren dat de plankranden 118 omvat binnen een pad dat een meervoudig aantal modules 110 omvat. In sommige voorbeelden omvat de applicatie 228 ook een beeldverwerkingsprocessor 312, die is ingericht om structurele kenmerken zoals de plankranden 118 te detecteren uit de vastgelegde beelddata (dat wil zeggen onafhankelijk van de vastgelegde dieptedata). De beeld-gebaseerde plankrand detecties worden gebruikt door de plankvlakgenerator 308 om het gegenereerde plankvlak te valideren. In andere voorbeelden is de beeldverwerkingsprocessors 312 weggelaten.
De applicatie 228 omvat ook een lokaliseerder 316 die is ingericht om één of beide van de gegenereerde hoekrand uit de hoekgenerator 304 en een plankvlak uit de plankvlakgenerator 308 te ontvangen, en om de lokalisatie van de inrichting 103 te updaten in ten minste één referentiekader gebaseerd op de boven genoemde informatie. Zoals hierna zal worden getoond, kan het referentiekader het globale referentiekader 102 omvatten dat hiervoor is genoemd, als ook een lokaal referentiekader dat eigen is aan een bepaald pad van modules 110. De lokaliseerder 316 kan ook
BE2019/5216 sub-componenten omvatten die zijn ingericht om paden te genereren en uit te voeren waarlangs de inrichting 103 beweegt (via regeling van het bewegende mechanisme 203), terwijl geüpdatete lokalisatie-informatie wordt bij gehouden.
De functionaliteit van de applicatie 228 zal nu worden beschreven in meer detail, onder verwijzing naar FIG. 4. FIG. 4 toont een werkwijze 400 voor het updaten van mobiele automatiseringsinrichting-lokalisatie, die zal worden beschreven samen met de uitvoering daarvan in het systeem 100, en in het bijzonder door de inrichting 103, onder verwijzing naar de componenten geïllustreerd in FIG. 1.
Bij blok 405 is de inrichting 103, en in het bijzonder de preprocessor 300 van de applicatie 228, ingericht om een meervoudig aantal dieptemetingen vast te leggen, waarnaar ook wordt verwezen als dieptedata. De dieptemetingen worden vastgelegd via de bediening van één of meerdere dieptesensors van de inrichting 103. In het onderhavige voorbeeld worden de dieptemetingen vastgelegd via bediening van de dieptesensor 209 (dat wil zeggen de 3D digitale camera) die hiervoor is genoemd. De 3D camera is ingericht om zowel dieptemetingen als kleurdata, waarnaar hierin wordt verwezen als beelddata, vast te leggen. Dat wil zeggen, elk frame dat wordt vastgelegd door de 3D camera is een puntenwolk, met zowel kleur- en diepte-data voor elk punt. De puntenwolk is typisch gedefinieerd in een referentiekader gecentreerd rondom de sensor 209 zelf. In andere voorbeelden is de beelddata weggelaten en omvat de uitvoering van blok 405 alleen de opname van dieptedata.
De inrichting 103 is ingericht om blok 405 uit te voeren als respons op de aankomst van de inrichting 103 bij een gespecificeerde locatie in de detailhandelomgeving. In het onderhavige voorbeeld is de inrichting 103 ingericht om voorafgaand aan het uitvoeren van blok 405 een instructie van de server 101 te ontvangen om van een huidige locatie van de inrichting 103 te bewegen naar een specifiek pad. De server 101 kan bijvoorbeeld,
BE2019/5216 onder verwijzing naar FIG. 5, ingericht zijn om een instructie te geven (bijvoorbeeld via de verbinding 107) aan de inrichting 103 om vanaf een huidige locatie in het referentiekader 102 naar een pad 500 te bewegen en bij aankomst bij het pad 500, een data-opname te starten waarbij de inrichting 103 de lengte van een meervoudig aantal modules 510-1, 510-2 en 510-3 doorkruist om beeld- en/of diepte-data vast te leggen die de modules 510 tonen.
In respons op het ontvangen van de instructie, is de inrichting 103 ingericht (bijvoorbeeld door uitvoering van de lokaliseerder 316) om een pad te genereren en uit te voeren vanaf de huidige locatie van de inrichting 103 naar een locatie 504 van een eindstuk hoek van het pad 500. De locaties van de modules 510 en aldus de locatie 504 zijn omvat in de kaart die is opgeslagen in de geheugenmodule 232. De lokaliseerder 316 is daarom ingericht om de hoeklocatie 504 op te roepen uit de geheugenmodule 232, om een pad naar de locatie 504 te genereren en uit te voeren. FIG. 6 toont de inrichting 103 volgend op de uitvoering van het bovengenoemde pad. In het bijzonder worden de actuele locatie en oriëntatie (dat wil zeggen de actuele houding) van de inrichting 103 getoond met ononderbroken lijnen, terwijl een lokalisatie 600 van de inrichting 103 (dat wil zeggen een locatie en oriëntatie in het referentiekader 102 zoals onderhouden door de lokaliseerder 316) wordt getoond met stippellijnen. Zoals is te zien in FIG. 6, is de lokalisatie van de inrichting 103 waargenomen door de lokaliseerder 316 onnauwkeurig. Afwijkingen in lokalisatie kunnen ontstaan uit een verscheidenheid aan bronnen en kunnen met de tijd accumuleren. Afwijkingsbronnen omvatten slip van het aandrijvend mechanisme 203 op de vloer van de detailhandelfaciliteit, signaalruis van inertiaalsensors en dergelijke.
Geaccumuleerde lokalisatieafwijkingen kunnen in sommige voorbeelden ongeveer 20 centimeter bereiken (zoals duidelijk zal zijn, zijn zowel grotere als kleinere afwijkingen mogelijk). Dat wil zeggen, de
BE2019/5216 lokalisatie 600 van de inrichting 103 in het referentiekader 102 kan op een afstand van ongeveer 20 cm zijn van de eigenlijke, ware positie van de inrichting 103. Voor bepaalde taken, zoals de bovenvermelde data-opname bewerking, kunnen kleinere lokahsatieafwijkingen nodig zijn (bijvoorbeeld onder ongeveer 5 cm). Met andere woorden, voor data opname bewerkingen om vastgelegde data te produceren (bijvoorbeeld beelddata die de modules 510 toont) van voldoende kwaliteit voor het later verwerken, kan het nodig zijn dat de lokaliseerder 316 een lokalisatie onderhoudt die voldoende accuraat is om te garanderen dat de ware positie van de inrichting 103 ten opzichte van de module 510 waarvoor data wordt opgenomen binnen ongeveer 5 cm van een doelpositie is. De doelpositie kan bijvoorbeeld ongeveer 75 cm vanaf de module 510 zijn, en aldus kan het nodig zijn dat de lokahseerder 316 een lokalisatie onderhoudt die garandeert dat de ware afstand tussen de module 510 en de inrichting 103 tussen ongeveer 70 cm en ongeveer 80 cm bhjft.
Daarom, alvorens te beginnen met de data-opname bewerking, is de inrichting 103 ingericht om de lokalisatie te updaten die is opgeslagen in de lokaliseerder 316 via de uitvoering van de werkwijze 400, te beginnen met de opname van diepte en beelddata bij blok 405. De uitvoering van blok 405 wordt geïnitieerd volgend op de aankomst van de inrichting 103 naburig aan de locatie 504, zoals getoond in FIG. 6.
FIG. 7 illustreert een gedeelte van de module 510-3 naburig aan de locatie 504, volgend op de aankomst van de inrichting 103 bij de locatie getoond in het bovenaanzicht van FIG. 6. De module 510-3 omvat een paar ondersteuningsoppervlakken 717-1 en 717-2 die zich uitstrekken vanaf een plankachterkant 716 naar plankranden 718-1 en 718-2. Het ondersteuningsoppervlak 717-2 ondersteunt producten 712 daarop, terwijl het ondersteuningsoppervlak 717-1 niet direct producten 712 zelf ondersteunt. In plaats daarvan ondersteunt de plank achterkant 716 pinnen 720 waarop additionele producten 712 worden ondersteund. Een gedeelte
BE2019/5216 van een grondoppervlak 724, waarlangs de inrichting 103 beweegt en corresponderend met het X-Y vlak (dat wil zeggen met een hoogte van nul op de Z as van het referentiekader 102 getoond in FIG. 1) in het referentiekader 103, is ook getoond.
FIGS. 8A en 8B illustreren een voorbeeld van de data die zijn opgenomen bij blok 405. In het bijzonder toont FIG. 8 A een verzameling van dieptemetingen corresponderend met de module 510-3, in de vorm van een puntenwolk 800, terwijl FIG. 8B beelddata 850 toont. In het onderhavige voorbeeld is de sensor 209 ingericht om diepte en beelddata in hoofdzaak tegelijkertijd op te nemen, en de diepte en beelddata worden opgeslagen in een enkel bestand (elk punt in de puntenwolk 800 omvat bijvoorbeeld ook kleurdata corresponderend met de beelddata 850). De dieptedata 800 en de beelddata 850 zijn daarom separaat getoond voor illustratieve doeleinden in FIGs. 8A en 8B.
Terugkerend naar FIG. 4, bij blok 410 is de preprocessor 300 ingericht om een primaire deelverzameling van de dieptedata te selecteren die zijn opgenomen bij blok 405. De primaire deelverzameling van dieptemetingen is geselecteerd om het volume van dieptemetingen te reduceren dat moet worden verwerkt bij de rest van de werkwijze 400, terwijl de primaire deelverzameling structurele eigenschappen omvat waarop de inrichting 103 is ingericht om lokalisatie updates op te baseren. In het onderhavige voorbeeld is de primaire deelverzameling geselecteerd bij blok 410 door dieptemetingen te selecteren binnen een vooraf gedefinieerde drempelafstand van de sensor 209 (dat wil zeggen, zonder dieptemetingen op een grotere afstand vanaf de sensor dan de drempel).
Meer specifiek, in het onderhavige voorbeeld is de preprocessor 300 ingericht om de primaire deelverzameling te selecteren door dieptemetingen uit de puntenwolk 800 te selecteren die binnen een primair selectiegebied vallen, zoals een cilindrisch gebied van vooraf gedefinieerde afmetingen en positie ten opzichte van de sensor 209. FIG. 9a illustreert een
BE2019/5216 voorbeeld cilindrisch selectiegebied 900 wordt, gecentreerd op de locatie 904 van de sensor 209, die typisch de oorsprong is van het referentiekader waarin de punten wolk 800 is op genomen. Het gebied 900 heeft een vooraf gedefinieerde diameter die voldoende groot is om de hoek van de een eindstuk module 510-3 te omvatten ondanks de mogelijk inaccurate lokalisatie 600 van de inrichting 103 getoond in FIG. 6. Het gebied 900 heeft ook een basis gesitueerd op een vooraf gedefinieerde hoogte ten opzichte van de sensor 209 (bijvoorbeeld om de basis van het gebied 900 ongeveer 2 cm boven het grondoppervlak 724 te plaatsen). Het gebied 900 heeft ook een vooraf gedefinieerde hoogte (dat wil zeggen een afstand vanaf de basis naar de top van de cilinder) geselecteerd om hoofdzakelijk de gehele hoogte van de modules 510 (bijvoorbeeld ongeveer 2 meter ) te omvatten. In sommige voorbeelden is bij blok 410 de preprocessor ook ingericht om een grondvlakdeelverzameling van dieptemetingen te selecteren, bijvoorbeeld door het toepassen van een passeerfilter om alleen punten te selecteren binnen een vooraf gedefinieerde afstand vanaf het X-Y vlak in het referentiekader 102 (bijvoorbeeld boven een hoogte van -2cm en onder een hoogte van 2cm). De grondvlakdeelverzameling kan worden gebruikt om een grondvlak te genereren (bijvoorbeeld door toepassing van een geschikte vlak-fitbewerking) voor gebruik in het valideren van latere verwerkingsuitvoeren van de werkwijze 400, zoals hierna zal worden besproken.
Terugkerend naar FIG. 4, is bij blok 415 de hoekgenerator 304 ingericht om uit de primaire deelverzameling van dieptedata een hoekkandidaatdeelverzameling van dieptemetingen te selecteren en om een hoekrand te genereren uit de hoekkandidaatdeelverzameling. De uitvoering van blok 415 dient om de verzameling van dieptemetingen verder te beperken waarbinnen de eindstuk-hoek van de module 510-3 aanwezig is. Onder verwijzing naar FIG. 9B, is de hoekgenerator 304 ingericht om de hoekkandidaatdeelverzameling te selecteren, in het onderhavige voorbeeld,
BE2019/5216 door de dieptemeting te identificeren binnen de primaire deelverzameling die het meest nabij de sensorlocatie 904 is. In het bijzonder toont FIG. 9B een bovenaanzicht van de primaire deelverzameling van dieptemetingen. De primaire deelverzameling is getoond als een wig in plaats van als een gehele cilinder omdat de sensor 209 een gezichtsveld heeft van minder dan 360 graden (bijvoorbeeld van ongeveer 130 graden in het getoonde voorbeeld). Zoals is te zien in FIG. 9B, is alleen een deelverzameling van de dieptemetingen (de primaire deelverzameling waarnaar boven wordt verwezen) in de puntenwolk 800 getoond. In het bijzonder zijn geen dieptemetingen corresponderend met het grondoppervlak 724 aanwezig in de primaire deelverzameling.
De hoekgenerator 304 is ingericht om het punt 908 te identificeren in de primaire deelverzameling als het punt het dichtste bij de locatie 904 (dat wil zeggen de locatie van de sensor 209). Van het punt 908 wordt aangenomen dat het correspondeert met een gedeelte van de eindstuk-hoek van de module 510-3. De hoekgenerator is daarom ingericht om als respons op het identificeren van het punt 908 de boven genoemde hoekkandidaatdeelverzameling te selecteren door het genereren van een hoekkandidaatselectiegebied op basis van het punt 908. In het onderhavige voorbeeld is het hoekkandidaatselectiegebied een verdere cilinder met een kleinere vooraf gedefinieerde diameter dan de cilinder 900 die eerder is genoemd en met een lengteas die het punt 908 omvat. Een voorbeeld kandididaathoekselectiegebied 912 is getoond in FIG. 9A. Het gebied 912 kan gepositioneerd zijn op dezelfde hoogte (bijvoorbeeld 2cm boven het grondoppervlak 724) as het gebied 900 en kan dezelfde hoogte als het gebied 900 hebben.
Nadat het hoekkandidaatselectiegebied 912 is geselecteerd, is de hoekgenerator 304 ingericht om een rand (dat wil zeggen een lijn) te fitten aan de punten omvat in het gebied 912. Onder verwijzing naar FIG. 9C, wordt daar het gebeid 912 en de hoekkandidaatdeelverzameling van
BE2019/5216 dieptemetingen daarin omvat in isolatie getoond. Een hoekrand 916 wordt ook getoond in FIG. 90, die is gefit aan de punten van de hoekkandidaatdeelverzameling. De hoekrand 916 is gegenereerd overeenkomstig een geschikte lijn-fit bewerking, zoals een willekeurige monster consensus (RANSAC) lijn-fit bewerking. Beperkingen kunnen ook worden toegepast op de lijnfit bewerking. De hoekgenerator 304 kan bijvoorbeeld worden ingericht om een hoofdzakelijk verticale lijn te fitten aan de punten van de hoekkandidaatdeelverzameling door een beperking op te leggen dat de resulterende hoekrand 916 hoofdzakelijk haaks staat op het bovengenoemde grondvlak.
Terugkerend naar FIG. 4, bij blok 420, in respons op het genereren van de hoekrand 916, is de hoekgenerator 304 ingericht om een paddeelverzameling te selecteren van dieptemetingen uit de primaire deelverzameling (getoond in FIG. 9B), op basis van de hoekrand 916. In het bijzonder, onder verwijzing naar FIG. 9D, is een paddeelverzameling 924 geselecteerd uit de primaire deelverzameling, exclusief een rest 928 van de primaire deelverzameling, door alleen de dieptemetingen van de primaire deelverzameling te selecteren die op een vooraf gedefinieerde zijde van de hoekrand 916 liggen ten opzichte van de centrumlocatie 904. De hoekgenerator 304 is bijvoorbeeld ingericht om de primaire deelverzameling met een vlak 920 te verdelen dat zich uitstrekt door de hoekrand 916 en het centrum 904 doorsnijdt. De paddeelverzameling 924 is de deelverzameling van punten aan de zijde van het vlak 920 dat correspondeert met het binnenste van het pad 500.
In andere voorbeelden is bij blok 420 de hoekgenerator 304 ook ingericht om een eindstuk deelverzameling te selecteren, corresponderend met de rest 928 van de primaire deelverzameling getoond in FIG. 9D. Zoals nu duidelijk zal zijn, wordt aangenomen dat de eindstukdeelverzameling de randen 718 omvat die zich haaks op het pad 500 uitstrekken.
BE2019/5216
Bij blok 425, is de plankvlakgenerator 308 ingericht om lokale minima te genereren uit de paddeelverzameling voor gebruik in de generatie van een plankvlak bij blok 430. Meer specifiek, met betrekking tot FIG. 10A, is in het onderhavige voorbeeld de plankvlakgenerator 308 ingericht om een meervoudig aantal monstervlakken 1000-1, 1000-2, 100-3, enzovoort te genereren die zich uitstrekken vanaf de centrumlocatie 904 op vooraf gedefinieerde hoeken door de paddeelverzameling van dieptemetingen. Voor elk monstervlak 1000, worden dieptemetingen binnen een drempelafstand van het monstervlak 1000 op het monstervlak geprojecteerd. Een meervoudig aantal dieptemetingen 1004 wordt getoond in FIG. 10A als zijnde binnen de boven genoemde drempelafstand van de vlakken 100. Verder, zoals getoond in FIG. 10B, wordt voor elk monstervlak een enkele van de metingen 1004 geselecteerd, die het dichtste bij de locatie 904 is gesitueerd. Aldus worden drie lokale minimumpunten 1008-1, 1008-2 en 1008-3 getoond die zijn geselecteerd in FIG. 10B, waarbij de overige punten in de paddeelverzameling zijn verworpen.
De plankvlakgenerator 304 is dan ingericht om een plankvlak te genereren voor het pad 500 bij blok 430, door het uitvoeren van een geschikte vlak-fit bewerking (bijvoorbeeld een RANS AC bewerking) op de lokale minimina die zijn geselecteerd bij blok 425. FIG. 10C illustreert het resultaat van zo’n vlak-fit bewerking in de vorm van een plank of padvlak 1012 (de lokale minima 1008 die hiervoor zijn genoemd worde ook getoond voor illustratieve doeleinden). De generatie van het padvlak bij blok 430 kan één of meerdere validatiebewerkingen omvatten. Beperkingen kunnen bijvoorbeeld worden opgelegde op de vlak-fit bewerking, zoals een eis dat het resulterende padvlak hoofdzakelijk dwars op het eerder genoemde grondvlak staat.
In sommige voorbeelden kunnen beperkingen voor gebruik bij blok 430 worden gegenereerd uit de beelddata 850 (dat wil zeggen onafhankelijk van de dieptemetingen 800). In het bijzonder, is in sommige
BE2019/5216 voorbeelden de preprocessor 300 ingericht om, volgende op data-opname bij blok 405, blok 435 uit te voeren. Bij blok 435, is de preprocessor 300 ingericht om één of meerdere plankranden te genereren uit de beelddata 850 overeenkomstig een geschikte rand-detectie bewerking. Een voorbeeld van de bovenvermelde randdetectie bewerking omvat de conversie van de beelddata 850 naar grijsschaal beelddata en optioneel het downsamplen van de beelddata 850. De preprocessor 300 kan dan worden ingericht om bijvoorbeeld een Sobel filter op de beelddata toe te passen om gradiënten te extraheren (bijvoorbeeld verticale gradiënten die horizontale randen aanduiden) uit de beelddata. De preprocessor 300 kan dan worden ingericht om een Hough transformatie toe te passen op de resulterende gradiënten, om kandidaat-randlijnen te genereren. Zoals duidelijk zal zijn, kunnen andere plankranddetectie bewerkingen ook worden gebruikt bij blok 435, zoals een Canny randdetector.
Nadat plankranden zijn gegenereerd (bijvoorbeeld corresponderend met de plankranden 718-1 en 718-2 getoond in FIG. 7), kan de preprocessor 300 worden ingericht om de posities ( in de puntenwolk 800) van pixels te herkrijgen in de beelddata 850 die liggen op de plankranden. De bovenvermelde posities worden dan gebruikt bij blok 430 om het padvlak te vahderen dat is gegenereerd door de plankvlakgenerator 308. De plankvlakgenerator 308 kan bijvoorbeeld zijn ingericht om te verifiëren dat het padvlak 1012 de punten omvat die liggen op de plankranden, of dat dergelijke punten liggen binnen een drempelafstand van het padvlak 102. In andere voorbeelden is de preprocessor 300 ingericht om een validatievlak te fitten aan de plankrandpunten en de plankvlakgenerator 308 is ingericht om het validatievlak als een beperking toe te passen gedurende de generatie van het padvlak 1012 (bijvoorbeeld als een eis dat het padvlak 1012 een hoek moet hebben met het validatievlak die niet groter is dan een vooraf bepaalde drempel). In verdere voorbeelden kan de preprocessor 300 zijn ingericht om het padvlak te valideren door te bepalen of hoeken tussen de
BE2019/5216 plankranden zelf (bijvoorbeeld de kandidaat-planklijn hiervoor genoemd) en het padvlak 1012 een drempelhoek overschrijden.
Terugkerend naar FIG. 4, bij blok 440 is de lokaliseerder 316 ingericht om de lokalisatie van de inrichting 103 te updaten overeenkomstig de hoekrand 916 en het padvlak 102. Zoals nu duidelijk zal zijn kunnen de positie en oriëntatie van de inrichting 103 ten opzichte van de hoekrand 916 en het padvlak 1012 worden bepaald uit de puntenwolk 800 zonder onderhavig te zijn aan bepaalde afwijkingsbronnen (bijvoorbeeld inertiaalsensor drift, wielslip en dergelijke) die verantwoordelijk zijn voor een gedeelte van de deviatie tussen de vorige lokalisatie 600 en de ware positie van de inrichting 103.
Daarom omvat het updaten van de lokalisatie van de inrichting bij blok 440 in het onderhavige voorbeeld het initiëren van een lokaal referentiekader met een oorsprong bij de intersectie tussen de hoekrand 916, het padvlak 1012 en het bovenvermelde grondvlak. FIG. 10 O illustreert een lokaal referentiekader 1016 waarin het padvlak 1012 het X-Z vlak is en het grondvlak het X-Y vlak is. De lokaliseerder 316 kan daarom worden ingericht om een positie van de inrichting 103 te bepalen in het referentiekader 1016. In verdere voorbeelden is de lokaliseerder 316 ingericht om de lokalisatie van de inrichting 103 te updaten door het terugvinden (bijvoorbeeld van de kaart in de geheugenmodule 232) van een vooraf gedefinieerde ware locatie van de eindstuk hoek van de module 510-3 in het globale referentiekader 102. De positie en oriëntatie van de inrichting 103 kan dan worden bepaald in het globale referentiekader 102 met de ware locatie van de eindstuk hoek van de module 510-3 en de positie en oriëntatie van de inrichting 103 ten opzichte van de hoekrand 916 en padvlak 1012.
Met betrekking tot FIG. 11, is de vorige lokalisatie 600 getoond naast de ware positie van de inrichting 103 en een geüpdatete lokalisatie 1100 die is verkregen via de uitvoering van de werkwijze 400. De geüpdatete lokalisatie kan ook worden ingericht om een Kalman filter te
BE2019/5216 initialiseren of updaten die is ingericht om als invoeren inertiaalsensor data, wiel-odometrie, lidar-odometrie en dergelijke te accepteren en om houdingsschattingen te genereren voor de inrichting 103.
Volgend op de afronding van de werkwijze 400 is de inrichting 103 ingericht om het pad 500 over te steken overeenkomstig de hiervoor genoemde data-opname instructie (ontvangen van de server 101). Zoals duidelijk zal zijn, kan bijkomende afwijking gedurende de oversteek accumuleren in de lokalisatie die is verkregen bij blok 440. De inrichting 103 is daarom ingericht om het lokalisatie updateproces te herhalen dat boven is gedetailleerd in relatie tot FIG. 4 met bepaalde verschillen die hierna vermeld zijn.
FIG. 12 illustreert een werkwijze 1200 voor het updaten van lokalisatie gedurende beweging door een pad (bijvoorbeeld het pad 500). De werkwijze 1200 kan daarom geïnitieerd worden volgend een uitvoering van de werkwijze 400 bij een entree van het pad 500, zoals hiervoor is besproken. Uitvoering van de werkwijze 1200 omvat de opname van diepte en (optioneel) beelddata bij blok 1205, de selectie van een primaire deelverzameling van de dieptemetingen bij blok 1210 en de selectie van lokale minima uit de primaire deelverzameling bij blok 1225. De uitvoering van blokken 1205, 1210 en 1225 zijn respectievelijk zoals hiervoor beschreven in relatie tot blokken 405, 410 en 425. Zoals nu duidelijk zal zijn is de detectie van een hoek via de generatie van een hoekrand weggelaten in FIG. 12. De lokale minima geselecteerd bij blok 1225 zijn daarom geselecteerd uit de gehele primaire deelverzameling in plaats van een gedeelte van de primaire deelverzameling zoals geïllustreerd in FIG. 9D.
Volgend op de selectie van lokale minima bij blok 1225 is de inrichting 103 (en in het bijzonder de plankvlakgenerator 308) ingericht om een houdingsfilter vlak te genereren en een paddeelverzameling van dieptemetingen te selecteren op basis van het houdingsfiltervlak. Met
BE2019/5216 betrekking tot FIG. 13 wordt een voorbeeld uitvoering van blok 1227 besproken.
FIG. 13 toont de ware positie van de inrichting 103 in doorgetrokken lijnen en de huidige lokalisatie 1300 van de inrichting 103. Zoals duidelijk zal zijn is een bepaalde hoeveelheid van afwijking geaccumuleerd in de lokalisatie 1300. FIG. 13 toont ook een meervoudig aantal lokale minimumpunten 1304 die zijn verkregen via de uitvoering van blok 1225. Bepaalde lokale minima kunnen sensorruis, of dieptemetingen representeren die corresponderen met producten 712 op de plankondersteuningsoppervlakken 717. Daarom is de plankvlakgenerator 308 ingericht om een houdingsfiltervlak 1308 te genereren en om een paddeelverzameling van de punten 1034 te selecteren, die de deelverzameling van de punten 1304 omvat die zijn gesitueerd tussen het houdingsfiltervlak 1308 en een houdingsvlak 1312 corresponderend met de huidige (volgens de lokalisatie 1300) houding van de inrichting 103. De positie van het houdingsfiltervlak 1308 is ingesteld overeenkomstig een afstand 1316 vanaf het houdingsvlak 1312. De afstand 1316 kan vooraf worden gedefinieerd of kan worden bepaald als een veelvoud (typisch groter dan één) van een afstand 1320 tussen het meest nabije punt in de primaire deelverzameling en het houdingsvlak 1312. De factor zelf kan ook vooraf worden bepaald of kan dynamisch worden bepaald op basis van de oriëntatiehoek van de inrichting 103 ten opzichte van de X as van het lokale referentiekader 1016. De factor kan bijvoorbeeld worden ingesteld om groter te worden as de oriëntatiehoek divergeert vanaf een hoek van nul graden.
Nadat het houdingsfiltervlak 1308 is gegenereerd en de paddeelverzameling van punten bij blok 1227 is geselecteerd, is de plankvlakgenerator 308 ingericht om een plankvlak te genereren (waarnaar hierin ook wordt verwezen als een padvlak, zoals eerder is opgemerkt) bij blok 1230 gebaseerd op de paddeelverzameling van de dieptemetingen. De uitvoering van blok 1230 is zoals hiervoor beschreven in relatie tot blok 430
BE2019/5216 en kan het gebruik omvatten van beeld-afgeleide plankranden van blok 1235 (die is zoals beschreven in relatie tot blok 435). Wederom onder verwijzing naar FIG. 13, zijn twee kandidaatpadvlakken 1324 en 1328 getoond.
Bij blok 1232 is de plankvlakgenerator ingericht om één van de vlakken 1324 en 1328 te selecteren en te bepalen of de hoek van het geselecteerde vlak ten opzichte van het houdingsfiltervlak 1308 (of het houdingsvlak 1312, als de vlakken 1308 en 1312 parallel aan elkaar zijn) een vooraf bepaalde drempel overschrijdt. De bepaling bij blok 1232 reflecteert een aanname dat hoewel de lokalisatie 1300 een bepaalde mate van afwijking kan omvatten, die afwijking niet onbegrensd is en bepaalde vlakhoeken zullen daarom waarschijnlijk niet corresponderen met de ware plankvlakken. Meer specifiek, de inrichting 103 is ingericht om het pad 500 over te steken, waarbij hoofdzakelijk parallel aan de plankranden 718 van de modules 510 wordt gebleven. Daarom is het onwaarschijnhjk dat een vlak dat is gegenereerd bij blok 1230 dat aangeeft dat de inrichting 103 is afgeweken van de parallelle oriëntatie, hierboven vermeld, boven een drempel een correct gefit vlak is. De hoekdrempel kan bijvoorbeeld ongeveer tien graden zijn. Daarom is in het onderhavige voorbeeld de bepahng bij blok 1232 bevestigend voor het vlak 1324, en de uitvoering van de werkwijze 1200 gaat daarom door naar blok 1233 om te bepalen of er vlakken overblijven die moeten worden geëvalueerd. Als de bepaling negatief is, begint de uitvoering van de werkwijze 1200 opnieuw bij blok 1205.
Wanneer additionele vlakken overblijven die moeten worden geëvalueerd, wordt de uitvoering van blok 1232 herhaald voor het volgende vlak (in het onderhavige voorbeeld het vlak 1238). Zoals evident is uit FIG. 13, is het vlak 1328 hoofdzakelijk parallel aan het houdingsvlak 1312, en de bepaling bij blok 1232 is daarom negatief. Het vlak 1328 wordt daarom geselecteerd als het padvlak en de lokahseerder 316 is ingericht om de lokahsatie van de inrichting 103 te updaten op basis van het padvlak 1328.
BE2019/5216
Zoals nu duidelijk zal zijn, representeert het padvlak 1328 de gedetecteerde locatie van het X-Z vlak van het referentiekader 1016. Daarom kan bij blok 1240 de lokaliseerder 316 worden ingericht om de waargenomen oriëntatie van de inrichting 103 ten opzichte van het X-Z vlak te updaten op basis van de oriëntatie van het padvlak 1328 in de puntenwolk die is opgenomen bij blok 1205. FIG. 14 illustreert een geüpdatete lokalisatie 1400 die is gegenereerd bij blok 1240, waarbij de oriëntatie is gecorrigeerd ten opzichte van de lokalisatie 1300. Zoals hiervoor is opgemerkt in relatie tot blok 440, kan de lokaliseerder 316 ook worden ingesteld om het Kalman filter te updaten met de geüpdatete lokalisatie 1400.
Terugkerend naar FIG. 12, bij blok 1245 is de inrichting 103 ingericht om te bepalen of het pad 500 volledig is overgestoken op basis van de geüpdatete lokalisatie. De bepaling bij blok 1245 kan worden gebaseerd op het lokale referentiekader 1016 of het globale referentiekader 102, aangezien de lengte van het pad 500 bekend is van de kaart. Wanneer de bepaling bij blok 1245 negatief is, wordt de uitvoering van de werkwijze 1200 herhaald als de inrichting 103 doorgaat met het oversteken van het pad 500. Wanneer de bepaling bij blok 1245 bevestigend is, eindigt de uitvoering van de werkwijze 1200.
In de voorgaande beschrijving zijn specifieke uitvoeringsvormen beschreven. Op gemerkt wordt echter dat verscheidene aanpassingen en veranderingen kunnen worden gemaakt zonder buiten de beschermingsomvang van de uitvinding zoals uiteen gezet in de conclusies hierna te treden. Dienovereenkomstig dienen de beschrijving en figuren te worden beschouwd op een illustratieve wijze in plaats van in een beperkende zin, en alle dergelijke aanpassingen zijn bedoeld om te zijn omvat binnen de beschermingsomvang van de onderhavige leer.
De voordelen, oplossingen voor problemen en ieder element dat kan leiden tot enig voordeel, of oplossing die plaats heeft of meer uitgesproken wordt, moeten niet worden geïnterpreteerd als een kritieke,
BE2019/5216 benodigde, of essentiële maatregel of element van één van de of alle conclusies. De uitvinding wordt alleen gedefinieerd door de bijgevoegde conclusies inclusief aanpassingen die worden gemaakt gedurende het hangende zijn van deze aanvrage en alle equivalenten van die verleende conclusies. Voor het doel van helderheid en een beknopte beschrijving, worden maatregelen hierin beschreven als deel van dezelfde of separate uitvoeringsvormen. Opgemerkt wordt echter dat de beschermingsomvang van de uitvinding uitvoeringsvormen kan omvatten die combinaties hebben van alle of enkele van de maatregelen die hierin zijn beschreven. Verondersteld mag worden dat de getoonde uitvoeringsvormen gelijke of gelijkwaardige componenten omvatten, afgezien van waar deze zijn beschreven als anders.
Bovendien kunnen in dit document betrekkelijke termen zoals eerste en tweede, bovenkant en onderkant, en dergelijke alleen worden gebruikt om één entiteit of actie te onderscheiden van een andere entiteit of actie zonder dat noodzakelijkerwijs één van deze feitelijke relaties of ordes tussen dergelijke entiteiten of acties nodig is of wordt geïmpliceerd. De termen “omvat”, “omvattende”, “’’heeft”, “hebbende”, “bevat”, “bevattende” of iedere andere variatie daarvan, zijn bedoeld om een niet-uitsluitende inclusie te dekken, zodanig dat een proces, werkwijze, artikel, of inrichting die een lijst van elementen omvat, heeft, bevat niet alleen die elementen omvat, maar ook andere elementen kan omvatten die niet uitdrukkelijk zijn vermeld of inherent zijn aan een dergelijk proces, werkwijze, artikel of inrichting. Een element voorafgegaan door “omvat ... een”, “heeft... een”, “bevat... een” sluit niet, zonder meer beperkingen, het bestaan uit van additionele identieke elementen in het proces, de werkwijze, het artikel, of de inrichting die het element omvat, heeft, bevat. De term “een” is gedefinieerd als één of meer, tenzij dat hierin expliciet anders is aangegeven. De termen “in hoofdzaak”, “essentieel”, “ongeveer”, of iedere andere versie daarvan, zijn gedefinieerd als zijnde dichtbij, zoals begrepen
BE2019/5216 door de vakman, en in één niet beperkende uitvoeringsvorm is de term gedefinieerd als zijnde binnen 10%, in een andere uitvoeringsvorm als zijnde binnen 5%, in een andere uitvoeringsvorm als zijnde binnen 1% en in een andere uitvoeringsvorm als zijnde binnen 0.5%. De term “gekoppeld” zoals hierin gebruikt is gedefinieerd als verbonden, hoewel niet noodzakelijkerwijs direct en niet noodzakelijkerwijs mechanisch. Een apparaat of structuur die is “geconfigureerd” op een zekere manier is geconfigureerd op ten minste die manier, maar kan ook worden geconfigureerd op manieren die niet zijn aangegeven.
Opgemerkt wordt dat enkele uitvoeringsvormen één of meerdere generieke of gespecialiseerde processors (of “verwerkingsapparaten”) kunnen omvatten, zoals microprocessors, digitale signaal processors, customized processors, en veldprogrammeerbare gate arrays (FPGAs) en uniek opgeslagen programma instructies (omvattende zowel software als hardware) die de één of meerdere processors besturen, om in combinatie met bepaalde niet-processor circuits, enkele, de meeste, of alle functies te implementeren van de werkwijze en/of inrichting die hierin is beschreven. Als alternatief zouden enkele of alle functies kunnen worden geïmplementeerd door een toestandsmachine die geen opgeslagen programma instructies heeft, of in één of meerdere applicatie-specifieke geïntegreerde circuits (ASICs), waarin elke functie of enkele combinaties van zekere functies zijn geïmplementeerd als custom logic (op maat gemaakt). Uiteraard, zou een combinatie van de twee aanpakken kunnen worden gebruikt.
Bovendien, kan een uitvoeringsvorm worden geïmplementeerd als een door een computer leesbaar opslagmedium die daarop een door een computer leesbare code heeft opgeslagen voor het programmeren van een computer (e.g., omvattende een processor) om een werkwijze uit te voeren zoals hierin wordt beschreven en geclaimd. Voorbeelden van dergelijke door een computer leesbare opslagmedia omvatten, maar zijn niet beperkt tot,
BE2019/5216 een harde schijf, een CD-ROM, een optisch opslagapparaat, een magnetisch opslagapparaat, een ROM (read-only memory), een PROM (programmable read-only memory), een EPROM (erasable programmable read-only memory), een EEPROM (electrically erasable programmable read-only memory) en een flash geheugen. Verder wordt opgemerkt dat men ondanks mogelijk significante inspanning en vele ontwerpkeuzes die gemotiveerd zijn door, bijvoorbeeld, beschikbare tijd, huidige technologie, en economische overwegingen, wanneer geleid door de concepten en principes die hierin zijn beschreven gemakkelijk in staat zal zijn tot het genereren van dergelijke software instructies en programma’s en IC’s met minimaal experimenteren.
De samenvatting van de beschrijving wordt verschaft om de lezer in staat te stellen snel achter de aard van de technische beschrijving te komen. Het wordt ingediend in de veronderstelling dat het niet zal worden gebruikt om de conclusies te interpreteren of de beschermingsomvang daarvan te beperken. Bijkomend kan in de voorgaande uitgebreide beschrijving worden gezien dat verscheidene maatregelen samen zijn gegroepeerd in verscheidene uitvoeringsvormen voor het doel van het stroomlijnen van de beschrijving. Deze wijze van beschrijving dient niet te worden geïnterpreteerd als reflecterende een intentie dat de uitvoeringsvormen die worden geclaimd meer maatregelen nodig hebben dan uitdrukkelijk worden opgesomd in elke conclusie. In plaats daarvan ligt het onderwerp van de uitvinding, zoals de volgende conclusies uitdrukken, in minder dan alle maatregelen van een enkele beschreven uitvoeringsvorm. Dus de volgende conclusies zijn hierbij ingelijfd in de uitgebreide beschrijving, waarbij elke conclusie op zichzelf staat als separate geclaimde materie. Louter het feit dat bepaalde maatregelen worden benoemd in onderling verschillende conclusies geeft niet aan dat een combinatie van deze maatregelen niet kan worden gebruikt voor een voordeel. Een groot aantal varianten zal duidelijk zijn voor de vakman. Alle varianten worden
BE2019/5216 geacht te zijn omvat binnen de beschermingsomvang van de uitvinding zoals gedefinieerd in de volgende conclusies.
Claims (20)
- Conclusies1. Werkwijze voor mobiele automatiseringsinrichting-lokalisatie in een navigatieregelaar, waarbij de werkwijze omvat:het regelen van een dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat;het selecteren van een primaire deelverzameling van de dieptemetingen;het selecteren, uit de primaire deelverzameling, van een hoekkandidaat-deelverzameling van de dieptemetingen;het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur;het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand;het selecteren, uit de pad-deelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor;het genereren van een plankvlak uit de lokale minimumdieptemetingen; en het updaten van een lokalisatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.
- 2. Werkwijze volgens conclusie 1, verder omvattende, voorafgaand aan het opnemen van de dieptemetingen:het ontvangen van een instructie om een pad over te steken dat wordt geassocieerd met de navigatiestructuur;het verkrijgen van een locatie van de navigatiestructuur in een globaal referentiekader; en het regelen van een zich bewegend mechanisme van de mobiele automatiseringsinrichting om naar de locatie te bewegen.BE2019/5216
- 3. Werkwijze volgens conclusie 1 of 2, waarbij het selecteren van de primaire deelverzameling het genereren van een primair selectiegebied omvat dat is gecentreerd op de dieptesensor, en het selecteren van de dieptemetingen binnen het primaire selectiegebied.
- 4. Werkwijze volgens conclusie 3, waarbij het primaire selectiegebied een cylinder is.
- 5. Werkwijze volgens één van de voorgaande conclusies, waarbij het selecteren van de pad-deelverzameling het verdelen omvat van de primaire deelverzameling in twee gedeeltes overeenkomstig de hoekrand, en het selecteren van één van de gedeeltes.
- 6. Werkwijze volgens één van de voorgaande conclusies, waarbij het updaten van de lokalisatie het initialiseren omvat van een lokaal referentiekader dat een oorsprong heeft gebaseerd op de hoekrand en het plankvlak.
- 7. Werkwijze volgens één van de voorgaande conclusies, verder omvattende het verschaffen van de geüpdatete lokalisatie aan een Kalman filter.
- 8. Werkwijze volgens één van de voorgaande conclusies, verder omvattende:het opnemen van beelddata met de dieptemetingen;het detecteren van een plankrand in de beelddata; en het valideren van het plankvlak overeenkomstig de plankrand.
- 9. Werkwijze volgens conclusie 2, verder omvattende:het initiëren van een oversteek van het pad;het regelen van de dieptesensor om een verder meervoudig aantal dieptemetingen op te nemen;het selecteren van een verdere primaire deelverzameling van dieptemetingen uit het verdere meervoudig aantal dieptemetingen;het selecteren van een verder pad-deelverzameling van de dieptemetingen uit de verdere primaire deelverzameling;BE2019/5216 het genereren van een verder plankvlak gebaseerd op de verdere pad-deelverzameling; en het verder updaten van de lokalisatie gebaseerd op het verdere plankvlak.
- 10. Werkwijze volgens conclusie 9, verder omvattende:het bepalen van een hoek van het verdere plankvlak ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verwerpen van het verdere plankvlak als de hoek een drempel overschrijdt.
- 11. Rekeninrichting voor mobiele automatiseringsinrichting- lokalisatie, omvattende:een dieptesensor, een navigatieregelaar die is ingericht om:de dieptesensor te regelen om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatiestructuur omvat;een primaire deelverzameling van de dieptemetingen te selecteren;uit de primaire deelverzameling, een hoekkandidaatdeelverzameling van de dieptemetingen te selecteren;uit de hoekkandidaat-deelverzameling een hoekrand te genereren corresponderend met de navigatiestructuur;een pad-deelverzameling van de dieptemetingen te selecteren uit de primaire deelverzameling, overeenkomstig de hoekrand;uit de pad-deelverzameling een lokale minimumdieptemeting te selecteren voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor;een plankvlak te genereren uit de lokale minimumdieptemetingen; enBE2019/5216 een lokalisatie van de mobiele automatiseringsinrichting te updaten gebaseerd op de hoekrand en het plankvlak.
- 12. Rekeninrichting volgens conclusie 11, waarbij de navigatieregelaar verder is ingericht om, voorafgaand aan het regelen van de dieptesensor om de dieptemetingen op te nemen:een instructie te ontvangen om een pad over te steken dat wordt geassocieerd met de navigatiestructuur;een locatie van de navigatiestructuur te verkrijgen in een globaal referentiekader; en een bewegend mechanisme te regelen van de mobiele automatiseringsinrichting om naar de locatie te bewegen.
- 13. Rekeninrichting volgens conclusie 11 of 12, waarbij de navigatieregelaar verder is ingericht om de primaire deelverzameling te selecteren door:een primair selectiegebied te genereren dat is gecentreerd op de dieptesensor; en het selecteren van de dieptemetingen binnen het primaire selectiegebied.
- 14. Rekeningrichting volgens conclusie 13, waarbij het primaire selectiegebied een cylinder is.
- 15. Rekeninrichting volgens één van de voorgaande conclusies 11-14, waarbij de navigatieregelaar verder is ingericht om de pad-deelverzameling te selecteren door de primaire deelverzameling te verdelen in twee gedeeltes in overeenstemming met de hoekrand, en één van de gedeeltes te selecteren.
- 16. Rekeninrichting volgens één van de voorgaande conclusies 11-15, waarbij de navigatieregelaar verder is ingericht om de lokalisatie te updaten door een lokaal referentiekader te initialiseren dat een oorsprong heeft gebaseerd op de hoekrand en het plankvlak.
- 17. Rekeninrichting volgens één van de voorgaande conclusies 11-116, waarbij de navigatieregelaar verder is ingericht om de geüpdatete lokahsatie aan een Kalman filter te verschaffen.BE2019/5216
- 18. Rekeninrichting volgens één van de voorgaande conclusies 11-17, waarbij de navigatieregelaar verder is ingericht om:de beeldsensor te regelen om beelddata op te nemen met de dieptemetingen;een plankrand te detecteren in de beelddata; en het plankvlak te valideren in overeenstemming met de plankrand.
- 19. Rekeninrichting volgens conclusie 12, waarbij de navigatieregelaar verder is ingericht om:een oversteek van het pad te initiëren;de dieptesensor te regelen om een verder meervoudig aantal dieptemetingen op te nemen;een verdere primaire deelverzameling van dieptemetingen te selecteren uit het verdere meervoudig aantal dieptemetingen;een verdere pad-deelverzameling van de dieptemetingen te selecteren uit de verdere primaire deelverzameling;een verder plankvlak te genereren gebaseerd op de verdere paddeelverzameling; en de lokalisatie verder te updaten gebaseerd op het verdere plankvlak.
- 20. Rekeninrichting volgens conclusie 19, waarbij de navigatieregelaar is verder ingericht om:een hoek van het verdere plankvlak te bepalen ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verdere plankvlak te verwerpen als de hoek een drempel overschrijdt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/946,412 US11327504B2 (en) | 2018-04-05 | 2018-04-05 | Method, system and apparatus for mobile automation apparatus localization |
Publications (3)
Publication Number | Publication Date |
---|---|
BE1026161A1 BE1026161A1 (nl) | 2019-10-22 |
BE1026161A9 true BE1026161A9 (nl) | 2019-10-29 |
BE1026161B1 BE1026161B1 (nl) | 2020-07-10 |
Family
ID=67211443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BE20195216A BE1026161B1 (nl) | 2018-04-05 | 2019-04-03 | Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie |
Country Status (6)
Country | Link |
---|---|
US (1) | US11327504B2 (nl) |
BE (1) | BE1026161B1 (nl) |
CA (1) | CA3095925C (nl) |
DE (1) | DE112019001796T5 (nl) |
GB (1) | GB2586405B (nl) |
WO (1) | WO2019195595A1 (nl) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10731970B2 (en) * | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
US11151743B2 (en) * | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
Family Cites Families (377)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5214615A (en) | 1990-02-26 | 1993-05-25 | Will Bauer | Three-dimensional displacement of a body with computer interface |
US5209712A (en) | 1991-06-24 | 1993-05-11 | Frederic Ferri | Proprioceptive exercise, training and therapy apparatus |
US5408322A (en) | 1993-04-26 | 1995-04-18 | Materials Research Corporation | Self aligning in-situ ellipsometer and method of using for process monitoring |
JP3311830B2 (ja) | 1993-09-20 | 2002-08-05 | 株式会社東芝 | 3次元動画作成装置 |
KR100197676B1 (ko) | 1993-09-27 | 1999-06-15 | 윤종용 | 로보트 청소기 |
WO1995015533A1 (en) | 1993-11-30 | 1995-06-08 | Burke Raymond R | Computer system for allowing a consumer to purchase packaged goods at home |
US5414268A (en) | 1994-02-01 | 1995-05-09 | The Coe Manufacturing Company | Light scanner with interlaced camera fields and parallel light beams |
JPH0996672A (ja) | 1995-09-29 | 1997-04-08 | Sukuuea:Kk | 3次元位置データ生成システムおよび方法 |
US20020014533A1 (en) | 1995-12-18 | 2002-02-07 | Xiaxun Zhu | Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps |
US6034379A (en) | 1996-03-01 | 2000-03-07 | Intermec Ip Corp. | Code reader having replaceable optics assemblies supporting multiple illuminators |
US5831719A (en) | 1996-04-12 | 1998-11-03 | Holometrics, Inc. | Laser scanning system |
US5988862A (en) | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6075905A (en) | 1996-07-17 | 2000-06-13 | Sarnoff Corporation | Method and apparatus for mosaic image construction |
US5953055A (en) | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
JP3371279B2 (ja) | 1997-03-10 | 2003-01-27 | ペンタックス プレシジョン株式会社 | Tvカメラ用レンズの選択方法および選択装置 |
US6026376A (en) | 1997-04-15 | 2000-02-15 | Kenney; John A. | Interactive electronic shopping system and method |
GB2330265A (en) | 1997-10-10 | 1999-04-14 | Harlequin Group Limited The | Image compositing using camera data |
IL122079A (en) | 1997-10-30 | 2002-02-10 | Netmor Ltd | Ultrasound system for positioning and tracking |
WO1999023600A1 (en) | 1997-11-04 | 1999-05-14 | The Trustees Of Columbia University In The City Of New York | Video signal face region detection |
US6975764B1 (en) | 1997-11-26 | 2005-12-13 | Cognex Technology And Investment Corporation | Fast high-accuracy multi-dimensional pattern inspection |
US7016539B1 (en) | 1998-07-13 | 2006-03-21 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US6332098B2 (en) | 1998-08-07 | 2001-12-18 | Fedex Corporation | Methods for shipping freight |
US6820895B2 (en) | 1998-09-23 | 2004-11-23 | Vehicle Safety Systems, Inc. | Vehicle air bag minimum distance enforcement apparatus, method and system |
US6442507B1 (en) | 1998-12-29 | 2002-08-27 | Wireless Communications, Inc. | System for creating a computer model and measurement database of a wireless communication network |
US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
US6388688B1 (en) | 1999-04-06 | 2002-05-14 | Vergics Corporation | Graph-based visual navigation through spatial environments |
US6850946B1 (en) | 1999-05-26 | 2005-02-01 | Wireless Valley Communications, Inc. | Method and system for a building database manipulator |
US6711283B1 (en) | 2000-05-03 | 2004-03-23 | Aperio Technologies, Inc. | Fully automatic rapid microscope slide scanner |
WO2002005214A2 (en) | 2000-07-11 | 2002-01-17 | Eg Technology | Adaptive edge detection and enhancement for image processing |
GB0020850D0 (en) | 2000-08-23 | 2000-10-11 | Univ London | A system and method for intelligent modelling of public spaces |
TW512478B (en) | 2000-09-14 | 2002-12-01 | Olympus Optical Co | Alignment apparatus |
US7054509B2 (en) | 2000-10-21 | 2006-05-30 | Cardiff Software, Inc. | Determining form identification through the spatial relationship of input data |
BR0115469A (pt) | 2000-11-21 | 2003-08-19 | Michael Stuart Gardner | Marcação de etiqueta |
US7068852B2 (en) | 2001-01-23 | 2006-06-27 | Zoran Corporation | Edge detection and sharpening process for an image |
JP2002321698A (ja) | 2001-04-27 | 2002-11-05 | Mitsubishi Heavy Ind Ltd | 航空貨物運搬用ボーディング・ブリッジ |
WO2003002935A1 (en) | 2001-06-29 | 2003-01-09 | Square D Company | Overhead dimensioning system and method |
US7046273B2 (en) | 2001-07-02 | 2006-05-16 | Fuji Photo Film Co., Ltd | System and method for collecting image information |
US6995762B1 (en) | 2001-09-13 | 2006-02-07 | Symbol Technologies, Inc. | Measurement of dimensions of solid objects from two-dimensional image(s) |
WO2003025805A1 (en) | 2001-09-18 | 2003-03-27 | Pro-Corp Holdings International Limited | Image recognition inventory management system |
US6722568B2 (en) | 2001-11-20 | 2004-04-20 | Ncr Corporation | Methods and apparatus for detection and processing of supplemental bar code labels |
US7233699B2 (en) | 2002-03-18 | 2007-06-19 | National Instruments Corporation | Pattern matching using multiple techniques |
US20060106742A1 (en) | 2002-04-29 | 2006-05-18 | Speed Trac Technologies, Inc. | System and method for weighing and tracking freight |
US7149749B2 (en) | 2002-06-03 | 2006-12-12 | International Business Machines Corporation | Method of inserting and deleting leaves in tree table structures |
US6928194B2 (en) | 2002-09-19 | 2005-08-09 | M7 Visual Intelligence, Lp | System for mosaicing digital ortho-images |
EP1434170A3 (en) | 2002-11-07 | 2006-04-05 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for adding ornaments to an image of a person |
JP3862652B2 (ja) | 2002-12-10 | 2006-12-27 | キヤノン株式会社 | 印刷制御方法及び情報処理装置 |
US7248754B2 (en) | 2003-05-05 | 2007-07-24 | International Business Machines Corporation | Apparatus and method for determining whether machine readable information on an item matches the item |
US8072470B2 (en) * | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7137207B2 (en) | 2003-06-23 | 2006-11-21 | Armstrong Timothy D | Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof |
US7090135B2 (en) | 2003-07-07 | 2006-08-15 | Symbol Technologies, Inc. | Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes |
US7493336B2 (en) | 2003-07-22 | 2009-02-17 | International Business Machines Corporation | System and method of updating planogram information using RFID tags and personal shopping device |
DE10336638A1 (de) | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld |
TWI266035B (en) | 2003-11-11 | 2006-11-11 | Hon Hai Prec Ind Co Ltd | A system and method for measuring point-cloud |
SE0400556D0 (sv) | 2004-03-05 | 2004-03-05 | Pricer Ab | Electronic shelf labelling system, electronic label, handheld device and method in an electronic labelling system |
US7720554B2 (en) | 2004-03-29 | 2010-05-18 | Evolution Robotics, Inc. | Methods and apparatus for position estimation using reflected light sources |
WO2005098475A1 (en) | 2004-03-29 | 2005-10-20 | Evolution Robotics, Inc. | Sensing device and method for measuring position and orientation relative to multiple light sources |
US7885865B2 (en) | 2004-05-11 | 2011-02-08 | The Kroger Co. | System and method for mapping of planograms |
US7245558B2 (en) | 2004-06-18 | 2007-07-17 | Symbol Technologies, Inc. | System and method for detection using ultrasonic waves |
US7168618B2 (en) | 2004-08-12 | 2007-01-30 | International Business Machines Corporation | Retail store method and system |
US7643665B2 (en) | 2004-08-31 | 2010-01-05 | Semiconductor Insights Inc. | Method of design analysis of existing integrated circuits |
US8207964B1 (en) | 2008-02-22 | 2012-06-26 | Meadow William D | Methods and apparatus for generating three-dimensional image data models |
EP1828862A2 (en) | 2004-12-14 | 2007-09-05 | Sky-Trax Incorporated | Method and apparatus for determining position and rotational orientation of an object |
US7783383B2 (en) | 2004-12-22 | 2010-08-24 | Intelligent Hospital Systems Ltd. | Automated pharmacy admixture system (APAS) |
WO2006136958A2 (en) | 2005-01-25 | 2006-12-28 | Dspv, Ltd. | System and method of improving the legibility and applicability of document pictures using form based image enhancement |
US7440903B2 (en) | 2005-01-28 | 2008-10-21 | Target Brands, Inc. | System and method for evaluating and recommending planograms |
DE102005007536A1 (de) | 2005-02-17 | 2007-01-04 | Isra Vision Systems Ag | Verfahren zur Kalibrierung eines Messsystems |
US7751928B1 (en) | 2005-03-11 | 2010-07-06 | Amazon Technologies, Inc. | Method and system for agent exchange-based materials handling |
US9534899B2 (en) | 2005-03-25 | 2017-01-03 | Irobot Corporation | Re-localization of a robot for slam |
CN101160576B (zh) | 2005-04-13 | 2010-05-19 | 斯德艾斯有限公司 | 用于测量零售商店陈列情况的方法和系统 |
WO2006127129A2 (en) | 2005-04-19 | 2006-11-30 | University Of Georgia Research Foundation, Inc. | Image edge detection systems and methods |
US8294809B2 (en) | 2005-05-10 | 2012-10-23 | Advanced Scientific Concepts, Inc. | Dimensioning system |
US7590053B2 (en) | 2005-06-21 | 2009-09-15 | Alcatel Lucent | Multiple endpoint protection using SPVCs |
BRPI0520370B8 (pt) | 2005-06-28 | 2023-01-31 | Scanalyse Pty Ltd | Sistema e método para medição e mapeamento de uma superfície com relação a uma referência |
US7817826B2 (en) | 2005-08-12 | 2010-10-19 | Intelitrac Inc. | Apparatus and method for partial component facial recognition |
US8625854B2 (en) | 2005-09-09 | 2014-01-07 | Industrial Research Limited | 3D scene scanner and a position and orientation system |
EP1934936A2 (en) | 2005-10-10 | 2008-06-25 | Nordic Bioscience A/S | A method of segmenting an image |
US7605817B2 (en) | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US7508794B2 (en) | 2005-11-29 | 2009-03-24 | Cisco Technology, Inc. | Authorizing an endpoint node for a communication service |
US8577538B2 (en) | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
JP4730121B2 (ja) | 2006-02-07 | 2011-07-20 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びに、プログラム |
US20070197895A1 (en) | 2006-02-17 | 2007-08-23 | Sdgi Holdings, Inc. | Surgical instrument to assess tissue characteristics |
US8157205B2 (en) | 2006-03-04 | 2012-04-17 | Mcwhirk Bruce Kimberly | Multibody aircrane |
US20100171826A1 (en) | 2006-04-12 | 2010-07-08 | Store Eyes, Inc. | Method for measuring retail display and compliance |
ATE470912T1 (de) | 2006-04-28 | 2010-06-15 | Toyota Motor Europ Nv | Robuster detektor und deskriptor für einen interessenspunkt |
CA2737169C (en) | 2006-04-28 | 2014-04-01 | Global Sensor Systems Inc. | Device for measuring package size |
US20070272732A1 (en) | 2006-05-26 | 2007-11-29 | Mettler-Toledo, Inc. | Weighing and dimensioning system and method for weighing and dimensioning |
EP2041516A2 (en) | 2006-06-22 | 2009-04-01 | Roy Sandberg | Method and apparatus for robotic path planning, selection, and visualization |
JP4910507B2 (ja) | 2006-06-29 | 2012-04-04 | コニカミノルタホールディングス株式会社 | 顔認証システム及び顔認証方法 |
US7647752B2 (en) | 2006-07-12 | 2010-01-19 | Greg Magnell | System and method for making custom boxes for objects of random size or shape |
US7940955B2 (en) | 2006-07-26 | 2011-05-10 | Delphi Technologies, Inc. | Vision-based method of determining cargo status by boundary detection |
US7693757B2 (en) | 2006-09-21 | 2010-04-06 | International Business Machines Corporation | System and method for performing inventory using a mobile inventory robot |
US8277396B2 (en) | 2006-11-02 | 2012-10-02 | Queen's University At Kingston | Method and apparatus for assessing proprioceptive function |
WO2008057504A2 (en) | 2006-11-06 | 2008-05-15 | Aman James A | Load tracking system based on self- tracking forklift |
US8531457B2 (en) | 2006-11-29 | 2013-09-10 | Technion Research And Development Foundation Ltd. | Apparatus and method for finding visible points in a cloud point |
US7474389B2 (en) | 2006-12-19 | 2009-01-06 | Dean Greenberg | Cargo dimensional and weight analyzing system |
US8189926B2 (en) | 2006-12-30 | 2012-05-29 | Videomining Corporation | Method and system for automatically analyzing categories in a physical space based on the visual characterization of people |
US20080164310A1 (en) | 2007-01-09 | 2008-07-10 | Dupuy Charles G | Labeling system |
CA2680646C (en) | 2007-03-15 | 2014-07-22 | Kansai University | Moving object noise elimination processing device and moving object noise elimination processing program |
US7940279B2 (en) | 2007-03-27 | 2011-05-10 | Utah State University | System and method for rendering of texel imagery |
US8132728B2 (en) | 2007-04-04 | 2012-03-13 | Sick, Inc. | Parcel dimensioning measurement system and method |
US8094937B2 (en) | 2007-04-17 | 2012-01-10 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for labeling feature clusters in frames of image data for optical navigation |
WO2008134562A2 (en) | 2007-04-27 | 2008-11-06 | Nielsen Media Research, Inc. | Methods and apparatus to monitor in-store media and consumer traffic related to retail environments |
JP4561769B2 (ja) | 2007-04-27 | 2010-10-13 | アイシン・エィ・ダブリュ株式会社 | 経路案内システム及び経路案内方法 |
CN101681525A (zh) | 2007-06-08 | 2010-03-24 | 电子地图有限公司 | 产生多视点全景图的方法及设备 |
WO2008154611A2 (en) | 2007-06-11 | 2008-12-18 | Honeywell International Inc. | Optical reader system for extracting information in a digital image |
US7982423B2 (en) | 2007-07-04 | 2011-07-19 | Bossa Nova Concepts, Llc | Statically stable biped robotic mechanism and method of actuating |
JP4661838B2 (ja) | 2007-07-18 | 2011-03-30 | トヨタ自動車株式会社 | 経路計画装置及び方法、コスト評価装置、並びに移動体 |
KR100922494B1 (ko) | 2007-07-19 | 2009-10-20 | 삼성전자주식회사 | 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치 |
US7726575B2 (en) | 2007-08-10 | 2010-06-01 | Hand Held Products, Inc. | Indicia reading terminal having spatial measurement functionality |
US8950673B2 (en) | 2007-08-30 | 2015-02-10 | Symbol Technologies, Inc. | Imaging system for reading target with multiple symbols |
US8630924B2 (en) | 2007-08-31 | 2014-01-14 | Accenture Global Services Limited | Detection of stock out conditions based on image processing |
US9135491B2 (en) | 2007-08-31 | 2015-09-15 | Accenture Global Services Limited | Digital point-of-sale analyzer |
US8009864B2 (en) | 2007-08-31 | 2011-08-30 | Accenture Global Services Limited | Determination of inventory conditions based on image processing |
US7949568B2 (en) | 2007-08-31 | 2011-05-24 | Accenture Global Services Limited | Determination of product display parameters based on image processing |
US8189855B2 (en) | 2007-08-31 | 2012-05-29 | Accenture Global Services Limited | Planogram extraction based on image processing |
US8295590B2 (en) | 2007-09-14 | 2012-10-23 | Abbyy Software Ltd. | Method and system for creating a form template for a form |
JP4466705B2 (ja) | 2007-09-21 | 2010-05-26 | ヤマハ株式会社 | ナビゲーション装置 |
US8396284B2 (en) | 2007-10-23 | 2013-03-12 | Leica Geosystems Ag | Smart picking in 3D point clouds |
US8091782B2 (en) | 2007-11-08 | 2012-01-10 | International Business Machines Corporation | Using cameras to monitor actual inventory |
US20090125350A1 (en) | 2007-11-14 | 2009-05-14 | Pieter Lessing | System and method for capturing and storing supply chain and logistics support information in a relational database system |
US20090160975A1 (en) | 2007-12-19 | 2009-06-25 | Ncr Corporation | Methods and Apparatus for Improved Image Processing to Provide Retroactive Image Focusing and Improved Depth of Field in Retail Imaging Systems |
US8423431B1 (en) | 2007-12-20 | 2013-04-16 | Amazon Technologies, Inc. | Light emission guidance |
US20090192921A1 (en) | 2008-01-24 | 2009-07-30 | Michael Alan Hicks | Methods and apparatus to survey a retail environment |
US8353457B2 (en) | 2008-02-12 | 2013-01-15 | Datalogic ADC, Inc. | Systems and methods for forming a composite image of multiple portions of an object from multiple perspectives |
US7971664B2 (en) | 2008-03-18 | 2011-07-05 | Bossa Nova Robotics Ip, Inc. | Efficient actuation and selective engaging and locking clutch mechanisms for reconfiguration and multiple-behavior locomotion of an at least two-appendage robot |
US9766074B2 (en) | 2008-03-28 | 2017-09-19 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
US8064729B2 (en) | 2008-04-03 | 2011-11-22 | Seiko Epson Corporation | Image skew detection apparatus and methods |
US20150170256A1 (en) * | 2008-06-05 | 2015-06-18 | Aisle411, Inc. | Systems and Methods for Presenting Information Associated With a Three-Dimensional Location on a Two-Dimensional Display |
JP4720859B2 (ja) | 2008-07-09 | 2011-07-13 | カシオ計算機株式会社 | 画像処理装置、画像処理方法およびプログラム |
US8184196B2 (en) | 2008-08-05 | 2012-05-22 | Qualcomm Incorporated | System and method to generate depth data using edge detection |
US9841314B2 (en) | 2008-08-29 | 2017-12-12 | United Parcel Service Of America, Inc. | Systems and methods for freight tracking and monitoring |
US9824495B2 (en) | 2008-09-11 | 2017-11-21 | Apple Inc. | Method and system for compositing an augmented reality scene |
US20100070365A1 (en) | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Planogram guided shopping |
EP2332094B1 (en) | 2008-09-14 | 2014-03-12 | Eliezer Magal | Automatic identification system for randomly oriented objects |
US20100091094A1 (en) | 2008-10-14 | 2010-04-15 | Marek Sekowski | Mechanism for Directing a Three-Dimensional Camera System |
CA2740781C (en) | 2008-10-20 | 2016-06-14 | Raritan Americas, Inc. | System and method for automatic determination of the physical location of data center equipment |
US8479996B2 (en) | 2008-11-07 | 2013-07-09 | Symbol Technologies, Inc. | Identification of non-barcoded products |
KR101234798B1 (ko) | 2008-11-24 | 2013-02-20 | 삼성전자주식회사 | 이동 로봇의 위치 측정 방법 및 장치 |
US8463079B2 (en) | 2008-12-16 | 2013-06-11 | Intermec Ip Corp. | Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner |
US8812226B2 (en) | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US8265895B2 (en) | 2009-03-27 | 2012-09-11 | Symbol Technologies, Inc. | Interactive sensor systems and methods for dimensioning |
US8284988B2 (en) | 2009-05-13 | 2012-10-09 | Applied Vision Corporation | System and method for dimensioning objects using stereoscopic imaging |
US8743176B2 (en) | 2009-05-20 | 2014-06-03 | Advanced Scientific Concepts, Inc. | 3-dimensional hybrid camera and production system |
US8049621B1 (en) | 2009-05-28 | 2011-11-01 | Walgreen Co. | Method and apparatus for remote merchandise planogram auditing and reporting |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8933925B2 (en) | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
US7997430B2 (en) | 2009-06-30 | 2011-08-16 | Target Brands, Inc. | Display apparatus and method |
US20120019393A1 (en) | 2009-07-31 | 2012-01-26 | Robert Wolinsky | System and method for tracking carts in a retail environment |
CA2754159C (en) | 2009-08-11 | 2012-05-15 | Certusview Technologies, Llc | Systems and methods for complex event processing of vehicle-related information |
AR077904A1 (es) | 2009-08-21 | 2011-09-28 | Syngenta Participations Ag | Sistema automatizado para analizar el vigor de la planta |
KR101619076B1 (ko) | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
US9749823B2 (en) * | 2009-12-11 | 2017-08-29 | Mentis Services France | Providing city services using mobile devices and a sensor network |
US8942884B2 (en) | 2010-01-14 | 2015-01-27 | Innovative Transport Solutions, Llc | Transport system |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US20110216063A1 (en) | 2010-03-08 | 2011-09-08 | Celartem, Inc. | Lidar triangular network compression |
US8456518B2 (en) | 2010-03-31 | 2013-06-04 | James Cameron & Vincent Pace | Stereoscopic camera with automatic obstruction removal |
US8570343B2 (en) | 2010-04-20 | 2013-10-29 | Dassault Systemes | Automatic generation of 3D models from packaged goods product images |
US8619265B2 (en) | 2011-03-14 | 2013-12-31 | Faro Technologies, Inc. | Automatic measurement of dimensional data with a laser tracker |
US9400170B2 (en) | 2010-04-21 | 2016-07-26 | Faro Technologies, Inc. | Automatic measurement of dimensional data within an acceptance region by a laser tracker |
US8199977B2 (en) | 2010-05-07 | 2012-06-12 | Honeywell International Inc. | System and method for extraction of features from a 3-D point cloud |
US8134717B2 (en) | 2010-05-21 | 2012-03-13 | LTS Scale Company | Dimensional detection system and associated method |
US9109877B2 (en) | 2010-05-21 | 2015-08-18 | Jonathan S. Thierman | Method and apparatus for dimensional measurement |
US20110310088A1 (en) | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Personalized navigation through virtual 3d environments |
US20120022913A1 (en) | 2010-07-20 | 2012-01-26 | Target Brands, Inc. | Planogram Generation for Peg and Shelf Items |
JP4914528B1 (ja) | 2010-08-31 | 2012-04-11 | 新日鉄ソリューションズ株式会社 | 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム |
EP3091508B1 (en) | 2010-09-03 | 2018-12-26 | California Institute of Technology | Three-dimensional imaging system |
US8872851B2 (en) | 2010-09-24 | 2014-10-28 | Intel Corporation | Augmenting image data based on related 3D point cloud data |
EP2439487B1 (de) | 2010-10-06 | 2012-08-22 | Sick Ag | Volumenmessvorrichtung für bewegte Objekte |
US8174931B2 (en) | 2010-10-08 | 2012-05-08 | HJ Laboratories, LLC | Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information |
US9171442B2 (en) | 2010-11-19 | 2015-10-27 | Tyco Fire & Security Gmbh | Item identification using video recognition to supplement bar code or RFID information |
US20120133639A1 (en) | 2010-11-30 | 2012-05-31 | Microsoft Corporation | Strip panorama |
US9449233B2 (en) | 2010-12-01 | 2016-09-20 | The Trustees Of The University Of Pennsylvania | Distributed target tracking using self localizing smart camera networks |
SG190730A1 (en) | 2010-12-09 | 2013-07-31 | Univ Nanyang Tech | Method and an apparatus for determining vein patterns from a colour image |
US8773946B2 (en) | 2010-12-30 | 2014-07-08 | Honeywell International Inc. | Portable housings for generation of building maps |
US8744644B2 (en) | 2011-01-19 | 2014-06-03 | Electronics And Telecommunications Research Institute | Apparatus and method for detecting location of vehicle |
KR101758058B1 (ko) | 2011-01-20 | 2017-07-17 | 삼성전자주식회사 | 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템 |
US8939369B2 (en) | 2011-01-24 | 2015-01-27 | Datalogic ADC, Inc. | Exception detection and handling in automated optical code reading systems |
US20120190453A1 (en) | 2011-01-25 | 2012-07-26 | Bossa Nova Robotics Ip, Inc. | System and method for online-offline interactive experience |
US20120191880A1 (en) | 2011-01-26 | 2012-07-26 | Bossa Nova Robotics IP, Inc | System and method for identifying accessories connected to apparatus |
EP2668008A4 (en) * | 2011-01-28 | 2018-01-24 | Intouch Technologies, Inc. | Interfacing with a mobile telepresence robot |
WO2012100593A1 (zh) | 2011-01-30 | 2012-08-02 | 浙江省电力公司 | 智能电能表全自动化检定系统 |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8447549B2 (en) | 2011-02-11 | 2013-05-21 | Quality Vision International, Inc. | Tolerance evaluation with reduced measured points |
US8660338B2 (en) | 2011-03-22 | 2014-02-25 | Honeywell International Inc. | Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints |
WO2012132324A1 (ja) | 2011-03-31 | 2012-10-04 | 日本電気株式会社 | 店舗システム並びにその制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体 |
US9854209B2 (en) | 2011-04-19 | 2017-12-26 | Ford Global Technologies, Llc | Display system utilizing vehicle and trailer dynamics |
US8693725B2 (en) | 2011-04-19 | 2014-04-08 | International Business Machines Corporation | Reliability in detecting rail crossing events |
WO2012155104A1 (en) | 2011-05-11 | 2012-11-15 | Proiam, Llc | Enrollment apparatus, system, and method featuring three dimensional camera |
US8902353B2 (en) | 2011-05-12 | 2014-12-02 | Symbol Technologies, Inc. | Imaging reader with independently controlled illumination rate |
US20120287249A1 (en) | 2011-05-12 | 2012-11-15 | Electronics And Telecommunications Research Institute | Method for obtaining depth information and apparatus using the same |
US9785898B2 (en) | 2011-06-20 | 2017-10-10 | Hi-Tech Solutions Ltd. | System and method for identifying retail products and determining retail product arrangements |
US9064394B1 (en) | 2011-06-22 | 2015-06-23 | Alarm.Com Incorporated | Virtual sensors |
US9070285B1 (en) | 2011-07-25 | 2015-06-30 | UtopiaCompression Corporation | Passive camera based cloud detection and avoidance for aircraft systems |
US8768620B2 (en) | 2011-07-27 | 2014-07-01 | Msa Technology, Llc | Navigational deployment and initialization systems and methods |
KR101907081B1 (ko) | 2011-08-22 | 2018-10-11 | 삼성전자주식회사 | 3차원 점군의 물체 분리 방법 |
US9129277B2 (en) | 2011-08-30 | 2015-09-08 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
TWI622540B (zh) | 2011-09-09 | 2018-05-01 | 辛波提克有限責任公司 | 自動化儲存及取放系統 |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
US11074495B2 (en) | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
US9159047B2 (en) | 2011-11-11 | 2015-10-13 | James T. Winkel | Projected image planogram system |
US9033239B2 (en) | 2011-11-11 | 2015-05-19 | James T. Winkel | Projected image planogram system |
US8726200B2 (en) | 2011-11-23 | 2014-05-13 | Taiwan Semiconductor Manufacturing Co., Ltd. | Recognition of template patterns with mask information |
US8706293B2 (en) | 2011-11-29 | 2014-04-22 | Cereson Co., Ltd. | Vending machine with automated detection of product position |
US8793107B2 (en) | 2011-12-01 | 2014-07-29 | Harris Corporation | Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling |
CN103164842A (zh) | 2011-12-14 | 2013-06-19 | 鸿富锦精密工业(深圳)有限公司 | 点云提取系统及方法 |
US20130154802A1 (en) | 2011-12-19 | 2013-06-20 | Symbol Technologies, Inc. | Method and apparatus for updating a central plan for an area based on a location of a plurality of radio frequency identification readers |
US20130162806A1 (en) | 2011-12-23 | 2013-06-27 | Mitutoyo Corporation | Enhanced edge focus tool |
US9703179B2 (en) | 2012-01-06 | 2017-07-11 | Sunrise R&D Holdings, Llc | Display shelf modules with projectors for displaying product information and modular shelving systems comprising the same |
EP2615580B1 (en) | 2012-01-13 | 2016-08-17 | Softkinetic Software | Automatic scene calibration |
US9740937B2 (en) | 2012-01-17 | 2017-08-22 | Avigilon Fortress Corporation | System and method for monitoring a retail environment using video content analysis with depth sensing |
US9037287B1 (en) | 2012-02-17 | 2015-05-19 | National Presort, Inc. | System and method for optimizing a mail document sorting machine |
US8958911B2 (en) | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
US8668136B2 (en) | 2012-03-01 | 2014-03-11 | Trimble Navigation Limited | Method and system for RFID-assisted imaging |
EP2634120B1 (en) | 2012-03-01 | 2015-02-18 | Caljan Rite-Hite ApS | Extendable conveyor with light |
US9329269B2 (en) | 2012-03-15 | 2016-05-03 | GM Global Technology Operations LLC | Method for registration of range images from multiple LiDARS |
US8989342B2 (en) | 2012-04-18 | 2015-03-24 | The Boeing Company | Methods and systems for volumetric reconstruction using radiography |
US9153061B2 (en) | 2012-05-04 | 2015-10-06 | Qualcomm Incorporated | Segmentation of 3D point clouds for dense 3D modeling |
US9525976B2 (en) | 2012-05-10 | 2016-12-20 | Honeywell International Inc. | BIM-aware location based application |
US8941645B2 (en) | 2012-05-11 | 2015-01-27 | Dassault Systemes | Comparing virtual and real images in a shopping experience |
WO2013170260A1 (en) | 2012-05-11 | 2013-11-14 | Proiam, Llc | Hand held dimension capture apparatus, system, and method |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US9135543B2 (en) | 2012-06-20 | 2015-09-15 | Apple Inc. | Compression and obfuscation of three-dimensional coding |
US9420265B2 (en) | 2012-06-29 | 2016-08-16 | Mitsubishi Electric Research Laboratories, Inc. | Tracking poses of 3D camera using points and planes |
US9418352B2 (en) | 2012-06-29 | 2016-08-16 | Intel Corporation | Image-augmented inventory management and wayfinding |
US20140003655A1 (en) | 2012-06-29 | 2014-01-02 | Praveen Gopalakrishnan | Method, apparatus and system for providing image data to represent inventory |
US8971637B1 (en) | 2012-07-16 | 2015-03-03 | Matrox Electronic Systems Ltd. | Method and system for identifying an edge in an image |
KR101441187B1 (ko) | 2012-07-19 | 2014-09-18 | 고려대학교 산학협력단 | 자율 보행 로봇 경로 계획 방법 |
EP2877959B1 (en) | 2012-07-24 | 2018-04-18 | Datalogic USA, Inc. | Systems and methods of object measurement in an automated data reader |
US8757479B2 (en) | 2012-07-31 | 2014-06-24 | Xerox Corporation | Method and system for creating personalized packaging |
ES2545374T3 (es) | 2012-07-31 | 2015-09-10 | Sick Ag | Sistema de detección para el montaje en una cinta transportadora |
US8923893B2 (en) | 2012-08-07 | 2014-12-30 | Symbol Technologies, Inc. | Real-time planogram generation and maintenance |
US20140047342A1 (en) | 2012-08-07 | 2014-02-13 | Advanced Micro Devices, Inc. | System and method for allocating a cluster of nodes for a cloud computing system based on hardware characteristics |
CN103679164A (zh) | 2012-09-21 | 2014-03-26 | 阿里巴巴集团控股有限公司 | 一种基于移动终端的标志识别处理方法和系统 |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US20140192050A1 (en) | 2012-10-05 | 2014-07-10 | University Of Southern California | Three-dimensional point processing and model generation |
FR2996512B1 (fr) | 2012-10-05 | 2014-11-21 | Renault Sa | Procede d'evaluation du risque de collision a une intersection |
US9472022B2 (en) | 2012-10-05 | 2016-10-18 | University Of Southern California | Three-dimensional point processing and model generation |
US9841311B2 (en) | 2012-10-16 | 2017-12-12 | Hand Held Products, Inc. | Dimensioning system |
WO2014066422A2 (en) | 2012-10-22 | 2014-05-01 | Bossa Nova Robotics Ip, Inc. | Self-deploying support member, and methods and apparatus using same |
US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US9635606B2 (en) | 2012-11-04 | 2017-04-25 | Kt Corporation | Access point selection and management |
US20150161793A1 (en) | 2012-11-05 | 2015-06-11 | Mitsubishi Electric Corporation | Three-dimensional image capture system and particle beam therapy system |
US9562971B2 (en) | 2012-11-22 | 2017-02-07 | Geosim Systems Ltd. | Point-cloud fusion |
US8825258B2 (en) | 2012-11-30 | 2014-09-02 | Google Inc. | Engaging and disengaging for autonomous driving |
US9380222B2 (en) | 2012-12-04 | 2016-06-28 | Symbol Technologies, Llc | Transmission of images for inventory monitoring |
MY172143A (en) | 2012-12-13 | 2019-11-14 | Mimos Berhad | Method for non-static foreground feature extraction and classification |
US10701149B2 (en) | 2012-12-13 | 2020-06-30 | Level 3 Communications, Llc | Content delivery framework having origin services |
US20140195373A1 (en) | 2013-01-10 | 2014-07-10 | International Business Machines Corporation | Systems and methods for managing inventory in a shopping store |
US20140214547A1 (en) | 2013-01-25 | 2014-07-31 | R4 Technologies, Llc | Systems and methods for augmented retail reality |
US9154773B2 (en) | 2013-03-15 | 2015-10-06 | Seiko Epson Corporation | 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations |
US8965561B2 (en) | 2013-03-15 | 2015-02-24 | Cybernet Systems Corporation | Automated warehousing using robotic forklifts |
TWI594933B (zh) | 2013-03-15 | 2017-08-11 | 辛波提克有限責任公司 | 自動化貯藏及取放系統 |
US9558559B2 (en) | 2013-04-05 | 2017-01-31 | Nokia Technologies Oy | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system |
WO2014181323A1 (en) | 2013-05-05 | 2014-11-13 | Trax Technology Solutions Pte Ltd. | System and method of retail image analysis |
US9037396B2 (en) | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
EP3006272A4 (en) | 2013-05-29 | 2016-06-15 | Toyota Motor Co Ltd | PARK ASSIST DEVICE |
US9158988B2 (en) | 2013-06-12 | 2015-10-13 | Symbol Technclogies, LLC | Method for detecting a plurality of instances of an object |
US10268983B2 (en) | 2013-06-26 | 2019-04-23 | Amazon Technologies, Inc. | Detecting item interaction and movement |
US9443297B2 (en) | 2013-07-10 | 2016-09-13 | Cognex Corporation | System and method for selective determination of point clouds |
US10290031B2 (en) | 2013-07-24 | 2019-05-14 | Gregorio Reid | Method and system for automated retail checkout using context recognition |
US9473747B2 (en) | 2013-07-25 | 2016-10-18 | Ncr Corporation | Whole store scanner |
US9785911B2 (en) * | 2013-07-25 | 2017-10-10 | I AM Robotics, LLC | System and method for piece-picking or put-away with a mobile manipulation robot |
US10349031B2 (en) | 2013-07-28 | 2019-07-09 | Michael J. DeLuca | Augmented reality based user interfacing |
US20150088618A1 (en) | 2013-08-26 | 2015-03-26 | Ims Solutions, Inc. | Road tolling |
US9886678B2 (en) | 2013-09-25 | 2018-02-06 | Sap Se | Graphic representations of planograms |
US9615012B2 (en) | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
US9248611B2 (en) | 2013-10-07 | 2016-02-02 | David A. Divine | 3-D printed packaging |
US20150106403A1 (en) | 2013-10-15 | 2015-04-16 | Indooratlas Oy | Generating search database based on sensor measurements |
US9412040B2 (en) | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
US9349076B1 (en) | 2013-12-20 | 2016-05-24 | Amazon Technologies, Inc. | Template-based target object detection in an image |
US9565400B1 (en) | 2013-12-20 | 2017-02-07 | Amazon Technologies, Inc. | Automatic imaging device selection for video analytics |
EP3108686B1 (en) | 2014-02-21 | 2019-06-19 | Telefonaktiebolaget LM Ericsson (publ) | Wlan throughput prediction |
MY177646A (en) | 2014-02-28 | 2020-09-23 | Icm Airport Technics Australia Pty Ltd | Luggage processing station and system thereof |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US20150262116A1 (en) | 2014-03-16 | 2015-09-17 | International Business Machines Corporation | Machine vision technology for shelf inventory management |
US9953420B2 (en) | 2014-03-25 | 2018-04-24 | Ford Global Technologies, Llc | Camera calibration |
CN103945208B (zh) | 2014-04-24 | 2015-10-28 | 西安交通大学 | 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法 |
MX2016015810A (es) | 2014-06-04 | 2017-07-19 | Intelligrated Headquarters Llc | Visualización de un descargador de camiones. |
CN104023249B (zh) | 2014-06-12 | 2015-10-21 | 腾讯科技(深圳)有限公司 | 电视频道识别方法和装置 |
US9659204B2 (en) | 2014-06-13 | 2017-05-23 | Conduent Business Services, Llc | Image processing methods and systems for barcode and/or product label recognition |
US9542746B2 (en) | 2014-06-13 | 2017-01-10 | Xerox Corporation | Method and system for spatial characterization of an imaging system |
US10176452B2 (en) | 2014-06-13 | 2019-01-08 | Conduent Business Services Llc | Store shelf imaging system and method |
US10453046B2 (en) | 2014-06-13 | 2019-10-22 | Conduent Business Services, Llc | Store shelf imaging system |
WO2015199554A2 (en) | 2014-06-27 | 2015-12-30 | Crown Equipment Limited | Vehicle positioning or navigation utilizing associated feature pairs |
US11051000B2 (en) | 2014-07-14 | 2021-06-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for calibrating cameras with non-overlapping views |
DE102014011821A1 (de) | 2014-08-08 | 2016-02-11 | Cargometer Gmbh | Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts |
US20160044862A1 (en) | 2014-08-14 | 2016-02-18 | Raven Industries, Inc. | Site specific product application device and method |
CN104200086B (zh) | 2014-08-25 | 2017-02-22 | 西北工业大学 | 宽基线可见光相机位姿估计方法 |
US20160061591A1 (en) | 2014-08-28 | 2016-03-03 | Lts Metrology, Llc | Stationary Dimensioning Apparatus |
US9205562B1 (en) * | 2014-08-29 | 2015-12-08 | Google Inc. | Integration of depth points into a height map |
JP2016057108A (ja) | 2014-09-08 | 2016-04-21 | 株式会社トプコン | 演算装置、演算システム、演算方法およびプログラム |
EP3201709B1 (en) | 2014-09-30 | 2021-03-17 | NEC Corporation | Method and system for determining a path of an object for moving from a starting state to an end state set avoiding one or more obstacles |
US10296950B2 (en) | 2014-09-30 | 2019-05-21 | Apple Inc. | Beacon triggered processes |
US9576194B2 (en) | 2014-10-13 | 2017-02-21 | Klink Technologies | Method and system for identity and age verification |
US9706105B2 (en) | 2014-10-20 | 2017-07-11 | Symbol Technologies, Llc | Apparatus and method for specifying and aiming cameras at shelves |
US9796093B2 (en) | 2014-10-24 | 2017-10-24 | Fellow, Inc. | Customer service robot and related systems and methods |
US9600892B2 (en) | 2014-11-06 | 2017-03-21 | Symbol Technologies, Llc | Non-parametric method of and system for estimating dimensions of objects of arbitrary shape |
JP5946073B2 (ja) | 2014-11-07 | 2016-07-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 推定方法、推定システム、コンピュータ・システムおよびプログラム |
US10022867B2 (en) | 2014-11-11 | 2018-07-17 | X Development Llc | Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action |
US9916002B2 (en) | 2014-11-16 | 2018-03-13 | Eonite Perception Inc. | Social applications for augmented reality technologies |
US10154246B2 (en) | 2014-11-20 | 2018-12-11 | Cappasity Inc. | Systems and methods for 3D capturing of objects and motion sequences using multiple range and RGB cameras |
US10248653B2 (en) | 2014-11-25 | 2019-04-02 | Lionbridge Technologies, Inc. | Information technology platform for language translation and task management |
US9396554B2 (en) | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
US9483704B2 (en) | 2014-12-10 | 2016-11-01 | Ricoh Co., Ltd. | Realogram scene analysis of images: superpixel scene analysis |
US9928708B2 (en) | 2014-12-12 | 2018-03-27 | Hawxeye, Inc. | Real-time video analysis for security surveillance |
US9628695B2 (en) | 2014-12-29 | 2017-04-18 | Intel Corporation | Method and system of lens shift correction for a camera array |
US20160253735A1 (en) | 2014-12-30 | 2016-09-01 | Shelfscreen, Llc | Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers |
US9367831B1 (en) | 2015-03-16 | 2016-06-14 | The Nielsen Company (Us), Llc | Methods and apparatus for inventory determinations using portable devices |
US9630319B2 (en) | 2015-03-18 | 2017-04-25 | Irobot Corporation | Localization and mapping using physical features |
US9600731B2 (en) | 2015-04-08 | 2017-03-21 | Toshiba Tec Kabushiki Kaisha | Image processing apparatus, image processing method and computer-readable storage medium |
US9868443B2 (en) | 2015-04-27 | 2018-01-16 | GM Global Technology Operations LLC | Reactive path planning for autonomous driving |
MX2017015063A (es) | 2015-05-26 | 2018-05-07 | Crown Equip Corp | Sistemas y metodos para la calibracion del dispositivo de captura de imagenes para un vehiculo de manejo de materiales. |
US9646410B2 (en) | 2015-06-30 | 2017-05-09 | Microsoft Technology Licensing, Llc | Mixed three dimensional scene reconstruction from plural surface models |
US20170011308A1 (en) | 2015-07-09 | 2017-01-12 | SunView Software, Inc. | Methods and Systems for Applying Machine Learning to Automatically Solve Problems |
US10410096B2 (en) | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
JP6281730B2 (ja) | 2015-07-10 | 2018-02-21 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 画像を取得するシステム及び無人航空機 |
US10308410B2 (en) | 2015-07-17 | 2019-06-04 | Nestec S.A. | Multiple-container composite package |
US9549125B1 (en) | 2015-09-01 | 2017-01-17 | Amazon Technologies, Inc. | Focus specification and focus stabilization |
GB2542115B (en) | 2015-09-03 | 2017-11-15 | Rail Vision Europe Ltd | Rail track asset survey system |
AU2016316037B2 (en) | 2015-09-04 | 2020-07-02 | Crown Equipment Corporation | Industrial vehicle with feature-based localization and navigation |
US9684081B2 (en) | 2015-09-16 | 2017-06-20 | Here Global B.V. | Method and apparatus for providing a location data error map |
US9612123B1 (en) | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US9517767B1 (en) | 2015-11-04 | 2016-12-13 | Zoox, Inc. | Internal safety systems for robotic vehicles |
EP3374947A4 (en) | 2015-11-09 | 2019-03-27 | Simbe Robotics, Inc. | METHOD FOR FOLLOWING A STOCK LEVEL IN A STORE |
US20170150129A1 (en) | 2015-11-23 | 2017-05-25 | Chicago Measurement, L.L.C. | Dimensioning Apparatus and Method |
US10336543B1 (en) | 2016-01-21 | 2019-07-02 | Wing Aviation Llc | Selective encoding of packages |
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10145955B2 (en) | 2016-02-04 | 2018-12-04 | Symbol Technologies, Llc | Methods and systems for processing point-cloud data with a line scanner |
KR102373926B1 (ko) | 2016-02-05 | 2022-03-14 | 삼성전자주식회사 | 이동체 및 이동체의 위치 인식 방법 |
US10197400B2 (en) | 2016-02-25 | 2019-02-05 | Sharp Laboratories Of America, Inc. | Calibration methods and systems for an autonomous navigation vehicle |
US10229386B2 (en) | 2016-03-03 | 2019-03-12 | Ebay Inc. | Product tags, systems, and methods for crowdsourcing and electronic article surveillance in retail inventory management |
US20170261993A1 (en) | 2016-03-10 | 2017-09-14 | Xerox Corporation | Systems and methods for robot motion control and improved positional accuracy |
US9928438B2 (en) | 2016-03-10 | 2018-03-27 | Conduent Business Services, Llc | High accuracy localization system and method for retail store profiling via product image recognition and its corresponding dimension database |
US10721451B2 (en) | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
WO2017172790A1 (en) | 2016-03-29 | 2017-10-05 | Bossa Nova Robotics Ip, Inc. | Planogram assisted inventory system and method |
US9805240B1 (en) | 2016-04-18 | 2017-10-31 | Symbol Technologies, Llc | Barcode scanning and dimensioning |
US9791862B1 (en) | 2016-04-25 | 2017-10-17 | Thayermahan, Inc. | Systems and method for unmanned undersea sensor position, orientation, and depth keeping |
JP7009389B2 (ja) | 2016-05-09 | 2022-01-25 | グラバンゴ コーポレイション | 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法 |
JP6744430B2 (ja) | 2016-05-19 | 2020-08-19 | シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. | 製品を店舗内の棚構造に割り当てる棚割表を自動的に生成する方法 |
US9639935B1 (en) | 2016-05-25 | 2017-05-02 | Gopro, Inc. | Apparatus and methods for camera alignment model calibration |
US10394244B2 (en) | 2016-05-26 | 2019-08-27 | Korea University Research And Business Foundation | Method for controlling mobile robot based on Bayesian network learning |
US10769582B2 (en) | 2016-06-30 | 2020-09-08 | Bossa Nova Robotics Ip, Inc. | Multiple camera system for inventory tracking |
US10785418B2 (en) | 2016-07-12 | 2020-09-22 | Bossa Nova Robotics Ip, Inc. | Glare reduction method and system |
US20180025412A1 (en) | 2016-07-22 | 2018-01-25 | Focal Systems, Inc. | Determining in-store location based on images |
US9827683B1 (en) | 2016-07-28 | 2017-11-28 | X Development Llc | Collaborative inventory monitoring |
US20180053091A1 (en) | 2016-08-17 | 2018-02-22 | Hawxeye, Inc. | System and method for model compression of neural networks for use in embedded platforms |
US10054447B2 (en) | 2016-08-17 | 2018-08-21 | Sharp Laboratories Of America, Inc. | Lazier graph-based path planning for autonomous navigation |
US10776661B2 (en) | 2016-08-19 | 2020-09-15 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting and dimensioning objects |
US20180101813A1 (en) | 2016-10-12 | 2018-04-12 | Bossa Nova Robotics Ip, Inc. | Method and System for Product Data Review |
US10210603B2 (en) | 2016-10-17 | 2019-02-19 | Conduent Business Services Llc | Store shelf imaging system and method |
US10289990B2 (en) | 2016-10-17 | 2019-05-14 | Conduent Business Services, Llc | Store shelf imaging system and method |
US10019803B2 (en) | 2016-10-17 | 2018-07-10 | Conduent Business Services, Llc | Store shelf imaging system and method using a vertical LIDAR |
US20180114183A1 (en) | 2016-10-25 | 2018-04-26 | Wal-Mart Stores, Inc. | Stock Level Determination |
US10451405B2 (en) | 2016-11-22 | 2019-10-22 | Symbol Technologies, Llc | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
US10354411B2 (en) | 2016-12-20 | 2019-07-16 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting objects |
US9778388B1 (en) | 2016-12-22 | 2017-10-03 | Thayermahan, Inc. | Systems and methods for autonomous towing of an underwater sensor array |
US10121072B1 (en) | 2016-12-30 | 2018-11-06 | Intuit Inc. | Unsupervised removal of text from form images |
US10293485B2 (en) | 2017-03-30 | 2019-05-21 | Brain Corporation | Systems and methods for robotic path planning |
US10229322B2 (en) | 2017-04-06 | 2019-03-12 | Ants Technology (Hk) Limited | Apparatus, methods and computer products for video analytics |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US10505057B2 (en) | 2017-05-01 | 2019-12-10 | Symbol Technologies, Llc | Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US20180314908A1 (en) | 2017-05-01 | 2018-11-01 | Symbol Technologies, Llc | Method and apparatus for label detection |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
CN107067382A (zh) | 2017-05-11 | 2017-08-18 | 南宁市正祥科技有限公司 | 一种改进的图像边缘检测方法 |
WO2019023249A1 (en) | 2017-07-25 | 2019-01-31 | Bossa Nova Robotics Ip, Inc. | REDUCTION OF DATA IN A BAR CODE READING ROBOT SHELF SURVEILLANCE SYSTEM |
US10127438B1 (en) | 2017-08-07 | 2018-11-13 | Standard Cognition, Corp | Predicting inventory events using semantic diffing |
US10861302B2 (en) | 2017-08-17 | 2020-12-08 | Bossa Nova Robotics Ip, Inc. | Robust motion filtering for real-time video surveillance |
US10783379B2 (en) | 2017-08-23 | 2020-09-22 | Bossa Nova Robotics Ip, Inc. | Method for new package detection |
US20190149725A1 (en) * | 2017-09-06 | 2019-05-16 | Trax Technologies Solutions Pte Ltd. | Using augmented reality for image capturing a retail unit |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
US20190180150A1 (en) | 2017-12-13 | 2019-06-13 | Bossa Nova Robotics Ip, Inc. | Color Haar Classifier for Retail Shelf Label Detection |
JP7081140B2 (ja) | 2017-12-25 | 2022-06-07 | 富士通株式会社 | 物体認識装置、物体認識方法及び物体認識プログラム |
US10726264B2 (en) | 2018-06-25 | 2020-07-28 | Microsoft Technology Licensing, Llc | Object-based localization |
-
2018
- 2018-04-05 US US15/946,412 patent/US11327504B2/en active Active
-
2019
- 2019-04-03 BE BE20195216A patent/BE1026161B1/nl active IP Right Grant
- 2019-04-04 CA CA3095925A patent/CA3095925C/en active Active
- 2019-04-04 GB GB2015594.1A patent/GB2586405B/en active Active
- 2019-04-04 DE DE112019001796.9T patent/DE112019001796T5/de active Pending
- 2019-04-04 WO PCT/US2019/025859 patent/WO2019195595A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CA3095925C (en) | 2023-01-17 |
DE112019001796T5 (de) | 2021-02-11 |
US11327504B2 (en) | 2022-05-10 |
BE1026161B1 (nl) | 2020-07-10 |
GB202015594D0 (en) | 2020-11-18 |
US20190310652A1 (en) | 2019-10-10 |
CA3095925A1 (en) | 2019-10-10 |
BE1026161A1 (nl) | 2019-10-22 |
WO2019195595A1 (en) | 2019-10-10 |
GB2586405A (en) | 2021-02-17 |
GB2586405B (en) | 2022-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BE1026160B1 (nl) | Werkwijze en rekenapparaat voor het verkrijgen van labelposities | |
BE1026149B1 (nl) | Werkwijze, systeem en inrichting voor het corrigeren van doorschijnendheid artefacten in data die een ondersteuningsstructuur representeren | |
BE1025892B1 (nl) | Werkwijze apparaat voor schapranddetectie | |
US11200442B2 (en) | Method and apparatus for support surface edge detection | |
US20170261993A1 (en) | Systems and methods for robot motion control and improved positional accuracy | |
WO2018093570A1 (en) | Navigation control method and apparatus in a mobile automation system | |
BE1026161A9 (nl) | Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie | |
AU2019396253B2 (en) | Method, system and apparatus for auxiliary label detection and association | |
KR102330435B1 (ko) | 서비스로봇 제어 시스템 | |
CA3119342C (en) | Mixed depth object detection | |
CN114651287A (zh) | 用于自动用户标识的电子装置 | |
US10731970B2 (en) | Method, system and apparatus for support structure detection | |
US11416000B2 (en) | Method and apparatus for navigational ray tracing | |
BE1027283B1 (nl) | Werkwijze, systeem en inrichting voor het detecteren van productaanzichten | |
AU2019395668B2 (en) | Method and apparatus for control of mobile automation apparatus light emitters | |
BE1028693B1 (nl) | Parallax-tolerante panoramische beeldgeneratie | |
AU2019351689B2 (en) | Method, system and apparatus for object detection in point clouds | |
US11507103B2 (en) | Method, system and apparatus for localization-based historical obstacle handling | |
US11402846B2 (en) | Method, system and apparatus for mitigating data capture light leakage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Patent granted |
Effective date: 20200710 |