BE1026161A1 - Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie - Google Patents

Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie Download PDF

Info

Publication number
BE1026161A1
BE1026161A1 BE20195216A BE201905216A BE1026161A1 BE 1026161 A1 BE1026161 A1 BE 1026161A1 BE 20195216 A BE20195216 A BE 20195216A BE 201905216 A BE201905216 A BE 201905216A BE 1026161 A1 BE1026161 A1 BE 1026161A1
Authority
BE
Belgium
Prior art keywords
subset
depth
depth measurements
location
primary
Prior art date
Application number
BE20195216A
Other languages
English (en)
Other versions
BE1026161B1 (nl
BE1026161A9 (nl
Inventor
fen Cao
Harsoveet Singh
Richard Jeffrey Rzeszutek
Jingxing Qian
Jonathan Kelly
Original Assignee
Symbol Technologies Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symbol Technologies Llc filed Critical Symbol Technologies Llc
Publication of BE1026161A1 publication Critical patent/BE1026161A1/nl
Application granted granted Critical
Publication of BE1026161A9 publication Critical patent/BE1026161A9/nl
Publication of BE1026161B1 publication Critical patent/BE1026161B1/nl

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Werkwijze voor mobiele automatiseringsinrichting-lokalisatie in een navigatieregelaar, waarbij de werkwijze omvat: het regelen van een dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat; het selecteren van een primaire deelverzameling van de dieptemetingen; het selecteren, uit de primaire deelverzameling, van een hoekkandidaat- deelverzameling van de dieptemetingen; het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur; het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand; het selecteren, uit de pad-deelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monster- vlakken die zich uitstrekken vanaf de dieptesensor; het genereren van een plankvlak uit de lokale minimum-dieptemetingen; en het updaten van een lokalisatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.

Description

Werkwijze, systeem en inrichting voor mobiele
AUTOMATISERINGSINRICHTING LOKALISATIE
Achtergrond
Omgevingen waarin objecten moeten worden beheerd, zoals detailhandel-voorzieningen, kunnen complex en veranderlijk zijn. Een detailhandel-voorziening kan bijvoorbeeld objecten omvatten zoals producten voor verkoop, een distributie-omgeving kan objecten omvatten zoals pakketten of pallets, een fabricage-omgeving kan objecten zoals componenten of samenstellen omvatten, een gezondheidszorgomgeving kan objecten omvatten zoals medicamenten of medische apparaten.
Een mobiele inrichting kan worden gebruikt om taken uit te voeren in de omgeving, zoals het opnemen van data voor gebruik in het identificeren van producten die uitverkocht zijn, onjuist zijn gelokaliseerd en dergelijke. Om binnen de omgeving te bewegen wordt een pad gegenereerd dat zich uitstrekt vanaf een startlocatie naar een bestemmingslocatie en de inrichting reist het pad af naar de bestemming. Om accuraat langs het bovengenoemde pad te bewegen volgt de inrichting typisch zijn locatie binnen de omgeving. Echter dergelijke locatievolging (waarnaar ook wordt verwezen als lokalisatie) is onderworpen aan verscheidene bronnen van ruis en afwijkingen, die kunnen optellen tot een voldoende graad om navigationele accuraatheid te beïnvloeden en de uitvoering van taken door de inrichting te hinderen, zoals data-opname taken.
Samenvatting
Volgens een aspect van de uitvinding wordt een werkwijze verschaft voor mobiele automatiseringsinrichting lokalisatie in een navigatieregelaar, waarbij de werkwijze omvat: het regelen van een
BE2019/5216 dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat; het selecteren van een primaire deelverzameling van de dieptemetingen; het selecteren, uit de primaire deelverzameling, van een hoekkandidaatdeelverzameling van de dieptemetingen; het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur; het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand; het selecteren, uit de pad-deelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor; het genereren van een plankvlak uit de lokale minimum-dieptemetingen; en het updaten van een lokalisatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.
Verder kan de werkwijze omvatten, voorafgaand aan het opnemen van de dieptemetingen: het ontvangen van een instructie om een pad over te steken dat wordt geassocieerd met de navigatiestructuur; het verkrijgen van een locatie van de navigatiestructuur in een globaal referentiekader; en het regelen van een zich bewegend mechanisme van de mobiele automatiseringsinrichting om naar de locatie te bewegen.
In een aspect kan het selecteren van de primaire deelverzameling het genereren van een primair selectiegebied omvatten dat is gecentreerd op de dieptesensor, en het selecteren van de dieptemetingen binnen het primaire selectiegebied. Het primaire selectiegebied is bijvoorbeeld een cilinder.
Het selecteren van de pad-deelverzameling kan het verdelen omvatten van de primaire deelverzameling in twee gedeeltes overeenkomstig de hoekrand en het selecteren van één van de gedeeltes.
Alternatief en/of bijkomend kan het updaten van de lokalisatie het initialiseren omvatten van een lokaal referentiekader dat een oorsprong
BE2019/5216 heeft gebaseerd op de hoekrand en het plankvlak. De geüpdatet lokalisatie kan worden verschaft aan een Kalman filter.
De werkwijze kan verder omvatten: het opnemen van beelddata met de dieptemetingen; het detecteren van een plankrand in de beelddata; en het vahderen van het plankvlak overeenkomstig de plankrand.
De werkwijze kan verder omvatten: het initiëren van een oversteek van het pad; het regelen van de dieptesensor om een verder meervoudig aantal dieptemetingen op te nemen; het selecteren van een verdere primaire deelverzameling van dieptemetingen uit het verdere meervoudig aantal dieptemetingen; het selecteren van een verdere paddeelverzameling van de dieptemetingen uit de verdere primaire deelverzameling; het genereren van een verder plankvlak gebaseerd op de verdere pad-deelverzameling; en het verder updaten van de lokahsatie gebaseerd op het verdere plankvlak.
Additioneel kan de werkwijze verder omvatten: het bepalen van een hoek van het verdere plankvlak ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verwerpen van het verdere plankvlak als de hoek een drempel overschrijdt.
Volgens een verder aspect van de uitvinding wordt een rekeninrichting verschaft voor mobiele automatiseringsinrichtinglokalisatie, waarbij de rekeninrichting omvat: een dieptesensor, een navigatieregelaar die is ingericht om: de dieptesensor te regelen om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatiestructuur omvat; een primaire deelverzameling van de dieptemetingen te selecteren; uit de primaire deelverzameling, een hoekkandidaat-deelverzameling van de dieptemetingen te selecteren; uit de hoekkandidaat-deelverzameling een hoekrand te genereren corresponderend met de navigatiestructuur; een pad-deelverzameling van de dieptemetingen te selecteren uit de primaire deelverzameling, overeenkomstig de hoekrand; uit de pad-deelverzameling een lokale
BE2019/5216 minimum-dieptemeting te selecteren voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor; een plankvlak te genereren uit de lokale minimum-dieptemetingen; en een lokalisatie van de mobiele automatiseringsinrichting te updaten gebaseerd op de hoekrand en het plankvlak.
Voordeligerwijs is de navigatieregelaar verder ingericht om, voorafgaand aan het regelen van de dieptesensor om de dieptemetingen op te nemen: een instructie te ontvangen om een pad over te steken dat wordt geassocieerd met de navigatiestructuur; een locatie van de navigatiestructuur te verkrijgen in een globaal referentiekader; en een bewegend mechanisme te regelen van de mobiele automatiseringsinrichting om naar de locatie te bewegen.
Alternatief en/of additioneel is de navigatieregelaar verder ingericht om de primaire deelverzameling te selecteren door: een primair selectiegebied te genereren dat is gecentreerd op de dieptesensor; en het selecteren van de dieptemetingen binnen het primaire selectiegebied. Het primaire selectiegebied is bijvoorbeeld een cilinder.
De navigatieregelaar van de rekeninrichting kan verder zijn ingericht om de pad-deelverzamehng te selecteren door de primaire deelverzameling te verdelen in twee gedeeltes in overeenstemming met de hoekrand, en één van de gedeeltes te selecteren.
Alternatief en/of bijkomend kan de navigatieregelaar verder zijn ingericht om de lokalisatie te updaten door een lokaal referentiekader te initiahseren dat een oorsprong heeft gebaseerd op de hoekrand en het plankvlak.
De navigatieregelaar kan verder zijn ingericht om de geüpdatete lokahsatie aan een Kalman filter te verschaffen.
De navigatieregelaar is verder ingericht om: de beeldsensor te regelen om beelddata op te nemen met de dieptemetingen; een plankrand te
BE2019/5216 detecteren in de beelddata; en het plankvlak te valideren in overeenstemming met de plankrand.
Voordeligerwijs is de navigatieregelaar verder ingericht om: een oversteek van het pad te initiëren; de dieptesensor te regelen om een verder meervoudig aantal dieptemetingen op te nemen; een verdere primaire deelverzameling van dieptemetingen te selecteren uit het verdere meervoudig aantal dieptemetingen; een verdere pad-deelverzameling van de dieptemetingen te selecteren uit de verdere primaire deelverzameling; een verder plankvlak te genereren gebaseerd op de verdere paddeelverzameling; en de lokalisatie verder te updaten gebaseerd op het verdere plankvlak.
Verder kan de navigatieregelaar zijn ingericht om: een hoek van het verdere plankvlak te bepalen ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verdere plankvlak te verwerpen als de hoek een drempel overschrijdt.
Korte beschrijving van de verschillende aanzichten van de tekeningen
De begeleidende figuren, waarbij gelijke verwijzingscijfers verwijzen naar identieke of functioneel vergelijkbare elementen in de afzonderlijke aanzichten, tezamen met de figuurbeschrijving hieronder, zijn ingelijfd in en maken deel uit van de beschrijving en dienen om uitvoeringsvormen van concepten die de geclaimde uitvinding omvatten verder te illustreren en leggen verscheidene principes en voordelen van deze uitvoeringsvormen uit. Hierin toont
FIG. 1 een schets van een mobiel automatiseringssysteem;
FIG. 2A een mobiele automatiseringsinrichting in het systeem van FIG. 1;
BE2019/5216
FIG. 2B een blokdiagram van bepaalde interne hardware componenten van de mobiele automatiseringsinrichting in het systeem van FIG. 1;
FIG. 3 een blokdiagram van bepaalde interne componenten van de mobiele automatiseringsinrichting van FIG. 1;
FIG. 4 een stroomdiagram van lokalisatiewerkwijze voor de mobiele automatiseringsinrichting van FIG. 1;
FIG. 5 bovenaanzicht van een pad waar de mobiele automatiseringsinrichting van FIG. 1 naar toe zal bewegen;
FIG. 6 a gedeeltelijk bovenaanzicht van het pad van FIG. 5, dat de geaccumuleerde lokalisatie-afwijking toont wanneer de mobiele automatiseringsinrichting van FIG. 1 het pad heeft bereikt;
FIG. 7 een perspectiefaanzicht van een gedeelte van het pad getoond in FIG. 6;
FIGS. 8A en 8B diepte- en beeld-data die zijn vastgelegd door de mobiele automatiseringsinrichting van FIG. 1 gedurende de uitvoering van de werkwijze van FIG. 4;FIGS. 9A-9D een voorbeelduitvoering van blokken 410, 415 en 420 van de werkwijze van FIG. 4;
FIGS 10A-10C een voorbeelduitvoering van blokken 425 en 430 van de werkwijze van FIG. 4;
FIG. 11 een geüpdatete lokahsatie die het resultaat is van de uitvoering van de werkwijze van FIG. 4;
FIG. 12 een stroomdiagram van een andere lokahsatiewerkwijze voor de mobiele automatiseringsinrichting van FIG. 1;
FIG. 13 een voorbeelduitvoering van de werkwijze van FIG. 12, en
FIG. 14 een geüpdatete lokahsatie die het resultaat is van de uitvoering van de werkwijze van FIG. 12.
Elementen in de figuren worden getoond voor eenvoud en duidelijkheid en zijn niet noodzakelijk op schaal getekend. De afmetingen van sommige van de elementen in de figuren kunnen bijvoorbeeld zijn
BE2019/5216 overdreven ten opzichte van andere elementen om het begrijpen van uitvoeringsvormen van de onderhavige uitvinding te helpen verbeteren.
De inrichting en werkwijze componenten worden gerepresenteerd, waar het geschikt is, door conventionele symbolen in de figuren, waarbij alleen die specifieke details worden getoond die relevant zijn voor het begrijpen van de uitvoeringsvormen van de onderhavige uitvinding om zo niet de beschrijving onduidelijk te maken met details die op zichzelf gemakkelijk duidelijk zijn.
Uitgebreide beschrijving
Voorbeelden die hierin zijn geopenbaard zijn gericht op een werkwijze voor mobiele automatiseringsinrichting-lokalisatie in een navigatieregelaar, de werkwijze omvat: het regelen van een dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat; het selecteren van een primaire deelverzameling van de dieptemetingen; het selecteren, uit de primaire deelverzameling, van een hoekkandidaat-deelverzameling van de dieptemetingen; het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur; het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand; het selecteren, uit de paddeelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monster-vlakken die zich uitstrekken vanaf de dieptesensor; het genereren van een plankvlak uit de lokale minimumdieptemetingen; en het updaten van een lokalisatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.
Bijkomende voorbeelden die hierin zijn geopenbaard zijn gericht op een rekenapparaat voor mobiele automatiseringsinrichting-lokalisatie, omvattende: een dieptesensor, een navigatieregelaar die is ingericht om: de dieptesensor te regelen om een meervoudig aantal dieptemetingen op te
BE2019/5216 nemen die corresponderen met een gebied dat een navigatiestructuur omvat; een primaire deelverzameling van de dieptemetingen te selecteren; uit de primaire deelverzameling, een hoekkandidaat-deelverzameling van de dieptemetingen te selecteren; uit de hoekkandidaat-deelverzameling een hoekrand te genereren corresponderend met de navigatiestructuur; een paddeelverzameling van de dieptemetingen te selecteren uit de primaire deelverzameling, overeenkomstig de hoekrand; uit de pad-deelverzameling een lokale minimum-dieptemeting te selecteren voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor; een plankvlak te genereren uit de lokale minimumdieptemetingen; en een lokahsatie van de mobiele automatiseringsinrichting te updaten gebaseerd op de hoekrand en het plankvlak.
FIG. 1 toont een mobiele automatiseringsinrichting 100 in overeenstemming met de leer van deze beschrijving. Het systeem 100 omvat een server 101 in communicatie met ten minste één mobiele automatiseringsinrichting 103 (waarnaar hier ook simpelweg wordt verwezen als de inrichting 103) en met ten minste één cliënt rekeninrichting 105 via communicatie-verbindingen 107, die in het onderhavige voorbeeld zijn geïllustreerd als omvattende draadloze verbindingen. In het onderhavige voorbeeld zijn de verbindingen 107 verschaft door een draadloos local area netwerk (WLAN) dat wordt ingezet in de detailhandel-omgeving door één of meerdere toegangspunten (niet getoond). In andere voorbeelden zijn de server 101, het cliëntapparaat 105 of beide geplaatst buiten de detailhandel-omgeving en omvatten de verbindingen 107 daarom wide-area netwerken zoals het internet, mobiele netwerken en dergelijke. Het systeem 100 omvat ook een doek 108 voor de inrichting 103 in het onderhavige voorbeeld. Het doek 108 staat in verbinding met de server 101 via een verbinding 109 die in het onderhavige
BE2019/5216 voorbeeld een bedrade verbinding is. Echter, in andere voorbeelden is de verbinding 109 een draadloze verbinding
De cliënt-rekeninrichting 105 wordt getoond in FIG. 1 als een mobiele rekeninrichting, zoals een tablet, smartphone of dergelijke. In andere voorbeelden is de cliëntinrichting 105 geïmplementeerd als een ander type rekeninrichting, zoals een desktopcomputer, een laptopcomputer, een andere server, een kiosk, een monitor, en dergelijke. Het systeem 100 kan een meervoudig aantal chëntinrichtingen 105 omvatten in verbinding met de server 101 via de verbindingen 107.
Het systeem 100 wordt ingezet in het geïllustreerde voorbeeld in een detailhandel-omgeving die een meervoudig aantal plank-modules 110-1, 110-2, 110-3 enzovoort (waarnaar gezamenlijk wordt verwezen als planken 110, en waarnaar in het algemeen wordt verwezen als een plank 110 - deze naamgeving wordt ook gebruikt voor andere elementen die hierin worden besproken) omvat. Elke plank-module 110 ondersteunt een meervoudig aantal producten 112. Elke plank-module 110 omvat een plankachterkant 116-1, 116-2, 116-3 en een ondersteuningsoppervlak (bijvoorbeeld ondersteuningsoppervlak 117-3 zoals getoond in FIG. 1) dat zich uitstrekt vanaf de plankachterkant 116 naar een plankrand 118-3, 118-2, 118-3.
De plankmodules 110 zijn typisch opgesteld in een meervoudig aantal paden, waarvan elk een meervoudig aantal module 110 omvat die zijn uitgelijnd van eind naar eind. In dergelijke opstellingen zijn de plankranden 118 naar de paden toe gekeerd, waardoor klanten in de detailhandelomgeving als ook de inrichting 103 zich kunnen verplaatsen. Bij elk uiteinde van een pad vormt één van de modules 110 een padeindstuk (endcap), waarbij bepaalde van de plankranden 118 van die module 110 niet naar het pad zijn gekeerd, maar naar buiten toe vanaf het uiteinde van het pad. In sommige voorbeelden (niet getoond) zijn eindstuk structuren geplaatst aan de uiteindes van de paden. De eindstuk structuren kunnen bijkomstige plankmodules 110 zijn, die bijvoorbeeld een
BE2019/5216 gereduceerde lengte hebben ten opzichte van de modules 110 binnen het pad, en haaks op de modules 110 binnen het pad zijn opgesteld.
Zoals duidelijk zal zijn uit FIG. 1, verwijst de uitdrukking “plankrand” 118 zoals hierin gebruikt, waarnaar ook kan worden verwezen als de rand van een ondersteuningsoppervlak (bijvoorbeeld de ondersteuningsoppervlakken 117), naar een oppervlak begrensd door naburige oppervlakken met verschillende hellingshoeken. In het voorbeeld getoond in FIG. 1 maakt de plankrand 118-3 een hoek van ongeveer negentig graden ten opzichte van elk van de ondersteuningsoppervlakken 117-3 en de onderzijde (niet getoond) van het ondersteuningsoppervlak 1173. In andere voorbeelden zijn de hoeken tussen de plankrand 118-3 en de naburige oppervlakken, zoals het ondersteuningsoppervlak 117-3, meer of minder dan negentig graden. Zoals de vakman zich realiseert, is een ondersteuningsoppervlak niet beperkt tot een plankondersteuningsoppervlak. In een uitvoeringsvorm kan een ondersteuningsoppervlak bijvoorbeeld een tafel-ondersteuningsoppervlak (bijvoorbeeld een tafel-bovenkant) zijn. In zo’n uitvoeringsvorm corresponderen een “plankrand” en een “plankvlak” respectievelijk met een rand van een ondersteuningsoppervlak, zoals een tafelondersteuningsoppervlak en een vlak dat de rand van het tafelondersteuningsoppervlak omvat.
De inrichting 103 wordt ingezet in de detailhandel-omgeving, en communiceert met de server 101 (bijvoorbeeld via de verbinding 107) om autonoom of deels autonoom te navigeren langs een lengte 119 van ten minste een gedeelte van de planken 110. De inrichting 103 is ingericht om te midden van de planken 110 te navigeren, bijvoorbeeld overeenkomstig een referentiekader 102 dat is ingesteld binnen de detailhandel-omgeving. Naar het referentiekader 102 kan ook worden verwezen als een globaal referentiekader. De inrichting 103 is ingericht om gedurende dergelijke navigatie de locatie van de inrichting 103 te volgen ten opzichte van het
BE2019/5216 referentiekader 102. Met andere woorden, de inrichting 103 is ingericht om lokalisatie uit te voeren. Zoals hierna in meer detail zal worden beschreven is de inrichting 103 ook ingericht om de bovengenoemde lokalisatie te updaten door bepaalde structurele kenmerken binnen de detailhandelomgeving te detecteren.
De inrichting 103 is voorzien van een meervoudig aantal navigatie en data-opname sensors 104, zoals beeldsensors (bijvoorbeeld één of meerdere digitale camera’s) en dieptesensors (bijvoorbeeld één of meerdere Licht Detectie en Bereik (LIDAR) sensors, één of meerdere dieptecamera’s die gestructureerde lichtpatronen gebruiken, zoals infrarood licht of dergelijke). De inrichting 103 kan worden ingericht om de sensors 104 te gebruiken om zowel te midden van de planken 110 te navigeren als ook om plankdata op te nemen gedurende dergelijke navigatie.
De server 101 omvat een speciaal-doel regelaar (special purpose controller), zoals een processor 120, die specifiek is ontworpen om de mobiele automatiseringsinrichting 103 te regelen en/of te assisteren om door de omgeving te navigeren en data vast te leggen. Daartoe is de server 101 ingericht om in een geheugen 122 dat is verbonden met de processors 120 een gehen genmodule 132 te onderhouden die data omvat gebruik in navigatie door de inrichting 103.
De processor 120 kan verder worden ingericht om de vastgelegde data te verkrijgen via een communicatie-interface 124 voor latere verwerking (bijvoorbeeld om objecten te detecteren zoals op een plank geplaatste producten in de vastgelegde data, en statusinformatie te detecteren corresponderend met de objecten). De server 101 kan ook worden ingericht om statusmeldingen te versturen (bijvoorbeeld meldingen die aangeven dat producten uitverkocht, laag voorradig of fout geplaatst zijn) aan de cliëntinrichting 105 als antwoord op de bepaling van productstatusdata. De cliëntinrichting 105 omvat één of meerdere regelaars (bijvoorbeeld centrale verwerkingseenheden (CPUs) en/of veld
BE2019/5216 programmeerbare gate arrays (FPGAs) en dergelijke) die zijn ingericht om meldingen te verwerken (bijvoorbeeld om te tonen) die zijn ontvangen van de server 101.
De processor 120 is onderling verbonden met een nietvergankelijk door de computer leesbaar opslagmedium, zoals het bovenvermelde geheugen 122, waarop door de computer leesbare instructies zijn opgeslagen voor het uitvoeren van verscheidene functionaliteiten, inclusief regeling van de inrichting 103 om door de modules 110 te navigeren en plankdata vast te leggen, als ook na-verwerking van de plankdata. Het geheugen 122 omvat een combinatie van volatiel (bijvoorbeeld Random Access Memory of RAM) en niet-volatiel geheugen (bijvoorbeeld read only memory of ROM, Eletrically Erasable PRogrammable Read Only Memory of EEPROM, flash geheugen). De processor 120 en het geheugen 122 omvatten elk één of meerdere geïntegreerde circuits. In sommige uitvoeringsvormen is de processor 120 geïmplementeerd als één of meerdere centrale verwerkingseenheden (CPUs) en/of grafische verwerkingseenheden (GPUs).
De server 101 omvat ook de bovenvermelde communicatieinterface 124 die onderling is verbonden met de processor 120. De communicatie-interface 124 omvat geschikte hardware (bijvoorbeeld zenders, ontvangers, netwerk-interface regelaars en dergelijke) die het de server 101 mogelijk maken te communiceren met andere rekeninrichtingen - in het bijzonder de inrichting 103, de chëntinrichting 105 en het doek 108 -via de verbindingen 107 en 109. De verbindingen 107 en 109 kunnen directe verbindingen zijn of verbindingen die één of meerdere netwerken doorkruisen, waaronder zowel lokale als wide-area netwerken zijn begrepen. De specifieke componenten van de communicatie-interface 124 worden geselecteerd op basis van de het type netwerk of andere verbindingen waarover de server 101 dient te communiceren. In het onderhavige voorbeeld, zoals eerder opgemerkt, is een draadloos local-area netwerk
BE2019/5216 geïmplementeerd in de detailhandelomgeving door middel van de inzet van één of meerdere draadloze toegangspunten. De verbindingen 107 omvatten daarom draadloze verbindingen tussen de inrichting 103 en de mobiele inrichting 105 en de bovengenoemde toegangspunten, en/of een bedrade verbinding (bijvoorbeeld een Ethernet-geb aseerde verbinding) tussen de server 101 en het toegangspunt.
Het geheugen 122 slaat een meervoudig aantal applicaties op, waarbij elk een meervoudig aantal door de computer leesbare instructies omvat die door de processor 120 kunnen worden uitgevoerd. De uitvoering van de hiervoor genoemde instructies door de processor 120 richt de server 101 in om verscheidene handelingen uit te voeren die hierin zijn besproken. De applicaties die zijn opgeslagen in het geheugen 122 omvatten een regelapplicatie 128, die ook kan worden geïmplementeerd als een stel (suite) van logisch verschillende applicaties. In het algemeen is de processor 120 ingericht om, via uitvoering van de applicatie 128 of sub-componenten daarvan en in samenwerking met de andere componenten van de server 101, verscheidene functionaliteiten te implementeren. Naar de processor 120, zoals ingericht via de uitvoering van de regelapplicatie 128, wordt hierin ook verwezen als de regelaar 120. Zoals nu duidelijk zal zijn, kan een deel of alle functionaliteit die wordt geïmplementeerd door de regelaar 120, die hierna wordt beschreven, ook worden uitgevoerd door vooraf ingerichte hardware elementen (bijvoorbeeld één of meerdere FPGAs en/of applicatiespecifieke geïntegreerde circuits (ASICs))) in plaats van uitvoering van de regelapplicatie 128 door de processor 120.
Onder verwijzing naar FIGs. 2A en 2B wordt de mobiele automatiseringsinrichting 103 nu in meer detail getoond. De inrichting 103 omvat een chassis 201 dat een bewegend mechanisme 203 omvat (bijvoorbeeld één of meerdere elektrische motoren die de wielen, rupsbanden of dergelijke aandrijven). De inrichting 103 omvat verder een sensormast 205 die wordt ondersteund op het chassis 201 en in het onderhavige
BE2019/5216 voorbeeld zich omhoog uitstrekt (bijvoorbeeld hoofdzakelijk verticaal) vanaf het chassis 201. De mast 205 ondersteunt de sensors 104 die eerder zijn genoemd. In het bijzonder omvatten de sensors 104 ten minste één beeldverwerkingssensor 207, zoals een digitale camera, als ook ten minste één dieptesensor 209, zoals een 3D digitale camera die in staat is om zowel dieptedata als beelddata vast te leggen. De inrichting 103 omvat ook bijkomende dieptesensors, zoals LIDAR sensors 211. In andere voorbeelden omvat de inrichting 103 bijkomende sensors, zoals één of meerdere RFID lezers, temperatuursensors, en dergelijke.
In het onderhavige voorbeeld ondersteunt de mast 205 zeven digitale camera’s 207-1 tot en met 207-7 en twee LIDAR sensors 211-1 en 211-2. De mast 205 ondersteunt ook een meervoudig aantal verlichtingssamenstellen 213, die zijn ingericht om de gezichtsvelden van de camera’s 207 te verlichten. Dat wil zeggen, het verlichtingssamenstel 213-1 verlicht het gezichtsveld van de camera 207-1, enzovoort. De sensors 207 en 211 zijn zodanig georiënteerd op de mast dat de gezichtsvelden van elke sensor naar een plank 110 zijn gekeerd langs de lengte 119 waarlangs de inrichting 103 beweegt. De inrichting 103 is ingericht om een locatie van de inrichting 103 te volgen (bijvoorbeeld een locatie van het middelpunt van het chassis 201) in een gemeenschappelijk referentiekader dat eerder is ingesteld in de detailhandel facihteit, wat het mogehjk maakt dat data die is vastgelegd door de mobiele automatiseringsinrichting wordt gerapporteerd aan het gemeenschappelijke referentiekader.
De mobiele automatiseringsinrichting 103 omvat een speciaaldoel regelaar, zoals een processor 220, zoals getoond in FIG. 2B, die onderling is verbonden met een niet-vergankelijk door de computer leesbaar opslagmedium, zoals een geheugen 222. Het geheugen 222 omvat een combinatie van volatiel (bijvoorbeeld Random Access Memory of RAM) en niet-volatiel geheugen (bijvoorbeeld read only memory of ROM, Eletrically Erasable PRogrammable Read Only Memory of EEPROM, flash geheugen).
BE2019/5216
De processor 220 en het geheugen 222 omvatten elk één of meerdere geïntegreerde circuits. Het geheugen 222 slaat door de computer leesbare instructies op voor uitvoering door de processor 220. In het bijzonder slaat het geheugen 222 een regelapplicatie 228 op die, wanneer uitgevoerd door de processor 220, de processor 220 inricht om verscheidene functies uit te voeren die hierna in meer detail worden besproken en zijn gerelateerd aan de navigatie van de inrichting 103 (bijvoorbeeld door het regelen van het bewegende mechanisme 203). De applicatie 228 kan ook worden geïmplementeerd als een stel verschillende applicaties in andere voorbeelden.
Naar de processor 220, wanneer deze zo is ingericht door de ruitvoering van de applicatie 228, kan ook worden verwezen al een regelaar 220. Zoals de vakman waardeert, kan de functionaliteit geïmplementeerd door de processor 220 via de uitvoering van de applicatie 288 ook worden geïmplementeerd door één of meerdere speciaal ontworpen hardware of firmware componenten, zoals FPGAs, ASICs en dergelijke in andere uitvoeringsvormen.
Het geheugen 222 kan ook een geheugenmodule 232 opslaan die bijvoorbeeld een kaart van de omgeving omvat waarin de inrichting 103 functioneert, voor gebruik gedurende de uitvoering van de applicatie 228. De inrichting 103 kan verder communiceren met de server 101, bijvoorbeeld om instructies te ontvangen om naar gespecificeerde locaties te navigeren (bijvoorbeeld naar het uiteinde van een bepaald pad dat een stel modules 110 omvat) en om data-vastleg bewerkingen te initiëren (bijvoorbeeld om het boven genoemde pad te doorkruisen gedurende het vastleggen van beeld en/of dieptedata), via een communciatie-interface 224 over de verbinding 107 getoond in FIG. 1. De communicatie-interface 224 stelt de inrichting 103 ook in staat te communiceren met de server 101 via het doek 108 en de verbinding 109.
BE2019/5216
In het onderhavige voorbeeld, zoals hierna besproken, is de inrichting 103 ingericht (via de uitvoering van de applicatie 228 door de processor 220) om een lokalisatie te onderhouden die een locatie van de inrichting 103 representeert binnen een referentiekader, zoals (maar niet noodzakelijk beperkt tot) het globale referentiekader 102. Het onderhouden van een geüpdatete lokalisatie stelt de inrichting 103 in staat om commando’s te genereren voor het bedienen van het bewegende mechanisme 203 om te bewegen naar andere locaties, zoals een pad dat is gespecificeerd in een instructie die is ontvangen van de server 101. Zoals duidehjk zal zijn voor de vakman, kan lokalisatie gebaseerd op inertiaal meting (bijvoorbeeld via versnellingsmeters en gyroscopen) als ook lokalisatie gebaseerd op odometrie (bijvoorbeeld via een wielcodeerinrichting die is gekoppeld met het bewegende mechanisme) fouten maken die over tijd accumuleren. De inrichting 103 is daarom ingericht, zoals hierna in meer detail wordt besproken, om de lokalisatiedata te updaten door bepaalde navigatiestructuren te detecteren binnen de detailhandelomgeving. In het bijzonder kunnen pad-eindstukken en plankvlakken worden gebruikt door de inrichting 103 om lokalisatiedata te updaten.
Zoals duidelijk zal zijn in de bespreking hierna, kan in andere voorbeelden enige of alle verwerking uitgevoerd door de server 101 worden uitgevoerd door de inrichting 103, en enige of alle verwerking uitgevoerd door de inrichting 103 kan worden uitgevoerd door de server 101.
Onder verwijzing naar FIG. 3, alvorens de handelingen te beschrijven die worden ondernomen door de inrichting 103 om de lokahsatiedata te updaten, worden bepaalde componenten van de applicatie 228 in meer detail besproken. Zoals duidelijk zal zijn voor de vakman, kunnen in andere voorbeelden de componenten van de applicatie 228 worden gescheiden in verschillende applicaties, of worden gecombineerd in andere verzamelingen van componenten. Sommige of alle van de componenten getoond in FIG. 3 kunnen ook worden geïmplementeerd als
BE2019/5216 daartoe uitgeruste hardware componenten, zoals één of meerdere ASICs of FPGAs.
De applicatie 228 omvat een preprocessor 300 die is ingericht om een primaire deelverzameling te selecteren van dieptemetingen voor verdere verwerking om de inrichting 103 te lokaliseren. De applicatie 228 omvat ook een hoekgenerator 304 die is ingericht om bepaalde navigatiestructuren te detecteren waar lokalisatie-updates op worden gebaseerd. In het onderhavige voorbeeld wordt naar de generator 304 verwezen als een hoekgenerator omdat de navigatiestructuur die door de hoekgenerator 304 is gedetecteerd een hoek is (bijvoorbeeld een verticale rand) van een plankmodule 110, waarnaar ook kan worden verwezen als een eindstukhoek. De applicatie 228 omvat verder een plankvlakgenerator 308 die is ingericht om op basis van de vastgelegde dieptedata of een deelverzameling daarvan een vlak te genereren dat de plankranden 118 omvat binnen een pad dat een meervoudig aantal modules 110 omvat. In sommige voorbeelden omvat de applicatie 228 ook een beeldverwerkingsprocessor 312, die is ingericht om structurele kenmerken zoals de plankranden 118 te detecteren uit de vastgelegde beelddata (dat wil zeggen onafhankelijk van de vastgelegde dieptedata). De beeld-gebaseerde plankrand detecties worden gebruikt door de plankvlakgenerator 308 om het gegenereerde plankvlak te valideren. In andere voorbeelden is de beeldverwerkingsprocessors 312 weggelaten.
De applicatie 228 omvat ook een lokaliseerder 316 die is ingericht om één of beide van de gegenereerde hoekrand uit de hoekgenerator 304 en een plankvlak uit de plankvlakgenerator 308 te ontvangen, en om de lokalisatie van de inrichting 103 te updaten in ten minste één referentiekader gebaseerd op de boven genoemde informatie. Zoals hierna zal worden getoond, kan het referentiekader het globale referentiekader 102 omvatten dat hiervoor is genoemd, als ook een lokaal referentiekader dat eigen is aan een bepaald pad van modules 110. De lokaliseerder 316 kan ook
BE2019/5216 sub-componenten omvatten die zijn ingericht om paden te genereren en uit te voeren waarlangs de inrichting 103 beweegt (via regeling van het bewegende mechanisme 203), terwijl geüpdatete lokalisatie-informatie wordt bij gehouden.
De functionaliteit van de applicatie 228 zal nu worden beschreven in meer detail, onder verwijzing naar FIG. 4. FIG. 4 toont een werkwijze 400 voor het updaten van mobiele automatiseringsinrichting-lokalisatie, die zal worden beschreven samen met de uitvoering daarvan in het systeem 100, en in het bijzonder door de inrichting 103, onder verwijzing naar de componenten geïllustreerd in FIG. 1.
Bij blok 405 is de inrichting 103, en in het bijzonder de preprocessor 300 van de applicatie 228, ingericht om een meervoudig aantal dieptemetingen vast te leggen, waarnaar ook wordt verwezen als dieptedata. De dieptemetingen worden vastgelegd via de bediening van één of meerdere dieptesensors van de inrichting 103. In het onderhavige voorbeeld worden de dieptemetingen vastgelegd via bediening van de dieptesensor 209 (dat wil zeggen de 3D digitale camera) die hiervoor is genoemd. De 3D camera is ingericht om zowel dieptemetingen als kleurdata, waarnaar hierin wordt verwezen als beelddata, vast te leggen. Dat wil zeggen, elk frame dat wordt vastgelegd door de 3D camera is een puntenwolk, met zowel kleur- en diepte-data voor elk punt. De puntenwolk is typisch gedefinieerd in een referentiekader gecentreerd rondom de sensor 209 zelf. In andere voorbeelden is de beelddata weggelaten en omvat de uitvoering van blok 405 alleen de opname van dieptedata.
De inrichting 103 is ingericht om blok 405 uit te voeren als respons op de aankomst van de inrichting 103 bij een gespecificeerde locatie in de detailhandelomgeving. In het onderhavige voorbeeld is de inrichting 103 ingericht om voorafgaand aan het uitvoeren van blok 405 een instructie van de server 101 te ontvangen om van een huidige locatie van de inrichting 103 te bewegen naar een specifiek pad. De server 101 kan bijvoorbeeld,
BE2019/5216 onder verwijzing naar FIG. 5, ingericht zijn om een instructie te geven (bijvoorbeeld via de verbinding 107) aan de inrichting 103 om vanaf een huidige locatie in het referentiekader 102 naar een pad 500 te bewegen en bij aankomst bij het pad 500, een data-opname te starten waarbij de inrichting 103 de lengte van een meervoudig aantal modules 510-1, 510-2 en 510-3 doorkruist om beeld- en/of diepte-data vast te leggen die de modules 510 tonen.
In respons op het ontvangen van de instructie, is de inrichting 103 ingericht (bijvoorbeeld door uitvoering van de lokaliseerder 316) om een pad te genereren en uit te voeren vanaf de huidige locatie van de inrichting 103 naar een locatie 504 van een eindstuk hoek van het pad 500. De locaties van de modules 510 en aldus de locatie 504 zijn omvat in de kaart die is opgeslagen in de geheugenmodule 232. De lokaliseerder 316 is daarom ingericht om de hoeklocatie 504 op te roepen uit de geheugenmodule 232, om een pad naar de locatie 504 te genereren en uit te voeren. FIG. 6 toont de inrichting 103 volgend op de uitvoering van het bovengenoemde pad. In het bijzonder worden de actuele locatie en oriëntatie (dat wil zeggen de actuele houding) van de inrichting 103 getoond met ononderbroken lijnen, terwijl een lokalisatie 600 van de inrichting 103 (dat wil zeggen een locatie en oriëntatie in het referentiekader 102 zoals onderhouden door de lokahseerder 316) wordt getoond met stippellijnen. Zoals is te zien in FIG. 6, is de lokalisatie van de inrichting 103 waargenomen door de lokaliseerder 316 onnauwkeurig. Afwijkingen in lokahsatie kunnen ontstaan uit een verscheidenheid aan bronnen en kunnen met de tijd accumuleren. Afwijkingsbronnen omvatten shp van het aandrijvend mechanisme 203 op de vloer van de detailhandelfaciliteit, signaalruis van inertiaalsensors en dergelijke.
Geaccumuleerde lokahsatieafwijkingen kunnen in sommige voorbeelden ongeveer 20 centimeter bereiken (zoals duidelijk zal zijn, zijn zowel grotere als kleinere afwijkingen mogelijk). Dat wil zeggen, de
BE2019/5216 lokalisatie 600 van de inrichting 103 in het referentiekader 102 kan op een afstand van ongeveer 20 cm zijn van de eigenlijke, ware positie van de inrichting 103. Voor bepaalde taken, zoals de bovenvermelde data-opname bewerking, kunnen kleinere lokahsatieafwijkingen nodig zijn (bijvoorbeeld onder ongeveer 5 cm). Met andere woorden, voor data opname bewerkingen om vastgelegde data te produceren (bijvoorbeeld beelddata die de modules 510 toont) van voldoende kwaliteit voor het later verwerken, kan het nodig zijn dat de lokaliseerder 316 een lokalisatie onderhoudt die voldoende accuraat is om te garanderen dat de ware positie van de inrichting 103 ten opzichte van de module 510 waarvoor data wordt opgenomen binnen ongeveer 5 cm van een doelpositie is. De doelpositie kan bijvoorbeeld ongeveer 75 cm vanaf de module 510 zijn, en aldus kan het nodig zijn dat de lokahseerder 316 een lokalisatie onderhoudt die garandeert dat de ware afstand tussen de module 510 en de inrichting 103 tussen ongeveer 70 cm en ongeveer 80 cm bhjft.
Daarom, alvorens te beginnen met de data-opname bewerking, is de inrichting 103 ingericht om de lokalisatie te updaten die is opgeslagen in de lokaliseerder 316 via de uitvoering van de werkwijze 400, te beginnen met de opname van diepte en beelddata bij blok 405. De uitvoering van blok 405 wordt geïnitieerd volgend op de aankomst van de inrichting 103 naburig aan de locatie 504, zoals getoond in FIG. 6.
FIG. 7 illustreert een gedeelte van de module 510-3 naburig aan de locatie 504, volgend op de aankomst van de inrichting 103 bij de locatie getoond in het bovenaanzicht van FIG. 6. De module 510-3 omvat een paar ondersteuningsoppervlakken 717-1 en 717-2 die zich uitstrekken vanaf een plankachterkant 716 naar plankranden 718-1 en 718-2. Het ondersteuningsoppervlak 717-2 ondersteunt producten 712 daarop, terwijl het ondersteuningsoppervlak 717-1 niet direct producten 712 zelf ondersteunt. In plaats daarvan ondersteunt de plank achterkant 716 pinnen 720 waarop additionele producten 712 worden ondersteund. Een gedeelte
BE2019/5216 van een grondoppervlak 724, waarlangs de inrichting 103 beweegt en corresponderend met het X-Y vlak (dat wil zeggen met een hoogte van nul op de Z as van het referentiekader 102 getoond in FIG. 1) in het referentiekader 103, is ook getoond.
FIGS. 8A en 8B illustreren een voorbeeld van de data die zijn opgenomen bij blok 405. In het bijzonder toont FIG. 8 A een verzameling van dieptemetingen corresponderend met de module 510-3, in de vorm van een puntenwolk 800, terwijl FIG. 8B beelddata 850 toont. In het onderhavige voorbeeld is de sensor 209 ingericht om diepte en beelddata in hoofdzaak tegelijkertijd op te nemen, en de diepte en beelddata worden opgeslagen in een enkel bestand (elk punt in de puntenwolk 800 omvat bijvoorbeeld ook kleurdata corresponderend met de beelddata 850). De dieptedata 800 en de beelddata 850 zijn daarom separaat getoond voor illustratieve doeleinden in FIGs. 8A en 8B.
Terugkerend naar FIG. 4, bij blok 410 is de preprocessor 300 ingericht om een primaire deelverzameling van de dieptedata te selecteren die zijn opgenomen bij blok 405. De primaire deelverzameling van dieptemetingen is geselecteerd om het volume van dieptemetingen te reduceren dat moet worden verwerkt bij de rest van de werkwijze 400, terwijl de primaire deelverzameling structurele eigenschappen omvat waarop de inrichting 103 is ingericht om lokalisatie updates op te baseren. In het onderhavige voorbeeld is de primaire deelverzameling geselecteerd bij blok 410 door dieptemetingen te selecteren binnen een vooraf gedefinieerde drempelafstand van de sensor 209 (dat wil zeggen, zonder dieptemetingen op een grotere afstand vanaf de sensor dan de drempel).
Meer specifiek, in het onderhavige voorbeeld is de preprocessor 300 ingericht om de primaire deelverzameling te selecteren door dieptemetingen uit de puntenwolk 800 te selecteren die binnen een primair selectiegebied vallen, zoals een cilindrisch gebied van vooraf gedefinieerde afmetingen en positie ten opzichte van de sensor 209. FIG. 9a illustreert een
BE2019/5216 voorbeeld cilindrisch selectiegebied 900 wordt, gecentreerd op de locatie 904 van de sensor 209, die typisch de oorsprong is van het referentiekader waarin de puntenwolk 800 is op genomen. Het gebied 900 heeft een vooraf gedefinieerde diameter die voldoende groot is om de hoek van de een eindstuk module 510-3 te omvatten ondanks de mogelijk inaccurate lokalisatie 600 van de inrichting 103 getoond in FIG. 6. Het gebied 900 heeft ook een basis gesitueerd op een vooraf gedefinieerde hoogte ten opzichte van de sensor 209 (bijvoorbeeld om de basis van het gebied 900 ongeveer 2 cm boven het grondoppervlak 724 te plaatsen). Het gebied 900 heeft ook een vooraf gedefinieerde hoogte (dat wil zeggen een afstand vanaf de basis naar de top van de cilinder) geselecteerd om hoofdzakelijk de gehele hoogte van de modules 510 (bijvoorbeeld ongeveer 2 meter ) te omvatten. In sommige voorbeelden is bij blok 410 de preprocessor ook ingericht om een grondvlakdeelverzameling van dieptemetingen te selecteren, bijvoorbeeld door het toepassen van een passeerfilter om alleen punten te selecteren binnen een vooraf gedefinieerde afstand vanaf het X-Y vlak in het referentiekader 102 (bijvoorbeeld boven een hoogte van -2cm en onder een hoogte van 2cm). De grondvlakdeelverzameling kan worden gebruikt om een grondvlak te genereren (bijvoorbeeld door toepassing van een geschikte vlak-fitbewerking) voor gebruik in het valideren van latere verwerkingsuitvoeren van de werkwijze 400, zoals hierna zal worden besproken.
Terugkerend naar FIG. 4, is bij blok 415 de hoekgenerator 304 ingericht om uit de primaire deelverzameling van dieptedata een hoekkandidaatdeelverzameling van dieptemetingen te selecteren en om een hoekrand te genereren uit de hoekkandidaatdeelverzameling. De uitvoering van blok 415 dient om de verzameling van dieptemetingen verder te beperken waarbinnen de eindstuk-hoek van de module 510-3 aanwezig is. Onder verwijzing naar FIG. 9B, is de hoekgenerator 304 ingericht om de hoekkandidaatdeelverzameling te selecteren, in het onderhavige voorbeeld,
BE2019/5216 door de dieptemeting te identificeren binnen de primaire deelverzameling die het meest nabij de sensorlocatie 904 is. In het bijzonder toont FIG. 9B een bovenaanzicht van de primaire deelverzameling van dieptemetingen. De primaire deelverzameling is getoond als een wig in plaats van als een gehele cilinder omdat de sensor 209 een gezichtsveld heeft van minder dan 360 graden (bijvoorbeeld van ongeveer 130 graden in het getoonde voorbeeld). Zoals is te zien in FIG. 9B, is alleen een deelverzameling van de dieptemetingen (de primaire deelverzameling waarnaar boven wordt verwezen) in de puntenwolk 800 getoond. In het bijzonder zijn geen dieptemetingen corresponderend met het grondoppervlak 724 aanwezig in de primaire deelverzameling.
De hoekgenerator 304 is ingericht om het punt 908 te identificeren in de primaire deelverzameling als het punt het dichtste bij de locatie 904 (dat wil zeggen de locatie van de sensor 209). Van het punt 908 wordt aangenomen dat het correspondeert met een gedeelte van de eindstuk-hoek van de module 510-3. De hoekgenerator is daarom ingericht om als respons op het identificeren van het punt 908 de boven genoemde hoekkandidaatdeelverzameling te selecteren door het genereren van een hoekkandidaatselectiegebied op basis van het punt 908. In het onderhavige voorbeeld is het hoekkandidaatselectiegebied een verdere cilinder met een kleinere vooraf gedefinieerde diameter dan de cilinder 900 die eerder is genoemd en met een lengteas die het punt 908 omvat. Een voorbeeld kandididaathoekselectiegebied 912 is getoond in FIG. 9A. Het gebied 912 kan gepositioneerd zijn op dezelfde hoogte (bijvoorbeeld 2cm boven het grondoppervlak 724) as het gebied 900 en kan dezelfde hoogte als het gebied 900 hebben.
Nadat het hoekkandidaatselectiegebied 912 is geselecteerd, is de hoekgenerator 304 ingericht om een rand (dat wil zeggen een lijn) te fitten aan de punten omvat in het gebied 912. Onder verwijzing naar FIG. 9C, wordt daar het gebeid 912 en de hoekkandidaatdeelverzameling van
BE2019/5216 dieptemetingen daarin omvat in isolatie getoond. Een hoekrand 916 wordt ook getoond in FIG. 90, die is gefit aan de punten van de hoekkandidaatdeelverzameling. De hoekrand 916 is gegenereerd overeenkomstig een geschikte lijn-fit bewerking, zoals een willekeurige monster consensus (RANSAC) lijn-fit bewerking. Beperkingen kunnen ook worden toegepast op de lijnfit bewerking. De hoekgenerator 304 kan bijvoorbeeld worden ingericht om een hoofdzakelijk verticale lijn te fitten aan de punten van de hoekkandidaatdeelverzameling door een beperking op te leggen dat de resulterende hoekrand 916 hoofdzakelijk haaks staat op het bovengenoemde grondvlak.
Terugkerend naar FIG. 4, bij blok 420, in respons op het genereren van de hoekrand 916, is de hoekgenerator 304 ingericht om een paddeelverzameling te selecteren van dieptemetingen uit de primaire deelverzameling (getoond in FIG. 9B), op basis van de hoekrand 916. In het bijzonder, onder verwijzing naar FIG. 9D, is een paddeelverzameling 924 geselecteerd uit de primaire deelverzameling, exclusief een rest 928 van de primaire deelverzameling, door alleen de dieptemetingen van de primaire deelverzameling te selecteren die op een vooraf gedefinieerde zijde van de hoekrand 916 liggen ten opzichte van de centrumlocatie 904. De hoekgenerator 304 is bijvoorbeeld ingericht om de primaire deelverzameling met een vlak 920 te verdelen dat zich uitstrekt door de hoekrand 916 en het centrum 904 doorsnijdt. De paddeelverzameling 924 is de deelverzameling van punten aan de zijde van het vlak 920 dat correspondeert met het binnenste van het pad 500.
In andere voorbeelden is bij blok 420 de hoekgenerator 304 ook ingericht om een eindstuk deelverzameling te selecteren, corresponderend met de rest 928 van de primaire deelverzameling getoond in FIG. 9D. Zoals nu duidelijk zal zijn, wordt aangenomen dat de eindstukdeelverzameling de randen 718 omvat die zich haaks op het pad 500 uitstrekken.
BE2019/5216
Bij blok 425, is de plankvlakgenerator 308 ingericht om lokale minima te genereren uit de paddeelverzameling voor gebruik in de generatie van een plankvlak bij blok 430. Meer specifiek, met betrekking tot FIG. 10A, is in het onderhavige voorbeeld de plankvlakgenerator 308 ingericht om een meervoudig aantal monstervlakken 1000-1, 1000-2, 100-3, enzovoort te genereren die zich uitstrekken vanaf de centrumlocatie 904 op vooraf gedefinieerde hoeken door de paddeelverzameling van dieptemetingen. Voor elk monstervlak 1000, worden dieptemetingen binnen een drempelafstand van het monstervlak 1000 op het monstervlak geprojecteerd. Een meervoudig aantal dieptemetingen 1004 wordt getoond in FIG. 10A als zijnde binnen de boven genoemde drempelafstand van de vlakken 100. Verder, zoals getoond in FIG. 10B, wordt voor elk monstervlak een enkele van de metingen 1004 geselecteerd, die het dichtste bij de locatie 904 is gesitueerd. Aldus worden drie lokale minimumpunten 1008-1, 1008-2 en 1008-3 getoond die zijn geselecteerd in FIG. 10B, waarbij de overige punten in de paddeelverzameling zijn verworpen.
De plankvlakgenerator 304 is dan ingericht om een plankvlak te genereren voor het pad 500 bij blok 430, door het uitvoeren van een geschikte vlak-fit bewerking (bijvoorbeeld een RANS AC bewerking) op de lokale minimina die zijn geselecteerd bij blok 425. FIG. 10C illustreert het resultaat van zo’n vlak-fit bewerking in de vorm van een plank of padvlak 1012 (de lokale minima 1008 die hiervoor zijn genoemd worde ook getoond voor illustratieve doeleinden). De generatie van het padvlak bij blok 430 kan één of meerdere validatiebewerkingen omvatten. Beperkingen kunnen bijvoorbeeld worden opgelegde op de vlak-fit bewerking, zoals een eis dat het resulterende padvlak hoofdzakelijk dwars op het eerder genoemde grondvlak staat.
In sommige voorbeelden kunnen beperkingen voor gebruik bij blok 430 worden gegenereerd uit de beelddata 850 (dat wil zeggen onafhankelijk van de dieptemetingen 800). In het bijzonder, is in sommige
BE2019/5216 voorbeelden de preprocessor 300 ingericht om, volgende op data-opname bij blok 405, blok 435 uit te voeren. Bij blok 435, is de preprocessor 300 ingericht om één of meerdere plankranden te genereren uit de beelddata 850 overeenkomstig een geschikte rand-detectie bewerking. Een voorbeeld van de bovenvermelde randdetectie bewerking omvat de conversie van de beelddata 850 naar grijsschaal beelddata en optioneel het downsamplen van de beelddata 850. De preprocessor 300 kan dan worden ingericht om bijvoorbeeld een Sobel filter op de beelddata toe te passen om gradiënten te extraheren (bijvoorbeeld verticale gradiënten die horizontale randen aanduiden) uit de beelddata. De preprocessor 300 kan dan worden ingericht om een Hough transformatie toe te passen op de resulterende gradiënten, om kandidaat-randlijnen te genereren. Zoals duidelijk zal zijn, kunnen andere plankranddetectie bewerkingen ook worden gebruikt bij blok 435, zoals een Canny randdetector.
Nadat plankranden zijn gegenereerd (bijvoorbeeld corresponderend met de plankranden 718-1 en 718-2 getoond in FIG. 7), kan de preprocessor 300 worden ingericht om de posities ( in de puntenwolk 800) van pixels te herkrijgen in de beelddata 850 die liggen op de plankranden. De bovenvermelde posities worden dan gebruikt bij blok 430 om het padvlak te vahderen dat is gegenereerd door de plankvlakgenerator 308. De plankvlakgenerator 308 kan bijvoorbeeld zijn ingericht om te verifiëren dat het padvlak 1012 de punten omvat die liggen op de plankranden, of dat dergelijke punten liggen binnen een drempelafstand van het padvlak 102. In andere voorbeelden is de preprocessor 300 ingericht om een validatievlak te fitten aan de plankrandpunten en de plankvlakgenerator 308 is ingericht om het validatievlak als een beperking toe te passen gedurende de generatie van het padvlak 1012 (bijvoorbeeld als een eis dat het padvlak 1012 een hoek moet hebben met het validatievlak die niet groter is dan een vooraf bepaalde drempel). In verdere voorbeelden kan de preprocessor 300 zijn ingericht om het padvlak te valideren door te bepalen of hoeken tussen de
BE2019/5216 plankranden zelf (bijvoorbeeld de kandidaat-planklijn hiervoor genoemd) en het padvlak 1012 een drempelhoek overschrijden.
Terugkerend naar FIG. 4, bij blok 440 is de lokaliseerder 316 ingericht om de lokalisatie van de inrichting 103 te updaten overeenkomstig de hoekrand 916 en het padvlak 102. Zoals nu duidelijk zal zijn kunnen de positie en oriëntatie van de inrichting 103 ten opzichte van de hoekrand 916 en het padvlak 1012 worden bepaald uit de puntenwolk 800 zonder onderhavig te zijn aan bepaalde afwijkingsbronnen (bijvoorbeeld inertiaalsensor drift, wielslip en dergelijke) die verantwoordelijk zijn voor een gedeelte van de deviatie tussen de vorige lokalisatie 600 en de ware positie van de inrichting 103.
Daarom omvat het updaten van de lokalisatie van de inrichting bij blok 440 in het onderhavige voorbeeld het initiëren van een lokaal referentiekader met een oorsprong bij de intersectie tussen de hoekrand 916, het padvlak 1012 en het bovenvermelde grondvlak. FIG. 10 O illustreert een lokaal referentiekader 1016 waarin het padvlak 1012 het X-Z vlak is en het grondvlak het X-Y vlak is. De lokaliseerder 316 kan daarom worden ingericht om een positie van de inrichting 103 te bepalen in het referentiekader 1016. In verdere voorbeelden is de lokaliseerder 316 ingericht om de lokalisatie van de inrichting 103 te updaten door het terugvinden (bijvoorbeeld van de kaart in de geheugenmodule 232) van een vooraf gedefinieerde ware locatie van de eindstuk hoek van de module 510-3 in het globale referentiekader 102. De positie en oriëntatie van de inrichting 103 kan dan worden bepaald in het globale referentiekader 102 met de ware locatie van de eindstuk hoek van de module 510-3 en de positie en oriëntatie van de inrichting 103 ten opzichte van de hoekrand 916 en padvlak 1012.
Met betrekking tot FIG. 11, is de vorige lokalisatie 600 getoond naast de ware positie van de inrichting 103 en een geüpdatete lokalisatie 1100 die is verkregen via de uitvoering van de werkwijze 400. De geüpdatete lokalisatie kan ook worden ingericht om een Kalman filter te
BE2019/5216 initialiseren of updaten die is ingericht om als invoeren inertiaalsensor data, wiel-odometrie, lidar-odometrie en dergelijke te accepteren en om houdingsschattingen te genereren voor de inrichting 103.
Volgend op de afronding van de werkwijze 400 is de inrichting 103 ingericht om het pad 500 over te steken overeenkomstig de hiervoor genoemde data-opname instructie (ontvangen van de server 101). Zoals duidelijk zal zijn, kan bijkomende afwijking gedurende de oversteek accumuleren in de lokalisatie die is verkregen bij blok 440. De inrichting 103 is daarom ingericht om het lokalisatie updateproces te herhalen dat boven is gedetailleerd in relatie tot FIG. 4 met bepaalde verschillen die hierna vermeld zijn.
FIG. 12 illustreert een werkwijze 1200 voor het updaten van lokalisatie gedurende beweging door een pad (bijvoorbeeld het pad 500). De werkwijze 1200 kan daarom geïnitieerd worden volgend een uitvoering van de werkwijze 400 bij een entree van het pad 500, zoals hiervoor is besproken. Uitvoering van de werkwijze 1200 omvat de opname van diepte en (optioneel) beelddata bij blok 1205, de selectie van een primaire deelverzameling van de dieptemetingen bij blok 1210 en de selectie van lokale minima uit de primaire deelverzameling bij blok 1225. De uitvoering van blokken 1205, 1210 en 1225 zijn respectievelijk zoals hiervoor beschreven in relatie tot blokken 405, 410 en 425. Zoals nu duidelijk zal zijn is de detectie van een hoek via de generatie van een hoekrand weggelaten in FIG. 12. De lokale minima geselecteerd bij blok 1225 zijn daarom geselecteerd uit de gehele primaire deelverzameling in plaats van een gedeelte van de primaire deelverzameling zoals geïllustreerd in FIG. 9D.
Volgend op de selectie van lokale minima bij blok 1225 is de inrichting 103 (en in het bijzonder de plankvlakgenerator 308) ingericht om een houdingsfilter vlak te genereren en een paddeelverzameling van dieptemetingen te selecteren op basis van het houdingsfiltervlak. Met
BE2019/5216 betrekking tot FIG. 13 wordt een voorbeeld uitvoering van blok 1227 besproken.
FIG. 13 toont de ware positie van de inrichting 103 in doorgetrokken lijnen en de huidige lokalisatie 1300 van de inrichting 103. Zoals duidelijk zal zijn is een bepaalde hoeveelheid van afwijking geaccumuleerd in de lokalisatie 1300. FIG. 13 toont ook een meervoudig aantal lokale minimumpunten 1304 die zijn verkregen via de uitvoering van blok 1225. Bepaalde lokale minima kunnen sensorruis, of dieptemetingen representeren die corresponderen met producten 712 op de plankondersteuningsoppervlakken 717. Daarom is de plankvlakgenerator 308 ingericht om een houdingsfiltervlak 1308 te genereren en om een paddeelverzameling van de punten 1034 te selecteren, die de deelverzameling van de punten 1304 omvat die zijn gesitueerd tussen het houdingsfiltervlak 1308 en een houdingsvlak 1312 corresponderend met de huidige (volgens de lokalisatie 1300) houding van de inrichting 103. De positie van het houdingsfiltervlak 1308 is ingesteld overeenkomstig een afstand 1316 vanaf het houdingsvlak 1312. De afstand 1316 kan vooraf worden gedefinieerd of kan worden bepaald als een veelvoud (typisch groter dan één) van een afstand 1320 tussen het meest nabije punt in de primaire deelverzameling en het houdingsvlak 1312. De factor zelf kan ook vooraf worden bepaald of kan dynamisch worden bepaald op basis van de oriëntatiehoek van de inrichting 103 ten opzichte van de X as van het lokale referentiekader 1016. De factor kan bijvoorbeeld worden ingesteld om groter te worden as de oriëntatiehoek divergeert vanaf een hoek van nul graden.
Nadat het houdingsfiltervlak 1308 is gegenereerd en de paddeelverzameling van punten bij blok 1227 is geselecteerd, is de plankvlakgenerator 308 ingericht om een plankvlak te genereren (waarnaar hierin ook wordt verwezen als een padvlak, zoals eerder is opgemerkt) bij blok 1230 gebaseerd op de paddeelverzameling van de dieptemetingen. De uitvoering van blok 1230 is zoals hiervoor beschreven in relatie tot blok 430
BE2019/5216 en kan het gebruik omvatten van beeld-afgeleide plankranden van blok 1235 (die is zoals beschreven in relatie tot blok 435). Wederom onder verwijzing naar FIG. 13, zijn twee kandidaatpadvlakken 1324 en 1328 getoond.
Bij blok 1232 is de plankvlakgenerator ingericht om één van de vlakken 1324 en 1328 te selecteren en te bepalen of de hoek van het geselecteerde vlak ten opzichte van het houdingsfiltervlak 1308 (of het houdingsvlak 1312, als de vlakken 1308 en 1312 parallel aan elkaar zijn) een vooraf bepaalde drempel overschrijdt. De bepaling bij blok 1232 reflecteert een aanname dat hoewel de lokalisatie 1300 een bepaalde mate van afwijking kan omvatten, die afwijking niet onbegrensd is en bepaalde vlakhoeken zullen daarom waarschijnlijk niet corresponderen met de ware plankvlakken. Meer specifiek, de inrichting 103 is ingericht om het pad 500 over te steken, waarbij hoofdzakelijk parallel aan de plankranden 718 van de modules 510 wordt gebleven. Daarom is het onwaarschijnhjk dat een vlak dat is gegenereerd bij blok 1230 dat aangeeft dat de inrichting 103 is afgeweken van de parallelle oriëntatie, hierboven vermeld, boven een drempel een correct gefit vlak is. De hoekdrempel kan bijvoorbeeld ongeveer tien graden zijn. Daarom is in het onderhavige voorbeeld de bepahng bij blok 1232 bevestigend voor het vlak 1324, en de uitvoering van de werkwijze 1200 gaat daarom door naar blok 1233 om te bepalen of er vlakken overblijven die moeten worden geëvalueerd. Als de bepaling negatief is, begint de uitvoering van de werkwijze 1200 opnieuw bij blok 1205.
Wanneer additionele vlakken overblijven die moeten worden geëvalueerd, wordt de uitvoering van blok 1232 herhaald voor het volgende vlak (in het onderhavige voorbeeld het vlak 1238). Zoals evident is uit FIG. 13, is het vlak 1328 hoofdzakelijk parallel aan het houdingsvlak 1312, en de bepaling bij blok 1232 is daarom negatief. Het vlak 1328 wordt daarom geselecteerd als het padvlak en de lokahseerder 316 is ingericht om de lokahsatie van de inrichting 103 te updaten op basis van het padvlak 1328.
BE2019/5216
Zoals nu duidelijk zal zijn, representeert het padvlak 1328 de gedetecteerde locatie van het X-Z vlak van het referentiekader 1016. Daarom kan bij blok 1240 de lokaliseerder 316 worden ingericht om de waargenomen oriëntatie van de inrichting 103 ten opzichte van het X-Z vlak te updaten op basis van de oriëntatie van het padvlak 1328 in de puntenwolk die is opgenomen bij blok 1205. FIG. 14 illustreert een geüpdatete lokalisatie 1400 die is gegenereerd bij blok 1240, waarbij de oriëntatie is gecorrigeerd ten opzichte van de lokalisatie 1300. Zoals hiervoor is opgemerkt in relatie tot blok 440, kan de lokaliseerder 316 ook worden ingesteld om het Kalman filter te updaten met de geüpdatete lokalisatie 1400.
Terugkerend naar FIG. 12, bij blok 1245 is de inrichting 103 ingericht om te bepalen of het pad 500 volledig is overgestoken op basis van de geüpdatete lokalisatie. De bepaling bij blok 1245 kan worden gebaseerd op het lokale referentiekader 1016 of het globale referentiekader 102, aangezien de lengte van het pad 500 bekend is van de kaart. Wanneer de bepaling bij blok 1245 negatief is, wordt de uitvoering van de werkwijze 1200 herhaald als de inrichting 103 doorgaat met het oversteken van het pad 500. Wanneer de bepaling bij blok 1245 bevestigend is, eindigt de uitvoering van de werkwijze 1200.
In de voorgaande beschrijving zijn specifieke uitvoeringsvormen beschreven. Op gemerkt wordt echter dat verscheidene aanpassingen en veranderingen kunnen worden gemaakt zonder buiten de beschermingsomvang van de uitvinding zoals uiteen gezet in de conclusies hierna te treden. Dienovereenkomstig dienen de beschrijving en figuren te worden beschouwd op een illustratieve wijze in plaats van in een beperkende zin, en alle dergelijke aanpassingen zijn bedoeld om te zijn omvat binnen de beschermingsomvang van de onderhavige leer.
De voordelen, oplossingen voor problemen en ieder element dat kan leiden tot enig voordeel, of oplossing die plaats heeft of meer uitgesproken wordt, moeten niet worden geïnterpreteerd als een kritieke,
BE2019/5216 benodigde, of essentiële maatregel of element van één van de of alle conclusies. De uitvinding wordt alleen gedefinieerd door de bijgevoegde conclusies inclusief aanpassingen die worden gemaakt gedurende het hangende zijn van deze aanvrage en alle equivalenten van die verleende conclusies. Voor het doel van helderheid en een beknopte beschrijving, worden maatregelen hierin beschreven als deel van dezelfde of separate uitvoeringsvormen. Opgemerkt wordt echter dat de beschermingsomvang van de uitvinding uitvoeringsvormen kan omvatten die combinaties hebben van alle of enkele van de maatregelen die hierin zijn beschreven. Verondersteld mag worden dat de getoonde uitvoeringsvormen gelijke of gelijkwaardige componenten omvatten, afgezien van waar deze zijn beschreven als anders.
Bovendien kunnen in dit document betrekkelijke termen zoals eerste en tweede, bovenkant en onderkant, en dergelijke alleen worden gebruikt om één entiteit of actie te onderscheiden van een andere entiteit of actie zonder dat noodzakelijkerwijs één van deze feitelijke relaties of ordes tussen dergelijke entiteiten of acties nodig is of wordt geïmpliceerd. De termen “omvat”, “omvattende”, “’’heeft”, “hebbende”, “bevat”, “bevattende” of iedere andere variatie daarvan, zijn bedoeld om een niet-uitsluitende inclusie te dekken, zodanig dat een proces, werkwijze, artikel, of inrichting die een lijst van elementen omvat, heeft, bevat niet alleen die elementen omvat, maar ook andere elementen kan omvatten die niet uitdrukkelijk zijn vermeld of inherent zijn aan een dergelijk proces, werkwijze, artikel of inrichting. Een element voorafgegaan door “omvat ... een”, “heeft... een”, “bevat... een” sluit niet, zonder meer beperkingen, het bestaan uit van additionele identieke elementen in het proces, de werkwijze, het artikel, of de inrichting die het element omvat, heeft, bevat. De term “een” is gedefinieerd als één of meer, tenzij dat hierin expliciet anders is aangegeven. De termen “in hoofdzaak”, “essentieel”, “ongeveer”, of iedere andere versie daarvan, zijn gedefinieerd als zijnde dichtbij, zoals begrepen
BE2019/5216 door de vakman, en in één niet beperkende uitvoeringsvorm is de term gedefinieerd als zijnde binnen 10%, in een andere uitvoeringsvorm als zijnde binnen 5%, in een andere uitvoeringsvorm als zijnde binnen 1% en in een andere uitvoeringsvorm als zijnde binnen 0.5%. De term “gekoppeld” zoals hierin gebruikt is gedefinieerd als verbonden, hoewel niet noodzakelijkerwijs direct en niet noodzakelijkerwijs mechanisch. Een apparaat of structuur die is “geconfigureerd” op een zekere manier is geconfigureerd op ten minste die manier, maar kan ook worden geconfigureerd op manieren die niet zijn aangegeven.
Opgemerkt wordt dat enkele uitvoeringsvormen één of meerdere generieke of gespecialiseerde processors (of “verwerkingsapparaten”) kunnen omvatten, zoals microprocessors, digitale signaal processors, customized processors, en veldprogrammeerbare gate arrays (FPGAs) en uniek opgeslagen programma instructies (omvattende zowel software als hardware) die de één of meerdere processors besturen, om in combinatie met bepaalde niet-processor circuits, enkele, de meeste, of alle functies te implementeren van de werkwijze en/of inrichting die hierin is beschreven. Als alternatief zouden enkele of alle functies kunnen worden geïmplementeerd door een toestandsmachine die geen opgeslagen programma instructies heeft, of in één of meerdere applicatie-specifieke geïntegreerde circuits (ASICs), waarin elke functie of enkele combinaties van zekere functies zijn geïmplementeerd als custom logic (op maat gemaakt). Uiteraard, zou een combinatie van de twee aanpakken kunnen worden gebruikt.
Bovendien, kan een uitvoeringsvorm worden geïmplementeerd als een door een computer leesbaar opslagmedium die daarop een door een computer leesbare code heeft opgeslagen voor het programmeren van een computer (e.g., omvattende een processor) om een werkwijze uit te voeren zoals hierin wordt beschreven en geclaimd. Voorbeelden van dergelijke door een computer leesbare opslagmedia omvatten, maar zijn niet beperkt tot,
BE2019/5216 een harde schijf, een CD-ROM, een optisch opslagapparaat, een magnetisch opslagapparaat, een ROM (read-only memory), een PROM (programmable read-only memory), een EPROM (erasable programmable read-only memory), een EEPROM (electrically erasable programmable read-only memory) en een flash geheugen. Verder wordt opgemerkt dat men ondanks mogelijk significante inspanning en vele ontwerpkeuzes die gemotiveerd zijn door, bijvoorbeeld, beschikbare tijd, huidige technologie, en economische overwegingen, wanneer geleid door de concepten en principes die hierin zijn beschreven gemakkelijk in staat zal zijn tot het genereren van dergelijke software instructies en programma’s en IC’s met minimaal experimenteren.
De samenvatting van de beschrijving wordt verschaft om de lezer in staat te stellen snel achter de aard van de technische beschrijving te komen. Het wordt ingediend in de veronderstelling dat het niet zal worden gebruikt om de conclusies te interpreteren of de beschermingsomvang daarvan te beperken. Bijkomend kan in de voorgaande uitgebreide beschrijving worden gezien dat verscheidene maatregelen samen zijn gegroepeerd in verscheidene uitvoeringsvormen voor het doel van het stroomlijnen van de beschrijving. Deze wijze van beschrijving dient niet te worden geïnterpreteerd als reflecterende een intentie dat de uitvoeringsvormen die worden geclaimd meer maatregelen nodig hebben dan uitdrukkelijk worden opgesomd in elke conclusie. In plaats daarvan ligt het onderwerp van de uitvinding, zoals de volgende conclusies uitdrukken, in minder dan alle maatregelen van een enkele beschreven uitvoeringsvorm. Dus de volgende conclusies zijn hierbij ingelijfd in de uitgebreide beschrijving, waarbij elke conclusie op zichzelf staat als separate geclaimde materie. Louter het feit dat bepaalde maatregelen worden benoemd in onderling verschillende conclusies geeft niet aan dat een combinatie van deze maatregelen niet kan worden gebruikt voor een voordeel. Een groot aantal varianten zal duidelijk zijn voor de vakman. Alle varianten worden
BE2019/5216 geacht te zijn omvat binnen de beschermingsomvang van de uitvinding zoals gedefinieerd in de volgende conclusies.

Claims (20)

1. Werkwijze voor mobiele automatiseringsinrichting-lokalisatie in een navigatieregelaar, waarbij de werkwijze omvat:
het regelen van een dieptesensor om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatie-structuur omvat;
het selecteren van een primaire deelverzameling van de dieptemetingen;
het selecteren, uit de primaire deelverzameling, van een hoekkandidaat-deelverzameling van de dieptemetingen;
het genereren, uit de hoekkandidaat-deelverzameling, van een hoekrand die correspondeert met de navigatiestructuur;
het selecteren van een pad-deelverzameling van de dieptemetingen uit de primaire deelverzameling, overeenkomstig de hoekrand;
het selecteren, uit de pad-deelverzameling, van een lokale minimum-dieptemeting voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor;
het genereren van een plankvlak uit de lokale minimumdieptemetingen; en het updaten van een lokalisatie van de mobiele automatiseringsinrichting gebaseerd op de hoekrand en het plankvlak.
2. Werkwijze volgens conclusie 1, verder omvattende, voorafgaand aan het opnemen van de dieptemetingen:
het ontvangen van een instructie om een pad over te steken dat wordt geassocieerd met de navigatiestructuur;
het verkrijgen van een locatie van de navigatiestructuur in een globaal referentiekader; en het regelen van een zich bewegend mechanisme van de mobiele automatiseringsinrichting om naar de locatie te bewegen.
BE2019/5216
3. Werkwijze volgens conclusie 1 of 2, waarbij het selecteren van de primaire deelverzameling het genereren van een primair selectiegebied omvat dat is gecentreerd op de dieptesensor, en het selecteren van de dieptemetingen binnen het primaire selectiegebied.
4. Werkwijze volgens conclusie 3, waarbij het primaire selectiegebied een cylinder is.
5. Werkwijze volgens één van de voorgaande conclusies, waarbij het selecteren van de pad-deelverzameling het verdelen omvat van de primaire deelverzameling in twee gedeeltes overeenkomstig de hoekrand, en het selecteren van één van de gedeeltes.
6. Werkwijze volgens één van de voorgaande conclusies, waarbij het updaten van de lokalisatie het initialiseren omvat van een lokaal referentiekader dat een oorsprong heeft gebaseerd op de hoekrand en het plankvlak.
7. Werkwijze volgens één van de voorgaande conclusies, verder omvattende het verschaffen van de geüpdatete lokalisatie aan een Kalman filter.
8. Werkwijze volgens één van de voorgaande conclusies, verder omvattende:
het opnemen van beelddata met de dieptemetingen;
het detecteren van een plankrand in de beelddata; en het valideren van het plankvlak overeenkomstig de plankrand.
9. Werkwijze volgens conclusie 2, verder omvattende:
het initiëren van een oversteek van het pad;
het regelen van de dieptesensor om een verder meervoudig aantal dieptemetingen op te nemen;
het selecteren van een verdere primaire deelverzameling van dieptemetingen uit het verdere meervoudig aantal dieptemetingen;
het selecteren van een verder pad-deelverzameling van de dieptemetingen uit de verdere primaire deelverzameling;
BE2019/5216 het genereren van een verder plankvlak gebaseerd op de verdere pad-deelverzameling; en het verder updaten van de lokahsatie gebaseerd op het verdere plankvlak.
10. Werkwijze volgens conclusie 9, verder omvattende:
het bepalen van een hoek van het verdere plankvlak ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verwerpen van het verdere plankvlak als de hoek een drempel overschrijdt.
11. Rekeninrichting voor mobiele automatiseringsinrichting- lokahsatie, omvattende:
een dieptesensor, een navigatieregelaar die is ingericht om:
de dieptesensor te regelen om een meervoudig aantal dieptemetingen op te nemen die corresponderen met een gebied dat een navigatiestructuur omvat;
een primaire deelverzameling van de dieptemetingen te selecteren;
uit de primaire deelverzameling, een hoekkandidaatdeelverzameling van de dieptemetingen te selecteren;
uit de hoekkandidaat-deelverzameling een hoekrand te genereren corresponderend met de navigatiestructuur;
een pad-deelverzameling van de dieptemetingen te selecteren uit de primaire deelverzameling, overeenkomstig de hoekrand;
uit de pad-deelverzameling een lokale minimumdieptemeting te selecteren voor elk van een meervoudig aantal monstervlakken die zich uitstrekken vanaf de dieptesensor;
een plankvlak te genereren uit de lokale minimumdieptemetingen; en
BE2019/5216 een lokalisatie van de mobiele automatiseringsinrichting te updaten gebaseerd op de hoekrand en het plankvlak.
12. Rekeninrichting volgens conclusie 11, waarbij de navigatieregelaar verder is ingericht om, voorafgaand aan het regelen van de dieptesensor om de dieptemetingen op te nemen:
een instructie te ontvangen om een pad over te steken dat wordt geassocieerd met de navigatiestructuur;
een locatie van de navigatiestructuur te verkrijgen in een globaal referentiekader; en een bewegend mechanisme te regelen van de mobiele automatiseringsinrichting om naar de locatie te bewegen.
13. Rekeninrichting volgens conclusie 11 of 12, waarbij de navigatieregelaar verder is ingericht om de primaire deelverzameling te selecteren door:
een primair selectiegebied te genereren dat is gecentreerd op de dieptesensor; en het selecteren van de dieptemetingen binnen het primaire selectiegebied.
14. Rekeningrichting volgens conclusie 13, waarbij het primaire selectiegebied een cylinder is.
15. Rekeninrichting volgens één van de voorgaande conclusies 11-14, waarbij de navigatieregelaar verder is ingericht om de pad-deelverzameling te selecteren door de primaire deelverzameling te verdelen in twee gedeeltes in overeenstemming met de hoekrand, en één van de gedeeltes te selecteren.
16. Rekeninrichting volgens één van de voorgaande conclusies 11-15, waarbij de navigatieregelaar verder is ingericht om de lokalisatie te updaten door een lokaal referentiekader te initialiseren dat een oorsprong heeft gebaseerd op de hoekrand en het plankvlak.
17. Rekeninrichting volgens één van de voorgaande conclusies 11-116, waarbij de navigatieregelaar verder is ingericht om de geüpdatete lokalisatie aan een Kalman filter te verschaffen.
BE2019/5216
18. Rekeninrichting volgens één van de voorgaande conclusies 11-17, waarbij de navigatieregelaar verder is ingericht om:
de beeldsensor te regelen om beelddata op te nemen met de dieptemetingen;
een plankrand te detecteren in de beelddata; en het plankvlak te valideren in overeenstemming met de plankrand.
19. Rekeninrichting volgens conclusie 12, waarbij de navigatieregelaar verder is ingericht om:
een oversteek van het pad te initiëren;
de dieptesensor te regelen om een verder meervoudig aantal dieptemetingen op te nemen;
een verdere primaire deelverzameling van dieptemetingen te selecteren uit het verdere meervoudig aantal dieptemetingen;
een verdere pad-deelverzameling van de dieptemetingen te selecteren uit de verdere primaire deelverzameling;
een verder plankvlak te genereren gebaseerd op de verdere paddeelverzameling; en de lokalisatie verder te updaten gebaseerd op het verdere plankvlak.
20. Rekeninrichting volgens conclusie 19, waarbij de navigatieregelaar is verder ingericht om:
een hoek van het verdere plankvlak te bepalen ten opzichte van een houdingsvlak van de mobiele automatiseringsinrichting; en het verdere plankvlak te verwerpen als de hoek een drempel overschrijdt.
BE20195216A 2018-04-05 2019-04-03 Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie BE1026161B1 (nl)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US15/946,412 US11327504B2 (en) 2018-04-05 2018-04-05 Method, system and apparatus for mobile automation apparatus localization

Publications (3)

Publication Number Publication Date
BE1026161A1 true BE1026161A1 (nl) 2019-10-22
BE1026161A9 BE1026161A9 (nl) 2019-10-29
BE1026161B1 BE1026161B1 (nl) 2020-07-10

Family

ID=67211443

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20195216A BE1026161B1 (nl) 2018-04-05 2019-04-03 Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie

Country Status (6)

Country Link
US (1) US11327504B2 (nl)
BE (1) BE1026161B1 (nl)
CA (1) CA3095925C (nl)
DE (1) DE112019001796T5 (nl)
GB (1) GB2586405B (nl)
WO (1) WO2019195595A1 (nl)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10731970B2 (en) * 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
US11151743B2 (en) * 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection

Family Cites Families (377)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5214615A (en) 1990-02-26 1993-05-25 Will Bauer Three-dimensional displacement of a body with computer interface
US5209712A (en) 1991-06-24 1993-05-11 Frederic Ferri Proprioceptive exercise, training and therapy apparatus
US5408322A (en) 1993-04-26 1995-04-18 Materials Research Corporation Self aligning in-situ ellipsometer and method of using for process monitoring
JP3311830B2 (ja) 1993-09-20 2002-08-05 株式会社東芝 3次元動画作成装置
KR100197676B1 (ko) 1993-09-27 1999-06-15 윤종용 로보트 청소기
WO1995015533A1 (en) 1993-11-30 1995-06-08 Burke Raymond R Computer system for allowing a consumer to purchase packaged goods at home
US5414268A (en) 1994-02-01 1995-05-09 The Coe Manufacturing Company Light scanner with interlaced camera fields and parallel light beams
JPH0996672A (ja) 1995-09-29 1997-04-08 Sukuuea:Kk 3次元位置データ生成システムおよび方法
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US6034379A (en) 1996-03-01 2000-03-07 Intermec Ip Corp. Code reader having replaceable optics assemblies supporting multiple illuminators
US5831719A (en) 1996-04-12 1998-11-03 Holometrics, Inc. Laser scanning system
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US5953055A (en) 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
JP3371279B2 (ja) 1997-03-10 2003-01-27 ペンタックス プレシジョン株式会社 Tvカメラ用レンズの選択方法および選択装置
US6026376A (en) 1997-04-15 2000-02-15 Kenney; John A. Interactive electronic shopping system and method
GB2330265A (en) 1997-10-10 1999-04-14 Harlequin Group Limited The Image compositing using camera data
IL122079A (en) 1997-10-30 2002-02-10 Netmor Ltd Ultrasound system for positioning and tracking
WO1999023600A1 (en) 1997-11-04 1999-05-14 The Trustees Of Columbia University In The City Of New York Video signal face region detection
US6975764B1 (en) 1997-11-26 2005-12-13 Cognex Technology And Investment Corporation Fast high-accuracy multi-dimensional pattern inspection
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6332098B2 (en) 1998-08-07 2001-12-18 Fedex Corporation Methods for shipping freight
US6820895B2 (en) 1998-09-23 2004-11-23 Vehicle Safety Systems, Inc. Vehicle air bag minimum distance enforcement apparatus, method and system
US6442507B1 (en) 1998-12-29 2002-08-27 Wireless Communications, Inc. System for creating a computer model and measurement database of a wireless communication network
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6388688B1 (en) 1999-04-06 2002-05-14 Vergics Corporation Graph-based visual navigation through spatial environments
US6850946B1 (en) 1999-05-26 2005-02-01 Wireless Valley Communications, Inc. Method and system for a building database manipulator
US6711283B1 (en) 2000-05-03 2004-03-23 Aperio Technologies, Inc. Fully automatic rapid microscope slide scanner
WO2002005214A2 (en) 2000-07-11 2002-01-17 Eg Technology Adaptive edge detection and enhancement for image processing
GB0020850D0 (en) 2000-08-23 2000-10-11 Univ London A system and method for intelligent modelling of public spaces
TW512478B (en) 2000-09-14 2002-12-01 Olympus Optical Co Alignment apparatus
US7054509B2 (en) 2000-10-21 2006-05-30 Cardiff Software, Inc. Determining form identification through the spatial relationship of input data
BR0115469A (pt) 2000-11-21 2003-08-19 Michael Stuart Gardner Marcação de etiqueta
US7068852B2 (en) 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image
JP2002321698A (ja) 2001-04-27 2002-11-05 Mitsubishi Heavy Ind Ltd 航空貨物運搬用ボーディング・ブリッジ
WO2003002935A1 (en) 2001-06-29 2003-01-09 Square D Company Overhead dimensioning system and method
US7046273B2 (en) 2001-07-02 2006-05-16 Fuji Photo Film Co., Ltd System and method for collecting image information
US6995762B1 (en) 2001-09-13 2006-02-07 Symbol Technologies, Inc. Measurement of dimensions of solid objects from two-dimensional image(s)
WO2003025805A1 (en) 2001-09-18 2003-03-27 Pro-Corp Holdings International Limited Image recognition inventory management system
US6722568B2 (en) 2001-11-20 2004-04-20 Ncr Corporation Methods and apparatus for detection and processing of supplemental bar code labels
US7233699B2 (en) 2002-03-18 2007-06-19 National Instruments Corporation Pattern matching using multiple techniques
US20060106742A1 (en) 2002-04-29 2006-05-18 Speed Trac Technologies, Inc. System and method for weighing and tracking freight
US7149749B2 (en) 2002-06-03 2006-12-12 International Business Machines Corporation Method of inserting and deleting leaves in tree table structures
US6928194B2 (en) 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
EP1434170A3 (en) 2002-11-07 2006-04-05 Matsushita Electric Industrial Co., Ltd. Method and apparatus for adding ornaments to an image of a person
JP3862652B2 (ja) 2002-12-10 2006-12-27 キヤノン株式会社 印刷制御方法及び情報処理装置
US7248754B2 (en) 2003-05-05 2007-07-24 International Business Machines Corporation Apparatus and method for determining whether machine readable information on an item matches the item
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7137207B2 (en) 2003-06-23 2006-11-21 Armstrong Timothy D Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US7493336B2 (en) 2003-07-22 2009-02-17 International Business Machines Corporation System and method of updating planogram information using RFID tags and personal shopping device
DE10336638A1 (de) 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
TWI266035B (en) 2003-11-11 2006-11-11 Hon Hai Prec Ind Co Ltd A system and method for measuring point-cloud
SE0400556D0 (sv) 2004-03-05 2004-03-05 Pricer Ab Electronic shelf labelling system, electronic label, handheld device and method in an electronic labelling system
US7720554B2 (en) 2004-03-29 2010-05-18 Evolution Robotics, Inc. Methods and apparatus for position estimation using reflected light sources
WO2005098475A1 (en) 2004-03-29 2005-10-20 Evolution Robotics, Inc. Sensing device and method for measuring position and orientation relative to multiple light sources
US7885865B2 (en) 2004-05-11 2011-02-08 The Kroger Co. System and method for mapping of planograms
US7245558B2 (en) 2004-06-18 2007-07-17 Symbol Technologies, Inc. System and method for detection using ultrasonic waves
US7168618B2 (en) 2004-08-12 2007-01-30 International Business Machines Corporation Retail store method and system
US7643665B2 (en) 2004-08-31 2010-01-05 Semiconductor Insights Inc. Method of design analysis of existing integrated circuits
US8207964B1 (en) 2008-02-22 2012-06-26 Meadow William D Methods and apparatus for generating three-dimensional image data models
EP1828862A2 (en) 2004-12-14 2007-09-05 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
US7783383B2 (en) 2004-12-22 2010-08-24 Intelligent Hospital Systems Ltd. Automated pharmacy admixture system (APAS)
WO2006136958A2 (en) 2005-01-25 2006-12-28 Dspv, Ltd. System and method of improving the legibility and applicability of document pictures using form based image enhancement
US7440903B2 (en) 2005-01-28 2008-10-21 Target Brands, Inc. System and method for evaluating and recommending planograms
DE102005007536A1 (de) 2005-02-17 2007-01-04 Isra Vision Systems Ag Verfahren zur Kalibrierung eines Messsystems
US7751928B1 (en) 2005-03-11 2010-07-06 Amazon Technologies, Inc. Method and system for agent exchange-based materials handling
US9534899B2 (en) 2005-03-25 2017-01-03 Irobot Corporation Re-localization of a robot for slam
CN101160576B (zh) 2005-04-13 2010-05-19 斯德艾斯有限公司 用于测量零售商店陈列情况的方法和系统
WO2006127129A2 (en) 2005-04-19 2006-11-30 University Of Georgia Research Foundation, Inc. Image edge detection systems and methods
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US7590053B2 (en) 2005-06-21 2009-09-15 Alcatel Lucent Multiple endpoint protection using SPVCs
BRPI0520370B8 (pt) 2005-06-28 2023-01-31 Scanalyse Pty Ltd Sistema e método para medição e mapeamento de uma superfície com relação a uma referência
US7817826B2 (en) 2005-08-12 2010-10-19 Intelitrac Inc. Apparatus and method for partial component facial recognition
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
EP1934936A2 (en) 2005-10-10 2008-06-25 Nordic Bioscience A/S A method of segmenting an image
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7508794B2 (en) 2005-11-29 2009-03-24 Cisco Technology, Inc. Authorizing an endpoint node for a communication service
US8577538B2 (en) 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
JP4730121B2 (ja) 2006-02-07 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
US20070197895A1 (en) 2006-02-17 2007-08-23 Sdgi Holdings, Inc. Surgical instrument to assess tissue characteristics
US8157205B2 (en) 2006-03-04 2012-04-17 Mcwhirk Bruce Kimberly Multibody aircrane
US20100171826A1 (en) 2006-04-12 2010-07-08 Store Eyes, Inc. Method for measuring retail display and compliance
ATE470912T1 (de) 2006-04-28 2010-06-15 Toyota Motor Europ Nv Robuster detektor und deskriptor für einen interessenspunkt
CA2737169C (en) 2006-04-28 2014-04-01 Global Sensor Systems Inc. Device for measuring package size
US20070272732A1 (en) 2006-05-26 2007-11-29 Mettler-Toledo, Inc. Weighing and dimensioning system and method for weighing and dimensioning
EP2041516A2 (en) 2006-06-22 2009-04-01 Roy Sandberg Method and apparatus for robotic path planning, selection, and visualization
JP4910507B2 (ja) 2006-06-29 2012-04-04 コニカミノルタホールディングス株式会社 顔認証システム及び顔認証方法
US7647752B2 (en) 2006-07-12 2010-01-19 Greg Magnell System and method for making custom boxes for objects of random size or shape
US7940955B2 (en) 2006-07-26 2011-05-10 Delphi Technologies, Inc. Vision-based method of determining cargo status by boundary detection
US7693757B2 (en) 2006-09-21 2010-04-06 International Business Machines Corporation System and method for performing inventory using a mobile inventory robot
US8277396B2 (en) 2006-11-02 2012-10-02 Queen's University At Kingston Method and apparatus for assessing proprioceptive function
WO2008057504A2 (en) 2006-11-06 2008-05-15 Aman James A Load tracking system based on self- tracking forklift
US8531457B2 (en) 2006-11-29 2013-09-10 Technion Research And Development Foundation Ltd. Apparatus and method for finding visible points in a cloud point
US7474389B2 (en) 2006-12-19 2009-01-06 Dean Greenberg Cargo dimensional and weight analyzing system
US8189926B2 (en) 2006-12-30 2012-05-29 Videomining Corporation Method and system for automatically analyzing categories in a physical space based on the visual characterization of people
US20080164310A1 (en) 2007-01-09 2008-07-10 Dupuy Charles G Labeling system
CA2680646C (en) 2007-03-15 2014-07-22 Kansai University Moving object noise elimination processing device and moving object noise elimination processing program
US7940279B2 (en) 2007-03-27 2011-05-10 Utah State University System and method for rendering of texel imagery
US8132728B2 (en) 2007-04-04 2012-03-13 Sick, Inc. Parcel dimensioning measurement system and method
US8094937B2 (en) 2007-04-17 2012-01-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for labeling feature clusters in frames of image data for optical navigation
WO2008134562A2 (en) 2007-04-27 2008-11-06 Nielsen Media Research, Inc. Methods and apparatus to monitor in-store media and consumer traffic related to retail environments
JP4561769B2 (ja) 2007-04-27 2010-10-13 アイシン・エィ・ダブリュ株式会社 経路案内システム及び経路案内方法
CN101681525A (zh) 2007-06-08 2010-03-24 电子地图有限公司 产生多视点全景图的方法及设备
WO2008154611A2 (en) 2007-06-11 2008-12-18 Honeywell International Inc. Optical reader system for extracting information in a digital image
US7982423B2 (en) 2007-07-04 2011-07-19 Bossa Nova Concepts, Llc Statically stable biped robotic mechanism and method of actuating
JP4661838B2 (ja) 2007-07-18 2011-03-30 トヨタ自動車株式会社 経路計画装置及び方法、コスト評価装置、並びに移動体
KR100922494B1 (ko) 2007-07-19 2009-10-20 삼성전자주식회사 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치
US7726575B2 (en) 2007-08-10 2010-06-01 Hand Held Products, Inc. Indicia reading terminal having spatial measurement functionality
US8950673B2 (en) 2007-08-30 2015-02-10 Symbol Technologies, Inc. Imaging system for reading target with multiple symbols
US8630924B2 (en) 2007-08-31 2014-01-14 Accenture Global Services Limited Detection of stock out conditions based on image processing
US9135491B2 (en) 2007-08-31 2015-09-15 Accenture Global Services Limited Digital point-of-sale analyzer
US8009864B2 (en) 2007-08-31 2011-08-30 Accenture Global Services Limited Determination of inventory conditions based on image processing
US7949568B2 (en) 2007-08-31 2011-05-24 Accenture Global Services Limited Determination of product display parameters based on image processing
US8189855B2 (en) 2007-08-31 2012-05-29 Accenture Global Services Limited Planogram extraction based on image processing
US8295590B2 (en) 2007-09-14 2012-10-23 Abbyy Software Ltd. Method and system for creating a form template for a form
JP4466705B2 (ja) 2007-09-21 2010-05-26 ヤマハ株式会社 ナビゲーション装置
US8396284B2 (en) 2007-10-23 2013-03-12 Leica Geosystems Ag Smart picking in 3D point clouds
US8091782B2 (en) 2007-11-08 2012-01-10 International Business Machines Corporation Using cameras to monitor actual inventory
US20090125350A1 (en) 2007-11-14 2009-05-14 Pieter Lessing System and method for capturing and storing supply chain and logistics support information in a relational database system
US20090160975A1 (en) 2007-12-19 2009-06-25 Ncr Corporation Methods and Apparatus for Improved Image Processing to Provide Retroactive Image Focusing and Improved Depth of Field in Retail Imaging Systems
US8423431B1 (en) 2007-12-20 2013-04-16 Amazon Technologies, Inc. Light emission guidance
US20090192921A1 (en) 2008-01-24 2009-07-30 Michael Alan Hicks Methods and apparatus to survey a retail environment
US8353457B2 (en) 2008-02-12 2013-01-15 Datalogic ADC, Inc. Systems and methods for forming a composite image of multiple portions of an object from multiple perspectives
US7971664B2 (en) 2008-03-18 2011-07-05 Bossa Nova Robotics Ip, Inc. Efficient actuation and selective engaging and locking clutch mechanisms for reconfiguration and multiple-behavior locomotion of an at least two-appendage robot
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US8064729B2 (en) 2008-04-03 2011-11-22 Seiko Epson Corporation Image skew detection apparatus and methods
US20150170256A1 (en) * 2008-06-05 2015-06-18 Aisle411, Inc. Systems and Methods for Presenting Information Associated With a Three-Dimensional Location on a Two-Dimensional Display
JP4720859B2 (ja) 2008-07-09 2011-07-13 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
US8184196B2 (en) 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
US9841314B2 (en) 2008-08-29 2017-12-12 United Parcel Service Of America, Inc. Systems and methods for freight tracking and monitoring
US9824495B2 (en) 2008-09-11 2017-11-21 Apple Inc. Method and system for compositing an augmented reality scene
US20100070365A1 (en) 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Planogram guided shopping
EP2332094B1 (en) 2008-09-14 2014-03-12 Eliezer Magal Automatic identification system for randomly oriented objects
US20100091094A1 (en) 2008-10-14 2010-04-15 Marek Sekowski Mechanism for Directing a Three-Dimensional Camera System
CA2740781C (en) 2008-10-20 2016-06-14 Raritan Americas, Inc. System and method for automatic determination of the physical location of data center equipment
US8479996B2 (en) 2008-11-07 2013-07-09 Symbol Technologies, Inc. Identification of non-barcoded products
KR101234798B1 (ko) 2008-11-24 2013-02-20 삼성전자주식회사 이동 로봇의 위치 측정 방법 및 장치
US8463079B2 (en) 2008-12-16 2013-06-11 Intermec Ip Corp. Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner
US8812226B2 (en) 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8265895B2 (en) 2009-03-27 2012-09-11 Symbol Technologies, Inc. Interactive sensor systems and methods for dimensioning
US8284988B2 (en) 2009-05-13 2012-10-09 Applied Vision Corporation System and method for dimensioning objects using stereoscopic imaging
US8743176B2 (en) 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
US8049621B1 (en) 2009-05-28 2011-11-01 Walgreen Co. Method and apparatus for remote merchandise planogram auditing and reporting
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US7997430B2 (en) 2009-06-30 2011-08-16 Target Brands, Inc. Display apparatus and method
US20120019393A1 (en) 2009-07-31 2012-01-26 Robert Wolinsky System and method for tracking carts in a retail environment
CA2754159C (en) 2009-08-11 2012-05-15 Certusview Technologies, Llc Systems and methods for complex event processing of vehicle-related information
AR077904A1 (es) 2009-08-21 2011-09-28 Syngenta Participations Ag Sistema automatizado para analizar el vigor de la planta
KR101619076B1 (ko) 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US9749823B2 (en) * 2009-12-11 2017-08-29 Mentis Services France Providing city services using mobile devices and a sensor network
US8942884B2 (en) 2010-01-14 2015-01-27 Innovative Transport Solutions, Llc Transport system
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20110216063A1 (en) 2010-03-08 2011-09-08 Celartem, Inc. Lidar triangular network compression
US8456518B2 (en) 2010-03-31 2013-06-04 James Cameron & Vincent Pace Stereoscopic camera with automatic obstruction removal
US8570343B2 (en) 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
US8199977B2 (en) 2010-05-07 2012-06-12 Honeywell International Inc. System and method for extraction of features from a 3-D point cloud
US8134717B2 (en) 2010-05-21 2012-03-13 LTS Scale Company Dimensional detection system and associated method
US9109877B2 (en) 2010-05-21 2015-08-18 Jonathan S. Thierman Method and apparatus for dimensional measurement
US20110310088A1 (en) 2010-06-17 2011-12-22 Microsoft Corporation Personalized navigation through virtual 3d environments
US20120022913A1 (en) 2010-07-20 2012-01-26 Target Brands, Inc. Planogram Generation for Peg and Shelf Items
JP4914528B1 (ja) 2010-08-31 2012-04-11 新日鉄ソリューションズ株式会社 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム
EP3091508B1 (en) 2010-09-03 2018-12-26 California Institute of Technology Three-dimensional imaging system
US8872851B2 (en) 2010-09-24 2014-10-28 Intel Corporation Augmenting image data based on related 3D point cloud data
EP2439487B1 (de) 2010-10-06 2012-08-22 Sick Ag Volumenmessvorrichtung für bewegte Objekte
US8174931B2 (en) 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
US9171442B2 (en) 2010-11-19 2015-10-27 Tyco Fire & Security Gmbh Item identification using video recognition to supplement bar code or RFID information
US20120133639A1 (en) 2010-11-30 2012-05-31 Microsoft Corporation Strip panorama
US9449233B2 (en) 2010-12-01 2016-09-20 The Trustees Of The University Of Pennsylvania Distributed target tracking using self localizing smart camera networks
SG190730A1 (en) 2010-12-09 2013-07-31 Univ Nanyang Tech Method and an apparatus for determining vein patterns from a colour image
US8773946B2 (en) 2010-12-30 2014-07-08 Honeywell International Inc. Portable housings for generation of building maps
US8744644B2 (en) 2011-01-19 2014-06-03 Electronics And Telecommunications Research Institute Apparatus and method for detecting location of vehicle
KR101758058B1 (ko) 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
US8939369B2 (en) 2011-01-24 2015-01-27 Datalogic ADC, Inc. Exception detection and handling in automated optical code reading systems
US20120190453A1 (en) 2011-01-25 2012-07-26 Bossa Nova Robotics Ip, Inc. System and method for online-offline interactive experience
US20120191880A1 (en) 2011-01-26 2012-07-26 Bossa Nova Robotics IP, Inc System and method for identifying accessories connected to apparatus
EP2668008A4 (en) * 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
WO2012100593A1 (zh) 2011-01-30 2012-08-02 浙江省电力公司 智能电能表全自动化检定系统
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US8447549B2 (en) 2011-02-11 2013-05-21 Quality Vision International, Inc. Tolerance evaluation with reduced measured points
US8660338B2 (en) 2011-03-22 2014-02-25 Honeywell International Inc. Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
WO2012132324A1 (ja) 2011-03-31 2012-10-04 日本電気株式会社 店舗システム並びにその制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US8693725B2 (en) 2011-04-19 2014-04-08 International Business Machines Corporation Reliability in detecting rail crossing events
WO2012155104A1 (en) 2011-05-11 2012-11-15 Proiam, Llc Enrollment apparatus, system, and method featuring three dimensional camera
US8902353B2 (en) 2011-05-12 2014-12-02 Symbol Technologies, Inc. Imaging reader with independently controlled illumination rate
US20120287249A1 (en) 2011-05-12 2012-11-15 Electronics And Telecommunications Research Institute Method for obtaining depth information and apparatus using the same
US9785898B2 (en) 2011-06-20 2017-10-10 Hi-Tech Solutions Ltd. System and method for identifying retail products and determining retail product arrangements
US9064394B1 (en) 2011-06-22 2015-06-23 Alarm.Com Incorporated Virtual sensors
US9070285B1 (en) 2011-07-25 2015-06-30 UtopiaCompression Corporation Passive camera based cloud detection and avoidance for aircraft systems
US8768620B2 (en) 2011-07-27 2014-07-01 Msa Technology, Llc Navigational deployment and initialization systems and methods
KR101907081B1 (ko) 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
US9129277B2 (en) 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
TWI622540B (zh) 2011-09-09 2018-05-01 辛波提克有限責任公司 自動化儲存及取放系統
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US11074495B2 (en) 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US9159047B2 (en) 2011-11-11 2015-10-13 James T. Winkel Projected image planogram system
US9033239B2 (en) 2011-11-11 2015-05-19 James T. Winkel Projected image planogram system
US8726200B2 (en) 2011-11-23 2014-05-13 Taiwan Semiconductor Manufacturing Co., Ltd. Recognition of template patterns with mask information
US8706293B2 (en) 2011-11-29 2014-04-22 Cereson Co., Ltd. Vending machine with automated detection of product position
US8793107B2 (en) 2011-12-01 2014-07-29 Harris Corporation Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling
CN103164842A (zh) 2011-12-14 2013-06-19 鸿富锦精密工业(深圳)有限公司 点云提取系统及方法
US20130154802A1 (en) 2011-12-19 2013-06-20 Symbol Technologies, Inc. Method and apparatus for updating a central plan for an area based on a location of a plurality of radio frequency identification readers
US20130162806A1 (en) 2011-12-23 2013-06-27 Mitutoyo Corporation Enhanced edge focus tool
US9703179B2 (en) 2012-01-06 2017-07-11 Sunrise R&D Holdings, Llc Display shelf modules with projectors for displaying product information and modular shelving systems comprising the same
EP2615580B1 (en) 2012-01-13 2016-08-17 Softkinetic Software Automatic scene calibration
US9740937B2 (en) 2012-01-17 2017-08-22 Avigilon Fortress Corporation System and method for monitoring a retail environment using video content analysis with depth sensing
US9037287B1 (en) 2012-02-17 2015-05-19 National Presort, Inc. System and method for optimizing a mail document sorting machine
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
US8668136B2 (en) 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
EP2634120B1 (en) 2012-03-01 2015-02-18 Caljan Rite-Hite ApS Extendable conveyor with light
US9329269B2 (en) 2012-03-15 2016-05-03 GM Global Technology Operations LLC Method for registration of range images from multiple LiDARS
US8989342B2 (en) 2012-04-18 2015-03-24 The Boeing Company Methods and systems for volumetric reconstruction using radiography
US9153061B2 (en) 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
US9525976B2 (en) 2012-05-10 2016-12-20 Honeywell International Inc. BIM-aware location based application
US8941645B2 (en) 2012-05-11 2015-01-27 Dassault Systemes Comparing virtual and real images in a shopping experience
WO2013170260A1 (en) 2012-05-11 2013-11-14 Proiam, Llc Hand held dimension capture apparatus, system, and method
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9135543B2 (en) 2012-06-20 2015-09-15 Apple Inc. Compression and obfuscation of three-dimensional coding
US9420265B2 (en) 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
US9418352B2 (en) 2012-06-29 2016-08-16 Intel Corporation Image-augmented inventory management and wayfinding
US20140003655A1 (en) 2012-06-29 2014-01-02 Praveen Gopalakrishnan Method, apparatus and system for providing image data to represent inventory
US8971637B1 (en) 2012-07-16 2015-03-03 Matrox Electronic Systems Ltd. Method and system for identifying an edge in an image
KR101441187B1 (ko) 2012-07-19 2014-09-18 고려대학교 산학협력단 자율 보행 로봇 경로 계획 방법
EP2877959B1 (en) 2012-07-24 2018-04-18 Datalogic USA, Inc. Systems and methods of object measurement in an automated data reader
US8757479B2 (en) 2012-07-31 2014-06-24 Xerox Corporation Method and system for creating personalized packaging
ES2545374T3 (es) 2012-07-31 2015-09-10 Sick Ag Sistema de detección para el montaje en una cinta transportadora
US8923893B2 (en) 2012-08-07 2014-12-30 Symbol Technologies, Inc. Real-time planogram generation and maintenance
US20140047342A1 (en) 2012-08-07 2014-02-13 Advanced Micro Devices, Inc. System and method for allocating a cluster of nodes for a cloud computing system based on hardware characteristics
CN103679164A (zh) 2012-09-21 2014-03-26 阿里巴巴集团控股有限公司 一种基于移动终端的标志识别处理方法和系统
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140192050A1 (en) 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
FR2996512B1 (fr) 2012-10-05 2014-11-21 Renault Sa Procede d'evaluation du risque de collision a une intersection
US9472022B2 (en) 2012-10-05 2016-10-18 University Of Southern California Three-dimensional point processing and model generation
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
WO2014066422A2 (en) 2012-10-22 2014-05-01 Bossa Nova Robotics Ip, Inc. Self-deploying support member, and methods and apparatus using same
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9635606B2 (en) 2012-11-04 2017-04-25 Kt Corporation Access point selection and management
US20150161793A1 (en) 2012-11-05 2015-06-11 Mitsubishi Electric Corporation Three-dimensional image capture system and particle beam therapy system
US9562971B2 (en) 2012-11-22 2017-02-07 Geosim Systems Ltd. Point-cloud fusion
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US9380222B2 (en) 2012-12-04 2016-06-28 Symbol Technologies, Llc Transmission of images for inventory monitoring
MY172143A (en) 2012-12-13 2019-11-14 Mimos Berhad Method for non-static foreground feature extraction and classification
US10701149B2 (en) 2012-12-13 2020-06-30 Level 3 Communications, Llc Content delivery framework having origin services
US20140195373A1 (en) 2013-01-10 2014-07-10 International Business Machines Corporation Systems and methods for managing inventory in a shopping store
US20140214547A1 (en) 2013-01-25 2014-07-31 R4 Technologies, Llc Systems and methods for augmented retail reality
US9154773B2 (en) 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
US8965561B2 (en) 2013-03-15 2015-02-24 Cybernet Systems Corporation Automated warehousing using robotic forklifts
TWI594933B (zh) 2013-03-15 2017-08-11 辛波提克有限責任公司 自動化貯藏及取放系統
US9558559B2 (en) 2013-04-05 2017-01-31 Nokia Technologies Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
WO2014181323A1 (en) 2013-05-05 2014-11-13 Trax Technology Solutions Pte Ltd. System and method of retail image analysis
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
EP3006272A4 (en) 2013-05-29 2016-06-15 Toyota Motor Co Ltd PARK ASSIST DEVICE
US9158988B2 (en) 2013-06-12 2015-10-13 Symbol Technclogies, LLC Method for detecting a plurality of instances of an object
US10268983B2 (en) 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US9443297B2 (en) 2013-07-10 2016-09-13 Cognex Corporation System and method for selective determination of point clouds
US10290031B2 (en) 2013-07-24 2019-05-14 Gregorio Reid Method and system for automated retail checkout using context recognition
US9473747B2 (en) 2013-07-25 2016-10-18 Ncr Corporation Whole store scanner
US9785911B2 (en) * 2013-07-25 2017-10-10 I AM Robotics, LLC System and method for piece-picking or put-away with a mobile manipulation robot
US10349031B2 (en) 2013-07-28 2019-07-09 Michael J. DeLuca Augmented reality based user interfacing
US20150088618A1 (en) 2013-08-26 2015-03-26 Ims Solutions, Inc. Road tolling
US9886678B2 (en) 2013-09-25 2018-02-06 Sap Se Graphic representations of planograms
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US9248611B2 (en) 2013-10-07 2016-02-02 David A. Divine 3-D printed packaging
US20150106403A1 (en) 2013-10-15 2015-04-16 Indooratlas Oy Generating search database based on sensor measurements
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9349076B1 (en) 2013-12-20 2016-05-24 Amazon Technologies, Inc. Template-based target object detection in an image
US9565400B1 (en) 2013-12-20 2017-02-07 Amazon Technologies, Inc. Automatic imaging device selection for video analytics
EP3108686B1 (en) 2014-02-21 2019-06-19 Telefonaktiebolaget LM Ericsson (publ) Wlan throughput prediction
MY177646A (en) 2014-02-28 2020-09-23 Icm Airport Technics Australia Pty Ltd Luggage processing station and system thereof
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20150262116A1 (en) 2014-03-16 2015-09-17 International Business Machines Corporation Machine vision technology for shelf inventory management
US9953420B2 (en) 2014-03-25 2018-04-24 Ford Global Technologies, Llc Camera calibration
CN103945208B (zh) 2014-04-24 2015-10-28 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
MX2016015810A (es) 2014-06-04 2017-07-19 Intelligrated Headquarters Llc Visualización de un descargador de camiones.
CN104023249B (zh) 2014-06-12 2015-10-21 腾讯科技(深圳)有限公司 电视频道识别方法和装置
US9659204B2 (en) 2014-06-13 2017-05-23 Conduent Business Services, Llc Image processing methods and systems for barcode and/or product label recognition
US9542746B2 (en) 2014-06-13 2017-01-10 Xerox Corporation Method and system for spatial characterization of an imaging system
US10176452B2 (en) 2014-06-13 2019-01-08 Conduent Business Services Llc Store shelf imaging system and method
US10453046B2 (en) 2014-06-13 2019-10-22 Conduent Business Services, Llc Store shelf imaging system
WO2015199554A2 (en) 2014-06-27 2015-12-30 Crown Equipment Limited Vehicle positioning or navigation utilizing associated feature pairs
US11051000B2 (en) 2014-07-14 2021-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating cameras with non-overlapping views
DE102014011821A1 (de) 2014-08-08 2016-02-11 Cargometer Gmbh Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
US20160044862A1 (en) 2014-08-14 2016-02-18 Raven Industries, Inc. Site specific product application device and method
CN104200086B (zh) 2014-08-25 2017-02-22 西北工业大学 宽基线可见光相机位姿估计方法
US20160061591A1 (en) 2014-08-28 2016-03-03 Lts Metrology, Llc Stationary Dimensioning Apparatus
US9205562B1 (en) * 2014-08-29 2015-12-08 Google Inc. Integration of depth points into a height map
JP2016057108A (ja) 2014-09-08 2016-04-21 株式会社トプコン 演算装置、演算システム、演算方法およびプログラム
EP3201709B1 (en) 2014-09-30 2021-03-17 NEC Corporation Method and system for determining a path of an object for moving from a starting state to an end state set avoiding one or more obstacles
US10296950B2 (en) 2014-09-30 2019-05-21 Apple Inc. Beacon triggered processes
US9576194B2 (en) 2014-10-13 2017-02-21 Klink Technologies Method and system for identity and age verification
US9706105B2 (en) 2014-10-20 2017-07-11 Symbol Technologies, Llc Apparatus and method for specifying and aiming cameras at shelves
US9796093B2 (en) 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
US9600892B2 (en) 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
JP5946073B2 (ja) 2014-11-07 2016-07-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 推定方法、推定システム、コンピュータ・システムおよびプログラム
US10022867B2 (en) 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action
US9916002B2 (en) 2014-11-16 2018-03-13 Eonite Perception Inc. Social applications for augmented reality technologies
US10154246B2 (en) 2014-11-20 2018-12-11 Cappasity Inc. Systems and methods for 3D capturing of objects and motion sequences using multiple range and RGB cameras
US10248653B2 (en) 2014-11-25 2019-04-02 Lionbridge Technologies, Inc. Information technology platform for language translation and task management
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
US9483704B2 (en) 2014-12-10 2016-11-01 Ricoh Co., Ltd. Realogram scene analysis of images: superpixel scene analysis
US9928708B2 (en) 2014-12-12 2018-03-27 Hawxeye, Inc. Real-time video analysis for security surveillance
US9628695B2 (en) 2014-12-29 2017-04-18 Intel Corporation Method and system of lens shift correction for a camera array
US20160253735A1 (en) 2014-12-30 2016-09-01 Shelfscreen, Llc Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers
US9367831B1 (en) 2015-03-16 2016-06-14 The Nielsen Company (Us), Llc Methods and apparatus for inventory determinations using portable devices
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
US9600731B2 (en) 2015-04-08 2017-03-21 Toshiba Tec Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable storage medium
US9868443B2 (en) 2015-04-27 2018-01-16 GM Global Technology Operations LLC Reactive path planning for autonomous driving
MX2017015063A (es) 2015-05-26 2018-05-07 Crown Equip Corp Sistemas y metodos para la calibracion del dispositivo de captura de imagenes para un vehiculo de manejo de materiales.
US9646410B2 (en) 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
US20170011308A1 (en) 2015-07-09 2017-01-12 SunView Software, Inc. Methods and Systems for Applying Machine Learning to Automatically Solve Problems
US10410096B2 (en) 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
JP6281730B2 (ja) 2015-07-10 2018-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像を取得するシステム及び無人航空機
US10308410B2 (en) 2015-07-17 2019-06-04 Nestec S.A. Multiple-container composite package
US9549125B1 (en) 2015-09-01 2017-01-17 Amazon Technologies, Inc. Focus specification and focus stabilization
GB2542115B (en) 2015-09-03 2017-11-15 Rail Vision Europe Ltd Rail track asset survey system
AU2016316037B2 (en) 2015-09-04 2020-07-02 Crown Equipment Corporation Industrial vehicle with feature-based localization and navigation
US9684081B2 (en) 2015-09-16 2017-06-20 Here Global B.V. Method and apparatus for providing a location data error map
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US9517767B1 (en) 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
EP3374947A4 (en) 2015-11-09 2019-03-27 Simbe Robotics, Inc. METHOD FOR FOLLOWING A STOCK LEVEL IN A STORE
US20170150129A1 (en) 2015-11-23 2017-05-25 Chicago Measurement, L.L.C. Dimensioning Apparatus and Method
US10336543B1 (en) 2016-01-21 2019-07-02 Wing Aviation Llc Selective encoding of packages
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
KR102373926B1 (ko) 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
US10197400B2 (en) 2016-02-25 2019-02-05 Sharp Laboratories Of America, Inc. Calibration methods and systems for an autonomous navigation vehicle
US10229386B2 (en) 2016-03-03 2019-03-12 Ebay Inc. Product tags, systems, and methods for crowdsourcing and electronic article surveillance in retail inventory management
US20170261993A1 (en) 2016-03-10 2017-09-14 Xerox Corporation Systems and methods for robot motion control and improved positional accuracy
US9928438B2 (en) 2016-03-10 2018-03-27 Conduent Business Services, Llc High accuracy localization system and method for retail store profiling via product image recognition and its corresponding dimension database
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
WO2017172790A1 (en) 2016-03-29 2017-10-05 Bossa Nova Robotics Ip, Inc. Planogram assisted inventory system and method
US9805240B1 (en) 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning
US9791862B1 (en) 2016-04-25 2017-10-17 Thayermahan, Inc. Systems and method for unmanned undersea sensor position, orientation, and depth keeping
JP7009389B2 (ja) 2016-05-09 2022-01-25 グラバンゴ コーポレイション 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法
JP6744430B2 (ja) 2016-05-19 2020-08-19 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. 製品を店舗内の棚構造に割り当てる棚割表を自動的に生成する方法
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US10394244B2 (en) 2016-05-26 2019-08-27 Korea University Research And Business Foundation Method for controlling mobile robot based on Bayesian network learning
US10769582B2 (en) 2016-06-30 2020-09-08 Bossa Nova Robotics Ip, Inc. Multiple camera system for inventory tracking
US10785418B2 (en) 2016-07-12 2020-09-22 Bossa Nova Robotics Ip, Inc. Glare reduction method and system
US20180025412A1 (en) 2016-07-22 2018-01-25 Focal Systems, Inc. Determining in-store location based on images
US9827683B1 (en) 2016-07-28 2017-11-28 X Development Llc Collaborative inventory monitoring
US20180053091A1 (en) 2016-08-17 2018-02-22 Hawxeye, Inc. System and method for model compression of neural networks for use in embedded platforms
US10054447B2 (en) 2016-08-17 2018-08-21 Sharp Laboratories Of America, Inc. Lazier graph-based path planning for autonomous navigation
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
US20180101813A1 (en) 2016-10-12 2018-04-12 Bossa Nova Robotics Ip, Inc. Method and System for Product Data Review
US10210603B2 (en) 2016-10-17 2019-02-19 Conduent Business Services Llc Store shelf imaging system and method
US10289990B2 (en) 2016-10-17 2019-05-14 Conduent Business Services, Llc Store shelf imaging system and method
US10019803B2 (en) 2016-10-17 2018-07-10 Conduent Business Services, Llc Store shelf imaging system and method using a vertical LIDAR
US20180114183A1 (en) 2016-10-25 2018-04-26 Wal-Mart Stores, Inc. Stock Level Determination
US10451405B2 (en) 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
US9778388B1 (en) 2016-12-22 2017-10-03 Thayermahan, Inc. Systems and methods for autonomous towing of an underwater sensor array
US10121072B1 (en) 2016-12-30 2018-11-06 Intuit Inc. Unsupervised removal of text from form images
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
US10229322B2 (en) 2017-04-06 2019-03-12 Ants Technology (Hk) Limited Apparatus, methods and computer products for video analytics
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US10505057B2 (en) 2017-05-01 2019-12-10 Symbol Technologies, Llc Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US20180314908A1 (en) 2017-05-01 2018-11-01 Symbol Technologies, Llc Method and apparatus for label detection
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
CN107067382A (zh) 2017-05-11 2017-08-18 南宁市正祥科技有限公司 一种改进的图像边缘检测方法
WO2019023249A1 (en) 2017-07-25 2019-01-31 Bossa Nova Robotics Ip, Inc. REDUCTION OF DATA IN A BAR CODE READING ROBOT SHELF SURVEILLANCE SYSTEM
US10127438B1 (en) 2017-08-07 2018-11-13 Standard Cognition, Corp Predicting inventory events using semantic diffing
US10861302B2 (en) 2017-08-17 2020-12-08 Bossa Nova Robotics Ip, Inc. Robust motion filtering for real-time video surveillance
US10783379B2 (en) 2017-08-23 2020-09-22 Bossa Nova Robotics Ip, Inc. Method for new package detection
US20190149725A1 (en) * 2017-09-06 2019-05-16 Trax Technologies Solutions Pte Ltd. Using augmented reality for image capturing a retail unit
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US20190180150A1 (en) 2017-12-13 2019-06-13 Bossa Nova Robotics Ip, Inc. Color Haar Classifier for Retail Shelf Label Detection
JP7081140B2 (ja) 2017-12-25 2022-06-07 富士通株式会社 物体認識装置、物体認識方法及び物体認識プログラム
US10726264B2 (en) 2018-06-25 2020-07-28 Microsoft Technology Licensing, Llc Object-based localization

Also Published As

Publication number Publication date
CA3095925C (en) 2023-01-17
DE112019001796T5 (de) 2021-02-11
US11327504B2 (en) 2022-05-10
BE1026161B1 (nl) 2020-07-10
GB202015594D0 (en) 2020-11-18
US20190310652A1 (en) 2019-10-10
BE1026161A9 (nl) 2019-10-29
CA3095925A1 (en) 2019-10-10
WO2019195595A1 (en) 2019-10-10
GB2586405A (en) 2021-02-17
GB2586405B (en) 2022-11-02

Similar Documents

Publication Publication Date Title
AU2018220103B2 (en) Method and apparatus for support surface edge detection
BE1025892A9 (nl) Werkwijze apparaat voor schapranddetectie
BE1026149B1 (nl) Werkwijze, systeem en inrichting voor het corrigeren van doorschijnendheid artefacten in data die een ondersteuningsstructuur representeren
BE1026160B1 (nl) Werkwijze en rekenapparaat voor het verkrijgen van labelposities
US20180313956A1 (en) Device and method for merging lidar data
US20170261993A1 (en) Systems and methods for robot motion control and improved positional accuracy
US20190271984A1 (en) Navigation Control Method and Apparatus in a Mobile Automation System
BE1026161A9 (nl) Werkwijze, systeem en inrichting voor mobiele automatiseringsinrichting lokalisatie
AU2019396253B2 (en) Method, system and apparatus for auxiliary label detection and association
KR102330435B1 (ko) 서비스로봇 제어 시스템
CA3119342C (en) Mixed depth object detection
US10731970B2 (en) Method, system and apparatus for support structure detection
BE1027283B1 (nl) Werkwijze, systeem en inrichting voor het detecteren van productaanzichten
US20200182623A1 (en) Method, system and apparatus for dynamic target feature mapping
US11416000B2 (en) Method and apparatus for navigational ray tracing
BE1028693B1 (nl) Parallax-tolerante panoramische beeldgeneratie
AU2019351689B2 (en) Method, system and apparatus for object detection in point clouds
US11402846B2 (en) Method, system and apparatus for mitigating data capture light leakage
US11507103B2 (en) Method, system and apparatus for localization-based historical obstacle handling
US11842321B1 (en) Image-based detection of planogram product spaces

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20200710