DE102019125987A1 - Verfahren, system und vorrichtung zur navigationsunterstützung - Google Patents

Verfahren, system und vorrichtung zur navigationsunterstützung Download PDF

Info

Publication number
DE102019125987A1
DE102019125987A1 DE102019125987.8A DE102019125987A DE102019125987A1 DE 102019125987 A1 DE102019125987 A1 DE 102019125987A1 DE 102019125987 A DE102019125987 A DE 102019125987A DE 102019125987 A1 DE102019125987 A1 DE 102019125987A1
Authority
DE
Germany
Prior art keywords
task
anchor
definition
mobile computing
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019125987.8A
Other languages
English (en)
Inventor
Patrenahalli M. Narendra
Joseph R. White
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of DE102019125987A1 publication Critical patent/DE102019125987A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0295Proximity-based methods, e.g. position inferred from reception of particular signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/02Systems for determining distance or velocity not using reflection or reradiation using radio waves
    • G01S11/06Systems for determining distance or velocity not using reflection or reradiation using radio waves using intensity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/02Systems for determining distance or velocity not using reflection or reradiation using radio waves
    • G01S11/08Systems for determining distance or velocity not using reflection or reradiation using radio waves using synchronised clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0833Tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • H04B17/318Received signal strength
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • H04W64/003Locating users or terminals or network equipment for network management purposes, e.g. mobility management locating network equipment

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Electromagnetism (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

Ein unterstützendes Navigationssystem zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen beinhaltet: einen Server mit einem Speicher, der folgendes speichert: eine Vielzahl von Ankerdefinitionen, die jeweils (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz enthalten, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; und eine Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; wobei der Server ferner eine Kommunikationsschnittstelle und einen Prozessor beinhaltet, der konfiguriert ist zum: Auswählen einer der Ankerdefinitionen für eine Zuordnung zur Aufgabendefinition; und Übertragen der ausgewählten Ankerdefinition und der Aufgabendefinition an eine mobile Computervorrichtung, wobei die mobile Computervorrichtung konfiguriert ist, um die ausgewählte Ankerdefinition und die Aufgabendefinition zu empfangen; wobei die mobile Computervorrichtung ferner konfiguriert ist, um die Aufgabenüberlagerungsdaten auf einer Anzeige darzustellen.

Description

  • HINTERGRUND
  • Umgebungen, in denen Objekte verwaltet werden, wie z.B. Einzelhandelseinrichtungen, können komplex und flüchtig sein. So kann beispielsweise eine Einzelhandelseinrichtung Objekte wie Produkte zum Kauf beinhalten, eine Vertriebsumgebung kann Objekte wie Pakete oder Paletten beinhalten, eine Produktionsumgebung kann Objekte wie Komponenten oder Baugruppen beinhalten, eine Gesundheitsumgebung kann Objekte wie Medikamente oder medizinische Geräte beinhalten.
  • Es können Aufgaben zur Ausführung in solchen Umgebungen identifiziert werden, z.B. um Preisschilder auf Produkten zu korrigieren, eine Lieferung von Produkten aufzufüllen und dergleichen. Solche Aufgaben können menschlichen Bedienern zur Ausführung übertragen werden. Das Vorhandensein einer variablen Anzahl von Aufgaben sowie einer variablen Anzahl von Mobilfunkbetreibern innerhalb der Umgebung zu einem bestimmten Zeitpunkt kann zu einer ineffizienten Zuweisung von Aufgaben an die Bediener führen, was zu einer Unterauslastung oder Überauslastung bestimmter Bediener oder der Notwendigkeit einer teuren Schulung mehrerer Bediener für mehrere Aufgaben führt.
  • Darüber hinaus kann es erforderlich sein, dass der Bediener, der mit der Ausführung einer bestimmten Aufgabe betraut ist, eine Position innerhalb der Einrichtung, an der die Aufgabe ausgeführt werden soll, genau lokalisiert. Eine vom Bediener mitgeführte mobile Computervorrichtung kann eine unzureichend genaue Lokalisierung aufweisen, um den Bediener an die richtige Position innerhalb der Einrichtung zu führen, was zu falsch ausgeführten Aufgaben, Verzögerungen bei der Aufgabenausführung oder beidem führt.
  • Figurenliste
  • Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
    • 1 ist ein Schaltplan eines mobilen Automatisierungssystems.
    • 2A stellt eine mobile Automatisierungsvorrichtung im System von 1 dar.
    • 2B ist ein Blockdiagramm bestimmter interner Hardwarekomponenten der mobilen Automatisierungsvorrichtung im System von 1.
    • 3 ist ein Flussdiagramm eines Verfahrens zum Erzeugen und Einsetzen von Navigationsassistenzinformationen im System von 1.
    • 4A ist eine Draufsicht auf eine Einrichtung, die eine Ankerposition darstellt.
    • 4B stellt einen Ankermerkmalssatz dar, der im Verfahren von 3 verwendet wird.
    • 5A stellt Aufgabenüberlagerungsdaten dar, die im Verfahren von 3 verwendet werden.
    • 5B stellt eine weitere Draufsicht der Einrichtung von 4A dar, die Anker- und Gerätepositionen veranschaulicht.
    • 6 stellt eine Ankerführungsaufforderung dar, die am Block 355 des Verfahrens von 3 erzeugt wird.
    • 7A stellt eine Draufsicht der Einrichtung von 4 während der Durchführung des Verfahrens von 3 dar.
    • 7B stellt die von der Client-Vorrichtung erfassten Bilddaten dar.
    • 8A stellt eine weitere Draufsicht der Einrichtung von 4 während der Durchführung des Verfahrens von 3 dar.
    • 8B stellt die von der Client-Vorrichtung erfassten Bilddaten dar.
    • 9A stellt eine weitere Draufsicht der Einrichtung von 4 während der Durchführung des Verfahrens von 3 dar.
    • 9B stellt die Darstellung von Aufgabenüberlagerungsinformationen dar, als Antwort auf die Ankunft der Client-Vorrichtung an der in 9A dargestellten Position.
  • Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
  • DETAILLIERTE BESCHREIBUNG
  • Hierin offenbarte Beispiele sind auf ein Verfahren zur Navigationsunterstützung an einer mobilen Computervorrichtung zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen gerichtet, wobei das Verfahren umfasst: Empfangen einer Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz entsprechend den physikalischen Eigenschaften der Einrichtung an der Ankerposition; Empfangen einer Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; Erfassen einer Bildfolge unter Verwendung eines Bilderfassungsmoduls; Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet, basierend auf der lokalen Vorrichtungsposition und der Aufgabenposition; Präsentieren der Bildfolge, die mit den Überlagerungsdaten überlagert ist, auf einer Anzeige als Reaktion auf das Bestimmen, dass sich die Aufgabenposition in dem Sichtfeld befindet, das.
  • Zusätzliche hierin offenbarte Beispiele sind auf eine mobile Computervorrichtung zur Navigationsunterstützung in einer Einrichtung mit einem globalen Bezugsrahmen gerichtet, wobei die mobile Computervorrichtung umfasst: einen Speicher, der folgendes speichert: eine Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der den physikalischen Eigenschaften der Einrichtung an der Ankerposition entspricht; und eine Aufgabendefinition, die aufweist (i) eine Aufgabenposition, die in Bezug auf die Ankerposition definiert ist, und (ii) Aufgabenüberlagerungsdaten; eine Anzeige; ein Bilderfassungsmodul, das konfiguriert ist, um eine Bildfolge aufzunehmen; einen Prozessor, der mit dem Speicher, der Anzeige und dem Bilderfassungsmodul verbunden ist, wobei der Prozessor konfiguriert ist, zum: Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet basierend auf der lokalen Vorrichtungsposition und die Aufgabenposition; und Steuern der Anzeige, um die Bildfolge, die mit den Überlagerungsdaten überlagert ist, auf einer Anzeige darzustellen, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition in dem Sichtfeld befindet.
  • Weitere hierin offenbarte Beispiele richten sich an ein unterstützendes Navigationssystem zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen, wobei das System umfasst: einen Server mit einem Speicher, der folgendes speichert: eine Vielzahl von Ankerdefinitionen, die jeweils aufweisen (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz entsprechend den physikalischen Eigenschaften der Einrichtung an der Ankerposition; und eine Aufgabendefinition, die aufweist (i) eine in Bezug auf die Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; wobei der Server ferner eine Kommunikationsschnittstelle und einen Prozessor beinhaltet, der konfiguriert ist zum: Auswählen einer der Ankerdefinitionen zur Zuordnung zur Aufgabendefinition; und Übertragen der ausgewählten Ankerdefinition und der Aufgabendefinition an eine mobile Computervorrichtung, wobei die mobile Computervorrichtung konfiguriert ist, um die ausgewählte Ankerdefinition und die Aufgabendefinition zu empfangen; wobei die mobile Computervorrichtung ferner konfiguriert ist, um die Aufgabenüberlagerungsdaten auf einer Anzeige darzustellen.
  • 1 stellt ein mobiles Automatisierungs- und Navigationssystem 100 gemäß den Lehren dieser Offenbarung dar. Das System 100 wird als in einer Einzelhandelsumgebung eingesetzt dargestellt, aber in anderen Ausführungsformen kann es in einer Vielzahl von anderen Umgebungen eingesetzt werden, einschließlich Lagerhallen, Produktionsstätten, Krankenhäusern und dergleichen. Die oben genannten Umgebungen werden hierin allgemein als Einrichtungen bezeichnet. Das System 100 beinhaltet einen Server 101 in Kommunikation mit mindestens einer mobilen Automatisierungsvorrichtung 103 (hierin auch einfach als die Vorrichtung 103 bezeichnet) und mindestens einer Client-Computervorrichtung 105 (hierin auch als mobile Computervorrichtung 105 bezeichnet) über Kommunikationsverbindungen 107, die im vorliegenden Beispiel als drahtlose Verbindungen dargestellt sind. Im vorliegenden Beispiel werden die Verbindungen 107 von einem drahtlosen lokalen Netzwerk (WLAN) bereitgestellt, das innerhalb der Einzelhandelsumgebung von einem oder mehreren Zugangspunkten (nicht dargestellt) bereitgestellt wird. In anderen Beispielen befinden sich der Server 101, die Client-Vorrichtung 105 oder beide außerhalb der Einzelhandelsumgebung, und die Verbindungen 107 beinhalten daher Weitverkehrsnetze wie das Internet, mobile Netzwerke und dergleichen. Das System 100 beinhaltet im vorliegenden Beispiel auch einen Anschluss 108 für die Vorrichtung 103. Der Anschluss 108 steht mit dem Server 101 über eine Verbindung 109 in Kommunikation, die im vorliegenden Beispiel eine drahtgebundene Verbindung ist. In anderen Beispielen ist die Verbindung 109 jedoch eine drahtlose Verbindung.
  • Die Client-Computervorrichtung 105 ist in 1 als mobile Computervorrichtung, wie beispielsweise ein Tablet, ein Smartphone oder dergleichen, dargestellt. In anderen Beispielen ist die Client-Vorrichtung 105 als eine andere Art von mobiler Computervorrichtung implementiert, wie beispielsweise ein Laptop-Computer, ein Desktop-Computer, der auf einem mobilen Wagen montiert ist, ein dedizierter Fahrzeugcomputer (wie in einem Gabelstapler), eine intelligente Brille, ein Virtual-Reality-Headset oder dergleichen. Das System 100 kann eine Vielzahl von Client-Vorrichtungen 105 beinhalten, die über entsprechende Verbindungen 107 in Kommunikation mit dem Server 101 stehen.
  • Das System 100 wird im veranschaulichten Beispiel in einer Einzelhandelseinrichtung mit einer Vielzahl von Regalmodulen 110-1, 110-2, 110-3 usw. eingesetzt (gemeinsam als Regale 110 und allgemein als Regal 110 bezeichnet - diese Nomenklatur wird auch für andere hierin beschriebene Elemente verwendet). Jedes Regalmodul 110 trägt eine Vielzahl von Produkten 112. Jedes Regalmodul 110 beinhaltet eine Regalrückseite 116-1, 116-2, 116-3 und eine Stützfläche (z.B. Stützfläche 117-3 wie in 1 dargestellt), die sich von der Regalrückseite 116 bis zu einer Regalkante 118-1, 118-2, 118-3 erstreckt.
  • Die Regalmodule 110 sind typischerweise in einer Vielzahl von Gängen angeordnet, von denen jedes eine Vielzahl von Modulen 110 beinhaltet, die Ende an Ende ausgerichtet sind. Bei solchen Anordnungen weisen die Regalkanten 118 in die Gänge, durch die sich Kunden in der Einzelhandelsumgebung sowie die Vorrichtung 103 bewegen können. Wie aus 1 ersichtlich ist, bezieht sich der hier verwendete Begriff „Regalkante“ 118, der auch als Kante einer Stützfläche (z.B. die Stützflächen 117) bezeichnet werden kann, auf eine Oberfläche, die von benachbarten Oberflächen mit unterschiedlichen Neigungswinkeln begrenzt wird. In dem in 1 dargestellten Beispiel steht die Regalkante 118-3 in einem Winkel von etwa neunzig Grad relativ zu jeder der Auflageflächen 117-3 und der Unterseite (nicht dargestellt) der Auflagefläche 117-3. In anderen Beispielen betragen die Winkel zwischen der Regalkante 118-3 und den angrenzenden Oberflächen, wie beispielsweise der Stützfläche 117-3, mehr oder weniger als neunzig Grad.
  • Die Vorrichtung 103 ist innerhalb der Verkaufseinrichtung eingesetzt und kommuniziert mit dem Server 101 (z.B. über die Verbindung 107), um autonom oder teilweise autonom über eine Länge 119 von mindestens einem Teil der Regale 110 zu navigieren. Die Vorrichtung 103 ist mit einer Vielzahl von Navigations- und Datenerfassungssensoren 104 ausgestattet, wie beispielsweise Bildsensoren (z.B. eine oder mehrere Digitalkameras) und Tiefensensoren (z.B. ein oder mehrere LIDAR (Light Detection and Ranging) -Sensoren, eine oder mehrere Tiefenkameras mit strukturierten Lichtmustern, wie Infrarotlicht oder dergleichen). Die Vorrichtung 103 kann konfiguriert sein, um die Sensoren 104 sowohl zum Navigieren zwischen den Regalen 110 (z.B. gemäß den oben genannten Pfaden) als auch zum Erfassen von Regaldaten während einer solchen Navigation zu verwenden.
  • Der Server 101 beinhaltet eine Spezialsteuerung, wie beispielsweise einen Prozessor 120, die speziell zum Steuern und/oder Unterstützen der mobilen Automatisierungsvorrichtung 103 beim Navigieren durch die Umgebung und beim Erfassen von Daten entwickelt wurde. Der Prozessor 120 kann ferner konfiguriert sein, um die erfassten Daten über eine Kommunikationsschnittstelle 124 zur Speicherung in einem Speicher 132 und nachfolgenden Verarbeitung zu erhalten, z.B. um Objekte wie Regalware in den erfassten Daten zu erkennen und Statusinformationen entsprechend den Objekten zu erfassen.
  • Der Server 101 kann auch konfiguriert sein, um Statusbenachrichtigungen (z.B. Benachrichtigungen, die anzeigen, dass Produkte nicht auf Lager sind, wenig Lagerbestand haben oder verlegt wurden) an die Client-Vorrichtung 105 zu senden, als Reaktion auf das Bestimmen von Produktstatusdaten. Die Statusbenachrichtigungen, auf die im Folgenden näher eingegangen wird, werden der Client-Vorrichtung 105 in Form von Aufgabendefinitionen zur Verfügung gestellt und geben an, welche Aufgaben (z.B. durch einen menschlichen Bediener der Client-Vorrichtung 105) ausgeführt werden müssen, um den Status eines oder mehrerer Objekte zu korrigieren. Der Server 101 ist ferner konfiguriert, um der Client-Vorrichtung 105 zusammen mit den oben genannten Aufgabendefinitionen Navigationsinformationen bereitzustellen, die die Client-Vorrichtung 105 verarbeiten kann, um den Bediener zur Ausführung der Aufgabe an den geeigneten Ort innerhalb der Einrichtung zu führen (z.B. um ein Preisschild zu korrigieren, ein falsch platziertes Produkt zu verschieben und dergleichen). Navigationsinformationen können Positionen innerhalb der Einrichtung beinhalten, die gemäß einem globalen Bezugsrahmen 102 (z.B. einem Koordinatensystem) definiert sind.
  • Der Prozessor 120 ist mit einem nichtflüchtigen computerlesbaren Speichermedium, wie beispielsweise dem oben genannten Speicher 122, verbunden, auf dem computerlesbare Anweisungen zum Ausführen verschiedener Funktionen gespeichert sind, einschließlich der Steuerung der Vorrichtung 103 zum Erfassen von Regaldaten, der Nachbearbeitung der Regaldaten und dem Erzeugen und Bereitstellen von Aufgaben- und Navigationsdaten für die Client-Vorrichtung 105. Der Speicher 122 beinhaltet eine Kombination aus flüchtigem (z.B. Random Access Memory oder RAM) und nichtflüchtigem Speicher (z.B. Read Only Memory oder ROM, Electrically Erasable Programmable Read Only Memory oder EEPROM, Flash Memory). Der Prozessor 120 und der Speicher 122 umfassen jeweils eine oder mehrere integrierte Schaltungen. In einigen Ausführungsformen ist der Prozessor 120 als eine oder mehrere Zentraleinheiten (CPUs) und/oder Grafikverarbeitungseinheiten (GPUs) implementiert.
  • Der Server 101 beinhaltet auch die oben genannte Kommunikationsschnittstelle 124, die mit dem Prozessor 120 verbunden ist. Die Kommunikationsschnittstelle 124 beinhaltet geeignete Hardware (z.B. Sender, Empfänger, Netzwerkschnittstellensteuerungen und dergleichen), die es dem Server 101 ermöglicht, über die Verbindungen 107 und 109 mit anderen Rechengeräten - insbesondere der Vorrichtung 103, der Client-Vorrichtung 105 und dem Anschluss 108 - zu kommunizieren. Die Verbindungen 107 und 109 können direkte Verbindungen oder Verbindungen sein, die ein oder mehrere Netzwerke durchqueren, einschließlich lokaler und Weitbereichsnetzwerke. Die spezifischen Komponenten der Kommunikationsschnittstelle 124 werden basierend auf der Art des Netzwerks oder anderer Verbindungen ausgewählt, über die der Server 101 kommunizieren soll. Im vorliegenden Beispiel wird, wie bereits erwähnt, ein drahtloses lokales Netzwerk innerhalb der Einzelhandelsumgebung durch den Einsatz eines oder mehrerer drahtloser Zugangspunkte implementiert. Die Verbindungen 107 beinhalten daher entweder eines oder beides von drahtlosen Verbindungen zwischen der Vorrichtung 103 und der mobilen Vorrichtung 105 und den oben genannten Zugangspunkten sowie eine drahtgebundene Verbindung (z.B. eine Ethernet-basierte Verbindung) zwischen dem Server 101 und dem Zugangspunkt.
  • Der Speicher 122 speichert eine Vielzahl von Anwendungen, von denen jede eine Vielzahl von computerlesbaren Anweisungen beinhaltet, die vom Prozessor 120 ausgeführt werden können. Die Ausführung der oben genannten Anweisungen durch den Prozessor 120 konfiguriert den Server 101 zur Durchführung verschiedener hierin beschriebener Aktionen. Die im Speicher 122 gespeicherten Anwendungen beinhalten eine Steuerungsanwendung 128, die auch als eine Reihe von logisch getrennten Anwendungen implementiert sein kann. Im Allgemeinen ist der Prozessor 120 durch die Ausführung der Anwendung 128 oder von Unterkomponenten davon und in Verbindung mit den anderen Komponenten des Servers 101 konfiguriert, um verschiedene Funktionen im Zusammenhang mit dem Erzeugen oder anderweitigen Erhalten von Aufgabendefinitionen und Navigationsinformationen zur Bereitstellung an die Client-Vorrichtung 105 zu implementieren, um einen Bediener der Client-Vorrichtung 105 an die geeignete Stelle innerhalb der Einrichtung zu führen, um eine oder mehrere Aufgaben auszuführen, wie vorstehend erwähnt. Der Prozessor 120, wie er über die Ausführung der Steuerungsanwendung 128 konfiguriert ist, wird hierin auch als Steuerung 120 bezeichnet. Wie sich nun zeigt, kann ein Teil oder die gesamte Funktionalität, die von der nachfolgend beschriebenen Steuerung 120 implementiert wird, auch von vorkonfigurierten Hardwaresteuerungen für spezielle Zwecke (z.B. einem oder mehreren FPGAs und/oder anwendungsspezifischen integrierten Schaltungen (ASICs), die für Navigationsberechnungen konfiguriert sind) ausgeführt werden, anstatt durch Ausführen der Steuerungsanwendung 128 durch den Prozessor 120.
  • Die Client-Vorrichtung 105 beinhaltet eine Spezialsteuerung, wie beispielsweise einen Prozessor 150, die mit einem nichtflüchtigen, computerlesbaren Speichermedium, wie beispielsweise einem Speicher 152, verbunden ist. Der Speicher 152 beinhaltet eine Kombination aus flüchtigem (z.B. Random Access Memory oder RAM) und nichtflüchtigem Speicher (z.B. Read Only Memory oder ROM, Electrically Erasable Programmable Read Only Memory oder EEPROM, Flash Memory). Der Prozessor 150 und der Speicher 152 umfassen jeweils eine oder mehrere integrierte Schaltungen.
  • Die Client-Vorrichtung 105 beinhaltet auch mindestens eine Eingabevorrichtung 156, die mit dem Prozessor 150 verbunden ist. Die Eingabevorrichtung 156 ist konfiguriert, um Eingaben zu empfangen und Daten an den Prozessor 150 bereitzustellen, die für den empfangenen Eingang repräsentativ sind. Die Eingabevorrichtung 156 beinhaltet eines von einem Touchscreen, einer Tastatur, einer Auslöser-Taste, einem Mikrofon und dergleichen oder eine geeignete Kombination davon. Darüber hinaus beinhaltet die Client-Vorrichtung 105 eine Kamera 158 mit einem geeigneten Bildsensor oder einer Kombination von Bildsensoren. Die Kamera 158 ist konfiguriert, um Bilder (z.B. Einzelframes oder Videoströme einschließlich Bildfolgen) aufzunehmen zur Weitergabe an den Prozessor 150.
  • Die Client-Vorrichtung 105 beinhaltet auch eine Anzeige 160 (z.B. einen Flachbildschirm, der in den oben genannten Touchscreen integriert ist), die mit dem Prozessor 150 verbunden ist und konfiguriert ist, um Daten unter der Kontrolle des Prozessors 150 darzustellen. Die Client-Vorrichtung 105 kann neben der Anzeige 160 auch eine oder mehrere Ausgabevorrichtungen beinhalten, wie beispielsweise einen Lautsprecher, eine Benachrichtigungs-LED und dergleichen (nicht dargestellt).
  • Die Client-Vorrichtung 105 beinhaltet auch eine Kommunikationsschnittstelle 162, die mit dem Prozessor 150 verbunden ist. Die Kommunikationsschnittstelle 162 beinhaltet jede geeignete Hardware (z.B. Sender, Empfänger, Netzwerkschnittstellensteuerungen und dergleichen), die es der Client-Vorrichtung 105 ermöglicht, mit anderen Rechengeräten über drahtgebundene und/oder drahtlose Verbindungen (z.B. über lokale oder Weitbereichsnetzwerke) zu kommunizieren. Die spezifischen Komponenten der Kommunikationsschnittstelle 162 werden basierend auf dem/den Typ(en) des Netzwerks / der Netzwerke oder anderer Verbindungen ausgewählt, über die die Client-Vorrichtung 105 kommunizieren soll.
  • Weiterhin beinhaltet die Client-Vorrichtung 105 einen Bewegungssensor 164, wie beispielsweise eine Trägheitsmesseinheit (IMU) mit einem oder mehreren Beschleunigungssensoren, einem oder mehreren Gyroskopen und/oder einem oder mehreren Magnetometern. Der Bewegungssensor 164 ist konfiguriert, um Daten zu erzeugen, die eine erfasste Bewegung der Client-Vorrichtung 105 anzeigen und die Daten dem Prozessor 150 zur Verfügung zu stellen, beispielsweise um es dem Prozessor 150 zu ermöglichen, eine oder mehrere Lokalisierungen der Client-Vorrichtung 105 erhalten (d.h. in Bezug auf den Bezugsrahmen 102 oder einen lokalen Bezugsrahmen, wie im Folgenden näher erläutert wird).
  • Der Speicher 152 speichert computerlesbare Anweisungen zur Ausführung durch den Prozessor 150. Insbesondere speichert der Speicher 152 eine Navigationsunterstützungsanwendung 154 (auch einfach als Anwendung 154 bezeichnet), die, wenn sie vom Prozessor 150 ausgeführt wird, den Prozessor 150 konfiguriert, um verschiedene Funktionen auszuführen, die im Folgenden näher erläutert werden und sich auf den Empfang und die Präsentation von Aufgaben- und Navigationsinformationen beziehen. Die Anwendung 150 kann in anderen Beispielen auch als eine Reihe von verschiedenen Anwendungen implementiert werden.
  • Der Prozessor 150 kann, wenn er durch die Ausführung der Anwendung 154 so konfiguriert ist, auch als Navigationsunterstützungssteuerung 150 bezeichnet werden. Fachleute werden verstehen, dass die vom Prozessor 150 durch die Ausführung der Anwendung 154 implementierte Funktionalität auch durch eine oder mehrere speziell entwickelte Hardware- und Firmwarekomponenten, wie FPGAs, ASICs und dergleichen in anderen Ausführungsformen, implementiert werden kann.
  • Mit Bezug zu den 2A und 2B wird die mobile Automatisierungsvorrichtung 103 näher dargestellt. Die Vorrichtung 103 beinhaltet ein Gestell 201 mit einem Lokomotivmechanismus 203 (z.B. ein oder mehrere Elektromotoren, die Räder, Schienen oder dergleichen antreiben). Die Vorrichtung 103 beinhaltet ferner einen auf dem Gestell 201 abgestützten Sensormast 205, der sich im vorliegenden Beispiel vom Gestell 201 nach oben (z.B. im Wesentlichen vertikal) erstreckt. Der Mast 205 trägt die bereits erwähnten Sensoren 104. Insbesondere beinhalten die Sensoren 104 mindestens einen Bildsensor 207, wie beispielsweise eine Digitalkamera, sowie mindestens einen Tiefensensor 209, wie beispielsweise eine 3D-Digitalkamera. Die Vorrichtung 103 beinhaltet auch zusätzliche Tiefensensoren, wie beispielsweise die LIDAR-Sensoren 211. In anderen Beispielen beinhaltet die Vorrichtung 103 zusätzliche Sensoren, wie beispielsweise einen oder mehrere RFID-Leser, Temperatursensoren und dergleichen.
  • Im vorliegenden Beispiel trägt der Mast 205 sieben Digitalkameras 207-1 bis 207-7 und zwei LIDAR-Sensoren 211-1 und 211-2. Der Mast 205 trägt auch eine Vielzahl von Beleuchtungsanordnungen 213, die konfiguriert sind, um die Sichtfelder der jeweiligen Kameras 207 zu beleuchten. Das heißt, die Beleuchtungsanordnung 213-1 beleuchtet das Sichtfeld der Kamera 207-1, usw. Die Sensoren 207 und 211 sind auf dem Mast 205 so ausgerichtet, dass die Sichtfelder jedes Sensors einem Regal 110 zugewandt sind, entlang dessen Länge 119 sich die Vorrichtung 103 bewegt. Die Vorrichtung 103 ist konfiguriert, um eine Position der Vorrichtung 103 (z.B. eine Position der Mitte des Gestells 201) im globalen Bezugsrahmen 102 zu verfolgen, der zuvor in der Einzelhandelseinrichtung festgelegt wurde, so dass von der mobilen Automatisierungsvorrichtung 103 erfasste Daten auf den gemeinsamen Bezugsrahmen registriert werden können. Die oben genannte Position der Vorrichtung 103 innerhalb des Bezugsrahmens 102, auch als Lokalisierung bezeichnet, wird bei der Erzeugung von Pfaden zur Ausführung durch die Vorrichtung 103 verwendet.
  • Die mobile Automatisierungsvorrichtung 103 beinhaltet eine spezielle Navigationssteuerung, wie beispielsweise einen Prozessor 220, wie in 2B dargestellt, der mit einem nichtflüchtigen, computerlesbaren Speichermedium, wie beispielsweise einem Speicher 222, verbunden ist. Der Speicher 222 beinhaltet eine Kombination aus flüchtigem (z.B. Random Access Memory oder RAM) und nichtflüchtigem Speicher (z.B. Read Only Memory oder ROM, Electrically Erasable Programmable Read Only Memory oder EEPROM, Flash Memory). Der Prozessor 220 und der Speicher 222 umfassen jeweils eine oder mehrere integrierte Schaltungen. Der Speicher 222 speichert computerlesbare Anweisungen zur Ausführung durch den Prozessor 220. Insbesondere speichert der Speicher 222 eine Navigationsanwendung 228, die, wenn sie durch den Prozessor 220 ausgeführt wird, den Prozessor 220 konfiguriert, um verschiedene, im Folgenden näher erläuterte und mit der Navigation der Vorrichtung 103 zusammenhängende Funktionen auszuführen (z.B. durch Steuern des Lokomotivmechanismus 203). Die Anwendung 228 kann in anderen Beispielen auch als eine Reihe von verschiedenen Anwendungen implementiert werden.
  • Der Prozessor 220 kann, wenn er durch die Ausführung der Anwendung 228 so konfiguriert ist, auch als Navigationssteuerung 220 bezeichnet werden. Fachleute werden verstehen, dass die vom Prozessor 220 durch die Ausführung der Anwendung 228 implementierte Funktionalität auch durch eine oder mehrere speziell ausgelegte Hardware- und Firmwarekomponenten wie FPGAs, ASICs und dergleichen in anderen Ausführungsformen implementiert werden kann.
  • Der Speicher 222 kann auch ein Archiv 232 speichern, das beispielsweise eine oder mehrere Karten der Umgebung enthält, in der die Vorrichtung 103 arbeitet, zur Verwendung während der Ausführung der Anwendung 228. Die Vorrichtung 103 kann mit dem Server 101 kommunizieren, um beispielsweise Anweisungen zum Navigieren zu bestimmten Orten zu erhalten und Datenerfassungsvorgänge einzuleiten, über eine Kommunikationsschnittstelle 224 über die in 1 dargestellte Verbindung 107. Die Kommunikationsschnittstelle 224 ermöglicht es der Vorrichtung 103 auch, mit dem Server 101 über den Anschluss 108 und die Verbindung 109 zu kommunizieren.
  • Die Funktionalität der Anwendungen 128 und 154 wird nun näher beschrieben. Insbesondere wird die Erzeugung von Aufgaben- und Navigationsinformationen für die Bereitstellung auf der Client-Vorrichtung 105 vom Server 101 sowie die Verarbeitung der oben genannten Informationen auf der Client-Vorrichtung 105 beschrieben.
  • In 3 wird ein Verfahren 300 zum Erzeugen und Bereitstellen von Navigationsassistenzinformationen dargestellt. Wie in 3 dargestellt, werden bestimmte Blöcke des Verfahrens 300 vom Server 101 ausgeführt, während andere Blöcke des Verfahrens 300 von der Client-Vorrichtung 105 ausgeführt werden. In weiteren Ausführungsformen kann der Server 101 konfiguriert sein, um bestimmte in 3 dargestellte Blöcke von der Client-Vorrichtung 105 ausführen zu lassen. In noch weiteren Ausführungsformen kann die Client-Vorrichtung 105 konfiguriert sein, um bestimmte in 3 dargestellte Blöcke vom Server 101 ausführen zu lassen.
  • Bei Block 305 ist der Server 101 konfiguriert, um eine oder mehrere Ankerdefinitionen zur Speicherung im Speicher 122 (z.B. im Archiv 132) zu erhalten. Ankerdefinitionen können auf dem Server 101 während der ersten Bereitstellung des Systems 100 in der Einrichtung abgerufen werden. Im Allgemeinen beinhaltet eine Ankerdefinition Daten, die eine Position innerhalb der Einrichtung definieren. Die Position entspricht in der vorliegenden Diskussion einer Position gemäß dem globalen Bezugsrahmen 102 sowie einer Orientierung (z.B. Gier-, Neigungs- und Rollwinkel an der oben genannten Position). Jede Ankerdefinition beinhaltet auch einen Merkmalssatz, der den physikalischen Eigenschaften der Einrichtung an der oben genannten Position entspricht. Mit anderen Worten, eine Ankerdefinition definiert verschiedene Merkmale der Einrichtung, wenn sie von der Ankerposition aus betrachtet wird. Wie im Folgenden erläutert, ermöglicht es die Verwendung einer Ankerdefinition daher anderen Rechengeräten, einschließlich der Client-Vorrichtung 105, mindestens einen Teil des in der Ankerdefinition enthaltenen Merkmalssatzes zu erkennen. Die Client-Vorrichtung 105 kann dadurch eine aktuelle Position der Client-Vorrichtung 105 sowohl global (d.h. gemäß dem Bezugsrahmen 102) als auch lokal, bezogen auf die Ankerposition, bestimmen.
  • Ankerdefinitionen können bei Block 305 auf verschiedene Weise erhalten werden. In einigen Beispielen wird jede Ankerdefinition von einer mobilen Datenerfassungsvorrichtung, wie beispielsweise einer Client-Vorrichtung 105 oder der Vorrichtung 103, erzeugt. Insbesondere wird die mobile Datenerfassungsvorrichtung (manuell oder über eine autonome oder teilautonome Navigation) an einer bekannten Position gemäß dem Bezugsrahmen 102 platziert. Die bekannte Position entspricht der oben genannten Ankerposition. Die mobile Datenerfassungsvorrichtung ist dann konfiguriert, um Daten aus der Ankerposition zu erfassen. Die Art der erfassten Daten ist nicht eigens begrenzt. Im vorliegenden Beispiel beinhalten die erfassten Daten Bilddaten, die physikalische Strukturen innerhalb der Einrichtung um die Ankerposition herum darstellen. Das heißt, die mobile Datenerfassungsvorrichtung beinhaltet einen Bildsensor, der konfiguriert ist, um einen oder mehrere Bildframes aus der ausgewählten Ankerposition zu erfassen. Die für die Erstellung einer Ankerdefinition erfassten Daten können auch Tiefenscandaten beinhalten, die beispielsweise mittles Lidar oder Tiefenkamera erfasst werden. In weiteren Beispielen können die erfassten Daten Näherungsindikatoren wie drahtlose Zugangspunkt-Signaturen (z.B. ein oder mehrere empfangene Signalstärkeindikatoren (RSSI) und Umlaufzeiten (RTT) für jeden von einer Vielzahl von Zugangspunkten, die von der Ankerposition aus erfasst werden) und/oder Bakensignaturen (z.B. ein oder mehrere Identifikatoren von Baken, die von der Ankerposition aus erfasst werden können, wie Bluetooth Low Energy (BLE)-Bakenidentifikatoren, visuelle Lichtkommunikation (VLC)-Senderidentifikatoren und dergleichen) beinhalten.
  • Nach der Datenerfassung wie vorstehend beschrieben, wird aus den erfassten Daten ein Merkmalssatz extrahiert, der (zusammen mit der Ankerposition) als Ankerdefinition gespeichert wird. Es können eine Vielzahl von Merkmalen extrahiert werden, um den Merkmalssatz zu generieren. Bei den erfassten Bilddaten können die Merkmale eine beliebige Kombination von geometrischen Konstrukten wie Linien, Ebenen und Polygonen beinhalten, die durch die Ausführung geeigneter Kanten- und Ebenenerkennungsoperationen (z.B. Stichprobenkonsens (random sample consens - RANSAC), Sobel-Filter und dergleichen) extrahiert werden. Aus Bilddaten extrahierte Merkmale können auch Farb- und/oder Helligkeitshistogramme beinhalten. Die Merkmalsextraktion kann an der oben genannten Erfassungsvorrichtung oder am Server 101 nach Erhalt der erfassten Daten von der Erfassungsvorrichtung durchgeführt werden. Nach der Datenerfassung und Merkmalsextraktion wird der Merkmalssatz zusammen mit der globalen Ankerposition als Ankerdefinition im Speicher 122 (z.B. im Archiv 132) gespeichert.
  • Die 4A und 4B veranschaulichen die Erzeugung einer exemplarischen Ankerdefinition. Insbesondere veranschaulicht 4A eine Draufsicht einer Einrichtung 400, wie beispielsweise einer Einzelhandelseinrichtung, die eine Vielzahl von Reihen 404-1, 404-2, 404-3, 404-4, 404-5, 404-6 und 404-7 von Regalmodulen enthält, die Gänge bilden. Wie in 4A zu sehen ist, belegt jede Zeile 404 einen Bereich der Einrichtung 400, der als Satz von Koordinaten im globalen Bezugsrahmen 102 ausgedrückt werden kann. Eine Ankerposition 408 ist auch in 4A dargestellt, definiert durch eine Position (z.B. die Mitte des kreisförmigen Elements der Ankerposition 408) und eine Ausrichtung (z.B. die durch den Pfeil der Ankerposition 408 angezeigte Richtung).
  • 4B veranschaulicht die Bilddaten 412, die von einer mobilen Datenerfassungsvorrichtung (z.B. der Vorrichtung 103 oder der Client-Vorrichtung 105) während der Erstellung der Ankerdefinition erfasst wurden. Insbesondere beinhalten die Bilddaten 412 einen von der Ankerposition 408 aufgenommenen Bildframe, der eine Gangendstelle darstellt. Die Endstelle beinhaltet die Regale 416-1 und 416-2, die die Lageretiketten 418 tragen, sowie einen Steckplattenbereich, der Etiketten 420 trägt (z.B. am Ende der Steckplatte zum Tragen von Produkten montiert). Darüber hinaus beinhaltet die Endstelle einen Gangidentifizierer, wie beispielsweise ein Schild 424, das auf der Endstelle montiert ist.
  • Die Datenerfassungsvorrichtung oder der Server 101 sind konfiguriert, um Merkmale aus den Bilddaten 412 zu extrahieren. Im vorliegenden Beispiel wird aus den Bilddaten 412 ein Merkmalssatz mit den drei Merkmalen 428-1, 428-2 und 428-3 extrahiert zur Speicherung als Ankerdefinition (zusammen mit der Ankerposition 408). Wie in 4A veranschaulicht, beinhaltet das Merkmal 428-1 die Kanten des Gangidentifiziererschildes 424 sowie eine Textzeichenfolge, die den Gangidentifizierer selbst definiert. Das Merkmal 428-1 definiert die relativen Positionen und Abmessungen der Kanten und der Textzeichenfolge. Das Merkmal 428-2 beinhaltet Kanten, die durch ihre Abmessungen und relativen Positionen definiert sind, von Etiketten 420, die von der vorstehend genannten Steckplatte getragen werden. Die Merkmale 482-3 beinhalten unter anderem die Kanten der Regale 416-1 und 416-2, die durch ihre Abmessungen und relativen Positionen definiert sind. Der Merkmalssatz kann auch die relativen Positionen der Merkmale 428 relativ zueinander speichern (z.B. eine Position der Mitte des Merkmals 428-1 relativ zur Mitte des Merkmals 428-3).
  • In einem weiteren Beispiel kann eine Ankerdefinition erzeugt werden, indem ein oder mehrere Bilder aufgenommen werden, wie in 4B an der Vorrichtung 105 gezeigt. Die Vorrichtung 105 kann ferner konfiguriert sein, um eine erste Ebenendefinition entsprechend einem Boden der Einrichtung und eine zweite Ebenendefinition (auch als Regalebene bezeichnet) basierend auf einem oder beiden der Etiketten 420 und den Regalkanten 416 zu erfassen. Wie sich nun zeigen wird, sind die Bodenebene und die wie oben beschrieben erfasste Regalebene im Wesentlichen orthogonal zueinander. Darüber hinaus kann die Vorrichtung 105 konfiguriert sein, um ein Kennzeichen, wie beispielsweise einen Barcode, von mindestens einem der Etiketten 420 zu erfassen und zu dekodieren. Die Position des Etiketts 420, von dem der Barcode erfasst wurde, relativ zur Bodenebene und der Regalebene, kann dem Server mitgeteilt werden, wo eine globale Position für den Barcode gespeichert ist (z.B. in einem Planogramm). Somit wird dem Anker basierend auf der vordefinierten Barcodeposition eine globale Ankerposition zugeordnet, und die Ankerdefinition beinhaltet die Definition der Boden- und Regalebenen relativ zur Barcodeposition. Eine mobile Vorrichtung (z.B. die Vorrichtung 105, die Vorrichtung 103 oder dergleichen) ist daher in der Lage, ihre aktuelle globale Position und Orientierung durch Erfassen der Ebenen und Erfassen des Barcodes zu bestimmen.
  • Aus zusammen mit den Bilddaten 412 erfassten Daten können auch eine Vielzahl anderer Merkmale extrahiert werden. Wie vorstehend erwähnt, können solche Merkmale eine Liste von RSSI- und/oder RTT-Werten des Zugangspunkts, eine Liste von Bakenidentifizierern und dergleichen beinhalten.
  • Der obige Vorgang kann für eine beliebige Anzahl von Ankerdefinitionen wiederholt werden. In Einrichtungen, die Regalreihen beinhalten, wie beispielsweise die in 4A dargestellten Reihen 404, kann der Server 101 mit mindestens einer Ankerdefinition pro Reihe 404 versehen werden. So können beispielsweise für jede Reihe 404 zwei Ankerdefinitionen erstellt werden, die jeweils einer der beiden Endstellen der Reihe 404 entsprechen. In anderen Beispielen können kleinere oder größere Anzahlen von Ankerdefinitionen für die Bereitstellung auf dem Server 101 erzeugt werden. Im Allgemeinen kann eine größere Anzahl von Ankerdefinitionen die Genauigkeit der vom Server 101 und der Client-Vorrichtung 105 ausgeführten unterstützenden Navigationsfunktionen verbessern, wie nachstehend beschrieben, und zwar auf Kosten der erhöhten Datenspeicheranforderungen und der Rechenlast. Umgekehrt kann eine geringere Anzahl von Ankerdefinitionen die rechnerische Belastung des Servers 101 und/oder der Client-Vorrichtung 105 reduzieren, während die Genauigkeit der unterstützenden Navigationsfunktionen potenziell reduziert wird.
  • Mit Bezug zu 3 ist der Server 101 bei Block 310 konfiguriert, um eine oder mehrere Aufgabendefinitionen zu erhalten. Aufgabendefinitionen enthalten Daten, die Aufgaben definieren, die innerhalb der Einrichtung auszuführen sind, z.B. um die vom Server 101 bestimmten oben genannten Statusinformationen in Bezug auf Produkte oder andere Objekte in der Einrichtung zu korrigieren oder anderweitig zu aktualisieren. Die Aufgabendefinitionen können daher bei Block 310 durch Erzeugen der Aufgabendefinitionen auf dem Server 101 selbst erhalten werden. In anderen Beispielen können eine oder mehrere Aufgabendefinitionen auf dem Server 101 bei Block 310 empfangen werden, beispielsweise von der Client-Vorrichtung 105. So kann beispielsweise ein Bediener der Client-Vorrichtung 105 die Client-Vorrichtung 105 bedienen, um Produktstatusinformationen an den Server 101 zu übertragen (z.B. um anzuzeigen, dass ein Produkt an einem bestimmten Ort nicht mehr auf Lager ist und eine Wiederauffüllungsaufgabe erfordert).
  • Jede Aufgabendefinition beinhaltet eine Aufgabenposition und Aufgabenüberlagerungsdaten (die auch als Aufgabeninhalt bezeichnet werden können). Die Aufgabenüberlagerungsdaten, wie im Folgenden näher erläutert, werden anschließend auf der Client-Vorrichtung 105 präsentiert, um einen Bediener der Client-Vorrichtung 105 bei der Ausführung der entsprechenden Aufgabe zu unterstützen. Die Aufgabenüberlagerungsdaten können daher einen Produktidentifizierer, einen Aufgabenidentifizierer (z.B. eine Textzeichenfolge, die angibt, welche Aktion oder Abfolge von Aktionen in Bezug auf den Produktidentifizierer durchgeführt werden soll) und dergleichen beinhalten. Die Aufgabenposition definiert einen Ort innerhalb der Einrichtung, an dem die durch die Aufgabenüberlagerungsdaten angezeigte Aufgabe ausgeführt werden soll. Im vorliegenden Beispiel ist der Server 101 konfiguriert, um Aufgabendefinitionen mit globalen Aufgabenpositionen zu erzeugen, die die Position der Aufgabe gemäß dem globalen Bezugsrahmen 102 definieren. Wie im Folgenden zu sehen sein wird, werden die Aufgabendefinitionen jedoch anschließend aktualisiert, um lokale Aufgabenpositionen zu beinhalten, die die Position der Aufgabe relativ zu einer Ankerposition (z.B. der Ankerposition 408) definieren.
  • Um zu 5A zu kommen, werden exemplarische Aufgabenüberlagerungsdaten 500 für eine vom Server 101 bei Block 310 erzeugte Aufgabe dargestellt, als Reaktion auf das Erkennen eines falschen Preisschildes in der Einrichtung 400 (z.B. aus Daten, die von der mobilen Automatisierungsvorrichtung 103 erfasst wurden). Die Aufgabenüberlagerungsdaten 500 beinhalten ein Überlagerungstemplate 502 mit den Feldern 504, 506 und 508. Das Template 502 kann für jede Aufgabendefinition verwendet werden, die vom Server 101 erzeugt wird. In anderen Beispielen müssen die Aufgabenüberlagerungsdaten 500jedoch nicht auf einer solchen geteilten Vorlage basieren.
  • Die Aufgabenüberlagerungsdaten 500 beinhalten auch Inhalte, die mit den Feldern 504, 506 und 508 korrespondieren. Insbesondere beinhalten die Aufgabenüberlagerungsdaten 500 ein Bild 514, das einen Teil eines Regals darstellt, in dem die Aufgabe ausgeführt werden soll. Die Aufgabenüberlagerungsdaten 500 beinhalten auch einen Aufgabenbeschreiber, der im dargestellten Beispiel anzeigt, dass ein falsches Preisschild erkannt wurde (z.B. wie in Bild 514 markiert) und ersetzt werden muss. Darüber hinaus beinhalten die Aufgabenüberlagerungsdaten 500 einen Produktidentifizierer 518, wie beispielsweise einen Namen, einen Lagerbestandeinheit (Stock-keeping Unit - SKU) -Identifizierer oder dergleichen. Das Bild 514, der Aufgabenbeschreiber 516 und der Produktidentifizierer 518 sind jeweils für das Wiedergeben innerhalb der Felder 504, 506 und 508 auf der Client-Vorrichtung 105 konfiguriert, wie im Folgenden erläutert wird. Die Aufgabendefinition kann verschiedene andere Überlagerungsdaten in anderen Beispielen beinhalten, einschließlich Anweisungen (z.B. Text, Audio, Video oder Multimedia) zur Ausführung der Aufgabe.
  • Um zu 5B zu kommen, wird eine Aufgabe 520, die durch die Überlagerungsdaten 500 definiert ist, innerhalb der Einrichtung 400 dargestellt. Der Server 101 ist konfiguriert, um eine Aufgabenposition gemäß dem Bezugsrahmen 102 bei Block 310 zu erzeugen, wie durch die gestrichelte Linie 524 angezeigt (z.B. dargestellt durch einen Satz von Koordinaten im Bezugsrahmen 102). Der Server 101 ist jedoch auch konfiguriert, um in der Aufgabendefinition eine lokale Aufgabenposition zu speichern, die die Position der Aufgabe relativ zu einer Ankerposition und weniger zum Bezugsrahmen 102 anzeigt.
  • Mit Bezug zu 3 ist der Server 101 bei Block 315 konfiguriert, um jede Aufgabendefinition, die bei Block 310 erhalten wurde, mit mindestens einer der Ankerdefinitionen, die bei Block 305 erhalten wurden, zu verknüpfen. Der Server 101 ist konfiguriert, um basierend auf der globalen Position der Aufgabendefinition (z.B. der Position 524 der Aufgabe 520 in 5B) eine der Ankerdefinitionen auszuwählen. Nachdem die Ankerdefinition ausgewählt wurde, ist der Server 101 konfiguriert, um eine lokale Aufgabenposition der Aufgabe relativ zur Ankerposition zu bestimmen, basierend auf den globalen Positionen der Aufgabe und der ausgewählten Ankerdefinition.
  • Unter erneuter Bezugnahme auf 5B ist eine zweite Ankerposition 528 dargestellt, die einer Endstelle der Reihe 404 benachbart zur Endkappe entsprechend der Ankerposition 408 entspricht. Bei Block 315 ist der Server 101 konfiguriert, um eine der Ankerpositionen 408 und 528 auszuwählen (genauer gesagt, eine der Ankerdefinitionen mit den Ankerpositionen 408 und 528). So kann beispielsweise der Server 101 konfiguriert sein, um die Ankerdefinition auszuwählen, deren Ankerposition der globalen Position der Aufgabe 520 am nächsten liegt. In anderen Beispielen kann der Server 101 konfiguriert sein, um ein oder mehrere zusätzliche Kriterien auf die Ankerauswahl bei Block 315 anzuwenden. Wenn beispielsweise die Einrichtung 400 Reihen 404 von Regalen enthält, wie im veranschaulichten Beispiel, kann der Server 101 konfiguriert sein, um nur aus Ankern auszuwählen, die der Reihe zugeordnet sind, in der sich die Aufgabe 520 befindet. Im veranschaulichten Beispiel wählt der Server 101 die Ankerdefinition mit der Ankerposition 408 für die Zuordnung zur Aufgabe 520 aus. Der Server 101 bestimmt dann die lokale Aufgabenposition 532, die die Position der Aufgabe 520 relativ zur Ankerposition 408 und weniger relativ zum Bezugsrahmen 102 definieret. Die Aufgabendefinition wird mit der lokalen Aufgabenposition 532 (die globale Aufgabenposition kann in der Aufgabendefinition beibehalten, aber auch verworfen werden) und einem Identifizierer der entsprechenden Ankerdefinition aktualisiert. In anderen Beispielen kann eine Aufgabe mit mehr als einer Ankerdefinition verknüpft sein. Wenn beispielsweise bei Block 305 Ankerdefinitionen erhalten werden, die beiden Endstellen der Reihen 404 entsprechen, kann jede Aufgabe, die entlang einer bestimmten Reihe 404 erzeugt wird, mit beiden entsprechenden Ankerdefinitionen verknüpft werden. Das heißt, die Aufgabendefinition kann mit zwei lokalen Aufgabenpositionen und Ankerdefinitionsidentifizierern aktualisiert werden.
  • Unter erneuter Bezugnahme auf 3 ist bei Block 320 die Client-Vorrichtung 105 konfiguriert, um eine globale Position der Client-Vorrichtung 105 zu aktualisieren. Die globale Position der Client-Vorrichtung 105 im Bezugsrahmen 102 kann entsprechend einer Vielzahl geeigneter Lokalisierungsmechanismen aktualisiert werden. So kann beispielsweise die Client-Vorrichtung 105 konfiguriert sein, um Bewegungsdaten vom Bewegungssensor 164 als Eingang für einen Kalman-Filter oder einen anderen geeigneten Lokalisierungsalgorithmus bereitzustellen. Die Client-Vorrichtung 105 kann in einigen Beispielen auch konfiguriert sein, um Näherungsdaten wie RSSI-Werte und/oder RTT-Werte, die in Verbindung mit drahtlosen Zugangspunkten, Baken oder dergleichen erkannt werden, zu verwenden, um die globale Position bei Block 320 zu aktualisieren. Die Aktualisierung der Position der Vorrichtung 105 kann auch durch Erkennen eines Ankers erfolgen, wenn die Vorrichtung 105 zuvor mit einer oder mehreren Ankerdefinitionen versehen wurde.
  • Bei Block 325 ist die Client-Vorrichtung 105 konfiguriert, um zu bestimmen, ob die globale Position von Block 320 an den Server 101 gemeldet werden soll. So kann beispielsweise die Client-Vorrichtung 105 konfiguriert sein, um ihre globale Position periodisch (z.B. alle zehn Sekunden) an den Server 101 zu melden, und die Bestimmung bei Block 325 kann eine Bestimmung darüber sein, ob die konfigurierte Zeitspanne seit dem vorherigen Positionsbericht an den Server 101 verstrichen ist. Wenn die Bestimmung bei Block 325 negativ ist, aktualisiert die Client-Vorrichtung 105 weiterhin die globale Position bei Block 320.
  • Wenn die Bestimmung bei Block 325 positiv ist, sendet die Client-Vorrichtung 105 bei Block 330 ihre aktuelle globale Position (d.h. im Bezugsrahmen 102) an den Server 101. Die Client-Vorrichtung 105 aktualisiert typischerweise weiterhin die globale Position und berichtet periodisch die globale Position parallel zum Rest des Verfahrens 300.
  • Bei Block 335 ist der Server 101 konfiguriert, um die globale Position der Client-Vorrichtung 105 zu empfangen. Bei Block 340 ist der Server 101 konfiguriert, um zu bestimmen, ob eine oder mehrere Aufgaben der Client-Vorrichtung 105 zugewiesen werden sollen. Im vorliegenden Beispiel basiert die Bestimmung bei Block 340 auf der globalen Position der Client-Vorrichtung 105. Insbesondere ist der Server 101 konfiguriert, um der Client-Vorrichtung 105 eine Aufgabe zuzuweisen, basierend auf der Nähe zwischen der aktuellen (d.h. zuletzt gemeldeten) Position der Client-Vorrichtung 105 und der globalen Position der Aufgabe. In Beispielen, in denen die globale Aufgabenposition nach der Ausführung von Block 315 nicht beibehalten wird, ist der Server 101 konfiguriert, um Aufgaben den Client-Vorrichtungen 105 zuzuweisen, basierend auf der Nähe zwischen der Position der Client-Vorrichtung 105 und der Ankerposition (beide im Bezugsrahmen 102).
  • In anderen Beispielen kann die Bestimmung bei Block 340 neben der Position der Client-Vorrichtung 105 auch auf anderen Faktoren basieren, und in einigen Beispielen ist die Bestimmung bei Block 340 unabhängig von der Position der Client-Vorrichtung 105. So kann beispielsweise der Server 101 konfiguriert sein, um den Client-Vorrichtungen 105 Aufgaben zuzuweisen, basierend darauf, ob jeder Client-Vorrichtung 105 eine Aufgabe zugewiesen wurde oder nicht, unabhängig von der Position der Client-Vorrichtung 105.
  • Weitere Beispiele für Kriterien, die vom Server 101 bei Block 340 bewertet werden, umfassen die Fähigkeiten der Client-Vorrichtung 105 oder eines zugehörigen Bedieners (z.B. identifiziert durch Anmeldeinformationen, die an der Eingabevorrichtung 156 bereitgestellt werden). So kann beispielsweise der Server 101 eine Liste der Client-Vorrichtungen 105 und der zugehörigen Eingabe- und Ausgabefähigkeiten führen, wie z.B. die Angabe, ob eine Client-Vorrichtung 105 einen Etikettendrucker enthält, der für die Durchführung einer Preisetiketten-Korrekturaufgabe geeignet ist. Somit können der Aufgabenbeschreiber und die Fähigkeiten der Client-Vorrichtung zusätzlich oder anstelle der Position der Client-Vorrichtung vom Server 101 bei Block 340 bewertet werden.
  • Wenn die Bestimmung bei Block 340 negativ ist, ist der Server 101 konfiguriert, um weitere Positionsberichte von der Client-Vorrichtung 105 abzuwarten und kann auch zusätzliche Aufgabendefinitionen erhalten (z.B. als Reaktion auf weitere Datenerfassungsaktivitäten durch die mobile Automatisierungsvorrichtung 103). Wenn die Bestimmung bei Block 340 positiv ist, ist der Server 101 jedoch bei Block 345 konfiguriert, um mindestens eine der bei Block 310 erhaltenen Aufgabendefinitionen gemäß einem der oben genannten Kriterien auszuwählen und sowohl die Aufgabendefinition als auch die zugehörige Ankerdefinition (d.h. die der Aufgabendefinition bei Block 315 zugeordnete Ankerdefinition) an die Client-Vorrichtung 105 zu senden. Somit ist der Server 101 bei Block 345 konfiguriert, um mindestens eine Aufgabendefinition, die die Aufgabenüberlagerungsdaten und die lokale Aufgabenposition enthält, sowie die Ankerdefinition, gemäß der die lokale Aufgabenposition definiert ist, an die Client-Vorrichtung 105 zu übertragen.
  • Bei Block 350 ist die Client-Vorrichtung 105 konfiguriert, um die Aufgaben- und Ankerdefinitionen im Speicher 152 zu empfangen und zu speichern. Die Client-Vorrichtung 105 ist auch konfiguriert, um bei Block 350 einen unterstützenden Navigationsprozess einzuleiten. Im vorliegenden Beispiel ist die Client-Vorrichtung 105 konfiguriert, um eine Bildfolge mit der Kamera 158 aufzunehmen, als Reaktion auf den Empfang der Aufgaben- und Ankerdefinitionen. Die Bildfolge wird von der Client-Vorrichtung 105 verwendet, um den Merkmalssatz zu erfassen, der mit der bei Block 350 empfangenen Ankerdefinition korrespondiert.
  • Bei Block 355 ist die Client-Vorrichtung 105 konfiguriert, um eine Ankerführungsaufforderung z.B. auf der Anzeige 160 darzustellen (obwohl die Führungsaufforderungen auch über andere Ausgabevorrichtungen, wie z.B. akustische Aufforderungen über einen Lautsprecher, dargestellt werden können). Die bei Block 355 dargestellte Führungsaufforderung zeigt die Richtung und optional den Abstand von der aktuellen globalen Position der Client-Vorrichtung 105 zur globalen Position der bei Block 350 empfangenen Ankerdefinition an. Unter kurzer Bezugnahme auf 5B wird eine aktuelle Position 536-1 der Client-Vorrichtung 105 dargestellt. Mit Bezug zu 6 wird eine Ankerführungsaufforderung 600 angezeigt, wie sie auf der Anzeige 160 der Client-Vorrichtung 105 dargestellt wird. Insbesondere stellt die Client-Vorrichtung 105 nicht nur die Ankerführungsaufforderung 600, sondern auch die Bildfolge dar, deren Aufnahme bei Block 350 eingeleitet wurde. Somit präsentiert die Anzeige 160 auch ein Bild 604 aus der Bildfolge, das das aktuelle Sichtfeld der Kamera 158 darstellt. Wie nun ersichtlich, zeigt die Ankerführungsaufforderung 600 die Bewegungsrichtung an, die erforderlich ist, um an der Ankerposition 408 (die sich angrenzend an die Endstelle der Reihe 404 befindet) anzukommen.
  • Bei Block 360 ist die Client-Vorrichtung 105 konfiguriert, um zu bestimmen, ob der Merkmalssatz der bei Block 350 empfangenen Ankerdefinition in einer oder mehreren der Bildfolgen, die mit der Kamera 158 aufgenommen wurden, erkannt wurde. Das heißt, die Client-Vorrichtung 105 ist konfiguriert, um für jede der Bildfolgen Kandidatenmerkmale wie Ebenen, Linien, Punkte und dergleichen zu identifizieren und zu bestimmen, ob die identifizierten Kandidatenmerkmale mit einem der Merkmale im Merkmalssatz der bei Block 350 empfangenen Ankerdefinition übereinstimmen.
  • In der vorliegenden exemplarischen Durchführung des Verfahrens 300 wird davon ausgegangen, dass die Merkmale 428-1, 428-2 und 428-3, wie in 4B dargestellt, in dem in 6 dargestellten Bild 604 nicht erkannt werden. Die Client-Vorrichtung 105 kehrt daher zu Block 355 zurück und präsentiert weiterhin die Ankerführungsaufforderung 600, wobei die Orientierung der Ankerführungsaufforderung gemäß der globalen Position der Client-Vorrichtung 105 in Bezug auf die globale Ankerposition 408 aktualisiert wird. Mit Bezug zu 7A wird eine aktualisierte Position 536a der Client-Vorrichtung 105 angrenzend an die Endstelle der Reihe 404-3 dargestellt. 7B veranschaulicht ein Bild 700 in der Bildfolge, deren Aufnahme bei Block 350 eingeleitet wurde. Wie aus 7B ersichtlich wird, sind die Merkmale 428 der Ankerdefinition im Bild 700 erkennbar. Die Bestimmung bei Block 360 ist daher positiv. Darüber hinaus ermöglichen Verzerrungen zwischen den Merkmalen 428, wie sie im Bild 700 dargestellt sind, und den Merkmalen 428, wie sie in der in 4B dargestellten Ankerdefinition definiert sind, der Client-Vorrichtung 105 das Bestimmen der Position der Client-Vorrichtung 105 relativ zur Ankerposition 408.
  • Mit anderen Worten bewirkt das Erkennen des Ankers bei Block 360, dass die Client-Vorrichtung 105 einen lokalen Navigationsmodus bei Block 365 initiiert, in der die Client-Vorrichtung 105 konfiguriert ist, um eine lokale Vorrichtungsposition in Bezug auf die Ankerposition 408 zu bestimmen und zu aktualisieren. Die Vorrichtung kann die oben genannte globale Position in Verbindung mit Block 320 weiterhin aktualisieren, aber die restlichen Blöcke des Verfahrens 300 werden von der Client-Vorrichtung basierend auf der lokalen Vorrichtungsposition ausgeführt, die im Vergleich zur globalen Position der Client-Vorrichtung 105 reduzierten Fehlern (z.B. Fehlern aufgrund von Abweichungen im Bewegungssensor 164) unterliegen kann. Der lokale Navigationsmodus beinhaltet die Verwendung nicht nur des Bewegungssensors 164 und der Kommunikationsschnittstelle 162 (zum Erkennen von drahtlosen Zugangspunkt-Signaturen), sondern auch der Kamera 158 und insbesondere der Bildfolge, deren Erfassung bei Block 350 eingeleitet wurde. Insbesondere kann die Client-Vorrichtung 105 konfiguriert sein, um transiente Merkmale in einer Teilmenge der Bilder zu erkennen (z.B. Ebenen, Linien, Punkte und dergleichen) und Änderungen der Positionen solcher transienten Merkmale innerhalb der Bilder zu verfolgen, solange die transienten Merkmale sichtbar bleiben. Die Client-Vorrichtung 105 wird dann basierend auf erfassten Positionsänderungen der transienten Merkmale zwischen den Bildern in der Folge konfiguriert, um die lokale Vorrichtungsposition zu aktualisieren.
  • 8A veranschaulicht eine weitere Draufsicht auf die Anlage 400, nachdem sich die Client-Vorrichtung 105 zu einer weiteren Position 536b bewegt hat. Die Client-Vorrichtung 105 ist konfiguriert, um eine aktualisierte lokale Vorrichtungsposition 800 in Bezug auf die Ankerposition 408 aufrechtzuerhalten (z.B. unter Verwendung der Ankerposition 408 als Ursprung eines lokalen Bezugsrahmens). Bei Block 370 ist die Client-Vorrichtung 105 konfiguriert, um eine Aufgabenführungsaufforderung zu präsentieren, die eine Bewegungsrichtung und optional einen Abstand zur Aufgabenposition angibt, der gemäß der in der Aufgabendefinition spezifizierten Aufgabenposition und der lokalen Vorrichtungsposition 800 bestimmt wird. 8B veranschaulicht eine Aufgabenführungsaufforderung 804, die auf der Anzeige 160 zusammen mit einem Bild 808 der oben genannten Folge dargestellt wird. In 8B sind auch Beispiele für die oben genannten transienten Merkmale dargestellt, die für die lokale Navigation verwendet werden. Insbesondere können eine Regalkante 812 und ein Produkt 816 durch die Client-Vorrichtung 105 im Bild 808 sowie ein nachfolgendes Bild identifiziert werden. Basierend auf Änderungen in den Positionen der Regalkante 812 und des Produkts 816 zwischen den Bildern kann die Client-Vorrichtung 105 eine aktualisierte lokale Position bestimmen.
  • Unter erneuter Bezugnahme auf 3 ist bei Block 375 die Client-Vorrichtung 105 konfiguriert, um zu bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der Client-Vorrichtung 105 befindet. Die Bestimmung bei Block 375 erfolgt basierend auf der Aufgabenposition (d.h. einer lokalen Position, die relativ zur Ankerposition 408 definiert ist) und der lokalen Vorrichtungsposition sowie auf einer im Speicher 152 gespeicherten Sichtfelddefinition. Ein exemplarisches Sichtfeld 820 ist in 8A dargestellt und kann dem Sichtfeld der Kamera 158 entsprechen. Wie aus 8A ersichtlich, liegt die Aufgabenposition 520 nicht im Sichtfeld 820, und die Bestimmung bei Block 375 ist daher negativ. Nach einer negativen Bestimmung bei Block 375 ist die Client-Vorrichtung 105 konfiguriert, um zu Block 370 zurückzukehren und die Aufgabenführungsaufforderung basierend auf der aktuellen lokalen Vorrichtungsposition zu aktualisieren. Der Block 375 wird dann wiederholt.
  • Wenn die Bestimmung bei Block 375 positiv ist, fährt die Durchführung des Verfahrens 300 mit Block 380 fort. In 9A ist eine weitere Draufsicht auf die Einrichtung 400 dargestellt, in der die Client-Vorrichtung 105 weiter in den Gang mit der Aufgabe 520 vorgedrungen ist, bis zu einer Position 536c, die an der Client-Vorrichtung 105 als lokale Vorrichtungsposition 900 verfolgt wird. Die Client-Vorrichtung 105 wurde ebenfalls auf die Zeile 404-3 der Regale ausgerichtet, und die Bestimmung bei Block 375 ist positiv (die Aufgabenposition 520 fällt in das Sichtfeld 820). Bei Block 380 ist die Client-Vorrichtung 105 daher konfiguriert, um die Aufgabenüberlagerungsdaten auf der Anzeige 160 zusammen mit der oben genannten Bildfolge darzustellen. Mit anderen Worten werden die Aufgabenüberlagerungsdaten auf der Anzeige als Augmented-Reality-Überlagerung (d.h. ein virtuelles Objekt) auf dem von der Kamera 158 aufgenommenen Bildstrom präsentiert.
  • 9B veranschaulicht eine Durchführung von Block 380, wobei die Client-Vorrichtung 105 an der Position 536c in 8A dargestellt ist. Insbesondere wird auf der Anzeige 160 ein Bild 904 aus der bei Block 350 initiierten Folge zusammen mit einer virtuellen Objekt-Überlagerung 908 mit den zuvor im Zusammenhang mit 5A diskutierten Aufgabenüberlagerungsdaten 500 dargestellt. Die Durchführung des Verfahrens 300 ermöglicht es der Client-Vorrichtung 105 somit, einem Bediener der Client-Vorrichtung 105 zu helfen, eine Arbeitsposition innerhalb der Einrichtung zu lokalisieren und die entsprechende Aufgabe auszuführen.
  • Es werden Abweichungen von den oben genannten Systemen und Verfahren erwogen. So kann beispielsweise in einigen Ausführungsformen die oben genannte lokale Vorrichtungsposition in Verbindung mit Block 365, z.B. auf der Anzeige 160 der Client-Vorrichtung 105, auch ohne Aufgabendefinition dargestellt werden. So kann beispielsweise die Vorrichtung 160 nach dem Erkennen eines Ankers wie der in 7B dargestellten Gangendstelle konfiguriert sein, um eine Karte der Einrichtung oder eines Teils davon (z.B. eine Karte des entsprechenden Ganges) darzustellen. Überlagert auf der Karte kann die Vorrichtung 105 konfiguriert sein, um eine Anzeige der Position der Vorrichtung 105, wie bei Block 365 bestimmt, darzustellen.
  • Wie bereits erwähnt, können vom Server 101 bei Block 310 erhaltene Aufgabendefinitionen von der Client-Vorrichtung 105 empfangen werden. Insbesondere ist die Client-Vorrichtung 105 in einigen Ausführungsformen konfiguriert, um eine globale Position wie bei Block 320 zu aktualisieren und Ankerdefinitionen zu empfangen, wie vorstehend in Verbindung mit Block 350 erläutert. Die Client-Vorrichtung 105 muss jedoch keine Aufgabendefinitionen empfangen. Stattdessen ist die Client-Vorrichtung 105 konfiguriert, um eine lokale Navigation einzuleiten und einen oder mehrere Barcodes oder andere Kennzeichnungen zu erfassen, nachdem sie einen Anker an Block 360 erkannt hat, wie beispielsweise eine Endstelle eines Ganges (z.B. wie in 7B dargestellt).
  • Die von der Client-Vorrichtung 105 erfassten Kennzeichnungen korrespondieren mit Etiketten an den Regalen 110, bei denen eine oder mehrere Aufgaben erforderlich sind (z.B. Auffüllen eines Produkts, Korrektur eines Preises auf dem Etikett oder dergleichen). Die Client-Vorrichtung 105 ist konfiguriert, um eine Position jedes gescannten Kennzeichens basierend auf der lokalen Navigation und der globalen Position der Client-Vorrichtung 105 selbst sowie auf der Position des Kennzeichens in Bezug auf die Client-Vorrichtung 105 zu bestimmen. So kann beispielsweise die relative Position des Kennzeichens aus einem Bild des Kennzeichens basierend auf Kalibrierparametern der Kamera 158 zusammen mit den Abmessungen des Kennzeichens innerhalb des Bildes bestimmt werden.
  • Nachdem sich das gescannte Kennzeichen in der Einrichtung befindet (d.h. in Bezug auf den Bezugsrahmen 102), kann die Client-Vorrichtung 105 konfiguriert sein, um Eingangsdaten zu empfangen, die Auftragsüberlagerungsdaten definieren, wie beispielsweise eine Angabe der Art der auszuführenden Aufgabe (z.B. Auffüllen). Die Position des Kennzeichens entspricht der oben genannten Aufgabenposition und wird zusammen mit den Aufgabenüberlagerungsdaten an den Server 101 zur Speicherung als Aufgabendefinition übertragen.
  • In weiteren Ausführungsformen, wie bereits erwähnt, kann der Server 101 konfiguriert sein, um bestimmte in 3 dargestellte Blöcke auszuführen, die von der Client-Vorrichtung 105 ausgeführt werden, und/oder die Client-Vorrichtung 105 kann konfiguriert sein, um bestimmte in 3 dargestellte Blöcke auszuführen, die vom Server 101 ausgeführt werden. In einer weiteren Ausführungsform kann beispielsweise der Server 101 konfiguriert sein, um eine Position der Client-Vorrichtung 105 bei Block 320 zu bestimmen. Die Blöcke 325, 330 und 335 können daher weggelassen werden. Der Server 101 kann auch konfiguriert sein, um Bilddaten zu empfangen, die von der Client-Vorrichtung 105 erfasst werden und Anker darin zu erkennen. Mit anderen Worten, anstatt Aufgaben- und Ankerdefinitionen an die Client-Vorrichtung 105 bei Block 345 zu senden, ist der Server 101 konfiguriert, um die Aufgaben- und Ankerdefinitionen auszuwählen, und die Client-Vorrichtung 105 ist konfiguriert, um Bilder aufzunehmen und an den Server 101 bei Block 350 zu senden. Der Server 101 wiederum ist konfiguriert, um eine Ankerführungsaufforderung an die Client-Vorrichtung 105 zur Präsentation bei Block 355 zu erzeugen und zu senden und die Bestimmung bei Block 360 durchzuführen. Der Server 101 kann ferner konfiguriert sein, um die Verarbeitung durchzuführen, die mit der lokalen Navigation bei Block 365 verknüpft ist, und um die Aufgabenführungsaufforderung zu erzeugen und an die Client-Vorrichtung 105 zur Präsentation bei Block 370 zu senden. Darüber hinaus kann der Server 101 konfiguriert sein, um die Bestimmung bei Block 375 (basierend auf den von der Client-Vorrichtung 105 empfangenen Bildern) durchzuführen und die Aufgabenüberlagerung für die Präsentation durch die Client-Vorrichtung 105 bei Block 380 zu erzeugen und zu senden.
  • In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne den Schutzumfang der Erfindung, wie sie in den untenstehenden Ansprüchen definiert ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein.
  • Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen. Die Erfindung ist lediglich durch die angehängten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden und aller Äquivalente der erteilten Ansprüche.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und -programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
  • Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass sie die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.

Claims (19)

  1. Verfahren zur Navigationsunterstützung an einer mobilen Computervorrichtung zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen, wobei das Verfahren umfasst: Empfangen einer Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; Empfangen einer Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; Erfassen einer Bildfolge unter Verwendung eines Bilderfassungsmoduls; Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet basierend auf der lokalen Vorrichtungsposition und der Aufgabenposition; und Präsentieren der Bildfolge, die mit den Überlagerungsdaten auf einer Anzeige überlagert ist, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition innerhalb des Sichtfeldes befindet.
  2. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen einer globalen Vorrichtungsposition der mobilen Computervorrichtung und Senden der globalen Vorrichtungsposition an einen Server, vor dem Empfangen der Ankerdefinition und der Aufgabendefinition; und Empfangen der Ankerdefinition und der Aufgabendefinition als Reaktion auf das Senden der globalen Vorrichtungsposition.
  3. Verfahren nach Anspruch 1, wobei das Bestimmen der lokalen Vorrichtungsposition umfasst: Identifizieren von transienten Merkmalen in der Bildfolge und Verfolgen der lokalen Vorrichtungsposition basierend auf der Bewegung der transienten Merkmale zwischen Bildern in der Folge.
  4. Verfahren nach Anspruch 1, wobei der Merkmalssatz mit (i) einem visuellen Erscheinungsbild physikalischer Strukturen in der Einrichtung und (ii) einem Näherungsindikator korrespondiert, der der Nähe der Ankerposition zu einem drahtlosen Sender entspricht; und wobei das Verfahren ferner umfasst: Erfassen von Näherungssignaturen gleichzeitig mit der Bildfolge, unter Verwendung mindestens eines der Bilderfassungsmodule und einer Kommunikati onsschni ttstelle; wobei das Erfassen des Merkmalssatzes (i) das Erfassen des visuellen Erscheinungsbildes in der Bildfolge und (ii) das Erfassen des Näherungsindikators in den Näherungssignaturen beinhaltet.
  5. Verfahren nach Anspruch 4, wobei der Näherungsindikator mindestens eines umfasst von: einer Empfangssignalstärkeanzeige (RSSI), die mit einem drahtlosen Zugangspunkt korrespondiert; einer Umlaufzeit (RTT), die mit dem drahtlosen Zugangspunkt korrespondiert; einem Identifizierer einer drahtlosen Bake; und einem Identifizierer eines Emitters für visuelle Lichtkommunikation (VLC).
  6. Verfahren nach Anspruch 1, wobei das Präsentieren der Bildfolge und der Überlagerungsdaten das Auswählen eines der Aufgabenposition entsprechenden Abschnitts des Bildes und das Präsentieren der Überlagerungsdaten auf dem ausgewählten Abschnitt beinhaltet.
  7. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen einer globalen Vorrichtungsposition der mobilen Com putervorri chtung; Präsentieren einer Ankerführungsaufforderung auf der Anzeige, die die Ankerposition in Bezug auf die globale Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass die Bildfolge nicht den Merkmalssatz enthält.
  8. Verfahren nach Anspruch 1, ferner umfassend: Präsentieren einer Aufgabenführungsaufforderung auf der Anzeige, die die Aufgabenposition in Bezug auf die lokale Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition nicht innerhalb des Sichtfeldes befindet.
  9. Verfahren nach Anspruch 1, wobei die Überlagerungsdaten mindestens einen von einem Aufgabenbeschreiber und einem Objektidentifizierer beinhalten.
  10. Mobile Computervorrichtung zur Navigationsunterstützung in einer Einrichtung mit einem globalen Bezugsrahmen, wobei die mobile Computervorrichtung umfasst: einen Speicher, der speichert: eine Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; und eine Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; eine Anzeige; ein Bilderfassungsmodul, das konfiguriert ist, um eine Bildfolge aufzunehmen; einen Prozessor, der mit dem Speicher, der Anzeige und dem Bilderfassungsmodul verbunden ist, wobei der Prozessor konfiguriert ist zum: Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet, basierend auf der lokalen Vorrichtungsposition und der Aufgabenposition; und Steuern der Anzeige, um die Bildfolge darzustellen, die mit den Überlagerungsdaten auf einer Anzeige überlagert ist, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition innerhalb des Sichtfeldes befindet.
  11. Mobile Computervorrichtung nach Anspruch 10, ferner umfassend: eine Kommunikationsschnittstelle; und einen Bewegungssensor, der konfiguriert ist, um Bewegungsdaten zu erzeugen; wobei der Prozessor ferner konfiguriert ist, um vor dem Empfangen der Ankerdefinition und der Aufgabendefinition zum Speichern im Speicher eine globale Vorrichtungsposition der mobilen Computervorrichtung basierend auf den Bewegungsdaten zu bestimmen; und wobei der Prozessor ferner konfiguriert ist, um die globale Vorrichtungsposition über die Kommunikationsschnittstelle an einen Server zu senden.
  12. Mobile Computervorrichtung nach Anspruch 10, wobei der Prozessor ferner konfiguriert ist, um die lokale Vorrichtungsposition zu bestimmen, indem transiente Merkmale in der Bildfolge identifiziert und die lokale Vorrichtungsposition basierend auf der Bewegung der transienten Merkmale zwischen Bildern in der Folge verfolgt wird.
  13. Mobile Computervorrichtung nach Anspruch 10, ferner umfassend eine Kommunikationsschnittstelle; wobei der Merkmalssatz mit (i) einem visuellen Erscheinungsbild physikalischer Strukturen in der Einrichtung und (ii) einem Näherungsindikator korrespondiert, der der Nähe der Ankerposition zu einem drahtlosen Sender entspricht; wobei der Prozessor ferner konfiguriert ist, um mindestens eines des Bilderfassungsmoduls und der Kommunikationsschnittstelle zum Erfassen von Näherungssignaturen gleichzeitig mit der Bildfolge zu steuern; und wobei der Prozessor ferner konfiguriert ist, um den Merkmalssatz zu erfassen, um (i) das visuelle Erscheinungsbild in der Bildfolge zu erfassen und (ii) den Näherungsindikator in den Näherungssignaturen zu erfassen.
  14. Mobile Computervorrichtung nach Anspruch 13, wobei der Näherungsindikator mindestens eines umfasst von: einer Empfangssignalstärkeanzeige (RSSI), die mit einem drahtlosen Zugangspunkt korrespondiert; einer Umlaufzeit (RTT), die mit dem drahtlosen Zugangspunkt korrespondiert; einem Identifizierer einer drahtlosen Bake; und einem Identifizierer eines Emitters für visuelle Lichtkommunikation (VLC).
  15. Mobile Computervorrichtung nach Anspruch 10, wobei der Prozessor ferner konfiguriert ist, um die Bildfolge und die Überlagerungsdaten durch Auswählen eines Teils des Bildes, der dem Aufgabenort entspricht, darzustellen; wobei der Prozessor ferner konfiguriert ist, um die Überlagerungsdaten auf dem ausgewählten Teil darzustellen.
  16. Mobile Computervorrichtung nach Anspruch 10, ferner umfassend: einen Bewegungssensor, der konfiguriert ist, um Bewegungsdaten zu erzeugen; wobei der Prozessor ferner konfiguriert ist, um eine globale Vorrichtungsposition der mobilen Computervorrichtung basierend auf den Bewegungsdaten zu bestimmen; und wobei der Prozessor ferner konfiguriert ist, um eine Ankerführungsaufforderung auf der Anzeige zu präsentieren, die die Ankerposition relativ zur globalen Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass die Bildfolge nicht den Merkmalssatz enthält.
  17. Mobile Computervorrichtung nach Anspruch 10, wobei der Prozessor ferner konfiguriert ist, um eine Aufgabenführungsaufforderung auf der Anzeige zu präsentieren, die die Aufgabenposition relativ zur lokalen Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition nicht innerhalb des Sichtfeldes befindet.
  18. Mobile Computervorrichtung nach Anspruch 10, wobei die Überlagerungsdaten mindestens einen von einem Aufgabenbeschreiber und einem Objektidentifizierer beinhalten.
  19. Unterstützendes Navigationssystem zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen, wobei das System umfasst: einen Server, der einen Speicher beinhaltet zum Speichern von: einer Vielzahl von Ankerdefinitionen, die jeweils aufweisen (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; und eine Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; wobei der Server ferner eine Kommunikationsschnittstelle und einen Prozessor beinhaltet, der konfiguriert ist zum: Auswählen einer der Ankerdefinitionen für eine Zuordnung zur Aufgabendefinition; und Übertragen der ausgewählten Ankerdefinition und der Aufgabendefinition an eine mobile Computervorrichtung, wobei die mobile Computervorrichtung konfiguriert ist, um die ausgewählte Ankerdefinition und die Aufgabendefinition zu empfangen; wobei die mobile Computervorrichtung ferner konfiguriert ist, um die Aufgabenüberlagerungsdaten auf einer Anzeige darzustellen.
DE102019125987.8A 2018-12-12 2019-09-26 Verfahren, system und vorrichtung zur navigationsunterstützung Pending DE102019125987A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/217,296 US11015938B2 (en) 2018-12-12 2018-12-12 Method, system and apparatus for navigational assistance
US16/217,296 2018-12-12

Publications (1)

Publication Number Publication Date
DE102019125987A1 true DE102019125987A1 (de) 2020-07-09

Family

ID=69171982

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019125987.8A Pending DE102019125987A1 (de) 2018-12-12 2019-09-26 Verfahren, system und vorrichtung zur navigationsunterstützung

Country Status (4)

Country Link
US (2) US11015938B2 (de)
DE (1) DE102019125987A1 (de)
FR (1) FR3090166B1 (de)
GB (1) GB2580779B (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11069081B1 (en) * 2019-01-25 2021-07-20 Google Llc Location discovery
CN110039543B (zh) * 2019-04-14 2022-04-15 炬星科技(深圳)有限公司 仓储地图快速确定方法、设备、存储介质及机器人

Family Cites Families (396)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5214615A (en) 1990-02-26 1993-05-25 Will Bauer Three-dimensional displacement of a body with computer interface
US5209712A (en) 1991-06-24 1993-05-11 Frederic Ferri Proprioceptive exercise, training and therapy apparatus
US5408322A (en) 1993-04-26 1995-04-18 Materials Research Corporation Self aligning in-situ ellipsometer and method of using for process monitoring
JP3311830B2 (ja) 1993-09-20 2002-08-05 株式会社東芝 3次元動画作成装置
KR100197676B1 (ko) 1993-09-27 1999-06-15 윤종용 로보트 청소기
WO1995015533A1 (en) 1993-11-30 1995-06-08 Burke Raymond R Computer system for allowing a consumer to purchase packaged goods at home
US5414268A (en) 1994-02-01 1995-05-09 The Coe Manufacturing Company Light scanner with interlaced camera fields and parallel light beams
JPH0996672A (ja) 1995-09-29 1997-04-08 Sukuuea:Kk 3次元位置データ生成システムおよび方法
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US6034379A (en) 1996-03-01 2000-03-07 Intermec Ip Corp. Code reader having replaceable optics assemblies supporting multiple illuminators
US5831719A (en) 1996-04-12 1998-11-03 Holometrics, Inc. Laser scanning system
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US5953055A (en) 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
JP3371279B2 (ja) 1997-03-10 2003-01-27 ペンタックス プレシジョン株式会社 Tvカメラ用レンズの選択方法および選択装置
US6026376A (en) 1997-04-15 2000-02-15 Kenney; John A. Interactive electronic shopping system and method
GB2330265A (en) 1997-10-10 1999-04-14 Harlequin Group Limited The Image compositing using camera data
IL122079A (en) 1997-10-30 2002-02-10 Netmor Ltd Ultrasound system for positioning and tracking
WO1999023600A1 (en) 1997-11-04 1999-05-14 The Trustees Of Columbia University In The City Of New York Video signal face region detection
US6975764B1 (en) 1997-11-26 2005-12-13 Cognex Technology And Investment Corporation Fast high-accuracy multi-dimensional pattern inspection
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6332098B2 (en) 1998-08-07 2001-12-18 Fedex Corporation Methods for shipping freight
US6820895B2 (en) 1998-09-23 2004-11-23 Vehicle Safety Systems, Inc. Vehicle air bag minimum distance enforcement apparatus, method and system
US6442507B1 (en) 1998-12-29 2002-08-27 Wireless Communications, Inc. System for creating a computer model and measurement database of a wireless communication network
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6388688B1 (en) 1999-04-06 2002-05-14 Vergics Corporation Graph-based visual navigation through spatial environments
US6850946B1 (en) 1999-05-26 2005-02-01 Wireless Valley Communications, Inc. Method and system for a building database manipulator
US6687388B2 (en) 2000-01-28 2004-02-03 Sony Corporation Picture processing apparatus
US6711283B1 (en) 2000-05-03 2004-03-23 Aperio Technologies, Inc. Fully automatic rapid microscope slide scanner
WO2002005214A2 (en) 2000-07-11 2002-01-17 Eg Technology Adaptive edge detection and enhancement for image processing
GB0020850D0 (en) 2000-08-23 2000-10-11 Univ London A system and method for intelligent modelling of public spaces
TW512478B (en) 2000-09-14 2002-12-01 Olympus Optical Co Alignment apparatus
US7054509B2 (en) 2000-10-21 2006-05-30 Cardiff Software, Inc. Determining form identification through the spatial relationship of input data
BR0115469A (pt) 2000-11-21 2003-08-19 Michael Stuart Gardner Marcação de etiqueta
US7068852B2 (en) 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image
JP2002321698A (ja) 2001-04-27 2002-11-05 Mitsubishi Heavy Ind Ltd 航空貨物運搬用ボーディング・ブリッジ
WO2003002935A1 (en) 2001-06-29 2003-01-09 Square D Company Overhead dimensioning system and method
US7046273B2 (en) 2001-07-02 2006-05-16 Fuji Photo Film Co., Ltd System and method for collecting image information
US6995762B1 (en) 2001-09-13 2006-02-07 Symbol Technologies, Inc. Measurement of dimensions of solid objects from two-dimensional image(s)
WO2003025805A1 (en) 2001-09-18 2003-03-27 Pro-Corp Holdings International Limited Image recognition inventory management system
US6722568B2 (en) 2001-11-20 2004-04-20 Ncr Corporation Methods and apparatus for detection and processing of supplemental bar code labels
US7233699B2 (en) 2002-03-18 2007-06-19 National Instruments Corporation Pattern matching using multiple techniques
US20060106742A1 (en) 2002-04-29 2006-05-18 Speed Trac Technologies, Inc. System and method for weighing and tracking freight
US7149749B2 (en) 2002-06-03 2006-12-12 International Business Machines Corporation Method of inserting and deleting leaves in tree table structures
US6928194B2 (en) 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
EP1434170A3 (de) 2002-11-07 2006-04-05 Matsushita Electric Industrial Co., Ltd. Verfahren und Vorrichtung zum Hinzufügen von Verzierungen an einem Bild einer Person
JP3862652B2 (ja) 2002-12-10 2006-12-27 キヤノン株式会社 印刷制御方法及び情報処理装置
US7248754B2 (en) 2003-05-05 2007-07-24 International Business Machines Corporation Apparatus and method for determining whether machine readable information on an item matches the item
US7137207B2 (en) 2003-06-23 2006-11-21 Armstrong Timothy D Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US7493336B2 (en) 2003-07-22 2009-02-17 International Business Machines Corporation System and method of updating planogram information using RFID tags and personal shopping device
DE10336638A1 (de) 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
TWI266035B (en) 2003-11-11 2006-11-11 Hon Hai Prec Ind Co Ltd A system and method for measuring point-cloud
SE0400556D0 (sv) 2004-03-05 2004-03-05 Pricer Ab Electronic shelf labelling system, electronic label, handheld device and method in an electronic labelling system
WO2005098475A1 (en) * 2004-03-29 2005-10-20 Evolution Robotics, Inc. Sensing device and method for measuring position and orientation relative to multiple light sources
US7720554B2 (en) * 2004-03-29 2010-05-18 Evolution Robotics, Inc. Methods and apparatus for position estimation using reflected light sources
US7885865B2 (en) 2004-05-11 2011-02-08 The Kroger Co. System and method for mapping of planograms
US7245558B2 (en) 2004-06-18 2007-07-17 Symbol Technologies, Inc. System and method for detection using ultrasonic waves
US7168618B2 (en) 2004-08-12 2007-01-30 International Business Machines Corporation Retail store method and system
US7643665B2 (en) 2004-08-31 2010-01-05 Semiconductor Insights Inc. Method of design analysis of existing integrated circuits
US8207964B1 (en) 2008-02-22 2012-06-26 Meadow William D Methods and apparatus for generating three-dimensional image data models
EP1828862A2 (de) 2004-12-14 2007-09-05 Sky-Trax Incorporated Verfahren und vorrichtung zur bestimmung von position und drehorientierung eines objekts
US7783383B2 (en) 2004-12-22 2010-08-24 Intelligent Hospital Systems Ltd. Automated pharmacy admixture system (APAS)
WO2006136958A2 (en) 2005-01-25 2006-12-28 Dspv, Ltd. System and method of improving the legibility and applicability of document pictures using form based image enhancement
US7440903B2 (en) 2005-01-28 2008-10-21 Target Brands, Inc. System and method for evaluating and recommending planograms
DE102005007536A1 (de) 2005-02-17 2007-01-04 Isra Vision Systems Ag Verfahren zur Kalibrierung eines Messsystems
US7751928B1 (en) 2005-03-11 2010-07-06 Amazon Technologies, Inc. Method and system for agent exchange-based materials handling
US9534899B2 (en) * 2005-03-25 2017-01-03 Irobot Corporation Re-localization of a robot for slam
CN101160576B (zh) 2005-04-13 2010-05-19 斯德艾斯有限公司 用于测量零售商店陈列情况的方法和系统
WO2006127129A2 (en) 2005-04-19 2006-11-30 University Of Georgia Research Foundation, Inc. Image edge detection systems and methods
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US7590053B2 (en) 2005-06-21 2009-09-15 Alcatel Lucent Multiple endpoint protection using SPVCs
BRPI0520370B8 (pt) 2005-06-28 2023-01-31 Scanalyse Pty Ltd Sistema e método para medição e mapeamento de uma superfície com relação a uma referência
US7817826B2 (en) 2005-08-12 2010-10-19 Intelitrac Inc. Apparatus and method for partial component facial recognition
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
EP1934936A2 (de) 2005-10-10 2008-06-25 Nordic Bioscience A/S Verfahren zum segmentieren eines bildes
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7508794B2 (en) 2005-11-29 2009-03-24 Cisco Technology, Inc. Authorizing an endpoint node for a communication service
US8577538B2 (en) 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US20070168382A1 (en) 2006-01-03 2007-07-19 Michael Tillberg Document analysis system for integration of paper records into a searchable electronic database
JP4730121B2 (ja) 2006-02-07 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
US20070197895A1 (en) 2006-02-17 2007-08-23 Sdgi Holdings, Inc. Surgical instrument to assess tissue characteristics
US8157205B2 (en) 2006-03-04 2012-04-17 Mcwhirk Bruce Kimberly Multibody aircrane
US20100171826A1 (en) 2006-04-12 2010-07-08 Store Eyes, Inc. Method for measuring retail display and compliance
CA2737169C (en) 2006-04-28 2014-04-01 Global Sensor Systems Inc. Device for measuring package size
ATE470912T1 (de) 2006-04-28 2010-06-15 Toyota Motor Europ Nv Robuster detektor und deskriptor für einen interessenspunkt
US20070272732A1 (en) 2006-05-26 2007-11-29 Mettler-Toledo, Inc. Weighing and dimensioning system and method for weighing and dimensioning
EP2041516A2 (de) 2006-06-22 2009-04-01 Roy Sandberg Verfahren und vorrichtung zur planung, auswahl und visualisierung von roboterwegen
JP4910507B2 (ja) 2006-06-29 2012-04-04 コニカミノルタホールディングス株式会社 顔認証システム及び顔認証方法
US7647752B2 (en) 2006-07-12 2010-01-19 Greg Magnell System and method for making custom boxes for objects of random size or shape
US7940955B2 (en) 2006-07-26 2011-05-10 Delphi Technologies, Inc. Vision-based method of determining cargo status by boundary detection
US7693757B2 (en) 2006-09-21 2010-04-06 International Business Machines Corporation System and method for performing inventory using a mobile inventory robot
US8277396B2 (en) 2006-11-02 2012-10-02 Queen's University At Kingston Method and apparatus for assessing proprioceptive function
WO2008057504A2 (en) 2006-11-06 2008-05-15 Aman James A Load tracking system based on self- tracking forklift
US8531457B2 (en) 2006-11-29 2013-09-10 Technion Research And Development Foundation Ltd. Apparatus and method for finding visible points in a cloud point
US7474389B2 (en) 2006-12-19 2009-01-06 Dean Greenberg Cargo dimensional and weight analyzing system
US8189926B2 (en) 2006-12-30 2012-05-29 Videomining Corporation Method and system for automatically analyzing categories in a physical space based on the visual characterization of people
US20080164310A1 (en) 2007-01-09 2008-07-10 Dupuy Charles G Labeling system
CA2680646C (en) 2007-03-15 2014-07-22 Kansai University Moving object noise elimination processing device and moving object noise elimination processing program
US7940279B2 (en) 2007-03-27 2011-05-10 Utah State University System and method for rendering of texel imagery
US8132728B2 (en) 2007-04-04 2012-03-13 Sick, Inc. Parcel dimensioning measurement system and method
US8094937B2 (en) 2007-04-17 2012-01-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for labeling feature clusters in frames of image data for optical navigation
WO2008134562A2 (en) 2007-04-27 2008-11-06 Nielsen Media Research, Inc. Methods and apparatus to monitor in-store media and consumer traffic related to retail environments
JP4561769B2 (ja) 2007-04-27 2010-10-13 アイシン・エィ・ダブリュ株式会社 経路案内システム及び経路案内方法
CN101681525A (zh) 2007-06-08 2010-03-24 电子地图有限公司 产生多视点全景图的方法及设备
WO2008154611A2 (en) 2007-06-11 2008-12-18 Honeywell International Inc. Optical reader system for extracting information in a digital image
US7982423B2 (en) 2007-07-04 2011-07-19 Bossa Nova Concepts, Llc Statically stable biped robotic mechanism and method of actuating
JP4661838B2 (ja) 2007-07-18 2011-03-30 トヨタ自動車株式会社 経路計画装置及び方法、コスト評価装置、並びに移動体
KR100922494B1 (ko) 2007-07-19 2009-10-20 삼성전자주식회사 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치
US7726575B2 (en) 2007-08-10 2010-06-01 Hand Held Products, Inc. Indicia reading terminal having spatial measurement functionality
US8950673B2 (en) 2007-08-30 2015-02-10 Symbol Technologies, Inc. Imaging system for reading target with multiple symbols
US7949568B2 (en) 2007-08-31 2011-05-24 Accenture Global Services Limited Determination of product display parameters based on image processing
US9135491B2 (en) 2007-08-31 2015-09-15 Accenture Global Services Limited Digital point-of-sale analyzer
US8189855B2 (en) 2007-08-31 2012-05-29 Accenture Global Services Limited Planogram extraction based on image processing
US8009864B2 (en) 2007-08-31 2011-08-30 Accenture Global Services Limited Determination of inventory conditions based on image processing
US8630924B2 (en) 2007-08-31 2014-01-14 Accenture Global Services Limited Detection of stock out conditions based on image processing
US8295590B2 (en) 2007-09-14 2012-10-23 Abbyy Software Ltd. Method and system for creating a form template for a form
JP4466705B2 (ja) 2007-09-21 2010-05-26 ヤマハ株式会社 ナビゲーション装置
US8396284B2 (en) 2007-10-23 2013-03-12 Leica Geosystems Ag Smart picking in 3D point clouds
US8091782B2 (en) 2007-11-08 2012-01-10 International Business Machines Corporation Using cameras to monitor actual inventory
US20090125350A1 (en) 2007-11-14 2009-05-14 Pieter Lessing System and method for capturing and storing supply chain and logistics support information in a relational database system
US20090160975A1 (en) 2007-12-19 2009-06-25 Ncr Corporation Methods and Apparatus for Improved Image Processing to Provide Retroactive Image Focusing and Improved Depth of Field in Retail Imaging Systems
US8423431B1 (en) 2007-12-20 2013-04-16 Amazon Technologies, Inc. Light emission guidance
US20090192921A1 (en) 2008-01-24 2009-07-30 Michael Alan Hicks Methods and apparatus to survey a retail environment
US8353457B2 (en) 2008-02-12 2013-01-15 Datalogic ADC, Inc. Systems and methods for forming a composite image of multiple portions of an object from multiple perspectives
US7971664B2 (en) 2008-03-18 2011-07-05 Bossa Nova Robotics Ip, Inc. Efficient actuation and selective engaging and locking clutch mechanisms for reconfiguration and multiple-behavior locomotion of an at least two-appendage robot
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US8064729B2 (en) 2008-04-03 2011-11-22 Seiko Epson Corporation Image skew detection apparatus and methods
US7707073B2 (en) 2008-05-15 2010-04-27 Sony Ericsson Mobile Communications, Ab Systems methods and computer program products for providing augmented shopping information
US20150170256A1 (en) 2008-06-05 2015-06-18 Aisle411, Inc. Systems and Methods for Presenting Information Associated With a Three-Dimensional Location on a Two-Dimensional Display
JP4720859B2 (ja) 2008-07-09 2011-07-13 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
US8184196B2 (en) 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
US9841314B2 (en) 2008-08-29 2017-12-12 United Parcel Service Of America, Inc. Systems and methods for freight tracking and monitoring
US9824495B2 (en) 2008-09-11 2017-11-21 Apple Inc. Method and system for compositing an augmented reality scene
US20100070365A1 (en) 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Planogram guided shopping
EP2332094B1 (de) 2008-09-14 2014-03-12 Eliezer Magal Automatisches identifikationssystem für zufällig orientierte objekte
US20100091094A1 (en) 2008-10-14 2010-04-15 Marek Sekowski Mechanism for Directing a Three-Dimensional Camera System
CA2740781C (en) 2008-10-20 2016-06-14 Raritan Americas, Inc. System and method for automatic determination of the physical location of data center equipment
US8479996B2 (en) 2008-11-07 2013-07-09 Symbol Technologies, Inc. Identification of non-barcoded products
KR101234798B1 (ko) 2008-11-24 2013-02-20 삼성전자주식회사 이동 로봇의 위치 측정 방법 및 장치
US8463079B2 (en) 2008-12-16 2013-06-11 Intermec Ip Corp. Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner
US8812226B2 (en) 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8265895B2 (en) 2009-03-27 2012-09-11 Symbol Technologies, Inc. Interactive sensor systems and methods for dimensioning
US8284988B2 (en) 2009-05-13 2012-10-09 Applied Vision Corporation System and method for dimensioning objects using stereoscopic imaging
US8743176B2 (en) 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
US8049621B1 (en) 2009-05-28 2011-11-01 Walgreen Co. Method and apparatus for remote merchandise planogram auditing and reporting
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US7997430B2 (en) 2009-06-30 2011-08-16 Target Brands, Inc. Display apparatus and method
US20120019393A1 (en) 2009-07-31 2012-01-26 Robert Wolinsky System and method for tracking carts in a retail environment
CA2754159C (en) 2009-08-11 2012-05-15 Certusview Technologies, Llc Systems and methods for complex event processing of vehicle-related information
AR077904A1 (es) 2009-08-21 2011-09-28 Syngenta Participations Ag Sistema automatizado para analizar el vigor de la planta
KR101619076B1 (ko) 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US8942884B2 (en) 2010-01-14 2015-01-27 Innovative Transport Solutions, Llc Transport system
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20110216063A1 (en) 2010-03-08 2011-09-08 Celartem, Inc. Lidar triangular network compression
US8456518B2 (en) 2010-03-31 2013-06-04 James Cameron & Vincent Pace Stereoscopic camera with automatic obstruction removal
US8570343B2 (en) 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US8199977B2 (en) 2010-05-07 2012-06-12 Honeywell International Inc. System and method for extraction of features from a 3-D point cloud
US8134717B2 (en) 2010-05-21 2012-03-13 LTS Scale Company Dimensional detection system and associated method
US9109877B2 (en) 2010-05-21 2015-08-18 Jonathan S. Thierman Method and apparatus for dimensional measurement
US20110310088A1 (en) 2010-06-17 2011-12-22 Microsoft Corporation Personalized navigation through virtual 3d environments
US20120022913A1 (en) 2010-07-20 2012-01-26 Target Brands, Inc. Planogram Generation for Peg and Shelf Items
JP4914528B1 (ja) 2010-08-31 2012-04-11 新日鉄ソリューションズ株式会社 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム
US8571314B2 (en) 2010-09-02 2013-10-29 Samsung Electronics Co., Ltd. Three-dimensional display system with depth map mechanism and method of operation thereof
EP3091508B1 (de) 2010-09-03 2018-12-26 California Institute of Technology Dreidimensionales bildgebungssystem
US8872851B2 (en) 2010-09-24 2014-10-28 Intel Corporation Augmenting image data based on related 3D point cloud data
EP2439487B1 (de) 2010-10-06 2012-08-22 Sick Ag Volumenmessvorrichtung für bewegte Objekte
US8174931B2 (en) 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
US9171442B2 (en) 2010-11-19 2015-10-27 Tyco Fire & Security Gmbh Item identification using video recognition to supplement bar code or RFID information
US20120133639A1 (en) 2010-11-30 2012-05-31 Microsoft Corporation Strip panorama
US9449233B2 (en) 2010-12-01 2016-09-20 The Trustees Of The University Of Pennsylvania Distributed target tracking using self localizing smart camera networks
SG190730A1 (en) 2010-12-09 2013-07-31 Univ Nanyang Tech Method and an apparatus for determining vein patterns from a colour image
US8773946B2 (en) 2010-12-30 2014-07-08 Honeywell International Inc. Portable housings for generation of building maps
US8744644B2 (en) 2011-01-19 2014-06-03 Electronics And Telecommunications Research Institute Apparatus and method for detecting location of vehicle
KR101758058B1 (ko) 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
US8939369B2 (en) 2011-01-24 2015-01-27 Datalogic ADC, Inc. Exception detection and handling in automated optical code reading systems
US20120190453A1 (en) 2011-01-25 2012-07-26 Bossa Nova Robotics Ip, Inc. System and method for online-offline interactive experience
US20120191880A1 (en) 2011-01-26 2012-07-26 Bossa Nova Robotics IP, Inc System and method for identifying accessories connected to apparatus
EP2668008A4 (de) 2011-01-28 2018-01-24 Intouch Technologies, Inc. Schnittstelle mit einem mobilen telepräsenzroboter
WO2012100593A1 (zh) 2011-01-30 2012-08-02 浙江省电力公司 智能电能表全自动化检定系统
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US8447549B2 (en) 2011-02-11 2013-05-21 Quality Vision International, Inc. Tolerance evaluation with reduced measured points
US8660338B2 (en) 2011-03-22 2014-02-25 Honeywell International Inc. Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
WO2012132324A1 (ja) 2011-03-31 2012-10-04 日本電気株式会社 店舗システム並びにその制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体
US8693725B2 (en) 2011-04-19 2014-04-08 International Business Machines Corporation Reliability in detecting rail crossing events
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
WO2012155104A1 (en) 2011-05-11 2012-11-15 Proiam, Llc Enrollment apparatus, system, and method featuring three dimensional camera
US20120287249A1 (en) 2011-05-12 2012-11-15 Electronics And Telecommunications Research Institute Method for obtaining depth information and apparatus using the same
US8902353B2 (en) 2011-05-12 2014-12-02 Symbol Technologies, Inc. Imaging reader with independently controlled illumination rate
US9785898B2 (en) 2011-06-20 2017-10-10 Hi-Tech Solutions Ltd. System and method for identifying retail products and determining retail product arrangements
US9064394B1 (en) * 2011-06-22 2015-06-23 Alarm.Com Incorporated Virtual sensors
US9342928B2 (en) * 2011-06-29 2016-05-17 Honeywell International Inc. Systems and methods for presenting building information
US9070285B1 (en) 2011-07-25 2015-06-30 UtopiaCompression Corporation Passive camera based cloud detection and avoidance for aircraft systems
US8768620B2 (en) * 2011-07-27 2014-07-01 Msa Technology, Llc Navigational deployment and initialization systems and methods
KR101907081B1 (ko) 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US9129277B2 (en) 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
TWI622540B (zh) 2011-09-09 2018-05-01 辛波提克有限責任公司 自動化儲存及取放系統
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US11074495B2 (en) 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US10330491B2 (en) 2011-10-10 2019-06-25 Texas Instruments Incorporated Robust step detection using low cost MEMS accelerometer in mobile applications, and processing methods, apparatus and systems
US9159047B2 (en) 2011-11-11 2015-10-13 James T. Winkel Projected image planogram system
US9033239B2 (en) 2011-11-11 2015-05-19 James T. Winkel Projected image planogram system
US8726200B2 (en) 2011-11-23 2014-05-13 Taiwan Semiconductor Manufacturing Co., Ltd. Recognition of template patterns with mask information
US8706293B2 (en) 2011-11-29 2014-04-22 Cereson Co., Ltd. Vending machine with automated detection of product position
US8793107B2 (en) 2011-12-01 2014-07-29 Harris Corporation Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling
CN103164842A (zh) 2011-12-14 2013-06-19 鸿富锦精密工业(深圳)有限公司 点云提取系统及方法
US20130154802A1 (en) 2011-12-19 2013-06-20 Symbol Technologies, Inc. Method and apparatus for updating a central plan for an area based on a location of a plurality of radio frequency identification readers
US20130162806A1 (en) 2011-12-23 2013-06-27 Mitutoyo Corporation Enhanced edge focus tool
US9703179B2 (en) 2012-01-06 2017-07-11 Sunrise R&D Holdings, Llc Display shelf modules with projectors for displaying product information and modular shelving systems comprising the same
EP2615580B1 (de) 2012-01-13 2016-08-17 Softkinetic Software Automatische Szenenkalibrierung
US9740937B2 (en) 2012-01-17 2017-08-22 Avigilon Fortress Corporation System and method for monitoring a retail environment using video content analysis with depth sensing
US9037287B1 (en) 2012-02-17 2015-05-19 National Presort, Inc. System and method for optimizing a mail document sorting machine
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
EP2634120B1 (de) 2012-03-01 2015-02-18 Caljan Rite-Hite ApS Erweiterbare Förderanlage mit Beleuchtung
US8668136B2 (en) 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
US9329269B2 (en) 2012-03-15 2016-05-03 GM Global Technology Operations LLC Method for registration of range images from multiple LiDARS
US8989342B2 (en) 2012-04-18 2015-03-24 The Boeing Company Methods and systems for volumetric reconstruction using radiography
US9153061B2 (en) 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
US9525976B2 (en) 2012-05-10 2016-12-20 Honeywell International Inc. BIM-aware location based application
US8941645B2 (en) 2012-05-11 2015-01-27 Dassault Systemes Comparing virtual and real images in a shopping experience
WO2013170260A1 (en) 2012-05-11 2013-11-14 Proiam, Llc Hand held dimension capture apparatus, system, and method
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9135543B2 (en) 2012-06-20 2015-09-15 Apple Inc. Compression and obfuscation of three-dimensional coding
US20140003655A1 (en) 2012-06-29 2014-01-02 Praveen Gopalakrishnan Method, apparatus and system for providing image data to represent inventory
US9418352B2 (en) 2012-06-29 2016-08-16 Intel Corporation Image-augmented inventory management and wayfinding
US9420265B2 (en) 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
US8971637B1 (en) 2012-07-16 2015-03-03 Matrox Electronic Systems Ltd. Method and system for identifying an edge in an image
KR101441187B1 (ko) 2012-07-19 2014-09-18 고려대학교 산학협력단 자율 보행 로봇 경로 계획 방법
EP2877959B1 (de) 2012-07-24 2018-04-18 Datalogic USA, Inc. Systeme und verfahren zur vermessung von objekten in einem automatisierten datenleser
US8757479B2 (en) 2012-07-31 2014-06-24 Xerox Corporation Method and system for creating personalized packaging
ES2545374T3 (es) 2012-07-31 2015-09-10 Sick Ag Sistema de detección para el montaje en una cinta transportadora
US20140047342A1 (en) 2012-08-07 2014-02-13 Advanced Micro Devices, Inc. System and method for allocating a cluster of nodes for a cloud computing system based on hardware characteristics
US8923893B2 (en) 2012-08-07 2014-12-30 Symbol Technologies, Inc. Real-time planogram generation and maintenance
CN103679164A (zh) 2012-09-21 2014-03-26 阿里巴巴集团控股有限公司 一种基于移动终端的标志识别处理方法和系统
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9472022B2 (en) 2012-10-05 2016-10-18 University Of Southern California Three-dimensional point processing and model generation
US20140192050A1 (en) 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
FR2996512B1 (fr) 2012-10-05 2014-11-21 Renault Sa Procede d'evaluation du risque de collision a une intersection
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
WO2014066422A2 (en) 2012-10-22 2014-05-01 Bossa Nova Robotics Ip, Inc. Self-deploying support member, and methods and apparatus using same
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9635606B2 (en) 2012-11-04 2017-04-25 Kt Corporation Access point selection and management
US20150161793A1 (en) 2012-11-05 2015-06-11 Mitsubishi Electric Corporation Three-dimensional image capture system and particle beam therapy system
ITVI20120303A1 (it) 2012-11-09 2014-05-10 St Microelectronics Srl Metodo per rilevare una linea retta in un'immagine digitale
US9562971B2 (en) 2012-11-22 2017-02-07 Geosim Systems Ltd. Point-cloud fusion
US8825258B2 (en) * 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US9380222B2 (en) 2012-12-04 2016-06-28 Symbol Technologies, Llc Transmission of images for inventory monitoring
US10701149B2 (en) 2012-12-13 2020-06-30 Level 3 Communications, Llc Content delivery framework having origin services
MY172143A (en) 2012-12-13 2019-11-14 Mimos Berhad Method for non-static foreground feature extraction and classification
US20140195373A1 (en) 2013-01-10 2014-07-10 International Business Machines Corporation Systems and methods for managing inventory in a shopping store
US20140214547A1 (en) 2013-01-25 2014-07-31 R4 Technologies, Llc Systems and methods for augmented retail reality
US20140214600A1 (en) 2013-01-31 2014-07-31 Wal-Mart Stores, Inc. Assisting A Consumer In Locating A Product Within A Retail Store
FR3001567B1 (fr) * 2013-01-31 2016-07-22 Alstom Hydro France Procede de surveillance d'un site industriel, dispositif de surveillance et systeme de surveillance associes
DE102013002554A1 (de) 2013-02-15 2014-08-21 Jungheinrich Aktiengesellschaft Verfahren zur Erkennung von Objekten in einem Lager und/oder zur räumlichen Orientierung in einem Lager
US8965561B2 (en) 2013-03-15 2015-02-24 Cybernet Systems Corporation Automated warehousing using robotic forklifts
TWI594933B (zh) 2013-03-15 2017-08-11 辛波提克有限責任公司 自動化貯藏及取放系統
US9154773B2 (en) 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
US9558559B2 (en) 2013-04-05 2017-01-31 Nokia Technologies Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
WO2014181323A1 (en) 2013-05-05 2014-11-13 Trax Technology Solutions Pte Ltd. System and method of retail image analysis
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
EP3006272A4 (de) 2013-05-29 2016-06-15 Toyota Motor Co Ltd Parkhilfevorrichtung
US9158988B2 (en) 2013-06-12 2015-10-13 Symbol Technclogies, LLC Method for detecting a plurality of instances of an object
US10268983B2 (en) 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US9443297B2 (en) 2013-07-10 2016-09-13 Cognex Corporation System and method for selective determination of point clouds
US10290031B2 (en) 2013-07-24 2019-05-14 Gregorio Reid Method and system for automated retail checkout using context recognition
US9473747B2 (en) 2013-07-25 2016-10-18 Ncr Corporation Whole store scanner
US10349031B2 (en) 2013-07-28 2019-07-09 Michael J. DeLuca Augmented reality based user interfacing
US20150088618A1 (en) 2013-08-26 2015-03-26 Ims Solutions, Inc. Road tolling
US9886678B2 (en) 2013-09-25 2018-02-06 Sap Se Graphic representations of planograms
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US9248611B2 (en) 2013-10-07 2016-02-02 David A. Divine 3-D printed packaging
US20150106403A1 (en) 2013-10-15 2015-04-16 Indooratlas Oy Generating search database based on sensor measurements
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9349076B1 (en) 2013-12-20 2016-05-24 Amazon Technologies, Inc. Template-based target object detection in an image
US9565400B1 (en) 2013-12-20 2017-02-07 Amazon Technologies, Inc. Automatic imaging device selection for video analytics
EP3108686B1 (de) 2014-02-21 2019-06-19 Telefonaktiebolaget LM Ericsson (publ) Wlan-durchsatzvorhersage
MY177646A (en) 2014-02-28 2020-09-23 Icm Airport Technics Australia Pty Ltd Luggage processing station and system thereof
US20150310601A1 (en) 2014-03-07 2015-10-29 Digimarc Corporation Methods and arrangements for identifying objects
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20150262116A1 (en) 2014-03-16 2015-09-17 International Business Machines Corporation Machine vision technology for shelf inventory management
US9953420B2 (en) 2014-03-25 2018-04-24 Ford Global Technologies, Llc Camera calibration
US9632313B1 (en) * 2014-03-27 2017-04-25 Amazon Technologies, Inc. Augmented reality user interface facilitating fulfillment
CN103945208B (zh) 2014-04-24 2015-10-28 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
MX2016015810A (es) 2014-06-04 2017-07-19 Intelligrated Headquarters Llc Visualización de un descargador de camiones.
US9542746B2 (en) 2014-06-13 2017-01-10 Xerox Corporation Method and system for spatial characterization of an imaging system
US10453046B2 (en) 2014-06-13 2019-10-22 Conduent Business Services, Llc Store shelf imaging system
US9659204B2 (en) 2014-06-13 2017-05-23 Conduent Business Services, Llc Image processing methods and systems for barcode and/or product label recognition
US10176452B2 (en) 2014-06-13 2019-01-08 Conduent Business Services Llc Store shelf imaging system and method
WO2015199554A2 (en) 2014-06-27 2015-12-30 Crown Equipment Limited Vehicle positioning or navigation utilizing associated feature pairs
US11051000B2 (en) 2014-07-14 2021-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating cameras with non-overlapping views
DE102014011821A1 (de) 2014-08-08 2016-02-11 Cargometer Gmbh Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
US20160044862A1 (en) 2014-08-14 2016-02-18 Raven Industries, Inc. Site specific product application device and method
CN104200086B (zh) 2014-08-25 2017-02-22 西北工业大学 宽基线可见光相机位姿估计方法
US20160061591A1 (en) 2014-08-28 2016-03-03 Lts Metrology, Llc Stationary Dimensioning Apparatus
JP2016057108A (ja) 2014-09-08 2016-04-21 株式会社トプコン 演算装置、演算システム、演算方法およびプログラム
EP3201709B1 (de) 2014-09-30 2021-03-17 NEC Corporation Verfahren und system zur bestimmung eines pfades eines objekts zum bewegen von einem eingestellten anfangszustand zu einem endzustand unter vermeidung eines oder mehrerer hindernisse
US10296950B2 (en) 2014-09-30 2019-05-21 Apple Inc. Beacon triggered processes
US9576194B2 (en) 2014-10-13 2017-02-21 Klink Technologies Method and system for identity and age verification
US9706105B2 (en) 2014-10-20 2017-07-11 Symbol Technologies, Llc Apparatus and method for specifying and aiming cameras at shelves
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US9796093B2 (en) 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
US9600892B2 (en) 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
JP5946073B2 (ja) * 2014-11-07 2016-07-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 推定方法、推定システム、コンピュータ・システムおよびプログラム
US10022867B2 (en) 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action
US9916002B2 (en) 2014-11-16 2018-03-13 Eonite Perception Inc. Social applications for augmented reality technologies
US10154246B2 (en) 2014-11-20 2018-12-11 Cappasity Inc. Systems and methods for 3D capturing of objects and motion sequences using multiple range and RGB cameras
US10248653B2 (en) 2014-11-25 2019-04-02 Lionbridge Technologies, Inc. Information technology platform for language translation and task management
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
US9483704B2 (en) 2014-12-10 2016-11-01 Ricoh Co., Ltd. Realogram scene analysis of images: superpixel scene analysis
US9928708B2 (en) 2014-12-12 2018-03-27 Hawxeye, Inc. Real-time video analysis for security surveillance
US9628695B2 (en) 2014-12-29 2017-04-18 Intel Corporation Method and system of lens shift correction for a camera array
US20160253735A1 (en) 2014-12-30 2016-09-01 Shelfscreen, Llc Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers
EP3054404A1 (de) 2015-02-04 2016-08-10 Hexagon Technology Center GmbH Arbeitsinformationsmodellierung
US9367831B1 (en) 2015-03-16 2016-06-14 The Nielsen Company (Us), Llc Methods and apparatus for inventory determinations using portable devices
US9630319B2 (en) 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
US9600731B2 (en) 2015-04-08 2017-03-21 Toshiba Tec Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable storage medium
US9868443B2 (en) 2015-04-27 2018-01-16 GM Global Technology Operations LLC Reactive path planning for autonomous driving
MX2017015063A (es) 2015-05-26 2018-05-07 Crown Equip Corp Sistemas y metodos para la calibracion del dispositivo de captura de imagenes para un vehiculo de manejo de materiales.
US9646410B2 (en) 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
US20170011308A1 (en) * 2015-07-09 2017-01-12 SunView Software, Inc. Methods and Systems for Applying Machine Learning to Automatically Solve Problems
US10410096B2 (en) 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
JP6281730B2 (ja) 2015-07-10 2018-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像を取得するシステム及び無人航空機
US10308410B2 (en) 2015-07-17 2019-06-04 Nestec S.A. Multiple-container composite package
US10455216B2 (en) 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
US9549125B1 (en) 2015-09-01 2017-01-17 Amazon Technologies, Inc. Focus specification and focus stabilization
GB2542115B (en) 2015-09-03 2017-11-15 Rail Vision Europe Ltd Rail track asset survey system
AU2016316037B2 (en) 2015-09-04 2020-07-02 Crown Equipment Corporation Industrial vehicle with feature-based localization and navigation
US9684081B2 (en) 2015-09-16 2017-06-20 Here Global B.V. Method and apparatus for providing a location data error map
US9517767B1 (en) 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
EP3374947A4 (de) 2015-11-09 2019-03-27 Simbe Robotics, Inc. Verfahren zur verfolgung von des lagerbestands in einem lager
US20170150129A1 (en) 2015-11-23 2017-05-25 Chicago Measurement, L.L.C. Dimensioning Apparatus and Method
US10592854B2 (en) 2015-12-18 2020-03-17 Ricoh Co., Ltd. Planogram matching
US10336543B1 (en) 2016-01-21 2019-07-02 Wing Aviation Llc Selective encoding of packages
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
KR102373926B1 (ko) 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
US10197400B2 (en) 2016-02-25 2019-02-05 Sharp Laboratories Of America, Inc. Calibration methods and systems for an autonomous navigation vehicle
US10229386B2 (en) 2016-03-03 2019-03-12 Ebay Inc. Product tags, systems, and methods for crowdsourcing and electronic article surveillance in retail inventory management
US9928438B2 (en) 2016-03-10 2018-03-27 Conduent Business Services, Llc High accuracy localization system and method for retail store profiling via product image recognition and its corresponding dimension database
US20170261993A1 (en) 2016-03-10 2017-09-14 Xerox Corporation Systems and methods for robot motion control and improved positional accuracy
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
WO2017172790A1 (en) 2016-03-29 2017-10-05 Bossa Nova Robotics Ip, Inc. Planogram assisted inventory system and method
US9805240B1 (en) 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning
US9791862B1 (en) 2016-04-25 2017-10-17 Thayermahan, Inc. Systems and method for unmanned undersea sensor position, orientation, and depth keeping
JP7009389B2 (ja) 2016-05-09 2022-01-25 グラバンゴ コーポレイション 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法
JP6728404B2 (ja) 2016-05-19 2020-07-22 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. 店舗の棚への製品の配置を追跡する方法
JP6744430B2 (ja) 2016-05-19 2020-08-19 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. 製品を店舗内の棚構造に割り当てる棚割表を自動的に生成する方法
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US10394244B2 (en) 2016-05-26 2019-08-27 Korea University Research And Business Foundation Method for controlling mobile robot based on Bayesian network learning
JP6339633B2 (ja) 2016-06-28 2018-06-06 新日鉄住金ソリューションズ株式会社 システム、情報処理装置、情報処理方法、及び、プログラム
US10769582B2 (en) 2016-06-30 2020-09-08 Bossa Nova Robotics Ip, Inc. Multiple camera system for inventory tracking
US10785418B2 (en) 2016-07-12 2020-09-22 Bossa Nova Robotics Ip, Inc. Glare reduction method and system
US20180025412A1 (en) 2016-07-22 2018-01-25 Focal Systems, Inc. Determining in-store location based on images
US9827683B1 (en) 2016-07-28 2017-11-28 X Development Llc Collaborative inventory monitoring
US20180053091A1 (en) 2016-08-17 2018-02-22 Hawxeye, Inc. System and method for model compression of neural networks for use in embedded platforms
US10054447B2 (en) 2016-08-17 2018-08-21 Sharp Laboratories Of America, Inc. Lazier graph-based path planning for autonomous navigation
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
US20180101813A1 (en) 2016-10-12 2018-04-12 Bossa Nova Robotics Ip, Inc. Method and System for Product Data Review
US10289990B2 (en) 2016-10-17 2019-05-14 Conduent Business Services, Llc Store shelf imaging system and method
US10210603B2 (en) 2016-10-17 2019-02-19 Conduent Business Services Llc Store shelf imaging system and method
US10019803B2 (en) 2016-10-17 2018-07-10 Conduent Business Services, Llc Store shelf imaging system and method using a vertical LIDAR
US20180114183A1 (en) 2016-10-25 2018-04-26 Wal-Mart Stores, Inc. Stock Level Determination
US10451405B2 (en) 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
US9778388B1 (en) 2016-12-22 2017-10-03 Thayermahan, Inc. Systems and methods for autonomous towing of an underwater sensor array
US10121072B1 (en) 2016-12-30 2018-11-06 Intuit Inc. Unsupervised removal of text from form images
JP6938169B2 (ja) 2017-03-01 2021-09-22 東芝テック株式会社 ラベル生成装置及びプログラム
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
US10229322B2 (en) 2017-04-06 2019-03-12 Ants Technology (Hk) Limited Apparatus, methods and computer products for video analytics
US20180314908A1 (en) 2017-05-01 2018-11-01 Symbol Technologies, Llc Method and apparatus for label detection
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US10505057B2 (en) 2017-05-01 2019-12-10 Symbol Technologies, Llc Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US11093896B2 (en) 2017-05-01 2021-08-17 Symbol Technologies, Llc Product status detection system
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
WO2018204308A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Method and apparatus for object status detection
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
CN107067382A (zh) 2017-05-11 2017-08-18 南宁市正祥科技有限公司 一种改进的图像边缘检测方法
WO2019023249A1 (en) 2017-07-25 2019-01-31 Bossa Nova Robotics Ip, Inc. REDUCTION OF DATA IN A BAR CODE READING ROBOT SHELF SURVEILLANCE SYSTEM
US10127438B1 (en) 2017-08-07 2018-11-13 Standard Cognition, Corp Predicting inventory events using semantic diffing
US10861302B2 (en) 2017-08-17 2020-12-08 Bossa Nova Robotics Ip, Inc. Robust motion filtering for real-time video surveillance
US10783379B2 (en) 2017-08-23 2020-09-22 Bossa Nova Robotics Ip, Inc. Method for new package detection
US10489677B2 (en) 2017-09-07 2019-11-26 Symbol Technologies, Llc Method and apparatus for shelf edge detection
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
JP7019357B2 (ja) 2017-09-19 2022-02-15 東芝テック株式会社 棚情報推定装置及び情報処理プログラム
US20190180150A1 (en) 2017-12-13 2019-06-13 Bossa Nova Robotics Ip, Inc. Color Haar Classifier for Retail Shelf Label Detection
JP7081140B2 (ja) 2017-12-25 2022-06-07 富士通株式会社 物体認識装置、物体認識方法及び物体認識プログラム
US20190236530A1 (en) 2018-01-31 2019-08-01 Walmart Apollo, Llc Product inventorying using image differences
US11049279B2 (en) 2018-03-27 2021-06-29 Denso Wave Incorporated Device for detecting positional relationship among objects
US10726264B2 (en) 2018-06-25 2020-07-28 Microsoft Technology Licensing, Llc Object-based localization

Also Published As

Publication number Publication date
US11543249B2 (en) 2023-01-03
US20210262806A1 (en) 2021-08-26
FR3090166B1 (fr) 2022-08-05
FR3090166A1 (fr) 2020-06-19
GB2580779A (en) 2020-07-29
GB2580779B (en) 2021-09-22
US11015938B2 (en) 2021-05-25
GB201917864D0 (en) 2020-01-22
US20200191575A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
DE102018120487A1 (de) Verfahren und vorrichtung zur kantenerkennung von auflageflächen
DE102018006765B4 (de) Verfahren und system(e) für das management von frachtfahrzeugen
DE112018002314T5 (de) Verfahren und vorrichtung zur erkennung eines objektstatus
DE112019006132T5 (de) Verfahren, system und vorrichtung zur hilfsetikett-erkennung und -zuordnung
DE112019001788T5 (de) Verfahren, system und vorrichtung zum korrigieren von transluzenzartefakten in daten, die eine trägerstruktur darstellen
EP2526378B1 (de) Verfahren und system zum erfassen der position eines fahrzeuges
DE102014213981A1 (de) Parkplatz-Erfassungsvorrichtung und entsprechendes Verfahren
DE112019002547T5 (de) System und verfahren zum bestimmen eines standortes zur platzierung eines pakets
DE102012221921B4 (de) Orten eines mobilen Endgeräts unter Nutzung von optisch detektierbaren Landmarken
DE102018120510A1 (de) Systeme und verfahren zur verkaufsstellenerkennung mit bildsensoren zur identifizierung neuer radiofrequenz- identifikations (rfid) -etiketten-ereignisse in der nähe eines rfid- lesegeräts
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
DE102018006764B4 (de) Verfahren und system(e) für das management von frachtfahrzeugen
DE102019125987A1 (de) Verfahren, system und vorrichtung zur navigationsunterstützung
DE102017116854A1 (de) System und Verfahren zum Konfigurieren eines Kennungslesegeräts unter Verwendung einer Mobilvorrichtung
DE112021002050T5 (de) Verfahren, system und vorrichtung zur datenerfassungsbeleuchtungssteuerung
DE102021206075A1 (de) Fahrzeuglokalisierung als Mitfahrgelegenheit und Insassenidentifikation für autonome Fahrzeuge
DE112019001796T5 (de) Verfahren, system und vorrichtung zur lokalisierung mobiler automatisierungsvorrichtungen
DE112021000762T5 (de) Verfahren, system und vorrichtung zur mobilen ortung
DE112021001432T5 (de) Intelligente regalsysteme und verfahren zu deren betrieb
DE112020002578T5 (de) Verfahren, System und Vorrichtung zur dynamischen Aufgabensequenzierung
DE102020126353A1 (de) Verfahren und systeme zur erkennung von in warenträgern zurückgelassenen artikeln
DE112019006186T5 (de) Verfahren und vorrichtung zur steuerung von lichtemittern einer mobilen automatisierungsvorrichtung
DE102019000903A1 (de) System mit Anlage, Objekten und Mobilteilen, und Verfahren zum Betreiben eines Systems
DE102021128457A1 (de) Erkennung und optimierung der gegenstandplatzierung in materialflusssystemen
DE112022004575T5 (de) Verringerung der rechenlast bei einer bildbasierten gegenstandserkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed