DE102019125987A1 - Verfahren, system und vorrichtung zur navigationsunterstützung - Google Patents
Verfahren, system und vorrichtung zur navigationsunterstützung Download PDFInfo
- Publication number
- DE102019125987A1 DE102019125987A1 DE102019125987.8A DE102019125987A DE102019125987A1 DE 102019125987 A1 DE102019125987 A1 DE 102019125987A1 DE 102019125987 A DE102019125987 A DE 102019125987A DE 102019125987 A1 DE102019125987 A1 DE 102019125987A1
- Authority
- DE
- Germany
- Prior art keywords
- task
- anchor
- definition
- mobile computing
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000004891 communication Methods 0.000 claims abstract description 26
- 230000000704 physical effect Effects 0.000 claims abstract description 7
- 230000004044 response Effects 0.000 claims description 18
- 230000033001 locomotion Effects 0.000 claims description 17
- 230000001052 transient effect Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000004807 localization Effects 0.000 description 4
- 238000013480 data collection Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000003137 locomotive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0295—Proximity-based methods, e.g. position inferred from reception of particular signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/02—Systems for determining distance or velocity not using reflection or reradiation using radio waves
- G01S11/06—Systems for determining distance or velocity not using reflection or reradiation using radio waves using intensity measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/02—Systems for determining distance or velocity not using reflection or reradiation using radio waves
- G01S11/08—Systems for determining distance or velocity not using reflection or reradiation using radio waves using synchronised clocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
- G06Q10/0833—Tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/309—Measuring or estimating channel quality parameters
- H04B17/318—Received signal strength
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
- H04W64/003—Locating users or terminals or network equipment for network management purposes, e.g. mobility management locating network equipment
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Automation & Control Theory (AREA)
- Quality & Reliability (AREA)
- Theoretical Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Tourism & Hospitality (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Electromagnetism (AREA)
- Educational Administration (AREA)
- Game Theory and Decision Science (AREA)
- Multimedia (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
Ein unterstützendes Navigationssystem zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen beinhaltet: einen Server mit einem Speicher, der folgendes speichert: eine Vielzahl von Ankerdefinitionen, die jeweils (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz enthalten, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; und eine Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; wobei der Server ferner eine Kommunikationsschnittstelle und einen Prozessor beinhaltet, der konfiguriert ist zum: Auswählen einer der Ankerdefinitionen für eine Zuordnung zur Aufgabendefinition; und Übertragen der ausgewählten Ankerdefinition und der Aufgabendefinition an eine mobile Computervorrichtung, wobei die mobile Computervorrichtung konfiguriert ist, um die ausgewählte Ankerdefinition und die Aufgabendefinition zu empfangen; wobei die mobile Computervorrichtung ferner konfiguriert ist, um die Aufgabenüberlagerungsdaten auf einer Anzeige darzustellen.
Description
- HINTERGRUND
- Umgebungen, in denen Objekte verwaltet werden, wie z.B. Einzelhandelseinrichtungen, können komplex und flüchtig sein. So kann beispielsweise eine Einzelhandelseinrichtung Objekte wie Produkte zum Kauf beinhalten, eine Vertriebsumgebung kann Objekte wie Pakete oder Paletten beinhalten, eine Produktionsumgebung kann Objekte wie Komponenten oder Baugruppen beinhalten, eine Gesundheitsumgebung kann Objekte wie Medikamente oder medizinische Geräte beinhalten.
- Es können Aufgaben zur Ausführung in solchen Umgebungen identifiziert werden, z.B. um Preisschilder auf Produkten zu korrigieren, eine Lieferung von Produkten aufzufüllen und dergleichen. Solche Aufgaben können menschlichen Bedienern zur Ausführung übertragen werden. Das Vorhandensein einer variablen Anzahl von Aufgaben sowie einer variablen Anzahl von Mobilfunkbetreibern innerhalb der Umgebung zu einem bestimmten Zeitpunkt kann zu einer ineffizienten Zuweisung von Aufgaben an die Bediener führen, was zu einer Unterauslastung oder Überauslastung bestimmter Bediener oder der Notwendigkeit einer teuren Schulung mehrerer Bediener für mehrere Aufgaben führt.
- Darüber hinaus kann es erforderlich sein, dass der Bediener, der mit der Ausführung einer bestimmten Aufgabe betraut ist, eine Position innerhalb der Einrichtung, an der die Aufgabe ausgeführt werden soll, genau lokalisiert. Eine vom Bediener mitgeführte mobile Computervorrichtung kann eine unzureichend genaue Lokalisierung aufweisen, um den Bediener an die richtige Position innerhalb der Einrichtung zu führen, was zu falsch ausgeführten Aufgaben, Verzögerungen bei der Aufgabenausführung oder beidem führt.
- Figurenliste
- Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
-
1 ist ein Schaltplan eines mobilen Automatisierungssystems. -
2A stellt eine mobile Automatisierungsvorrichtung im System von1 dar. -
2B ist ein Blockdiagramm bestimmter interner Hardwarekomponenten der mobilen Automatisierungsvorrichtung im System von1 . -
3 ist ein Flussdiagramm eines Verfahrens zum Erzeugen und Einsetzen von Navigationsassistenzinformationen im System von1 . -
4A ist eine Draufsicht auf eine Einrichtung, die eine Ankerposition darstellt. -
4B stellt einen Ankermerkmalssatz dar, der im Verfahren von3 verwendet wird. -
5A stellt Aufgabenüberlagerungsdaten dar, die im Verfahren von3 verwendet werden. -
5B stellt eine weitere Draufsicht der Einrichtung von4A dar, die Anker- und Gerätepositionen veranschaulicht. -
6 stellt eine Ankerführungsaufforderung dar, die am Block355 des Verfahrens von3 erzeugt wird. -
7A stellt eine Draufsicht der Einrichtung von4 während der Durchführung des Verfahrens von3 dar. -
7B stellt die von der Client-Vorrichtung erfassten Bilddaten dar. -
8A stellt eine weitere Draufsicht der Einrichtung von4 während der Durchführung des Verfahrens von3 dar. -
8B stellt die von der Client-Vorrichtung erfassten Bilddaten dar. -
9A stellt eine weitere Draufsicht der Einrichtung von4 während der Durchführung des Verfahrens von3 dar. -
9B stellt die Darstellung von Aufgabenüberlagerungsinformationen dar, als Antwort auf die Ankunft der Client-Vorrichtung an der in9A dargestellten Position. - Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
- Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
- DETAILLIERTE BESCHREIBUNG
- Hierin offenbarte Beispiele sind auf ein Verfahren zur Navigationsunterstützung an einer mobilen Computervorrichtung zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen gerichtet, wobei das Verfahren umfasst: Empfangen einer Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz entsprechend den physikalischen Eigenschaften der Einrichtung an der Ankerposition; Empfangen einer Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; Erfassen einer Bildfolge unter Verwendung eines Bilderfassungsmoduls; Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet, basierend auf der lokalen Vorrichtungsposition und der Aufgabenposition; Präsentieren der Bildfolge, die mit den Überlagerungsdaten überlagert ist, auf einer Anzeige als Reaktion auf das Bestimmen, dass sich die Aufgabenposition in dem Sichtfeld befindet, das.
- Zusätzliche hierin offenbarte Beispiele sind auf eine mobile Computervorrichtung zur Navigationsunterstützung in einer Einrichtung mit einem globalen Bezugsrahmen gerichtet, wobei die mobile Computervorrichtung umfasst: einen Speicher, der folgendes speichert: eine Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der den physikalischen Eigenschaften der Einrichtung an der Ankerposition entspricht; und eine Aufgabendefinition, die aufweist (i) eine Aufgabenposition, die in Bezug auf die Ankerposition definiert ist, und (ii) Aufgabenüberlagerungsdaten; eine Anzeige; ein Bilderfassungsmodul, das konfiguriert ist, um eine Bildfolge aufzunehmen; einen Prozessor, der mit dem Speicher, der Anzeige und dem Bilderfassungsmodul verbunden ist, wobei der Prozessor konfiguriert ist, zum: Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet basierend auf der lokalen Vorrichtungsposition und die Aufgabenposition; und Steuern der Anzeige, um die Bildfolge, die mit den Überlagerungsdaten überlagert ist, auf einer Anzeige darzustellen, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition in dem Sichtfeld befindet.
- Weitere hierin offenbarte Beispiele richten sich an ein unterstützendes Navigationssystem zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen, wobei das System umfasst: einen Server mit einem Speicher, der folgendes speichert: eine Vielzahl von Ankerdefinitionen, die jeweils aufweisen (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz entsprechend den physikalischen Eigenschaften der Einrichtung an der Ankerposition; und eine Aufgabendefinition, die aufweist (i) eine in Bezug auf die Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; wobei der Server ferner eine Kommunikationsschnittstelle und einen Prozessor beinhaltet, der konfiguriert ist zum: Auswählen einer der Ankerdefinitionen zur Zuordnung zur Aufgabendefinition; und Übertragen der ausgewählten Ankerdefinition und der Aufgabendefinition an eine mobile Computervorrichtung, wobei die mobile Computervorrichtung konfiguriert ist, um die ausgewählte Ankerdefinition und die Aufgabendefinition zu empfangen; wobei die mobile Computervorrichtung ferner konfiguriert ist, um die Aufgabenüberlagerungsdaten auf einer Anzeige darzustellen.
-
1 stellt ein mobiles Automatisierungs- und Navigationssystem100 gemäß den Lehren dieser Offenbarung dar. Das System100 wird als in einer Einzelhandelsumgebung eingesetzt dargestellt, aber in anderen Ausführungsformen kann es in einer Vielzahl von anderen Umgebungen eingesetzt werden, einschließlich Lagerhallen, Produktionsstätten, Krankenhäusern und dergleichen. Die oben genannten Umgebungen werden hierin allgemein als Einrichtungen bezeichnet. Das System100 beinhaltet einen Server101 in Kommunikation mit mindestens einer mobilen Automatisierungsvorrichtung103 (hierin auch einfach als die Vorrichtung103 bezeichnet) und mindestens einer Client-Computervorrichtung105 (hierin auch als mobile Computervorrichtung105 bezeichnet) über Kommunikationsverbindungen107 , die im vorliegenden Beispiel als drahtlose Verbindungen dargestellt sind. Im vorliegenden Beispiel werden die Verbindungen107 von einem drahtlosen lokalen Netzwerk (WLAN) bereitgestellt, das innerhalb der Einzelhandelsumgebung von einem oder mehreren Zugangspunkten (nicht dargestellt) bereitgestellt wird. In anderen Beispielen befinden sich der Server101 , die Client-Vorrichtung105 oder beide außerhalb der Einzelhandelsumgebung, und die Verbindungen107 beinhalten daher Weitverkehrsnetze wie das Internet, mobile Netzwerke und dergleichen. Das System100 beinhaltet im vorliegenden Beispiel auch einen Anschluss108 für die Vorrichtung103 . Der Anschluss108 steht mit dem Server101 über eine Verbindung109 in Kommunikation, die im vorliegenden Beispiel eine drahtgebundene Verbindung ist. In anderen Beispielen ist die Verbindung109 jedoch eine drahtlose Verbindung. - Die Client-Computervorrichtung
105 ist in1 als mobile Computervorrichtung, wie beispielsweise ein Tablet, ein Smartphone oder dergleichen, dargestellt. In anderen Beispielen ist die Client-Vorrichtung105 als eine andere Art von mobiler Computervorrichtung implementiert, wie beispielsweise ein Laptop-Computer, ein Desktop-Computer, der auf einem mobilen Wagen montiert ist, ein dedizierter Fahrzeugcomputer (wie in einem Gabelstapler), eine intelligente Brille, ein Virtual-Reality-Headset oder dergleichen. Das System100 kann eine Vielzahl von Client-Vorrichtungen105 beinhalten, die über entsprechende Verbindungen107 in Kommunikation mit dem Server101 stehen. - Das System
100 wird im veranschaulichten Beispiel in einer Einzelhandelseinrichtung mit einer Vielzahl von Regalmodulen110-1 ,110-2 ,110-3 usw. eingesetzt (gemeinsam als Regale110 und allgemein als Regal110 bezeichnet - diese Nomenklatur wird auch für andere hierin beschriebene Elemente verwendet). Jedes Regalmodul110 trägt eine Vielzahl von Produkten112 . Jedes Regalmodul110 beinhaltet eine Regalrückseite116-1, 116-2 ,116-3 und eine Stützfläche (z.B. Stützfläche117-3 wie in1 dargestellt), die sich von der Regalrückseite116 bis zu einer Regalkante118-1 ,118-2 ,118-3 erstreckt. - Die Regalmodule
110 sind typischerweise in einer Vielzahl von Gängen angeordnet, von denen jedes eine Vielzahl von Modulen110 beinhaltet, die Ende an Ende ausgerichtet sind. Bei solchen Anordnungen weisen die Regalkanten118 in die Gänge, durch die sich Kunden in der Einzelhandelsumgebung sowie die Vorrichtung103 bewegen können. Wie aus1 ersichtlich ist, bezieht sich der hier verwendete Begriff „Regalkante“118 , der auch als Kante einer Stützfläche (z.B. die Stützflächen117 ) bezeichnet werden kann, auf eine Oberfläche, die von benachbarten Oberflächen mit unterschiedlichen Neigungswinkeln begrenzt wird. In dem in1 dargestellten Beispiel steht die Regalkante118-3 in einem Winkel von etwa neunzig Grad relativ zu jeder der Auflageflächen117-3 und der Unterseite (nicht dargestellt) der Auflagefläche117-3 . In anderen Beispielen betragen die Winkel zwischen der Regalkante118-3 und den angrenzenden Oberflächen, wie beispielsweise der Stützfläche117-3 , mehr oder weniger als neunzig Grad. - Die Vorrichtung
103 ist innerhalb der Verkaufseinrichtung eingesetzt und kommuniziert mit dem Server101 (z.B. über die Verbindung107 ), um autonom oder teilweise autonom über eine Länge119 von mindestens einem Teil der Regale110 zu navigieren. Die Vorrichtung103 ist mit einer Vielzahl von Navigations- und Datenerfassungssensoren104 ausgestattet, wie beispielsweise Bildsensoren (z.B. eine oder mehrere Digitalkameras) und Tiefensensoren (z.B. ein oder mehrere LIDAR (Light Detection and Ranging) -Sensoren, eine oder mehrere Tiefenkameras mit strukturierten Lichtmustern, wie Infrarotlicht oder dergleichen). Die Vorrichtung103 kann konfiguriert sein, um die Sensoren104 sowohl zum Navigieren zwischen den Regalen110 (z.B. gemäß den oben genannten Pfaden) als auch zum Erfassen von Regaldaten während einer solchen Navigation zu verwenden. - Der Server
101 beinhaltet eine Spezialsteuerung, wie beispielsweise einen Prozessor120 , die speziell zum Steuern und/oder Unterstützen der mobilen Automatisierungsvorrichtung103 beim Navigieren durch die Umgebung und beim Erfassen von Daten entwickelt wurde. Der Prozessor120 kann ferner konfiguriert sein, um die erfassten Daten über eine Kommunikationsschnittstelle124 zur Speicherung in einem Speicher132 und nachfolgenden Verarbeitung zu erhalten, z.B. um Objekte wie Regalware in den erfassten Daten zu erkennen und Statusinformationen entsprechend den Objekten zu erfassen. - Der Server
101 kann auch konfiguriert sein, um Statusbenachrichtigungen (z.B. Benachrichtigungen, die anzeigen, dass Produkte nicht auf Lager sind, wenig Lagerbestand haben oder verlegt wurden) an die Client-Vorrichtung105 zu senden, als Reaktion auf das Bestimmen von Produktstatusdaten. Die Statusbenachrichtigungen, auf die im Folgenden näher eingegangen wird, werden der Client-Vorrichtung105 in Form von Aufgabendefinitionen zur Verfügung gestellt und geben an, welche Aufgaben (z.B. durch einen menschlichen Bediener der Client-Vorrichtung105 ) ausgeführt werden müssen, um den Status eines oder mehrerer Objekte zu korrigieren. Der Server101 ist ferner konfiguriert, um der Client-Vorrichtung105 zusammen mit den oben genannten Aufgabendefinitionen Navigationsinformationen bereitzustellen, die die Client-Vorrichtung105 verarbeiten kann, um den Bediener zur Ausführung der Aufgabe an den geeigneten Ort innerhalb der Einrichtung zu führen (z.B. um ein Preisschild zu korrigieren, ein falsch platziertes Produkt zu verschieben und dergleichen). Navigationsinformationen können Positionen innerhalb der Einrichtung beinhalten, die gemäß einem globalen Bezugsrahmen102 (z.B. einem Koordinatensystem) definiert sind. - Der Prozessor
120 ist mit einem nichtflüchtigen computerlesbaren Speichermedium, wie beispielsweise dem oben genannten Speicher122 , verbunden, auf dem computerlesbare Anweisungen zum Ausführen verschiedener Funktionen gespeichert sind, einschließlich der Steuerung der Vorrichtung103 zum Erfassen von Regaldaten, der Nachbearbeitung der Regaldaten und dem Erzeugen und Bereitstellen von Aufgaben- und Navigationsdaten für die Client-Vorrichtung105 . Der Speicher122 beinhaltet eine Kombination aus flüchtigem (z.B. Random Access Memory oder RAM) und nichtflüchtigem Speicher (z.B. Read Only Memory oder ROM, Electrically Erasable Programmable Read Only Memory oder EEPROM, Flash Memory). Der Prozessor120 und der Speicher122 umfassen jeweils eine oder mehrere integrierte Schaltungen. In einigen Ausführungsformen ist der Prozessor120 als eine oder mehrere Zentraleinheiten (CPUs) und/oder Grafikverarbeitungseinheiten (GPUs) implementiert. - Der Server
101 beinhaltet auch die oben genannte Kommunikationsschnittstelle124 , die mit dem Prozessor120 verbunden ist. Die Kommunikationsschnittstelle124 beinhaltet geeignete Hardware (z.B. Sender, Empfänger, Netzwerkschnittstellensteuerungen und dergleichen), die es dem Server101 ermöglicht, über die Verbindungen107 und109 mit anderen Rechengeräten - insbesondere der Vorrichtung103 , der Client-Vorrichtung105 und dem Anschluss108 - zu kommunizieren. Die Verbindungen107 und109 können direkte Verbindungen oder Verbindungen sein, die ein oder mehrere Netzwerke durchqueren, einschließlich lokaler und Weitbereichsnetzwerke. Die spezifischen Komponenten der Kommunikationsschnittstelle124 werden basierend auf der Art des Netzwerks oder anderer Verbindungen ausgewählt, über die der Server101 kommunizieren soll. Im vorliegenden Beispiel wird, wie bereits erwähnt, ein drahtloses lokales Netzwerk innerhalb der Einzelhandelsumgebung durch den Einsatz eines oder mehrerer drahtloser Zugangspunkte implementiert. Die Verbindungen107 beinhalten daher entweder eines oder beides von drahtlosen Verbindungen zwischen der Vorrichtung103 und der mobilen Vorrichtung105 und den oben genannten Zugangspunkten sowie eine drahtgebundene Verbindung (z.B. eine Ethernet-basierte Verbindung) zwischen dem Server101 und dem Zugangspunkt. - Der Speicher
122 speichert eine Vielzahl von Anwendungen, von denen jede eine Vielzahl von computerlesbaren Anweisungen beinhaltet, die vom Prozessor120 ausgeführt werden können. Die Ausführung der oben genannten Anweisungen durch den Prozessor120 konfiguriert den Server101 zur Durchführung verschiedener hierin beschriebener Aktionen. Die im Speicher122 gespeicherten Anwendungen beinhalten eine Steuerungsanwendung128 , die auch als eine Reihe von logisch getrennten Anwendungen implementiert sein kann. Im Allgemeinen ist der Prozessor120 durch die Ausführung der Anwendung128 oder von Unterkomponenten davon und in Verbindung mit den anderen Komponenten des Servers101 konfiguriert, um verschiedene Funktionen im Zusammenhang mit dem Erzeugen oder anderweitigen Erhalten von Aufgabendefinitionen und Navigationsinformationen zur Bereitstellung an die Client-Vorrichtung105 zu implementieren, um einen Bediener der Client-Vorrichtung105 an die geeignete Stelle innerhalb der Einrichtung zu führen, um eine oder mehrere Aufgaben auszuführen, wie vorstehend erwähnt. Der Prozessor120 , wie er über die Ausführung der Steuerungsanwendung128 konfiguriert ist, wird hierin auch als Steuerung120 bezeichnet. Wie sich nun zeigt, kann ein Teil oder die gesamte Funktionalität, die von der nachfolgend beschriebenen Steuerung120 implementiert wird, auch von vorkonfigurierten Hardwaresteuerungen für spezielle Zwecke (z.B. einem oder mehreren FPGAs und/oder anwendungsspezifischen integrierten Schaltungen (ASICs), die für Navigationsberechnungen konfiguriert sind) ausgeführt werden, anstatt durch Ausführen der Steuerungsanwendung128 durch den Prozessor120 . - Die Client-Vorrichtung
105 beinhaltet eine Spezialsteuerung, wie beispielsweise einen Prozessor150 , die mit einem nichtflüchtigen, computerlesbaren Speichermedium, wie beispielsweise einem Speicher152 , verbunden ist. Der Speicher152 beinhaltet eine Kombination aus flüchtigem (z.B. Random Access Memory oder RAM) und nichtflüchtigem Speicher (z.B. Read Only Memory oder ROM, Electrically Erasable Programmable Read Only Memory oder EEPROM, Flash Memory). Der Prozessor150 und der Speicher152 umfassen jeweils eine oder mehrere integrierte Schaltungen. - Die Client-Vorrichtung
105 beinhaltet auch mindestens eine Eingabevorrichtung156 , die mit dem Prozessor150 verbunden ist. Die Eingabevorrichtung156 ist konfiguriert, um Eingaben zu empfangen und Daten an den Prozessor150 bereitzustellen, die für den empfangenen Eingang repräsentativ sind. Die Eingabevorrichtung156 beinhaltet eines von einem Touchscreen, einer Tastatur, einer Auslöser-Taste, einem Mikrofon und dergleichen oder eine geeignete Kombination davon. Darüber hinaus beinhaltet die Client-Vorrichtung105 eine Kamera158 mit einem geeigneten Bildsensor oder einer Kombination von Bildsensoren. Die Kamera158 ist konfiguriert, um Bilder (z.B. Einzelframes oder Videoströme einschließlich Bildfolgen) aufzunehmen zur Weitergabe an den Prozessor150 . - Die Client-Vorrichtung
105 beinhaltet auch eine Anzeige160 (z.B. einen Flachbildschirm, der in den oben genannten Touchscreen integriert ist), die mit dem Prozessor150 verbunden ist und konfiguriert ist, um Daten unter der Kontrolle des Prozessors150 darzustellen. Die Client-Vorrichtung105 kann neben der Anzeige160 auch eine oder mehrere Ausgabevorrichtungen beinhalten, wie beispielsweise einen Lautsprecher, eine Benachrichtigungs-LED und dergleichen (nicht dargestellt). - Die Client-Vorrichtung
105 beinhaltet auch eine Kommunikationsschnittstelle162 , die mit dem Prozessor150 verbunden ist. Die Kommunikationsschnittstelle162 beinhaltet jede geeignete Hardware (z.B. Sender, Empfänger, Netzwerkschnittstellensteuerungen und dergleichen), die es der Client-Vorrichtung105 ermöglicht, mit anderen Rechengeräten über drahtgebundene und/oder drahtlose Verbindungen (z.B. über lokale oder Weitbereichsnetzwerke) zu kommunizieren. Die spezifischen Komponenten der Kommunikationsschnittstelle162 werden basierend auf dem/den Typ(en) des Netzwerks / der Netzwerke oder anderer Verbindungen ausgewählt, über die die Client-Vorrichtung105 kommunizieren soll. - Weiterhin beinhaltet die Client-Vorrichtung
105 einen Bewegungssensor164 , wie beispielsweise eine Trägheitsmesseinheit (IMU) mit einem oder mehreren Beschleunigungssensoren, einem oder mehreren Gyroskopen und/oder einem oder mehreren Magnetometern. Der Bewegungssensor164 ist konfiguriert, um Daten zu erzeugen, die eine erfasste Bewegung der Client-Vorrichtung105 anzeigen und die Daten dem Prozessor150 zur Verfügung zu stellen, beispielsweise um es dem Prozessor150 zu ermöglichen, eine oder mehrere Lokalisierungen der Client-Vorrichtung105 erhalten (d.h. in Bezug auf den Bezugsrahmen102 oder einen lokalen Bezugsrahmen, wie im Folgenden näher erläutert wird). - Der Speicher
152 speichert computerlesbare Anweisungen zur Ausführung durch den Prozessor150 . Insbesondere speichert der Speicher152 eine Navigationsunterstützungsanwendung154 (auch einfach als Anwendung154 bezeichnet), die, wenn sie vom Prozessor150 ausgeführt wird, den Prozessor150 konfiguriert, um verschiedene Funktionen auszuführen, die im Folgenden näher erläutert werden und sich auf den Empfang und die Präsentation von Aufgaben- und Navigationsinformationen beziehen. Die Anwendung150 kann in anderen Beispielen auch als eine Reihe von verschiedenen Anwendungen implementiert werden. - Der Prozessor
150 kann, wenn er durch die Ausführung der Anwendung154 so konfiguriert ist, auch als Navigationsunterstützungssteuerung150 bezeichnet werden. Fachleute werden verstehen, dass die vom Prozessor150 durch die Ausführung der Anwendung154 implementierte Funktionalität auch durch eine oder mehrere speziell entwickelte Hardware- und Firmwarekomponenten, wie FPGAs, ASICs und dergleichen in anderen Ausführungsformen, implementiert werden kann. - Mit Bezug zu den
2A und2B wird die mobile Automatisierungsvorrichtung103 näher dargestellt. Die Vorrichtung103 beinhaltet ein Gestell201 mit einem Lokomotivmechanismus203 (z.B. ein oder mehrere Elektromotoren, die Räder, Schienen oder dergleichen antreiben). Die Vorrichtung103 beinhaltet ferner einen auf dem Gestell201 abgestützten Sensormast205 , der sich im vorliegenden Beispiel vom Gestell201 nach oben (z.B. im Wesentlichen vertikal) erstreckt. Der Mast205 trägt die bereits erwähnten Sensoren104 . Insbesondere beinhalten die Sensoren104 mindestens einen Bildsensor207 , wie beispielsweise eine Digitalkamera, sowie mindestens einen Tiefensensor209 , wie beispielsweise eine 3D-Digitalkamera. Die Vorrichtung103 beinhaltet auch zusätzliche Tiefensensoren, wie beispielsweise die LIDAR-Sensoren211 . In anderen Beispielen beinhaltet die Vorrichtung103 zusätzliche Sensoren, wie beispielsweise einen oder mehrere RFID-Leser, Temperatursensoren und dergleichen. - Im vorliegenden Beispiel trägt der Mast
205 sieben Digitalkameras207-1 bis207-7 und zwei LIDAR-Sensoren211-1 und211-2 . Der Mast205 trägt auch eine Vielzahl von Beleuchtungsanordnungen213 , die konfiguriert sind, um die Sichtfelder der jeweiligen Kameras207 zu beleuchten. Das heißt, die Beleuchtungsanordnung213-1 beleuchtet das Sichtfeld der Kamera207-1 , usw. Die Sensoren207 und211 sind auf dem Mast205 so ausgerichtet, dass die Sichtfelder jedes Sensors einem Regal110 zugewandt sind, entlang dessen Länge119 sich die Vorrichtung103 bewegt. Die Vorrichtung103 ist konfiguriert, um eine Position der Vorrichtung103 (z.B. eine Position der Mitte des Gestells201 ) im globalen Bezugsrahmen102 zu verfolgen, der zuvor in der Einzelhandelseinrichtung festgelegt wurde, so dass von der mobilen Automatisierungsvorrichtung103 erfasste Daten auf den gemeinsamen Bezugsrahmen registriert werden können. Die oben genannte Position der Vorrichtung103 innerhalb des Bezugsrahmens102 , auch als Lokalisierung bezeichnet, wird bei der Erzeugung von Pfaden zur Ausführung durch die Vorrichtung103 verwendet. - Die mobile Automatisierungsvorrichtung
103 beinhaltet eine spezielle Navigationssteuerung, wie beispielsweise einen Prozessor220 , wie in2B dargestellt, der mit einem nichtflüchtigen, computerlesbaren Speichermedium, wie beispielsweise einem Speicher222 , verbunden ist. Der Speicher222 beinhaltet eine Kombination aus flüchtigem (z.B. Random Access Memory oder RAM) und nichtflüchtigem Speicher (z.B. Read Only Memory oder ROM, Electrically Erasable Programmable Read Only Memory oder EEPROM, Flash Memory). Der Prozessor220 und der Speicher222 umfassen jeweils eine oder mehrere integrierte Schaltungen. Der Speicher222 speichert computerlesbare Anweisungen zur Ausführung durch den Prozessor220 . Insbesondere speichert der Speicher222 eine Navigationsanwendung228 , die, wenn sie durch den Prozessor220 ausgeführt wird, den Prozessor220 konfiguriert, um verschiedene, im Folgenden näher erläuterte und mit der Navigation der Vorrichtung103 zusammenhängende Funktionen auszuführen (z.B. durch Steuern des Lokomotivmechanismus203 ). Die Anwendung228 kann in anderen Beispielen auch als eine Reihe von verschiedenen Anwendungen implementiert werden. - Der Prozessor
220 kann, wenn er durch die Ausführung der Anwendung228 so konfiguriert ist, auch als Navigationssteuerung220 bezeichnet werden. Fachleute werden verstehen, dass die vom Prozessor220 durch die Ausführung der Anwendung228 implementierte Funktionalität auch durch eine oder mehrere speziell ausgelegte Hardware- und Firmwarekomponenten wie FPGAs, ASICs und dergleichen in anderen Ausführungsformen implementiert werden kann. - Der Speicher
222 kann auch ein Archiv232 speichern, das beispielsweise eine oder mehrere Karten der Umgebung enthält, in der die Vorrichtung103 arbeitet, zur Verwendung während der Ausführung der Anwendung228 . Die Vorrichtung103 kann mit dem Server101 kommunizieren, um beispielsweise Anweisungen zum Navigieren zu bestimmten Orten zu erhalten und Datenerfassungsvorgänge einzuleiten, über eine Kommunikationsschnittstelle224 über die in1 dargestellte Verbindung107 . Die Kommunikationsschnittstelle224 ermöglicht es der Vorrichtung103 auch, mit dem Server101 über den Anschluss108 und die Verbindung109 zu kommunizieren. - Die Funktionalität der Anwendungen
128 und154 wird nun näher beschrieben. Insbesondere wird die Erzeugung von Aufgaben- und Navigationsinformationen für die Bereitstellung auf der Client-Vorrichtung105 vom Server101 sowie die Verarbeitung der oben genannten Informationen auf der Client-Vorrichtung105 beschrieben. - In
3 wird ein Verfahren300 zum Erzeugen und Bereitstellen von Navigationsassistenzinformationen dargestellt. Wie in3 dargestellt, werden bestimmte Blöcke des Verfahrens300 vom Server101 ausgeführt, während andere Blöcke des Verfahrens300 von der Client-Vorrichtung105 ausgeführt werden. In weiteren Ausführungsformen kann der Server101 konfiguriert sein, um bestimmte in3 dargestellte Blöcke von der Client-Vorrichtung105 ausführen zu lassen. In noch weiteren Ausführungsformen kann die Client-Vorrichtung105 konfiguriert sein, um bestimmte in3 dargestellte Blöcke vom Server101 ausführen zu lassen. - Bei Block
305 ist der Server101 konfiguriert, um eine oder mehrere Ankerdefinitionen zur Speicherung im Speicher122 (z.B. im Archiv132 ) zu erhalten. Ankerdefinitionen können auf dem Server101 während der ersten Bereitstellung des Systems100 in der Einrichtung abgerufen werden. Im Allgemeinen beinhaltet eine Ankerdefinition Daten, die eine Position innerhalb der Einrichtung definieren. Die Position entspricht in der vorliegenden Diskussion einer Position gemäß dem globalen Bezugsrahmen102 sowie einer Orientierung (z.B. Gier-, Neigungs- und Rollwinkel an der oben genannten Position). Jede Ankerdefinition beinhaltet auch einen Merkmalssatz, der den physikalischen Eigenschaften der Einrichtung an der oben genannten Position entspricht. Mit anderen Worten, eine Ankerdefinition definiert verschiedene Merkmale der Einrichtung, wenn sie von der Ankerposition aus betrachtet wird. Wie im Folgenden erläutert, ermöglicht es die Verwendung einer Ankerdefinition daher anderen Rechengeräten, einschließlich der Client-Vorrichtung105 , mindestens einen Teil des in der Ankerdefinition enthaltenen Merkmalssatzes zu erkennen. Die Client-Vorrichtung105 kann dadurch eine aktuelle Position der Client-Vorrichtung105 sowohl global (d.h. gemäß dem Bezugsrahmen102 ) als auch lokal, bezogen auf die Ankerposition, bestimmen. - Ankerdefinitionen können bei Block
305 auf verschiedene Weise erhalten werden. In einigen Beispielen wird jede Ankerdefinition von einer mobilen Datenerfassungsvorrichtung, wie beispielsweise einer Client-Vorrichtung105 oder der Vorrichtung103 , erzeugt. Insbesondere wird die mobile Datenerfassungsvorrichtung (manuell oder über eine autonome oder teilautonome Navigation) an einer bekannten Position gemäß dem Bezugsrahmen102 platziert. Die bekannte Position entspricht der oben genannten Ankerposition. Die mobile Datenerfassungsvorrichtung ist dann konfiguriert, um Daten aus der Ankerposition zu erfassen. Die Art der erfassten Daten ist nicht eigens begrenzt. Im vorliegenden Beispiel beinhalten die erfassten Daten Bilddaten, die physikalische Strukturen innerhalb der Einrichtung um die Ankerposition herum darstellen. Das heißt, die mobile Datenerfassungsvorrichtung beinhaltet einen Bildsensor, der konfiguriert ist, um einen oder mehrere Bildframes aus der ausgewählten Ankerposition zu erfassen. Die für die Erstellung einer Ankerdefinition erfassten Daten können auch Tiefenscandaten beinhalten, die beispielsweise mittles Lidar oder Tiefenkamera erfasst werden. In weiteren Beispielen können die erfassten Daten Näherungsindikatoren wie drahtlose Zugangspunkt-Signaturen (z.B. ein oder mehrere empfangene Signalstärkeindikatoren (RSSI) und Umlaufzeiten (RTT) für jeden von einer Vielzahl von Zugangspunkten, die von der Ankerposition aus erfasst werden) und/oder Bakensignaturen (z.B. ein oder mehrere Identifikatoren von Baken, die von der Ankerposition aus erfasst werden können, wie Bluetooth Low Energy (BLE)-Bakenidentifikatoren, visuelle Lichtkommunikation (VLC)-Senderidentifikatoren und dergleichen) beinhalten. - Nach der Datenerfassung wie vorstehend beschrieben, wird aus den erfassten Daten ein Merkmalssatz extrahiert, der (zusammen mit der Ankerposition) als Ankerdefinition gespeichert wird. Es können eine Vielzahl von Merkmalen extrahiert werden, um den Merkmalssatz zu generieren. Bei den erfassten Bilddaten können die Merkmale eine beliebige Kombination von geometrischen Konstrukten wie Linien, Ebenen und Polygonen beinhalten, die durch die Ausführung geeigneter Kanten- und Ebenenerkennungsoperationen (z.B. Stichprobenkonsens (random sample consens - RANSAC), Sobel-Filter und dergleichen) extrahiert werden. Aus Bilddaten extrahierte Merkmale können auch Farb- und/oder Helligkeitshistogramme beinhalten. Die Merkmalsextraktion kann an der oben genannten Erfassungsvorrichtung oder am Server
101 nach Erhalt der erfassten Daten von der Erfassungsvorrichtung durchgeführt werden. Nach der Datenerfassung und Merkmalsextraktion wird der Merkmalssatz zusammen mit der globalen Ankerposition als Ankerdefinition im Speicher122 (z.B. im Archiv132 ) gespeichert. - Die
4A und4B veranschaulichen die Erzeugung einer exemplarischen Ankerdefinition. Insbesondere veranschaulicht4A eine Draufsicht einer Einrichtung400 , wie beispielsweise einer Einzelhandelseinrichtung, die eine Vielzahl von Reihen404-1 ,404-2 ,404-3 ,404-4 ,404-5 ,404-6 und404-7 von Regalmodulen enthält, die Gänge bilden. Wie in4A zu sehen ist, belegt jede Zeile404 einen Bereich der Einrichtung400 , der als Satz von Koordinaten im globalen Bezugsrahmen102 ausgedrückt werden kann. Eine Ankerposition408 ist auch in4A dargestellt, definiert durch eine Position (z.B. die Mitte des kreisförmigen Elements der Ankerposition408 ) und eine Ausrichtung (z.B. die durch den Pfeil der Ankerposition408 angezeigte Richtung). -
4B veranschaulicht die Bilddaten412 , die von einer mobilen Datenerfassungsvorrichtung (z.B. der Vorrichtung103 oder der Client-Vorrichtung105 ) während der Erstellung der Ankerdefinition erfasst wurden. Insbesondere beinhalten die Bilddaten412 einen von der Ankerposition408 aufgenommenen Bildframe, der eine Gangendstelle darstellt. Die Endstelle beinhaltet die Regale416-1 und416-2 , die die Lageretiketten418 tragen, sowie einen Steckplattenbereich, der Etiketten420 trägt (z.B. am Ende der Steckplatte zum Tragen von Produkten montiert). Darüber hinaus beinhaltet die Endstelle einen Gangidentifizierer, wie beispielsweise ein Schild424 , das auf der Endstelle montiert ist. - Die Datenerfassungsvorrichtung oder der Server
101 sind konfiguriert, um Merkmale aus den Bilddaten412 zu extrahieren. Im vorliegenden Beispiel wird aus den Bilddaten412 ein Merkmalssatz mit den drei Merkmalen428-1 ,428-2 und428-3 extrahiert zur Speicherung als Ankerdefinition (zusammen mit der Ankerposition408 ). Wie in4A veranschaulicht, beinhaltet das Merkmal428-1 die Kanten des Gangidentifiziererschildes424 sowie eine Textzeichenfolge, die den Gangidentifizierer selbst definiert. Das Merkmal428-1 definiert die relativen Positionen und Abmessungen der Kanten und der Textzeichenfolge. Das Merkmal428-2 beinhaltet Kanten, die durch ihre Abmessungen und relativen Positionen definiert sind, von Etiketten420 , die von der vorstehend genannten Steckplatte getragen werden. Die Merkmale482-3 beinhalten unter anderem die Kanten der Regale416-1 und416-2 , die durch ihre Abmessungen und relativen Positionen definiert sind. Der Merkmalssatz kann auch die relativen Positionen der Merkmale428 relativ zueinander speichern (z.B. eine Position der Mitte des Merkmals428-1 relativ zur Mitte des Merkmals428-3 ). - In einem weiteren Beispiel kann eine Ankerdefinition erzeugt werden, indem ein oder mehrere Bilder aufgenommen werden, wie in
4B an der Vorrichtung105 gezeigt. Die Vorrichtung105 kann ferner konfiguriert sein, um eine erste Ebenendefinition entsprechend einem Boden der Einrichtung und eine zweite Ebenendefinition (auch als Regalebene bezeichnet) basierend auf einem oder beiden der Etiketten420 und den Regalkanten416 zu erfassen. Wie sich nun zeigen wird, sind die Bodenebene und die wie oben beschrieben erfasste Regalebene im Wesentlichen orthogonal zueinander. Darüber hinaus kann die Vorrichtung105 konfiguriert sein, um ein Kennzeichen, wie beispielsweise einen Barcode, von mindestens einem der Etiketten420 zu erfassen und zu dekodieren. Die Position des Etiketts420 , von dem der Barcode erfasst wurde, relativ zur Bodenebene und der Regalebene, kann dem Server mitgeteilt werden, wo eine globale Position für den Barcode gespeichert ist (z.B. in einem Planogramm). Somit wird dem Anker basierend auf der vordefinierten Barcodeposition eine globale Ankerposition zugeordnet, und die Ankerdefinition beinhaltet die Definition der Boden- und Regalebenen relativ zur Barcodeposition. Eine mobile Vorrichtung (z.B. die Vorrichtung105 , die Vorrichtung103 oder dergleichen) ist daher in der Lage, ihre aktuelle globale Position und Orientierung durch Erfassen der Ebenen und Erfassen des Barcodes zu bestimmen. - Aus zusammen mit den Bilddaten
412 erfassten Daten können auch eine Vielzahl anderer Merkmale extrahiert werden. Wie vorstehend erwähnt, können solche Merkmale eine Liste von RSSI- und/oder RTT-Werten des Zugangspunkts, eine Liste von Bakenidentifizierern und dergleichen beinhalten. - Der obige Vorgang kann für eine beliebige Anzahl von Ankerdefinitionen wiederholt werden. In Einrichtungen, die Regalreihen beinhalten, wie beispielsweise die in
4A dargestellten Reihen404 , kann der Server101 mit mindestens einer Ankerdefinition pro Reihe404 versehen werden. So können beispielsweise für jede Reihe404 zwei Ankerdefinitionen erstellt werden, die jeweils einer der beiden Endstellen der Reihe404 entsprechen. In anderen Beispielen können kleinere oder größere Anzahlen von Ankerdefinitionen für die Bereitstellung auf dem Server101 erzeugt werden. Im Allgemeinen kann eine größere Anzahl von Ankerdefinitionen die Genauigkeit der vom Server101 und der Client-Vorrichtung105 ausgeführten unterstützenden Navigationsfunktionen verbessern, wie nachstehend beschrieben, und zwar auf Kosten der erhöhten Datenspeicheranforderungen und der Rechenlast. Umgekehrt kann eine geringere Anzahl von Ankerdefinitionen die rechnerische Belastung des Servers101 und/oder der Client-Vorrichtung105 reduzieren, während die Genauigkeit der unterstützenden Navigationsfunktionen potenziell reduziert wird. - Mit Bezug zu
3 ist der Server101 bei Block310 konfiguriert, um eine oder mehrere Aufgabendefinitionen zu erhalten. Aufgabendefinitionen enthalten Daten, die Aufgaben definieren, die innerhalb der Einrichtung auszuführen sind, z.B. um die vom Server101 bestimmten oben genannten Statusinformationen in Bezug auf Produkte oder andere Objekte in der Einrichtung zu korrigieren oder anderweitig zu aktualisieren. Die Aufgabendefinitionen können daher bei Block310 durch Erzeugen der Aufgabendefinitionen auf dem Server101 selbst erhalten werden. In anderen Beispielen können eine oder mehrere Aufgabendefinitionen auf dem Server101 bei Block310 empfangen werden, beispielsweise von der Client-Vorrichtung105 . So kann beispielsweise ein Bediener der Client-Vorrichtung105 die Client-Vorrichtung105 bedienen, um Produktstatusinformationen an den Server101 zu übertragen (z.B. um anzuzeigen, dass ein Produkt an einem bestimmten Ort nicht mehr auf Lager ist und eine Wiederauffüllungsaufgabe erfordert). - Jede Aufgabendefinition beinhaltet eine Aufgabenposition und Aufgabenüberlagerungsdaten (die auch als Aufgabeninhalt bezeichnet werden können). Die Aufgabenüberlagerungsdaten, wie im Folgenden näher erläutert, werden anschließend auf der Client-Vorrichtung
105 präsentiert, um einen Bediener der Client-Vorrichtung105 bei der Ausführung der entsprechenden Aufgabe zu unterstützen. Die Aufgabenüberlagerungsdaten können daher einen Produktidentifizierer, einen Aufgabenidentifizierer (z.B. eine Textzeichenfolge, die angibt, welche Aktion oder Abfolge von Aktionen in Bezug auf den Produktidentifizierer durchgeführt werden soll) und dergleichen beinhalten. Die Aufgabenposition definiert einen Ort innerhalb der Einrichtung, an dem die durch die Aufgabenüberlagerungsdaten angezeigte Aufgabe ausgeführt werden soll. Im vorliegenden Beispiel ist der Server101 konfiguriert, um Aufgabendefinitionen mit globalen Aufgabenpositionen zu erzeugen, die die Position der Aufgabe gemäß dem globalen Bezugsrahmen102 definieren. Wie im Folgenden zu sehen sein wird, werden die Aufgabendefinitionen jedoch anschließend aktualisiert, um lokale Aufgabenpositionen zu beinhalten, die die Position der Aufgabe relativ zu einer Ankerposition (z.B. der Ankerposition408 ) definieren. - Um zu
5A zu kommen, werden exemplarische Aufgabenüberlagerungsdaten500 für eine vom Server101 bei Block310 erzeugte Aufgabe dargestellt, als Reaktion auf das Erkennen eines falschen Preisschildes in der Einrichtung400 (z.B. aus Daten, die von der mobilen Automatisierungsvorrichtung103 erfasst wurden). Die Aufgabenüberlagerungsdaten500 beinhalten ein Überlagerungstemplate502 mit den Feldern504 ,506 und508 . Das Template502 kann für jede Aufgabendefinition verwendet werden, die vom Server101 erzeugt wird. In anderen Beispielen müssen die Aufgabenüberlagerungsdaten 500jedoch nicht auf einer solchen geteilten Vorlage basieren. - Die Aufgabenüberlagerungsdaten
500 beinhalten auch Inhalte, die mit den Feldern504 ,506 und508 korrespondieren. Insbesondere beinhalten die Aufgabenüberlagerungsdaten500 ein Bild514 , das einen Teil eines Regals darstellt, in dem die Aufgabe ausgeführt werden soll. Die Aufgabenüberlagerungsdaten500 beinhalten auch einen Aufgabenbeschreiber, der im dargestellten Beispiel anzeigt, dass ein falsches Preisschild erkannt wurde (z.B. wie in Bild514 markiert) und ersetzt werden muss. Darüber hinaus beinhalten die Aufgabenüberlagerungsdaten500 einen Produktidentifizierer518 , wie beispielsweise einen Namen, einen Lagerbestandeinheit (Stock-keeping Unit - SKU) -Identifizierer oder dergleichen. Das Bild514 , der Aufgabenbeschreiber516 und der Produktidentifizierer518 sind jeweils für das Wiedergeben innerhalb der Felder504 ,506 und508 auf der Client-Vorrichtung105 konfiguriert, wie im Folgenden erläutert wird. Die Aufgabendefinition kann verschiedene andere Überlagerungsdaten in anderen Beispielen beinhalten, einschließlich Anweisungen (z.B. Text, Audio, Video oder Multimedia) zur Ausführung der Aufgabe. - Um zu
5B zu kommen, wird eine Aufgabe520 , die durch die Überlagerungsdaten500 definiert ist, innerhalb der Einrichtung400 dargestellt. Der Server101 ist konfiguriert, um eine Aufgabenposition gemäß dem Bezugsrahmen102 bei Block310 zu erzeugen, wie durch die gestrichelte Linie524 angezeigt (z.B. dargestellt durch einen Satz von Koordinaten im Bezugsrahmen102 ). Der Server101 ist jedoch auch konfiguriert, um in der Aufgabendefinition eine lokale Aufgabenposition zu speichern, die die Position der Aufgabe relativ zu einer Ankerposition und weniger zum Bezugsrahmen102 anzeigt. - Mit Bezug zu
3 ist der Server101 bei Block315 konfiguriert, um jede Aufgabendefinition, die bei Block310 erhalten wurde, mit mindestens einer der Ankerdefinitionen, die bei Block305 erhalten wurden, zu verknüpfen. Der Server101 ist konfiguriert, um basierend auf der globalen Position der Aufgabendefinition (z.B. der Position524 der Aufgabe520 in5B) eine der Ankerdefinitionen auszuwählen. Nachdem die Ankerdefinition ausgewählt wurde, ist der Server101 konfiguriert, um eine lokale Aufgabenposition der Aufgabe relativ zur Ankerposition zu bestimmen, basierend auf den globalen Positionen der Aufgabe und der ausgewählten Ankerdefinition. - Unter erneuter Bezugnahme auf
5B ist eine zweite Ankerposition528 dargestellt, die einer Endstelle der Reihe404 benachbart zur Endkappe entsprechend der Ankerposition408 entspricht. Bei Block315 ist der Server101 konfiguriert, um eine der Ankerpositionen408 und528 auszuwählen (genauer gesagt, eine der Ankerdefinitionen mit den Ankerpositionen408 und528 ). So kann beispielsweise der Server101 konfiguriert sein, um die Ankerdefinition auszuwählen, deren Ankerposition der globalen Position der Aufgabe520 am nächsten liegt. In anderen Beispielen kann der Server101 konfiguriert sein, um ein oder mehrere zusätzliche Kriterien auf die Ankerauswahl bei Block315 anzuwenden. Wenn beispielsweise die Einrichtung400 Reihen404 von Regalen enthält, wie im veranschaulichten Beispiel, kann der Server101 konfiguriert sein, um nur aus Ankern auszuwählen, die der Reihe zugeordnet sind, in der sich die Aufgabe520 befindet. Im veranschaulichten Beispiel wählt der Server101 die Ankerdefinition mit der Ankerposition408 für die Zuordnung zur Aufgabe520 aus. Der Server101 bestimmt dann die lokale Aufgabenposition532 , die die Position der Aufgabe520 relativ zur Ankerposition408 und weniger relativ zum Bezugsrahmen102 definieret. Die Aufgabendefinition wird mit der lokalen Aufgabenposition532 (die globale Aufgabenposition kann in der Aufgabendefinition beibehalten, aber auch verworfen werden) und einem Identifizierer der entsprechenden Ankerdefinition aktualisiert. In anderen Beispielen kann eine Aufgabe mit mehr als einer Ankerdefinition verknüpft sein. Wenn beispielsweise bei Block305 Ankerdefinitionen erhalten werden, die beiden Endstellen der Reihen404 entsprechen, kann jede Aufgabe, die entlang einer bestimmten Reihe404 erzeugt wird, mit beiden entsprechenden Ankerdefinitionen verknüpft werden. Das heißt, die Aufgabendefinition kann mit zwei lokalen Aufgabenpositionen und Ankerdefinitionsidentifizierern aktualisiert werden. - Unter erneuter Bezugnahme auf
3 ist bei Block320 die Client-Vorrichtung105 konfiguriert, um eine globale Position der Client-Vorrichtung105 zu aktualisieren. Die globale Position der Client-Vorrichtung105 im Bezugsrahmen102 kann entsprechend einer Vielzahl geeigneter Lokalisierungsmechanismen aktualisiert werden. So kann beispielsweise die Client-Vorrichtung105 konfiguriert sein, um Bewegungsdaten vom Bewegungssensor164 als Eingang für einen Kalman-Filter oder einen anderen geeigneten Lokalisierungsalgorithmus bereitzustellen. Die Client-Vorrichtung105 kann in einigen Beispielen auch konfiguriert sein, um Näherungsdaten wie RSSI-Werte und/oder RTT-Werte, die in Verbindung mit drahtlosen Zugangspunkten, Baken oder dergleichen erkannt werden, zu verwenden, um die globale Position bei Block320 zu aktualisieren. Die Aktualisierung der Position der Vorrichtung105 kann auch durch Erkennen eines Ankers erfolgen, wenn die Vorrichtung105 zuvor mit einer oder mehreren Ankerdefinitionen versehen wurde. - Bei Block
325 ist die Client-Vorrichtung105 konfiguriert, um zu bestimmen, ob die globale Position von Block320 an den Server101 gemeldet werden soll. So kann beispielsweise die Client-Vorrichtung105 konfiguriert sein, um ihre globale Position periodisch (z.B. alle zehn Sekunden) an den Server101 zu melden, und die Bestimmung bei Block325 kann eine Bestimmung darüber sein, ob die konfigurierte Zeitspanne seit dem vorherigen Positionsbericht an den Server101 verstrichen ist. Wenn die Bestimmung bei Block325 negativ ist, aktualisiert die Client-Vorrichtung105 weiterhin die globale Position bei Block320 . - Wenn die Bestimmung bei Block
325 positiv ist, sendet die Client-Vorrichtung105 bei Block330 ihre aktuelle globale Position (d.h. im Bezugsrahmen102 ) an den Server101 . Die Client-Vorrichtung105 aktualisiert typischerweise weiterhin die globale Position und berichtet periodisch die globale Position parallel zum Rest des Verfahrens300 . - Bei Block
335 ist der Server101 konfiguriert, um die globale Position der Client-Vorrichtung105 zu empfangen. Bei Block340 ist der Server101 konfiguriert, um zu bestimmen, ob eine oder mehrere Aufgaben der Client-Vorrichtung105 zugewiesen werden sollen. Im vorliegenden Beispiel basiert die Bestimmung bei Block340 auf der globalen Position der Client-Vorrichtung105 . Insbesondere ist der Server101 konfiguriert, um der Client-Vorrichtung105 eine Aufgabe zuzuweisen, basierend auf der Nähe zwischen der aktuellen (d.h. zuletzt gemeldeten) Position der Client-Vorrichtung105 und der globalen Position der Aufgabe. In Beispielen, in denen die globale Aufgabenposition nach der Ausführung von Block315 nicht beibehalten wird, ist der Server101 konfiguriert, um Aufgaben den Client-Vorrichtungen105 zuzuweisen, basierend auf der Nähe zwischen der Position der Client-Vorrichtung105 und der Ankerposition (beide im Bezugsrahmen102 ). - In anderen Beispielen kann die Bestimmung bei Block
340 neben der Position der Client-Vorrichtung105 auch auf anderen Faktoren basieren, und in einigen Beispielen ist die Bestimmung bei Block340 unabhängig von der Position der Client-Vorrichtung105 . So kann beispielsweise der Server101 konfiguriert sein, um den Client-Vorrichtungen105 Aufgaben zuzuweisen, basierend darauf, ob jeder Client-Vorrichtung105 eine Aufgabe zugewiesen wurde oder nicht, unabhängig von der Position der Client-Vorrichtung105 . - Weitere Beispiele für Kriterien, die vom Server
101 bei Block340 bewertet werden, umfassen die Fähigkeiten der Client-Vorrichtung105 oder eines zugehörigen Bedieners (z.B. identifiziert durch Anmeldeinformationen, die an der Eingabevorrichtung156 bereitgestellt werden). So kann beispielsweise der Server101 eine Liste der Client-Vorrichtungen105 und der zugehörigen Eingabe- und Ausgabefähigkeiten führen, wie z.B. die Angabe, ob eine Client-Vorrichtung105 einen Etikettendrucker enthält, der für die Durchführung einer Preisetiketten-Korrekturaufgabe geeignet ist. Somit können der Aufgabenbeschreiber und die Fähigkeiten der Client-Vorrichtung zusätzlich oder anstelle der Position der Client-Vorrichtung vom Server101 bei Block340 bewertet werden. - Wenn die Bestimmung bei Block
340 negativ ist, ist der Server101 konfiguriert, um weitere Positionsberichte von der Client-Vorrichtung105 abzuwarten und kann auch zusätzliche Aufgabendefinitionen erhalten (z.B. als Reaktion auf weitere Datenerfassungsaktivitäten durch die mobile Automatisierungsvorrichtung103 ). Wenn die Bestimmung bei Block340 positiv ist, ist der Server101 jedoch bei Block345 konfiguriert, um mindestens eine der bei Block310 erhaltenen Aufgabendefinitionen gemäß einem der oben genannten Kriterien auszuwählen und sowohl die Aufgabendefinition als auch die zugehörige Ankerdefinition (d.h. die der Aufgabendefinition bei Block315 zugeordnete Ankerdefinition) an die Client-Vorrichtung105 zu senden. Somit ist der Server101 bei Block345 konfiguriert, um mindestens eine Aufgabendefinition, die die Aufgabenüberlagerungsdaten und die lokale Aufgabenposition enthält, sowie die Ankerdefinition, gemäß der die lokale Aufgabenposition definiert ist, an die Client-Vorrichtung105 zu übertragen. - Bei Block
350 ist die Client-Vorrichtung105 konfiguriert, um die Aufgaben- und Ankerdefinitionen im Speicher152 zu empfangen und zu speichern. Die Client-Vorrichtung105 ist auch konfiguriert, um bei Block350 einen unterstützenden Navigationsprozess einzuleiten. Im vorliegenden Beispiel ist die Client-Vorrichtung105 konfiguriert, um eine Bildfolge mit der Kamera158 aufzunehmen, als Reaktion auf den Empfang der Aufgaben- und Ankerdefinitionen. Die Bildfolge wird von der Client-Vorrichtung105 verwendet, um den Merkmalssatz zu erfassen, der mit der bei Block350 empfangenen Ankerdefinition korrespondiert. - Bei Block
355 ist die Client-Vorrichtung105 konfiguriert, um eine Ankerführungsaufforderung z.B. auf der Anzeige160 darzustellen (obwohl die Führungsaufforderungen auch über andere Ausgabevorrichtungen, wie z.B. akustische Aufforderungen über einen Lautsprecher, dargestellt werden können). Die bei Block355 dargestellte Führungsaufforderung zeigt die Richtung und optional den Abstand von der aktuellen globalen Position der Client-Vorrichtung105 zur globalen Position der bei Block350 empfangenen Ankerdefinition an. Unter kurzer Bezugnahme auf5B wird eine aktuelle Position536-1 der Client-Vorrichtung105 dargestellt. Mit Bezug zu6 wird eine Ankerführungsaufforderung600 angezeigt, wie sie auf der Anzeige160 der Client-Vorrichtung105 dargestellt wird. Insbesondere stellt die Client-Vorrichtung105 nicht nur die Ankerführungsaufforderung600 , sondern auch die Bildfolge dar, deren Aufnahme bei Block350 eingeleitet wurde. Somit präsentiert die Anzeige160 auch ein Bild604 aus der Bildfolge, das das aktuelle Sichtfeld der Kamera158 darstellt. Wie nun ersichtlich, zeigt die Ankerführungsaufforderung600 die Bewegungsrichtung an, die erforderlich ist, um an der Ankerposition408 (die sich angrenzend an die Endstelle der Reihe404 befindet) anzukommen. - Bei Block
360 ist die Client-Vorrichtung105 konfiguriert, um zu bestimmen, ob der Merkmalssatz der bei Block350 empfangenen Ankerdefinition in einer oder mehreren der Bildfolgen, die mit der Kamera158 aufgenommen wurden, erkannt wurde. Das heißt, die Client-Vorrichtung105 ist konfiguriert, um für jede der Bildfolgen Kandidatenmerkmale wie Ebenen, Linien, Punkte und dergleichen zu identifizieren und zu bestimmen, ob die identifizierten Kandidatenmerkmale mit einem der Merkmale im Merkmalssatz der bei Block350 empfangenen Ankerdefinition übereinstimmen. - In der vorliegenden exemplarischen Durchführung des Verfahrens
300 wird davon ausgegangen, dass die Merkmale428-1 ,428-2 und428-3 , wie in4B dargestellt, in dem in6 dargestellten Bild604 nicht erkannt werden. Die Client-Vorrichtung105 kehrt daher zu Block355 zurück und präsentiert weiterhin die Ankerführungsaufforderung600 , wobei die Orientierung der Ankerführungsaufforderung gemäß der globalen Position der Client-Vorrichtung105 in Bezug auf die globale Ankerposition408 aktualisiert wird. Mit Bezug zu7A wird eine aktualisierte Position536a der Client-Vorrichtung105 angrenzend an die Endstelle der Reihe404-3 dargestellt.7B veranschaulicht ein Bild700 in der Bildfolge, deren Aufnahme bei Block350 eingeleitet wurde. Wie aus7B ersichtlich wird, sind die Merkmale428 der Ankerdefinition im Bild700 erkennbar. Die Bestimmung bei Block360 ist daher positiv. Darüber hinaus ermöglichen Verzerrungen zwischen den Merkmalen428 , wie sie im Bild700 dargestellt sind, und den Merkmalen428 , wie sie in der in4B dargestellten Ankerdefinition definiert sind, der Client-Vorrichtung105 das Bestimmen der Position der Client-Vorrichtung105 relativ zur Ankerposition408 . - Mit anderen Worten bewirkt das Erkennen des Ankers bei Block
360 , dass die Client-Vorrichtung105 einen lokalen Navigationsmodus bei Block365 initiiert, in der die Client-Vorrichtung105 konfiguriert ist, um eine lokale Vorrichtungsposition in Bezug auf die Ankerposition408 zu bestimmen und zu aktualisieren. Die Vorrichtung kann die oben genannte globale Position in Verbindung mit Block320 weiterhin aktualisieren, aber die restlichen Blöcke des Verfahrens300 werden von der Client-Vorrichtung basierend auf der lokalen Vorrichtungsposition ausgeführt, die im Vergleich zur globalen Position der Client-Vorrichtung105 reduzierten Fehlern (z.B. Fehlern aufgrund von Abweichungen im Bewegungssensor164 ) unterliegen kann. Der lokale Navigationsmodus beinhaltet die Verwendung nicht nur des Bewegungssensors164 und der Kommunikationsschnittstelle162 (zum Erkennen von drahtlosen Zugangspunkt-Signaturen), sondern auch der Kamera158 und insbesondere der Bildfolge, deren Erfassung bei Block350 eingeleitet wurde. Insbesondere kann die Client-Vorrichtung105 konfiguriert sein, um transiente Merkmale in einer Teilmenge der Bilder zu erkennen (z.B. Ebenen, Linien, Punkte und dergleichen) und Änderungen der Positionen solcher transienten Merkmale innerhalb der Bilder zu verfolgen, solange die transienten Merkmale sichtbar bleiben. Die Client-Vorrichtung105 wird dann basierend auf erfassten Positionsänderungen der transienten Merkmale zwischen den Bildern in der Folge konfiguriert, um die lokale Vorrichtungsposition zu aktualisieren. -
8A veranschaulicht eine weitere Draufsicht auf die Anlage400 , nachdem sich die Client-Vorrichtung105 zu einer weiteren Position536b bewegt hat. Die Client-Vorrichtung105 ist konfiguriert, um eine aktualisierte lokale Vorrichtungsposition800 in Bezug auf die Ankerposition408 aufrechtzuerhalten (z.B. unter Verwendung der Ankerposition408 als Ursprung eines lokalen Bezugsrahmens). Bei Block370 ist die Client-Vorrichtung105 konfiguriert, um eine Aufgabenführungsaufforderung zu präsentieren, die eine Bewegungsrichtung und optional einen Abstand zur Aufgabenposition angibt, der gemäß der in der Aufgabendefinition spezifizierten Aufgabenposition und der lokalen Vorrichtungsposition800 bestimmt wird.8B veranschaulicht eine Aufgabenführungsaufforderung804 , die auf der Anzeige160 zusammen mit einem Bild808 der oben genannten Folge dargestellt wird. In8B sind auch Beispiele für die oben genannten transienten Merkmale dargestellt, die für die lokale Navigation verwendet werden. Insbesondere können eine Regalkante812 und ein Produkt816 durch die Client-Vorrichtung105 im Bild808 sowie ein nachfolgendes Bild identifiziert werden. Basierend auf Änderungen in den Positionen der Regalkante812 und des Produkts816 zwischen den Bildern kann die Client-Vorrichtung105 eine aktualisierte lokale Position bestimmen. - Unter erneuter Bezugnahme auf
3 ist bei Block375 die Client-Vorrichtung105 konfiguriert, um zu bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der Client-Vorrichtung105 befindet. Die Bestimmung bei Block375 erfolgt basierend auf der Aufgabenposition (d.h. einer lokalen Position, die relativ zur Ankerposition408 definiert ist) und der lokalen Vorrichtungsposition sowie auf einer im Speicher152 gespeicherten Sichtfelddefinition. Ein exemplarisches Sichtfeld820 ist in8A dargestellt und kann dem Sichtfeld der Kamera158 entsprechen. Wie aus8A ersichtlich, liegt die Aufgabenposition520 nicht im Sichtfeld820 , und die Bestimmung bei Block375 ist daher negativ. Nach einer negativen Bestimmung bei Block375 ist die Client-Vorrichtung105 konfiguriert, um zu Block370 zurückzukehren und die Aufgabenführungsaufforderung basierend auf der aktuellen lokalen Vorrichtungsposition zu aktualisieren. Der Block375 wird dann wiederholt. - Wenn die Bestimmung bei Block
375 positiv ist, fährt die Durchführung des Verfahrens300 mit Block380 fort. In9A ist eine weitere Draufsicht auf die Einrichtung400 dargestellt, in der die Client-Vorrichtung105 weiter in den Gang mit der Aufgabe520 vorgedrungen ist, bis zu einer Position536c , die an der Client-Vorrichtung105 als lokale Vorrichtungsposition900 verfolgt wird. Die Client-Vorrichtung105 wurde ebenfalls auf die Zeile404-3 der Regale ausgerichtet, und die Bestimmung bei Block375 ist positiv (die Aufgabenposition520 fällt in das Sichtfeld820 ). Bei Block380 ist die Client-Vorrichtung105 daher konfiguriert, um die Aufgabenüberlagerungsdaten auf der Anzeige160 zusammen mit der oben genannten Bildfolge darzustellen. Mit anderen Worten werden die Aufgabenüberlagerungsdaten auf der Anzeige als Augmented-Reality-Überlagerung (d.h. ein virtuelles Objekt) auf dem von der Kamera158 aufgenommenen Bildstrom präsentiert. -
9B veranschaulicht eine Durchführung von Block380 , wobei die Client-Vorrichtung105 an der Position536c in8A dargestellt ist. Insbesondere wird auf der Anzeige160 ein Bild904 aus der bei Block350 initiierten Folge zusammen mit einer virtuellen Objekt-Überlagerung908 mit den zuvor im Zusammenhang mit5A diskutierten Aufgabenüberlagerungsdaten500 dargestellt. Die Durchführung des Verfahrens300 ermöglicht es der Client-Vorrichtung105 somit, einem Bediener der Client-Vorrichtung105 zu helfen, eine Arbeitsposition innerhalb der Einrichtung zu lokalisieren und die entsprechende Aufgabe auszuführen. - Es werden Abweichungen von den oben genannten Systemen und Verfahren erwogen. So kann beispielsweise in einigen Ausführungsformen die oben genannte lokale Vorrichtungsposition in Verbindung mit Block
365 , z.B. auf der Anzeige160 der Client-Vorrichtung105 , auch ohne Aufgabendefinition dargestellt werden. So kann beispielsweise die Vorrichtung160 nach dem Erkennen eines Ankers wie der in7B dargestellten Gangendstelle konfiguriert sein, um eine Karte der Einrichtung oder eines Teils davon (z.B. eine Karte des entsprechenden Ganges) darzustellen. Überlagert auf der Karte kann die Vorrichtung105 konfiguriert sein, um eine Anzeige der Position der Vorrichtung105 , wie bei Block365 bestimmt, darzustellen. - Wie bereits erwähnt, können vom Server
101 bei Block310 erhaltene Aufgabendefinitionen von der Client-Vorrichtung105 empfangen werden. Insbesondere ist die Client-Vorrichtung105 in einigen Ausführungsformen konfiguriert, um eine globale Position wie bei Block320 zu aktualisieren und Ankerdefinitionen zu empfangen, wie vorstehend in Verbindung mit Block350 erläutert. Die Client-Vorrichtung105 muss jedoch keine Aufgabendefinitionen empfangen. Stattdessen ist die Client-Vorrichtung105 konfiguriert, um eine lokale Navigation einzuleiten und einen oder mehrere Barcodes oder andere Kennzeichnungen zu erfassen, nachdem sie einen Anker an Block360 erkannt hat, wie beispielsweise eine Endstelle eines Ganges (z.B. wie in7B dargestellt). - Die von der Client-Vorrichtung
105 erfassten Kennzeichnungen korrespondieren mit Etiketten an den Regalen110 , bei denen eine oder mehrere Aufgaben erforderlich sind (z.B. Auffüllen eines Produkts, Korrektur eines Preises auf dem Etikett oder dergleichen). Die Client-Vorrichtung105 ist konfiguriert, um eine Position jedes gescannten Kennzeichens basierend auf der lokalen Navigation und der globalen Position der Client-Vorrichtung105 selbst sowie auf der Position des Kennzeichens in Bezug auf die Client-Vorrichtung105 zu bestimmen. So kann beispielsweise die relative Position des Kennzeichens aus einem Bild des Kennzeichens basierend auf Kalibrierparametern der Kamera158 zusammen mit den Abmessungen des Kennzeichens innerhalb des Bildes bestimmt werden. - Nachdem sich das gescannte Kennzeichen in der Einrichtung befindet (d.h. in Bezug auf den Bezugsrahmen
102 ), kann die Client-Vorrichtung105 konfiguriert sein, um Eingangsdaten zu empfangen, die Auftragsüberlagerungsdaten definieren, wie beispielsweise eine Angabe der Art der auszuführenden Aufgabe (z.B. Auffüllen). Die Position des Kennzeichens entspricht der oben genannten Aufgabenposition und wird zusammen mit den Aufgabenüberlagerungsdaten an den Server101 zur Speicherung als Aufgabendefinition übertragen. - In weiteren Ausführungsformen, wie bereits erwähnt, kann der Server
101 konfiguriert sein, um bestimmte in3 dargestellte Blöcke auszuführen, die von der Client-Vorrichtung105 ausgeführt werden, und/oder die Client-Vorrichtung105 kann konfiguriert sein, um bestimmte in3 dargestellte Blöcke auszuführen, die vom Server101 ausgeführt werden. In einer weiteren Ausführungsform kann beispielsweise der Server101 konfiguriert sein, um eine Position der Client-Vorrichtung105 bei Block320 zu bestimmen. Die Blöcke325 ,330 und335 können daher weggelassen werden. Der Server101 kann auch konfiguriert sein, um Bilddaten zu empfangen, die von der Client-Vorrichtung105 erfasst werden und Anker darin zu erkennen. Mit anderen Worten, anstatt Aufgaben- und Ankerdefinitionen an die Client-Vorrichtung105 bei Block345 zu senden, ist der Server101 konfiguriert, um die Aufgaben- und Ankerdefinitionen auszuwählen, und die Client-Vorrichtung105 ist konfiguriert, um Bilder aufzunehmen und an den Server101 bei Block350 zu senden. Der Server101 wiederum ist konfiguriert, um eine Ankerführungsaufforderung an die Client-Vorrichtung105 zur Präsentation bei Block355 zu erzeugen und zu senden und die Bestimmung bei Block360 durchzuführen. Der Server101 kann ferner konfiguriert sein, um die Verarbeitung durchzuführen, die mit der lokalen Navigation bei Block365 verknüpft ist, und um die Aufgabenführungsaufforderung zu erzeugen und an die Client-Vorrichtung105 zur Präsentation bei Block370 zu senden. Darüber hinaus kann der Server101 konfiguriert sein, um die Bestimmung bei Block375 (basierend auf den von der Client-Vorrichtung105 empfangenen Bildern) durchzuführen und die Aufgabenüberlagerung für die Präsentation durch die Client-Vorrichtung105 bei Block380 zu erzeugen und zu senden. - In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne den Schutzumfang der Erfindung, wie sie in den untenstehenden Ansprüchen definiert ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein.
- Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen. Die Erfindung ist lediglich durch die angehängten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden und aller Äquivalente der erteilten Ansprüche.
- Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
- Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
- Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und -programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
- Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass sie die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.
Claims (19)
- Verfahren zur Navigationsunterstützung an einer mobilen Computervorrichtung zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen, wobei das Verfahren umfasst: Empfangen einer Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; Empfangen einer Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; Erfassen einer Bildfolge unter Verwendung eines Bilderfassungsmoduls; Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet basierend auf der lokalen Vorrichtungsposition und der Aufgabenposition; und Präsentieren der Bildfolge, die mit den Überlagerungsdaten auf einer Anzeige überlagert ist, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition innerhalb des Sichtfeldes befindet.
- Verfahren nach
Anspruch 1 , ferner umfassend: Bestimmen einer globalen Vorrichtungsposition der mobilen Computervorrichtung und Senden der globalen Vorrichtungsposition an einen Server, vor dem Empfangen der Ankerdefinition und der Aufgabendefinition; und Empfangen der Ankerdefinition und der Aufgabendefinition als Reaktion auf das Senden der globalen Vorrichtungsposition. - Verfahren nach
Anspruch 1 , wobei das Bestimmen der lokalen Vorrichtungsposition umfasst: Identifizieren von transienten Merkmalen in der Bildfolge und Verfolgen der lokalen Vorrichtungsposition basierend auf der Bewegung der transienten Merkmale zwischen Bildern in der Folge. - Verfahren nach
Anspruch 1 , wobei der Merkmalssatz mit (i) einem visuellen Erscheinungsbild physikalischer Strukturen in der Einrichtung und (ii) einem Näherungsindikator korrespondiert, der der Nähe der Ankerposition zu einem drahtlosen Sender entspricht; und wobei das Verfahren ferner umfasst: Erfassen von Näherungssignaturen gleichzeitig mit der Bildfolge, unter Verwendung mindestens eines der Bilderfassungsmodule und einer Kommunikati onsschni ttstelle; wobei das Erfassen des Merkmalssatzes (i) das Erfassen des visuellen Erscheinungsbildes in der Bildfolge und (ii) das Erfassen des Näherungsindikators in den Näherungssignaturen beinhaltet. - Verfahren nach
Anspruch 4 , wobei der Näherungsindikator mindestens eines umfasst von: einer Empfangssignalstärkeanzeige (RSSI), die mit einem drahtlosen Zugangspunkt korrespondiert; einer Umlaufzeit (RTT), die mit dem drahtlosen Zugangspunkt korrespondiert; einem Identifizierer einer drahtlosen Bake; und einem Identifizierer eines Emitters für visuelle Lichtkommunikation (VLC). - Verfahren nach
Anspruch 1 , wobei das Präsentieren der Bildfolge und der Überlagerungsdaten das Auswählen eines der Aufgabenposition entsprechenden Abschnitts des Bildes und das Präsentieren der Überlagerungsdaten auf dem ausgewählten Abschnitt beinhaltet. - Verfahren nach
Anspruch 1 , ferner umfassend: Bestimmen einer globalen Vorrichtungsposition der mobilen Com putervorri chtung; Präsentieren einer Ankerführungsaufforderung auf der Anzeige, die die Ankerposition in Bezug auf die globale Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass die Bildfolge nicht den Merkmalssatz enthält. - Verfahren nach
Anspruch 1 , ferner umfassend: Präsentieren einer Aufgabenführungsaufforderung auf der Anzeige, die die Aufgabenposition in Bezug auf die lokale Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition nicht innerhalb des Sichtfeldes befindet. - Verfahren nach
Anspruch 1 , wobei die Überlagerungsdaten mindestens einen von einem Aufgabenbeschreiber und einem Objektidentifizierer beinhalten. - Mobile Computervorrichtung zur Navigationsunterstützung in einer Einrichtung mit einem globalen Bezugsrahmen, wobei die mobile Computervorrichtung umfasst: einen Speicher, der speichert: eine Ankerdefinition, die aufweist (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; und eine Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; eine Anzeige; ein Bilderfassungsmodul, das konfiguriert ist, um eine Bildfolge aufzunehmen; einen Prozessor, der mit dem Speicher, der Anzeige und dem Bilderfassungsmodul verbunden ist, wobei der Prozessor konfiguriert ist zum: Bestimmen einer lokalen Vorrichtungsposition der mobilen Computervorrichtung relativ zur Ankerposition als Reaktion auf das Erfassen des Merkmalssatzes in der Bildfolge; Bestimmen, ob sich die Aufgabenposition in einem Sichtfeld der mobilen Computervorrichtung befindet, basierend auf der lokalen Vorrichtungsposition und der Aufgabenposition; und Steuern der Anzeige, um die Bildfolge darzustellen, die mit den Überlagerungsdaten auf einer Anzeige überlagert ist, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition innerhalb des Sichtfeldes befindet.
- Mobile Computervorrichtung nach
Anspruch 10 , ferner umfassend: eine Kommunikationsschnittstelle; und einen Bewegungssensor, der konfiguriert ist, um Bewegungsdaten zu erzeugen; wobei der Prozessor ferner konfiguriert ist, um vor dem Empfangen der Ankerdefinition und der Aufgabendefinition zum Speichern im Speicher eine globale Vorrichtungsposition der mobilen Computervorrichtung basierend auf den Bewegungsdaten zu bestimmen; und wobei der Prozessor ferner konfiguriert ist, um die globale Vorrichtungsposition über die Kommunikationsschnittstelle an einen Server zu senden. - Mobile Computervorrichtung nach
Anspruch 10 , wobei der Prozessor ferner konfiguriert ist, um die lokale Vorrichtungsposition zu bestimmen, indem transiente Merkmale in der Bildfolge identifiziert und die lokale Vorrichtungsposition basierend auf der Bewegung der transienten Merkmale zwischen Bildern in der Folge verfolgt wird. - Mobile Computervorrichtung nach
Anspruch 10 , ferner umfassend eine Kommunikationsschnittstelle; wobei der Merkmalssatz mit (i) einem visuellen Erscheinungsbild physikalischer Strukturen in der Einrichtung und (ii) einem Näherungsindikator korrespondiert, der der Nähe der Ankerposition zu einem drahtlosen Sender entspricht; wobei der Prozessor ferner konfiguriert ist, um mindestens eines des Bilderfassungsmoduls und der Kommunikationsschnittstelle zum Erfassen von Näherungssignaturen gleichzeitig mit der Bildfolge zu steuern; und wobei der Prozessor ferner konfiguriert ist, um den Merkmalssatz zu erfassen, um (i) das visuelle Erscheinungsbild in der Bildfolge zu erfassen und (ii) den Näherungsindikator in den Näherungssignaturen zu erfassen. - Mobile Computervorrichtung nach
Anspruch 13 , wobei der Näherungsindikator mindestens eines umfasst von: einer Empfangssignalstärkeanzeige (RSSI), die mit einem drahtlosen Zugangspunkt korrespondiert; einer Umlaufzeit (RTT), die mit dem drahtlosen Zugangspunkt korrespondiert; einem Identifizierer einer drahtlosen Bake; und einem Identifizierer eines Emitters für visuelle Lichtkommunikation (VLC). - Mobile Computervorrichtung nach
Anspruch 10 , wobei der Prozessor ferner konfiguriert ist, um die Bildfolge und die Überlagerungsdaten durch Auswählen eines Teils des Bildes, der dem Aufgabenort entspricht, darzustellen; wobei der Prozessor ferner konfiguriert ist, um die Überlagerungsdaten auf dem ausgewählten Teil darzustellen. - Mobile Computervorrichtung nach
Anspruch 10 , ferner umfassend: einen Bewegungssensor, der konfiguriert ist, um Bewegungsdaten zu erzeugen; wobei der Prozessor ferner konfiguriert ist, um eine globale Vorrichtungsposition der mobilen Computervorrichtung basierend auf den Bewegungsdaten zu bestimmen; und wobei der Prozessor ferner konfiguriert ist, um eine Ankerführungsaufforderung auf der Anzeige zu präsentieren, die die Ankerposition relativ zur globalen Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass die Bildfolge nicht den Merkmalssatz enthält. - Mobile Computervorrichtung nach
Anspruch 10 , wobei der Prozessor ferner konfiguriert ist, um eine Aufgabenführungsaufforderung auf der Anzeige zu präsentieren, die die Aufgabenposition relativ zur lokalen Vorrichtungsposition anzeigt, als Reaktion auf das Bestimmen, dass sich die Aufgabenposition nicht innerhalb des Sichtfeldes befindet. - Mobile Computervorrichtung nach
Anspruch 10 , wobei die Überlagerungsdaten mindestens einen von einem Aufgabenbeschreiber und einem Objektidentifizierer beinhalten. - Unterstützendes Navigationssystem zum Einsatz in einer Einrichtung mit einem globalen Bezugsrahmen, wobei das System umfasst: einen Server, der einen Speicher beinhaltet zum Speichern von: einer Vielzahl von Ankerdefinitionen, die jeweils aufweisen (i) eine Ankerposition im globalen Bezugsrahmen und (ii) einen Merkmalssatz, der mit den physikalischen Eigenschaften der Einrichtung an der Ankerposition korrespondiert; und eine Aufgabendefinition, die aufweist (i) eine relativ zur Ankerposition definierte Aufgabenposition und (ii) Aufgabenüberlagerungsdaten; wobei der Server ferner eine Kommunikationsschnittstelle und einen Prozessor beinhaltet, der konfiguriert ist zum: Auswählen einer der Ankerdefinitionen für eine Zuordnung zur Aufgabendefinition; und Übertragen der ausgewählten Ankerdefinition und der Aufgabendefinition an eine mobile Computervorrichtung, wobei die mobile Computervorrichtung konfiguriert ist, um die ausgewählte Ankerdefinition und die Aufgabendefinition zu empfangen; wobei die mobile Computervorrichtung ferner konfiguriert ist, um die Aufgabenüberlagerungsdaten auf einer Anzeige darzustellen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/217,296 US11015938B2 (en) | 2018-12-12 | 2018-12-12 | Method, system and apparatus for navigational assistance |
US16/217,296 | 2018-12-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019125987A1 true DE102019125987A1 (de) | 2020-07-09 |
Family
ID=69171982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019125987.8A Pending DE102019125987A1 (de) | 2018-12-12 | 2019-09-26 | Verfahren, system und vorrichtung zur navigationsunterstützung |
Country Status (4)
Country | Link |
---|---|
US (2) | US11015938B2 (de) |
DE (1) | DE102019125987A1 (de) |
FR (1) | FR3090166B1 (de) |
GB (1) | GB2580779B (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11069081B1 (en) * | 2019-01-25 | 2021-07-20 | Google Llc | Location discovery |
CN110039543B (zh) * | 2019-04-14 | 2022-04-15 | 炬星科技(深圳)有限公司 | 仓储地图快速确定方法、设备、存储介质及机器人 |
Family Cites Families (396)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5214615A (en) | 1990-02-26 | 1993-05-25 | Will Bauer | Three-dimensional displacement of a body with computer interface |
US5209712A (en) | 1991-06-24 | 1993-05-11 | Frederic Ferri | Proprioceptive exercise, training and therapy apparatus |
US5408322A (en) | 1993-04-26 | 1995-04-18 | Materials Research Corporation | Self aligning in-situ ellipsometer and method of using for process monitoring |
JP3311830B2 (ja) | 1993-09-20 | 2002-08-05 | 株式会社東芝 | 3次元動画作成装置 |
KR100197676B1 (ko) | 1993-09-27 | 1999-06-15 | 윤종용 | 로보트 청소기 |
WO1995015533A1 (en) | 1993-11-30 | 1995-06-08 | Burke Raymond R | Computer system for allowing a consumer to purchase packaged goods at home |
US5414268A (en) | 1994-02-01 | 1995-05-09 | The Coe Manufacturing Company | Light scanner with interlaced camera fields and parallel light beams |
JPH0996672A (ja) | 1995-09-29 | 1997-04-08 | Sukuuea:Kk | 3次元位置データ生成システムおよび方法 |
US20020014533A1 (en) | 1995-12-18 | 2002-02-07 | Xiaxun Zhu | Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps |
US6034379A (en) | 1996-03-01 | 2000-03-07 | Intermec Ip Corp. | Code reader having replaceable optics assemblies supporting multiple illuminators |
US5831719A (en) | 1996-04-12 | 1998-11-03 | Holometrics, Inc. | Laser scanning system |
US5988862A (en) | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6075905A (en) | 1996-07-17 | 2000-06-13 | Sarnoff Corporation | Method and apparatus for mosaic image construction |
US5953055A (en) | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
JP3371279B2 (ja) | 1997-03-10 | 2003-01-27 | ペンタックス プレシジョン株式会社 | Tvカメラ用レンズの選択方法および選択装置 |
US6026376A (en) | 1997-04-15 | 2000-02-15 | Kenney; John A. | Interactive electronic shopping system and method |
GB2330265A (en) | 1997-10-10 | 1999-04-14 | Harlequin Group Limited The | Image compositing using camera data |
IL122079A (en) | 1997-10-30 | 2002-02-10 | Netmor Ltd | Ultrasound system for positioning and tracking |
WO1999023600A1 (en) | 1997-11-04 | 1999-05-14 | The Trustees Of Columbia University In The City Of New York | Video signal face region detection |
US6975764B1 (en) | 1997-11-26 | 2005-12-13 | Cognex Technology And Investment Corporation | Fast high-accuracy multi-dimensional pattern inspection |
US7016539B1 (en) | 1998-07-13 | 2006-03-21 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US6332098B2 (en) | 1998-08-07 | 2001-12-18 | Fedex Corporation | Methods for shipping freight |
US6820895B2 (en) | 1998-09-23 | 2004-11-23 | Vehicle Safety Systems, Inc. | Vehicle air bag minimum distance enforcement apparatus, method and system |
US6442507B1 (en) | 1998-12-29 | 2002-08-27 | Wireless Communications, Inc. | System for creating a computer model and measurement database of a wireless communication network |
US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
US6388688B1 (en) | 1999-04-06 | 2002-05-14 | Vergics Corporation | Graph-based visual navigation through spatial environments |
US6850946B1 (en) | 1999-05-26 | 2005-02-01 | Wireless Valley Communications, Inc. | Method and system for a building database manipulator |
US6687388B2 (en) | 2000-01-28 | 2004-02-03 | Sony Corporation | Picture processing apparatus |
US6711283B1 (en) | 2000-05-03 | 2004-03-23 | Aperio Technologies, Inc. | Fully automatic rapid microscope slide scanner |
WO2002005214A2 (en) | 2000-07-11 | 2002-01-17 | Eg Technology | Adaptive edge detection and enhancement for image processing |
GB0020850D0 (en) | 2000-08-23 | 2000-10-11 | Univ London | A system and method for intelligent modelling of public spaces |
TW512478B (en) | 2000-09-14 | 2002-12-01 | Olympus Optical Co | Alignment apparatus |
US7054509B2 (en) | 2000-10-21 | 2006-05-30 | Cardiff Software, Inc. | Determining form identification through the spatial relationship of input data |
BR0115469A (pt) | 2000-11-21 | 2003-08-19 | Michael Stuart Gardner | Marcação de etiqueta |
US7068852B2 (en) | 2001-01-23 | 2006-06-27 | Zoran Corporation | Edge detection and sharpening process for an image |
JP2002321698A (ja) | 2001-04-27 | 2002-11-05 | Mitsubishi Heavy Ind Ltd | 航空貨物運搬用ボーディング・ブリッジ |
WO2003002935A1 (en) | 2001-06-29 | 2003-01-09 | Square D Company | Overhead dimensioning system and method |
US7046273B2 (en) | 2001-07-02 | 2006-05-16 | Fuji Photo Film Co., Ltd | System and method for collecting image information |
US6995762B1 (en) | 2001-09-13 | 2006-02-07 | Symbol Technologies, Inc. | Measurement of dimensions of solid objects from two-dimensional image(s) |
WO2003025805A1 (en) | 2001-09-18 | 2003-03-27 | Pro-Corp Holdings International Limited | Image recognition inventory management system |
US6722568B2 (en) | 2001-11-20 | 2004-04-20 | Ncr Corporation | Methods and apparatus for detection and processing of supplemental bar code labels |
US7233699B2 (en) | 2002-03-18 | 2007-06-19 | National Instruments Corporation | Pattern matching using multiple techniques |
US20060106742A1 (en) | 2002-04-29 | 2006-05-18 | Speed Trac Technologies, Inc. | System and method for weighing and tracking freight |
US7149749B2 (en) | 2002-06-03 | 2006-12-12 | International Business Machines Corporation | Method of inserting and deleting leaves in tree table structures |
US6928194B2 (en) | 2002-09-19 | 2005-08-09 | M7 Visual Intelligence, Lp | System for mosaicing digital ortho-images |
EP1434170A3 (de) | 2002-11-07 | 2006-04-05 | Matsushita Electric Industrial Co., Ltd. | Verfahren und Vorrichtung zum Hinzufügen von Verzierungen an einem Bild einer Person |
JP3862652B2 (ja) | 2002-12-10 | 2006-12-27 | キヤノン株式会社 | 印刷制御方法及び情報処理装置 |
US7248754B2 (en) | 2003-05-05 | 2007-07-24 | International Business Machines Corporation | Apparatus and method for determining whether machine readable information on an item matches the item |
US7137207B2 (en) | 2003-06-23 | 2006-11-21 | Armstrong Timothy D | Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof |
US7090135B2 (en) | 2003-07-07 | 2006-08-15 | Symbol Technologies, Inc. | Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes |
US7493336B2 (en) | 2003-07-22 | 2009-02-17 | International Business Machines Corporation | System and method of updating planogram information using RFID tags and personal shopping device |
DE10336638A1 (de) | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld |
TWI266035B (en) | 2003-11-11 | 2006-11-11 | Hon Hai Prec Ind Co Ltd | A system and method for measuring point-cloud |
SE0400556D0 (sv) | 2004-03-05 | 2004-03-05 | Pricer Ab | Electronic shelf labelling system, electronic label, handheld device and method in an electronic labelling system |
WO2005098475A1 (en) * | 2004-03-29 | 2005-10-20 | Evolution Robotics, Inc. | Sensing device and method for measuring position and orientation relative to multiple light sources |
US7720554B2 (en) * | 2004-03-29 | 2010-05-18 | Evolution Robotics, Inc. | Methods and apparatus for position estimation using reflected light sources |
US7885865B2 (en) | 2004-05-11 | 2011-02-08 | The Kroger Co. | System and method for mapping of planograms |
US7245558B2 (en) | 2004-06-18 | 2007-07-17 | Symbol Technologies, Inc. | System and method for detection using ultrasonic waves |
US7168618B2 (en) | 2004-08-12 | 2007-01-30 | International Business Machines Corporation | Retail store method and system |
US7643665B2 (en) | 2004-08-31 | 2010-01-05 | Semiconductor Insights Inc. | Method of design analysis of existing integrated circuits |
US8207964B1 (en) | 2008-02-22 | 2012-06-26 | Meadow William D | Methods and apparatus for generating three-dimensional image data models |
EP1828862A2 (de) | 2004-12-14 | 2007-09-05 | Sky-Trax Incorporated | Verfahren und vorrichtung zur bestimmung von position und drehorientierung eines objekts |
US7783383B2 (en) | 2004-12-22 | 2010-08-24 | Intelligent Hospital Systems Ltd. | Automated pharmacy admixture system (APAS) |
WO2006136958A2 (en) | 2005-01-25 | 2006-12-28 | Dspv, Ltd. | System and method of improving the legibility and applicability of document pictures using form based image enhancement |
US7440903B2 (en) | 2005-01-28 | 2008-10-21 | Target Brands, Inc. | System and method for evaluating and recommending planograms |
DE102005007536A1 (de) | 2005-02-17 | 2007-01-04 | Isra Vision Systems Ag | Verfahren zur Kalibrierung eines Messsystems |
US7751928B1 (en) | 2005-03-11 | 2010-07-06 | Amazon Technologies, Inc. | Method and system for agent exchange-based materials handling |
US9534899B2 (en) * | 2005-03-25 | 2017-01-03 | Irobot Corporation | Re-localization of a robot for slam |
CN101160576B (zh) | 2005-04-13 | 2010-05-19 | 斯德艾斯有限公司 | 用于测量零售商店陈列情况的方法和系统 |
WO2006127129A2 (en) | 2005-04-19 | 2006-11-30 | University Of Georgia Research Foundation, Inc. | Image edge detection systems and methods |
US8294809B2 (en) | 2005-05-10 | 2012-10-23 | Advanced Scientific Concepts, Inc. | Dimensioning system |
US7590053B2 (en) | 2005-06-21 | 2009-09-15 | Alcatel Lucent | Multiple endpoint protection using SPVCs |
BRPI0520370B8 (pt) | 2005-06-28 | 2023-01-31 | Scanalyse Pty Ltd | Sistema e método para medição e mapeamento de uma superfície com relação a uma referência |
US7817826B2 (en) | 2005-08-12 | 2010-10-19 | Intelitrac Inc. | Apparatus and method for partial component facial recognition |
US8625854B2 (en) | 2005-09-09 | 2014-01-07 | Industrial Research Limited | 3D scene scanner and a position and orientation system |
EP1934936A2 (de) | 2005-10-10 | 2008-06-25 | Nordic Bioscience A/S | Verfahren zum segmentieren eines bildes |
US7605817B2 (en) | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US7508794B2 (en) | 2005-11-29 | 2009-03-24 | Cisco Technology, Inc. | Authorizing an endpoint node for a communication service |
US8577538B2 (en) | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
US20070168382A1 (en) | 2006-01-03 | 2007-07-19 | Michael Tillberg | Document analysis system for integration of paper records into a searchable electronic database |
JP4730121B2 (ja) | 2006-02-07 | 2011-07-20 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びに、プログラム |
US20070197895A1 (en) | 2006-02-17 | 2007-08-23 | Sdgi Holdings, Inc. | Surgical instrument to assess tissue characteristics |
US8157205B2 (en) | 2006-03-04 | 2012-04-17 | Mcwhirk Bruce Kimberly | Multibody aircrane |
US20100171826A1 (en) | 2006-04-12 | 2010-07-08 | Store Eyes, Inc. | Method for measuring retail display and compliance |
CA2737169C (en) | 2006-04-28 | 2014-04-01 | Global Sensor Systems Inc. | Device for measuring package size |
ATE470912T1 (de) | 2006-04-28 | 2010-06-15 | Toyota Motor Europ Nv | Robuster detektor und deskriptor für einen interessenspunkt |
US20070272732A1 (en) | 2006-05-26 | 2007-11-29 | Mettler-Toledo, Inc. | Weighing and dimensioning system and method for weighing and dimensioning |
EP2041516A2 (de) | 2006-06-22 | 2009-04-01 | Roy Sandberg | Verfahren und vorrichtung zur planung, auswahl und visualisierung von roboterwegen |
JP4910507B2 (ja) | 2006-06-29 | 2012-04-04 | コニカミノルタホールディングス株式会社 | 顔認証システム及び顔認証方法 |
US7647752B2 (en) | 2006-07-12 | 2010-01-19 | Greg Magnell | System and method for making custom boxes for objects of random size or shape |
US7940955B2 (en) | 2006-07-26 | 2011-05-10 | Delphi Technologies, Inc. | Vision-based method of determining cargo status by boundary detection |
US7693757B2 (en) | 2006-09-21 | 2010-04-06 | International Business Machines Corporation | System and method for performing inventory using a mobile inventory robot |
US8277396B2 (en) | 2006-11-02 | 2012-10-02 | Queen's University At Kingston | Method and apparatus for assessing proprioceptive function |
WO2008057504A2 (en) | 2006-11-06 | 2008-05-15 | Aman James A | Load tracking system based on self- tracking forklift |
US8531457B2 (en) | 2006-11-29 | 2013-09-10 | Technion Research And Development Foundation Ltd. | Apparatus and method for finding visible points in a cloud point |
US7474389B2 (en) | 2006-12-19 | 2009-01-06 | Dean Greenberg | Cargo dimensional and weight analyzing system |
US8189926B2 (en) | 2006-12-30 | 2012-05-29 | Videomining Corporation | Method and system for automatically analyzing categories in a physical space based on the visual characterization of people |
US20080164310A1 (en) | 2007-01-09 | 2008-07-10 | Dupuy Charles G | Labeling system |
CA2680646C (en) | 2007-03-15 | 2014-07-22 | Kansai University | Moving object noise elimination processing device and moving object noise elimination processing program |
US7940279B2 (en) | 2007-03-27 | 2011-05-10 | Utah State University | System and method for rendering of texel imagery |
US8132728B2 (en) | 2007-04-04 | 2012-03-13 | Sick, Inc. | Parcel dimensioning measurement system and method |
US8094937B2 (en) | 2007-04-17 | 2012-01-10 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for labeling feature clusters in frames of image data for optical navigation |
WO2008134562A2 (en) | 2007-04-27 | 2008-11-06 | Nielsen Media Research, Inc. | Methods and apparatus to monitor in-store media and consumer traffic related to retail environments |
JP4561769B2 (ja) | 2007-04-27 | 2010-10-13 | アイシン・エィ・ダブリュ株式会社 | 経路案内システム及び経路案内方法 |
CN101681525A (zh) | 2007-06-08 | 2010-03-24 | 电子地图有限公司 | 产生多视点全景图的方法及设备 |
WO2008154611A2 (en) | 2007-06-11 | 2008-12-18 | Honeywell International Inc. | Optical reader system for extracting information in a digital image |
US7982423B2 (en) | 2007-07-04 | 2011-07-19 | Bossa Nova Concepts, Llc | Statically stable biped robotic mechanism and method of actuating |
JP4661838B2 (ja) | 2007-07-18 | 2011-03-30 | トヨタ自動車株式会社 | 経路計画装置及び方法、コスト評価装置、並びに移動体 |
KR100922494B1 (ko) | 2007-07-19 | 2009-10-20 | 삼성전자주식회사 | 이동 로봇의 자세 측정 방법 및 상기 방법을 이용한 위치측정 방법 및 장치 |
US7726575B2 (en) | 2007-08-10 | 2010-06-01 | Hand Held Products, Inc. | Indicia reading terminal having spatial measurement functionality |
US8950673B2 (en) | 2007-08-30 | 2015-02-10 | Symbol Technologies, Inc. | Imaging system for reading target with multiple symbols |
US7949568B2 (en) | 2007-08-31 | 2011-05-24 | Accenture Global Services Limited | Determination of product display parameters based on image processing |
US9135491B2 (en) | 2007-08-31 | 2015-09-15 | Accenture Global Services Limited | Digital point-of-sale analyzer |
US8189855B2 (en) | 2007-08-31 | 2012-05-29 | Accenture Global Services Limited | Planogram extraction based on image processing |
US8009864B2 (en) | 2007-08-31 | 2011-08-30 | Accenture Global Services Limited | Determination of inventory conditions based on image processing |
US8630924B2 (en) | 2007-08-31 | 2014-01-14 | Accenture Global Services Limited | Detection of stock out conditions based on image processing |
US8295590B2 (en) | 2007-09-14 | 2012-10-23 | Abbyy Software Ltd. | Method and system for creating a form template for a form |
JP4466705B2 (ja) | 2007-09-21 | 2010-05-26 | ヤマハ株式会社 | ナビゲーション装置 |
US8396284B2 (en) | 2007-10-23 | 2013-03-12 | Leica Geosystems Ag | Smart picking in 3D point clouds |
US8091782B2 (en) | 2007-11-08 | 2012-01-10 | International Business Machines Corporation | Using cameras to monitor actual inventory |
US20090125350A1 (en) | 2007-11-14 | 2009-05-14 | Pieter Lessing | System and method for capturing and storing supply chain and logistics support information in a relational database system |
US20090160975A1 (en) | 2007-12-19 | 2009-06-25 | Ncr Corporation | Methods and Apparatus for Improved Image Processing to Provide Retroactive Image Focusing and Improved Depth of Field in Retail Imaging Systems |
US8423431B1 (en) | 2007-12-20 | 2013-04-16 | Amazon Technologies, Inc. | Light emission guidance |
US20090192921A1 (en) | 2008-01-24 | 2009-07-30 | Michael Alan Hicks | Methods and apparatus to survey a retail environment |
US8353457B2 (en) | 2008-02-12 | 2013-01-15 | Datalogic ADC, Inc. | Systems and methods for forming a composite image of multiple portions of an object from multiple perspectives |
US7971664B2 (en) | 2008-03-18 | 2011-07-05 | Bossa Nova Robotics Ip, Inc. | Efficient actuation and selective engaging and locking clutch mechanisms for reconfiguration and multiple-behavior locomotion of an at least two-appendage robot |
US9766074B2 (en) | 2008-03-28 | 2017-09-19 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
US8064729B2 (en) | 2008-04-03 | 2011-11-22 | Seiko Epson Corporation | Image skew detection apparatus and methods |
US7707073B2 (en) | 2008-05-15 | 2010-04-27 | Sony Ericsson Mobile Communications, Ab | Systems methods and computer program products for providing augmented shopping information |
US20150170256A1 (en) | 2008-06-05 | 2015-06-18 | Aisle411, Inc. | Systems and Methods for Presenting Information Associated With a Three-Dimensional Location on a Two-Dimensional Display |
JP4720859B2 (ja) | 2008-07-09 | 2011-07-13 | カシオ計算機株式会社 | 画像処理装置、画像処理方法およびプログラム |
US8184196B2 (en) | 2008-08-05 | 2012-05-22 | Qualcomm Incorporated | System and method to generate depth data using edge detection |
US9841314B2 (en) | 2008-08-29 | 2017-12-12 | United Parcel Service Of America, Inc. | Systems and methods for freight tracking and monitoring |
US9824495B2 (en) | 2008-09-11 | 2017-11-21 | Apple Inc. | Method and system for compositing an augmented reality scene |
US20100070365A1 (en) | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Planogram guided shopping |
EP2332094B1 (de) | 2008-09-14 | 2014-03-12 | Eliezer Magal | Automatisches identifikationssystem für zufällig orientierte objekte |
US20100091094A1 (en) | 2008-10-14 | 2010-04-15 | Marek Sekowski | Mechanism for Directing a Three-Dimensional Camera System |
CA2740781C (en) | 2008-10-20 | 2016-06-14 | Raritan Americas, Inc. | System and method for automatic determination of the physical location of data center equipment |
US8479996B2 (en) | 2008-11-07 | 2013-07-09 | Symbol Technologies, Inc. | Identification of non-barcoded products |
KR101234798B1 (ko) | 2008-11-24 | 2013-02-20 | 삼성전자주식회사 | 이동 로봇의 위치 측정 방법 및 장치 |
US8463079B2 (en) | 2008-12-16 | 2013-06-11 | Intermec Ip Corp. | Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner |
US8812226B2 (en) | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US8265895B2 (en) | 2009-03-27 | 2012-09-11 | Symbol Technologies, Inc. | Interactive sensor systems and methods for dimensioning |
US8284988B2 (en) | 2009-05-13 | 2012-10-09 | Applied Vision Corporation | System and method for dimensioning objects using stereoscopic imaging |
US8743176B2 (en) | 2009-05-20 | 2014-06-03 | Advanced Scientific Concepts, Inc. | 3-dimensional hybrid camera and production system |
US8049621B1 (en) | 2009-05-28 | 2011-11-01 | Walgreen Co. | Method and apparatus for remote merchandise planogram auditing and reporting |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8933925B2 (en) | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
US7997430B2 (en) | 2009-06-30 | 2011-08-16 | Target Brands, Inc. | Display apparatus and method |
US20120019393A1 (en) | 2009-07-31 | 2012-01-26 | Robert Wolinsky | System and method for tracking carts in a retail environment |
CA2754159C (en) | 2009-08-11 | 2012-05-15 | Certusview Technologies, Llc | Systems and methods for complex event processing of vehicle-related information |
AR077904A1 (es) | 2009-08-21 | 2011-09-28 | Syngenta Participations Ag | Sistema automatizado para analizar el vigor de la planta |
KR101619076B1 (ko) | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
US8942884B2 (en) | 2010-01-14 | 2015-01-27 | Innovative Transport Solutions, Llc | Transport system |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US20110216063A1 (en) | 2010-03-08 | 2011-09-08 | Celartem, Inc. | Lidar triangular network compression |
US8456518B2 (en) | 2010-03-31 | 2013-06-04 | James Cameron & Vincent Pace | Stereoscopic camera with automatic obstruction removal |
US8570343B2 (en) | 2010-04-20 | 2013-10-29 | Dassault Systemes | Automatic generation of 3D models from packaged goods product images |
US9400170B2 (en) | 2010-04-21 | 2016-07-26 | Faro Technologies, Inc. | Automatic measurement of dimensional data within an acceptance region by a laser tracker |
US8619265B2 (en) | 2011-03-14 | 2013-12-31 | Faro Technologies, Inc. | Automatic measurement of dimensional data with a laser tracker |
US8199977B2 (en) | 2010-05-07 | 2012-06-12 | Honeywell International Inc. | System and method for extraction of features from a 3-D point cloud |
US8134717B2 (en) | 2010-05-21 | 2012-03-13 | LTS Scale Company | Dimensional detection system and associated method |
US9109877B2 (en) | 2010-05-21 | 2015-08-18 | Jonathan S. Thierman | Method and apparatus for dimensional measurement |
US20110310088A1 (en) | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Personalized navigation through virtual 3d environments |
US20120022913A1 (en) | 2010-07-20 | 2012-01-26 | Target Brands, Inc. | Planogram Generation for Peg and Shelf Items |
JP4914528B1 (ja) | 2010-08-31 | 2012-04-11 | 新日鉄ソリューションズ株式会社 | 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム |
US8571314B2 (en) | 2010-09-02 | 2013-10-29 | Samsung Electronics Co., Ltd. | Three-dimensional display system with depth map mechanism and method of operation thereof |
EP3091508B1 (de) | 2010-09-03 | 2018-12-26 | California Institute of Technology | Dreidimensionales bildgebungssystem |
US8872851B2 (en) | 2010-09-24 | 2014-10-28 | Intel Corporation | Augmenting image data based on related 3D point cloud data |
EP2439487B1 (de) | 2010-10-06 | 2012-08-22 | Sick Ag | Volumenmessvorrichtung für bewegte Objekte |
US8174931B2 (en) | 2010-10-08 | 2012-05-08 | HJ Laboratories, LLC | Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information |
US9171442B2 (en) | 2010-11-19 | 2015-10-27 | Tyco Fire & Security Gmbh | Item identification using video recognition to supplement bar code or RFID information |
US20120133639A1 (en) | 2010-11-30 | 2012-05-31 | Microsoft Corporation | Strip panorama |
US9449233B2 (en) | 2010-12-01 | 2016-09-20 | The Trustees Of The University Of Pennsylvania | Distributed target tracking using self localizing smart camera networks |
SG190730A1 (en) | 2010-12-09 | 2013-07-31 | Univ Nanyang Tech | Method and an apparatus for determining vein patterns from a colour image |
US8773946B2 (en) | 2010-12-30 | 2014-07-08 | Honeywell International Inc. | Portable housings for generation of building maps |
US8744644B2 (en) | 2011-01-19 | 2014-06-03 | Electronics And Telecommunications Research Institute | Apparatus and method for detecting location of vehicle |
KR101758058B1 (ko) | 2011-01-20 | 2017-07-17 | 삼성전자주식회사 | 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템 |
US8939369B2 (en) | 2011-01-24 | 2015-01-27 | Datalogic ADC, Inc. | Exception detection and handling in automated optical code reading systems |
US20120190453A1 (en) | 2011-01-25 | 2012-07-26 | Bossa Nova Robotics Ip, Inc. | System and method for online-offline interactive experience |
US20120191880A1 (en) | 2011-01-26 | 2012-07-26 | Bossa Nova Robotics IP, Inc | System and method for identifying accessories connected to apparatus |
EP2668008A4 (de) | 2011-01-28 | 2018-01-24 | Intouch Technologies, Inc. | Schnittstelle mit einem mobilen telepräsenzroboter |
WO2012100593A1 (zh) | 2011-01-30 | 2012-08-02 | 浙江省电力公司 | 智能电能表全自动化检定系统 |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8447549B2 (en) | 2011-02-11 | 2013-05-21 | Quality Vision International, Inc. | Tolerance evaluation with reduced measured points |
US8660338B2 (en) | 2011-03-22 | 2014-02-25 | Honeywell International Inc. | Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints |
WO2012132324A1 (ja) | 2011-03-31 | 2012-10-04 | 日本電気株式会社 | 店舗システム並びにその制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体 |
US8693725B2 (en) | 2011-04-19 | 2014-04-08 | International Business Machines Corporation | Reliability in detecting rail crossing events |
US9854209B2 (en) | 2011-04-19 | 2017-12-26 | Ford Global Technologies, Llc | Display system utilizing vehicle and trailer dynamics |
WO2012155104A1 (en) | 2011-05-11 | 2012-11-15 | Proiam, Llc | Enrollment apparatus, system, and method featuring three dimensional camera |
US20120287249A1 (en) | 2011-05-12 | 2012-11-15 | Electronics And Telecommunications Research Institute | Method for obtaining depth information and apparatus using the same |
US8902353B2 (en) | 2011-05-12 | 2014-12-02 | Symbol Technologies, Inc. | Imaging reader with independently controlled illumination rate |
US9785898B2 (en) | 2011-06-20 | 2017-10-10 | Hi-Tech Solutions Ltd. | System and method for identifying retail products and determining retail product arrangements |
US9064394B1 (en) * | 2011-06-22 | 2015-06-23 | Alarm.Com Incorporated | Virtual sensors |
US9342928B2 (en) * | 2011-06-29 | 2016-05-17 | Honeywell International Inc. | Systems and methods for presenting building information |
US9070285B1 (en) | 2011-07-25 | 2015-06-30 | UtopiaCompression Corporation | Passive camera based cloud detection and avoidance for aircraft systems |
US8768620B2 (en) * | 2011-07-27 | 2014-07-01 | Msa Technology, Llc | Navigational deployment and initialization systems and methods |
KR101907081B1 (ko) | 2011-08-22 | 2018-10-11 | 삼성전자주식회사 | 3차원 점군의 물체 분리 방법 |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9129277B2 (en) | 2011-08-30 | 2015-09-08 | Digimarc Corporation | Methods and arrangements for identifying objects |
TWI622540B (zh) | 2011-09-09 | 2018-05-01 | 辛波提克有限責任公司 | 自動化儲存及取放系統 |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
US11074495B2 (en) | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
US10330491B2 (en) | 2011-10-10 | 2019-06-25 | Texas Instruments Incorporated | Robust step detection using low cost MEMS accelerometer in mobile applications, and processing methods, apparatus and systems |
US9159047B2 (en) | 2011-11-11 | 2015-10-13 | James T. Winkel | Projected image planogram system |
US9033239B2 (en) | 2011-11-11 | 2015-05-19 | James T. Winkel | Projected image planogram system |
US8726200B2 (en) | 2011-11-23 | 2014-05-13 | Taiwan Semiconductor Manufacturing Co., Ltd. | Recognition of template patterns with mask information |
US8706293B2 (en) | 2011-11-29 | 2014-04-22 | Cereson Co., Ltd. | Vending machine with automated detection of product position |
US8793107B2 (en) | 2011-12-01 | 2014-07-29 | Harris Corporation | Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling |
CN103164842A (zh) | 2011-12-14 | 2013-06-19 | 鸿富锦精密工业(深圳)有限公司 | 点云提取系统及方法 |
US20130154802A1 (en) | 2011-12-19 | 2013-06-20 | Symbol Technologies, Inc. | Method and apparatus for updating a central plan for an area based on a location of a plurality of radio frequency identification readers |
US20130162806A1 (en) | 2011-12-23 | 2013-06-27 | Mitutoyo Corporation | Enhanced edge focus tool |
US9703179B2 (en) | 2012-01-06 | 2017-07-11 | Sunrise R&D Holdings, Llc | Display shelf modules with projectors for displaying product information and modular shelving systems comprising the same |
EP2615580B1 (de) | 2012-01-13 | 2016-08-17 | Softkinetic Software | Automatische Szenenkalibrierung |
US9740937B2 (en) | 2012-01-17 | 2017-08-22 | Avigilon Fortress Corporation | System and method for monitoring a retail environment using video content analysis with depth sensing |
US9037287B1 (en) | 2012-02-17 | 2015-05-19 | National Presort, Inc. | System and method for optimizing a mail document sorting machine |
US8958911B2 (en) | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
EP2634120B1 (de) | 2012-03-01 | 2015-02-18 | Caljan Rite-Hite ApS | Erweiterbare Förderanlage mit Beleuchtung |
US8668136B2 (en) | 2012-03-01 | 2014-03-11 | Trimble Navigation Limited | Method and system for RFID-assisted imaging |
US9329269B2 (en) | 2012-03-15 | 2016-05-03 | GM Global Technology Operations LLC | Method for registration of range images from multiple LiDARS |
US8989342B2 (en) | 2012-04-18 | 2015-03-24 | The Boeing Company | Methods and systems for volumetric reconstruction using radiography |
US9153061B2 (en) | 2012-05-04 | 2015-10-06 | Qualcomm Incorporated | Segmentation of 3D point clouds for dense 3D modeling |
US9525976B2 (en) | 2012-05-10 | 2016-12-20 | Honeywell International Inc. | BIM-aware location based application |
US8941645B2 (en) | 2012-05-11 | 2015-01-27 | Dassault Systemes | Comparing virtual and real images in a shopping experience |
WO2013170260A1 (en) | 2012-05-11 | 2013-11-14 | Proiam, Llc | Hand held dimension capture apparatus, system, and method |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US9135543B2 (en) | 2012-06-20 | 2015-09-15 | Apple Inc. | Compression and obfuscation of three-dimensional coding |
US20140003655A1 (en) | 2012-06-29 | 2014-01-02 | Praveen Gopalakrishnan | Method, apparatus and system for providing image data to represent inventory |
US9418352B2 (en) | 2012-06-29 | 2016-08-16 | Intel Corporation | Image-augmented inventory management and wayfinding |
US9420265B2 (en) | 2012-06-29 | 2016-08-16 | Mitsubishi Electric Research Laboratories, Inc. | Tracking poses of 3D camera using points and planes |
US8971637B1 (en) | 2012-07-16 | 2015-03-03 | Matrox Electronic Systems Ltd. | Method and system for identifying an edge in an image |
KR101441187B1 (ko) | 2012-07-19 | 2014-09-18 | 고려대학교 산학협력단 | 자율 보행 로봇 경로 계획 방법 |
EP2877959B1 (de) | 2012-07-24 | 2018-04-18 | Datalogic USA, Inc. | Systeme und verfahren zur vermessung von objekten in einem automatisierten datenleser |
US8757479B2 (en) | 2012-07-31 | 2014-06-24 | Xerox Corporation | Method and system for creating personalized packaging |
ES2545374T3 (es) | 2012-07-31 | 2015-09-10 | Sick Ag | Sistema de detección para el montaje en una cinta transportadora |
US20140047342A1 (en) | 2012-08-07 | 2014-02-13 | Advanced Micro Devices, Inc. | System and method for allocating a cluster of nodes for a cloud computing system based on hardware characteristics |
US8923893B2 (en) | 2012-08-07 | 2014-12-30 | Symbol Technologies, Inc. | Real-time planogram generation and maintenance |
CN103679164A (zh) | 2012-09-21 | 2014-03-26 | 阿里巴巴集团控股有限公司 | 一种基于移动终端的标志识别处理方法和系统 |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US9472022B2 (en) | 2012-10-05 | 2016-10-18 | University Of Southern California | Three-dimensional point processing and model generation |
US20140192050A1 (en) | 2012-10-05 | 2014-07-10 | University Of Southern California | Three-dimensional point processing and model generation |
FR2996512B1 (fr) | 2012-10-05 | 2014-11-21 | Renault Sa | Procede d'evaluation du risque de collision a une intersection |
US9841311B2 (en) | 2012-10-16 | 2017-12-12 | Hand Held Products, Inc. | Dimensioning system |
WO2014066422A2 (en) | 2012-10-22 | 2014-05-01 | Bossa Nova Robotics Ip, Inc. | Self-deploying support member, and methods and apparatus using same |
US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US9635606B2 (en) | 2012-11-04 | 2017-04-25 | Kt Corporation | Access point selection and management |
US20150161793A1 (en) | 2012-11-05 | 2015-06-11 | Mitsubishi Electric Corporation | Three-dimensional image capture system and particle beam therapy system |
ITVI20120303A1 (it) | 2012-11-09 | 2014-05-10 | St Microelectronics Srl | Metodo per rilevare una linea retta in un'immagine digitale |
US9562971B2 (en) | 2012-11-22 | 2017-02-07 | Geosim Systems Ltd. | Point-cloud fusion |
US8825258B2 (en) * | 2012-11-30 | 2014-09-02 | Google Inc. | Engaging and disengaging for autonomous driving |
US9380222B2 (en) | 2012-12-04 | 2016-06-28 | Symbol Technologies, Llc | Transmission of images for inventory monitoring |
US10701149B2 (en) | 2012-12-13 | 2020-06-30 | Level 3 Communications, Llc | Content delivery framework having origin services |
MY172143A (en) | 2012-12-13 | 2019-11-14 | Mimos Berhad | Method for non-static foreground feature extraction and classification |
US20140195373A1 (en) | 2013-01-10 | 2014-07-10 | International Business Machines Corporation | Systems and methods for managing inventory in a shopping store |
US20140214547A1 (en) | 2013-01-25 | 2014-07-31 | R4 Technologies, Llc | Systems and methods for augmented retail reality |
US20140214600A1 (en) | 2013-01-31 | 2014-07-31 | Wal-Mart Stores, Inc. | Assisting A Consumer In Locating A Product Within A Retail Store |
FR3001567B1 (fr) * | 2013-01-31 | 2016-07-22 | Alstom Hydro France | Procede de surveillance d'un site industriel, dispositif de surveillance et systeme de surveillance associes |
DE102013002554A1 (de) | 2013-02-15 | 2014-08-21 | Jungheinrich Aktiengesellschaft | Verfahren zur Erkennung von Objekten in einem Lager und/oder zur räumlichen Orientierung in einem Lager |
US8965561B2 (en) | 2013-03-15 | 2015-02-24 | Cybernet Systems Corporation | Automated warehousing using robotic forklifts |
TWI594933B (zh) | 2013-03-15 | 2017-08-11 | 辛波提克有限責任公司 | 自動化貯藏及取放系統 |
US9154773B2 (en) | 2013-03-15 | 2015-10-06 | Seiko Epson Corporation | 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations |
US9558559B2 (en) | 2013-04-05 | 2017-01-31 | Nokia Technologies Oy | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system |
WO2014181323A1 (en) | 2013-05-05 | 2014-11-13 | Trax Technology Solutions Pte Ltd. | System and method of retail image analysis |
US9037396B2 (en) | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
EP3006272A4 (de) | 2013-05-29 | 2016-06-15 | Toyota Motor Co Ltd | Parkhilfevorrichtung |
US9158988B2 (en) | 2013-06-12 | 2015-10-13 | Symbol Technclogies, LLC | Method for detecting a plurality of instances of an object |
US10268983B2 (en) | 2013-06-26 | 2019-04-23 | Amazon Technologies, Inc. | Detecting item interaction and movement |
US9443297B2 (en) | 2013-07-10 | 2016-09-13 | Cognex Corporation | System and method for selective determination of point clouds |
US10290031B2 (en) | 2013-07-24 | 2019-05-14 | Gregorio Reid | Method and system for automated retail checkout using context recognition |
US9473747B2 (en) | 2013-07-25 | 2016-10-18 | Ncr Corporation | Whole store scanner |
US10349031B2 (en) | 2013-07-28 | 2019-07-09 | Michael J. DeLuca | Augmented reality based user interfacing |
US20150088618A1 (en) | 2013-08-26 | 2015-03-26 | Ims Solutions, Inc. | Road tolling |
US9886678B2 (en) | 2013-09-25 | 2018-02-06 | Sap Se | Graphic representations of planograms |
US9615012B2 (en) | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
US9248611B2 (en) | 2013-10-07 | 2016-02-02 | David A. Divine | 3-D printed packaging |
US20150106403A1 (en) | 2013-10-15 | 2015-04-16 | Indooratlas Oy | Generating search database based on sensor measurements |
US9412040B2 (en) | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
US9349076B1 (en) | 2013-12-20 | 2016-05-24 | Amazon Technologies, Inc. | Template-based target object detection in an image |
US9565400B1 (en) | 2013-12-20 | 2017-02-07 | Amazon Technologies, Inc. | Automatic imaging device selection for video analytics |
EP3108686B1 (de) | 2014-02-21 | 2019-06-19 | Telefonaktiebolaget LM Ericsson (publ) | Wlan-durchsatzvorhersage |
MY177646A (en) | 2014-02-28 | 2020-09-23 | Icm Airport Technics Australia Pty Ltd | Luggage processing station and system thereof |
US20150310601A1 (en) | 2014-03-07 | 2015-10-29 | Digimarc Corporation | Methods and arrangements for identifying objects |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US20150262116A1 (en) | 2014-03-16 | 2015-09-17 | International Business Machines Corporation | Machine vision technology for shelf inventory management |
US9953420B2 (en) | 2014-03-25 | 2018-04-24 | Ford Global Technologies, Llc | Camera calibration |
US9632313B1 (en) * | 2014-03-27 | 2017-04-25 | Amazon Technologies, Inc. | Augmented reality user interface facilitating fulfillment |
CN103945208B (zh) | 2014-04-24 | 2015-10-28 | 西安交通大学 | 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法 |
MX2016015810A (es) | 2014-06-04 | 2017-07-19 | Intelligrated Headquarters Llc | Visualización de un descargador de camiones. |
US9542746B2 (en) | 2014-06-13 | 2017-01-10 | Xerox Corporation | Method and system for spatial characterization of an imaging system |
US10453046B2 (en) | 2014-06-13 | 2019-10-22 | Conduent Business Services, Llc | Store shelf imaging system |
US9659204B2 (en) | 2014-06-13 | 2017-05-23 | Conduent Business Services, Llc | Image processing methods and systems for barcode and/or product label recognition |
US10176452B2 (en) | 2014-06-13 | 2019-01-08 | Conduent Business Services Llc | Store shelf imaging system and method |
WO2015199554A2 (en) | 2014-06-27 | 2015-12-30 | Crown Equipment Limited | Vehicle positioning or navigation utilizing associated feature pairs |
US11051000B2 (en) | 2014-07-14 | 2021-06-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for calibrating cameras with non-overlapping views |
DE102014011821A1 (de) | 2014-08-08 | 2016-02-11 | Cargometer Gmbh | Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts |
US20160044862A1 (en) | 2014-08-14 | 2016-02-18 | Raven Industries, Inc. | Site specific product application device and method |
CN104200086B (zh) | 2014-08-25 | 2017-02-22 | 西北工业大学 | 宽基线可见光相机位姿估计方法 |
US20160061591A1 (en) | 2014-08-28 | 2016-03-03 | Lts Metrology, Llc | Stationary Dimensioning Apparatus |
JP2016057108A (ja) | 2014-09-08 | 2016-04-21 | 株式会社トプコン | 演算装置、演算システム、演算方法およびプログラム |
EP3201709B1 (de) | 2014-09-30 | 2021-03-17 | NEC Corporation | Verfahren und system zur bestimmung eines pfades eines objekts zum bewegen von einem eingestellten anfangszustand zu einem endzustand unter vermeidung eines oder mehrerer hindernisse |
US10296950B2 (en) | 2014-09-30 | 2019-05-21 | Apple Inc. | Beacon triggered processes |
US9576194B2 (en) | 2014-10-13 | 2017-02-21 | Klink Technologies | Method and system for identity and age verification |
US9706105B2 (en) | 2014-10-20 | 2017-07-11 | Symbol Technologies, Llc | Apparatus and method for specifying and aiming cameras at shelves |
US10373116B2 (en) | 2014-10-24 | 2019-08-06 | Fellow, Inc. | Intelligent inventory management and related systems and methods |
US9796093B2 (en) | 2014-10-24 | 2017-10-24 | Fellow, Inc. | Customer service robot and related systems and methods |
US9600892B2 (en) | 2014-11-06 | 2017-03-21 | Symbol Technologies, Llc | Non-parametric method of and system for estimating dimensions of objects of arbitrary shape |
JP5946073B2 (ja) * | 2014-11-07 | 2016-07-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 推定方法、推定システム、コンピュータ・システムおよびプログラム |
US10022867B2 (en) | 2014-11-11 | 2018-07-17 | X Development Llc | Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action |
US9916002B2 (en) | 2014-11-16 | 2018-03-13 | Eonite Perception Inc. | Social applications for augmented reality technologies |
US10154246B2 (en) | 2014-11-20 | 2018-12-11 | Cappasity Inc. | Systems and methods for 3D capturing of objects and motion sequences using multiple range and RGB cameras |
US10248653B2 (en) | 2014-11-25 | 2019-04-02 | Lionbridge Technologies, Inc. | Information technology platform for language translation and task management |
US9396554B2 (en) | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
US9483704B2 (en) | 2014-12-10 | 2016-11-01 | Ricoh Co., Ltd. | Realogram scene analysis of images: superpixel scene analysis |
US9928708B2 (en) | 2014-12-12 | 2018-03-27 | Hawxeye, Inc. | Real-time video analysis for security surveillance |
US9628695B2 (en) | 2014-12-29 | 2017-04-18 | Intel Corporation | Method and system of lens shift correction for a camera array |
US20160253735A1 (en) | 2014-12-30 | 2016-09-01 | Shelfscreen, Llc | Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers |
EP3054404A1 (de) | 2015-02-04 | 2016-08-10 | Hexagon Technology Center GmbH | Arbeitsinformationsmodellierung |
US9367831B1 (en) | 2015-03-16 | 2016-06-14 | The Nielsen Company (Us), Llc | Methods and apparatus for inventory determinations using portable devices |
US9630319B2 (en) | 2015-03-18 | 2017-04-25 | Irobot Corporation | Localization and mapping using physical features |
US9600731B2 (en) | 2015-04-08 | 2017-03-21 | Toshiba Tec Kabushiki Kaisha | Image processing apparatus, image processing method and computer-readable storage medium |
US9868443B2 (en) | 2015-04-27 | 2018-01-16 | GM Global Technology Operations LLC | Reactive path planning for autonomous driving |
MX2017015063A (es) | 2015-05-26 | 2018-05-07 | Crown Equip Corp | Sistemas y metodos para la calibracion del dispositivo de captura de imagenes para un vehiculo de manejo de materiales. |
US9646410B2 (en) | 2015-06-30 | 2017-05-09 | Microsoft Technology Licensing, Llc | Mixed three dimensional scene reconstruction from plural surface models |
US20170011308A1 (en) * | 2015-07-09 | 2017-01-12 | SunView Software, Inc. | Methods and Systems for Applying Machine Learning to Automatically Solve Problems |
US10410096B2 (en) | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
JP6281730B2 (ja) | 2015-07-10 | 2018-02-21 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 画像を取得するシステム及び無人航空機 |
US10308410B2 (en) | 2015-07-17 | 2019-06-04 | Nestec S.A. | Multiple-container composite package |
US10455216B2 (en) | 2015-08-19 | 2019-10-22 | Faro Technologies, Inc. | Three-dimensional imager |
US9549125B1 (en) | 2015-09-01 | 2017-01-17 | Amazon Technologies, Inc. | Focus specification and focus stabilization |
GB2542115B (en) | 2015-09-03 | 2017-11-15 | Rail Vision Europe Ltd | Rail track asset survey system |
AU2016316037B2 (en) | 2015-09-04 | 2020-07-02 | Crown Equipment Corporation | Industrial vehicle with feature-based localization and navigation |
US9684081B2 (en) | 2015-09-16 | 2017-06-20 | Here Global B.V. | Method and apparatus for providing a location data error map |
US9517767B1 (en) | 2015-11-04 | 2016-12-13 | Zoox, Inc. | Internal safety systems for robotic vehicles |
US9612123B1 (en) | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
EP3374947A4 (de) | 2015-11-09 | 2019-03-27 | Simbe Robotics, Inc. | Verfahren zur verfolgung von des lagerbestands in einem lager |
US20170150129A1 (en) | 2015-11-23 | 2017-05-25 | Chicago Measurement, L.L.C. | Dimensioning Apparatus and Method |
US10592854B2 (en) | 2015-12-18 | 2020-03-17 | Ricoh Co., Ltd. | Planogram matching |
US10336543B1 (en) | 2016-01-21 | 2019-07-02 | Wing Aviation Llc | Selective encoding of packages |
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10145955B2 (en) | 2016-02-04 | 2018-12-04 | Symbol Technologies, Llc | Methods and systems for processing point-cloud data with a line scanner |
KR102373926B1 (ko) | 2016-02-05 | 2022-03-14 | 삼성전자주식회사 | 이동체 및 이동체의 위치 인식 방법 |
US10197400B2 (en) | 2016-02-25 | 2019-02-05 | Sharp Laboratories Of America, Inc. | Calibration methods and systems for an autonomous navigation vehicle |
US10229386B2 (en) | 2016-03-03 | 2019-03-12 | Ebay Inc. | Product tags, systems, and methods for crowdsourcing and electronic article surveillance in retail inventory management |
US9928438B2 (en) | 2016-03-10 | 2018-03-27 | Conduent Business Services, Llc | High accuracy localization system and method for retail store profiling via product image recognition and its corresponding dimension database |
US20170261993A1 (en) | 2016-03-10 | 2017-09-14 | Xerox Corporation | Systems and methods for robot motion control and improved positional accuracy |
US10721451B2 (en) | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
WO2017172790A1 (en) | 2016-03-29 | 2017-10-05 | Bossa Nova Robotics Ip, Inc. | Planogram assisted inventory system and method |
US9805240B1 (en) | 2016-04-18 | 2017-10-31 | Symbol Technologies, Llc | Barcode scanning and dimensioning |
US9791862B1 (en) | 2016-04-25 | 2017-10-17 | Thayermahan, Inc. | Systems and method for unmanned undersea sensor position, orientation, and depth keeping |
JP7009389B2 (ja) | 2016-05-09 | 2022-01-25 | グラバンゴ コーポレイション | 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法 |
JP6728404B2 (ja) | 2016-05-19 | 2020-07-22 | シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. | 店舗の棚への製品の配置を追跡する方法 |
JP6744430B2 (ja) | 2016-05-19 | 2020-08-19 | シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. | 製品を店舗内の棚構造に割り当てる棚割表を自動的に生成する方法 |
US9639935B1 (en) | 2016-05-25 | 2017-05-02 | Gopro, Inc. | Apparatus and methods for camera alignment model calibration |
US10394244B2 (en) | 2016-05-26 | 2019-08-27 | Korea University Research And Business Foundation | Method for controlling mobile robot based on Bayesian network learning |
JP6339633B2 (ja) | 2016-06-28 | 2018-06-06 | 新日鉄住金ソリューションズ株式会社 | システム、情報処理装置、情報処理方法、及び、プログラム |
US10769582B2 (en) | 2016-06-30 | 2020-09-08 | Bossa Nova Robotics Ip, Inc. | Multiple camera system for inventory tracking |
US10785418B2 (en) | 2016-07-12 | 2020-09-22 | Bossa Nova Robotics Ip, Inc. | Glare reduction method and system |
US20180025412A1 (en) | 2016-07-22 | 2018-01-25 | Focal Systems, Inc. | Determining in-store location based on images |
US9827683B1 (en) | 2016-07-28 | 2017-11-28 | X Development Llc | Collaborative inventory monitoring |
US20180053091A1 (en) | 2016-08-17 | 2018-02-22 | Hawxeye, Inc. | System and method for model compression of neural networks for use in embedded platforms |
US10054447B2 (en) | 2016-08-17 | 2018-08-21 | Sharp Laboratories Of America, Inc. | Lazier graph-based path planning for autonomous navigation |
US10776661B2 (en) | 2016-08-19 | 2020-09-15 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting and dimensioning objects |
US20180101813A1 (en) | 2016-10-12 | 2018-04-12 | Bossa Nova Robotics Ip, Inc. | Method and System for Product Data Review |
US10289990B2 (en) | 2016-10-17 | 2019-05-14 | Conduent Business Services, Llc | Store shelf imaging system and method |
US10210603B2 (en) | 2016-10-17 | 2019-02-19 | Conduent Business Services Llc | Store shelf imaging system and method |
US10019803B2 (en) | 2016-10-17 | 2018-07-10 | Conduent Business Services, Llc | Store shelf imaging system and method using a vertical LIDAR |
US20180114183A1 (en) | 2016-10-25 | 2018-04-26 | Wal-Mart Stores, Inc. | Stock Level Determination |
US10451405B2 (en) | 2016-11-22 | 2019-10-22 | Symbol Technologies, Llc | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
US10354411B2 (en) | 2016-12-20 | 2019-07-16 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting objects |
US9778388B1 (en) | 2016-12-22 | 2017-10-03 | Thayermahan, Inc. | Systems and methods for autonomous towing of an underwater sensor array |
US10121072B1 (en) | 2016-12-30 | 2018-11-06 | Intuit Inc. | Unsupervised removal of text from form images |
JP6938169B2 (ja) | 2017-03-01 | 2021-09-22 | 東芝テック株式会社 | ラベル生成装置及びプログラム |
US10293485B2 (en) | 2017-03-30 | 2019-05-21 | Brain Corporation | Systems and methods for robotic path planning |
US10229322B2 (en) | 2017-04-06 | 2019-03-12 | Ants Technology (Hk) Limited | Apparatus, methods and computer products for video analytics |
US20180314908A1 (en) | 2017-05-01 | 2018-11-01 | Symbol Technologies, Llc | Method and apparatus for label detection |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US10505057B2 (en) | 2017-05-01 | 2019-12-10 | Symbol Technologies, Llc | Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US11093896B2 (en) | 2017-05-01 | 2021-08-17 | Symbol Technologies, Llc | Product status detection system |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
WO2018204308A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Method and apparatus for object status detection |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
CN107067382A (zh) | 2017-05-11 | 2017-08-18 | 南宁市正祥科技有限公司 | 一种改进的图像边缘检测方法 |
WO2019023249A1 (en) | 2017-07-25 | 2019-01-31 | Bossa Nova Robotics Ip, Inc. | REDUCTION OF DATA IN A BAR CODE READING ROBOT SHELF SURVEILLANCE SYSTEM |
US10127438B1 (en) | 2017-08-07 | 2018-11-13 | Standard Cognition, Corp | Predicting inventory events using semantic diffing |
US10861302B2 (en) | 2017-08-17 | 2020-12-08 | Bossa Nova Robotics Ip, Inc. | Robust motion filtering for real-time video surveillance |
US10783379B2 (en) | 2017-08-23 | 2020-09-22 | Bossa Nova Robotics Ip, Inc. | Method for new package detection |
US10489677B2 (en) | 2017-09-07 | 2019-11-26 | Symbol Technologies, Llc | Method and apparatus for shelf edge detection |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
JP7019357B2 (ja) | 2017-09-19 | 2022-02-15 | 東芝テック株式会社 | 棚情報推定装置及び情報処理プログラム |
US20190180150A1 (en) | 2017-12-13 | 2019-06-13 | Bossa Nova Robotics Ip, Inc. | Color Haar Classifier for Retail Shelf Label Detection |
JP7081140B2 (ja) | 2017-12-25 | 2022-06-07 | 富士通株式会社 | 物体認識装置、物体認識方法及び物体認識プログラム |
US20190236530A1 (en) | 2018-01-31 | 2019-08-01 | Walmart Apollo, Llc | Product inventorying using image differences |
US11049279B2 (en) | 2018-03-27 | 2021-06-29 | Denso Wave Incorporated | Device for detecting positional relationship among objects |
US10726264B2 (en) | 2018-06-25 | 2020-07-28 | Microsoft Technology Licensing, Llc | Object-based localization |
-
2018
- 2018-12-12 US US16/217,296 patent/US11015938B2/en active Active
-
2019
- 2019-09-26 DE DE102019125987.8A patent/DE102019125987A1/de active Pending
- 2019-12-06 GB GB1917864.9A patent/GB2580779B/en active Active
- 2019-12-12 FR FR1914276A patent/FR3090166B1/fr active Active
-
2021
- 2021-05-12 US US17/318,718 patent/US11543249B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11543249B2 (en) | 2023-01-03 |
US20210262806A1 (en) | 2021-08-26 |
FR3090166B1 (fr) | 2022-08-05 |
FR3090166A1 (fr) | 2020-06-19 |
GB2580779A (en) | 2020-07-29 |
GB2580779B (en) | 2021-09-22 |
US11015938B2 (en) | 2021-05-25 |
GB201917864D0 (en) | 2020-01-22 |
US20200191575A1 (en) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018120487A1 (de) | Verfahren und vorrichtung zur kantenerkennung von auflageflächen | |
DE102018006765B4 (de) | Verfahren und system(e) für das management von frachtfahrzeugen | |
DE112018002314T5 (de) | Verfahren und vorrichtung zur erkennung eines objektstatus | |
DE112019006132T5 (de) | Verfahren, system und vorrichtung zur hilfsetikett-erkennung und -zuordnung | |
DE112019001788T5 (de) | Verfahren, system und vorrichtung zum korrigieren von transluzenzartefakten in daten, die eine trägerstruktur darstellen | |
EP2526378B1 (de) | Verfahren und system zum erfassen der position eines fahrzeuges | |
DE102014213981A1 (de) | Parkplatz-Erfassungsvorrichtung und entsprechendes Verfahren | |
DE112019002547T5 (de) | System und verfahren zum bestimmen eines standortes zur platzierung eines pakets | |
DE102012221921B4 (de) | Orten eines mobilen Endgeräts unter Nutzung von optisch detektierbaren Landmarken | |
DE102018120510A1 (de) | Systeme und verfahren zur verkaufsstellenerkennung mit bildsensoren zur identifizierung neuer radiofrequenz- identifikations (rfid) -etiketten-ereignisse in der nähe eines rfid- lesegeräts | |
DE202014010927U1 (de) | Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden | |
DE102018006764B4 (de) | Verfahren und system(e) für das management von frachtfahrzeugen | |
DE102019125987A1 (de) | Verfahren, system und vorrichtung zur navigationsunterstützung | |
DE102017116854A1 (de) | System und Verfahren zum Konfigurieren eines Kennungslesegeräts unter Verwendung einer Mobilvorrichtung | |
DE112021002050T5 (de) | Verfahren, system und vorrichtung zur datenerfassungsbeleuchtungssteuerung | |
DE102021206075A1 (de) | Fahrzeuglokalisierung als Mitfahrgelegenheit und Insassenidentifikation für autonome Fahrzeuge | |
DE112019001796T5 (de) | Verfahren, system und vorrichtung zur lokalisierung mobiler automatisierungsvorrichtungen | |
DE112021000762T5 (de) | Verfahren, system und vorrichtung zur mobilen ortung | |
DE112021001432T5 (de) | Intelligente regalsysteme und verfahren zu deren betrieb | |
DE112020002578T5 (de) | Verfahren, System und Vorrichtung zur dynamischen Aufgabensequenzierung | |
DE102020126353A1 (de) | Verfahren und systeme zur erkennung von in warenträgern zurückgelassenen artikeln | |
DE112019006186T5 (de) | Verfahren und vorrichtung zur steuerung von lichtemittern einer mobilen automatisierungsvorrichtung | |
DE102019000903A1 (de) | System mit Anlage, Objekten und Mobilteilen, und Verfahren zum Betreiben eines Systems | |
DE102021128457A1 (de) | Erkennung und optimierung der gegenstandplatzierung in materialflusssystemen | |
DE112022004575T5 (de) | Verringerung der rechenlast bei einer bildbasierten gegenstandserkennung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |