DE112020001934T5 - Verfahren und system zur automatischen kontextbezogenen aufgabendarstellung - Google Patents

Verfahren und system zur automatischen kontextbezogenen aufgabendarstellung Download PDF

Info

Publication number
DE112020001934T5
DE112020001934T5 DE112020001934.9T DE112020001934T DE112020001934T5 DE 112020001934 T5 DE112020001934 T5 DE 112020001934T5 DE 112020001934 T DE112020001934 T DE 112020001934T DE 112020001934 T5 DE112020001934 T5 DE 112020001934T5
Authority
DE
Germany
Prior art keywords
task
computing device
operator
hud
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020001934.9T
Other languages
English (en)
Inventor
John A. Bernacki
James S. L. Chen
Andrew Pierce
Matthew Adam Van Sickle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of DE112020001934T5 publication Critical patent/DE112020001934T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06316Sequencing of tasks or work
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Abstract

Ein Verfahren in einer Computervorrichtung zur automatischen kontextbezogenen Aufgabendarstellung umfasst: Speichern einer Sequenz von Aufgabenanweisungen zur Darstellung für einen Bediener der Computervorrichtung über eine Ausgabeeinheit, die mit der mobilen Computervorrichtung verbunden ist, in einem Speicher der Computervorrichtung, Detektieren, mittls einer Eingabeeinheit der Computervorrichtung, eines Aufgabeninitiierungsereignisses; als Reaktion auf das Detektieren des Aufgabeninitiierungsereignisses: Steuern der Ausgabeeinheit, um dem Bediener eine erste Aufgabenanweisung aus der Sequenz darzustellen; Erhalten von Ausrichtungsdaten, die dem Bediener entsprechen, von einer Trägheitsmesseinheit, die mit der Computervorrichtung verknüpft ist; basierend auf den Ausrichtungsdaten Nachverfolgen einer akkumulierten Bedienerausrichtungsänderung seit der Detektion des Aufgabeninitiierungsereignisses; und wenn die akkumulierte Bedienerausrichtungsänderung einen Schwellenwert überschreitet, Steuern der Ausgabeeinheit, um dem Bediener eine zweite Aufgabenanweisung aus der Sequenz darzustellen.

Description

  • HINTERGRUND
  • Aufgaben, wie beispielsweise die Entnahme von Waren aus einem Warenlager, erfordern es, dass sich Arbeiter durch eine Anlage bewegen und z. B. zum nachfolgenden Verpacken und Versenden verschiedene Objekte entnehmen. Es gibt eine Anzahl an Systemen zur Führung von Arbeitern innerhalb der Anlage. Ein Pickto-Light-System ordnet beispielsweise Leuchtanzeigen in der gesamten Anlage an, die leuchten, um Arbeiter anzuweisen, welche Objekte sie entnehmen sollen. Solche Systeme können jedoch aufwendig und zeitraubend in der Bereitstellung und Wartung sein.
  • Figurenliste
  • Die beigefügten Figuren, in denen sich gleiche Bezugszeichen auf gleiche oder funktionell ähnliche Elemente überall in den einzelnen Ansichten beziehen, zusammen mit der nachstehenden detaillierten Beschreibung sind in die Beschreibung integriert und bilden einen Teil der Beschreibung und dienen dazu, Ausführungsformen von Konzepten weiter zu veranschaulichen, welche die beanspruchte Erfindung umfassen, und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erläutern.
    • 1 ist ein Schema eines Systems zur automatischen kontextbezogenen Aufgabendarstellung.
    • 2 ist ein Blockdiagramm bestimmter interner Hardwarekomponenten der mobilen Computervorrichtung von 1 und dem tragbaren Heads-up-Display von 1.
    • 3 ist ein Flussdiagramm eines Verfahrens zur automatischen kontextbezogenen Aufgabendarstellung.
    • 4A ist eine Draufsicht einer Anlage, in der das System von 1 implementiert ist.
    • 4B ist eine Seitenansicht eines Teils der Anlage von 4A.
    • 4C ist ein Schema von Informationen, die von dem tragbaren Heads-up-Display von 1 dargestellt werden.
    • 5A ist eine aktualisierte Seitenansicht des Teils der Anlage von 4A.
    • 5B ist ein Schema, das akkumulierte Ausrichtungsdaten veranschaulicht, die mittels des Verfahrens von 3 erzeugt sind.
    • 6A ist eine weitere aktualisierte Seitenansicht des Teils der Anlage von 5A.
    • 6B ist ein Schema, das zusätzliche Beispiele von akkumulierten Ausrichtungsdaten veranschaulicht, die mittels des Verfahrens von 3 erzeugt sind.
    • 6C ist eine schematische Darstellung von weiteren Informationen, die von dem tragbaren Heads-up-Display von 1 dargestellt werden.
  • Ein Fachmann wird verstehen, dass die Elemente in den Figuren der Einfachheit und Klarheit halber veranschaulicht sind und nicht unbedingt maßstabsgetreu gezeichnet wurden. Beispielsweise können die Abmessungen einiger der Elemente in den Figuren bezogen auf andere Elemente übertrieben groß dargestellt sein, um dabei zu unterstützen, das Verständnis der erfindungsgemäßen Ausführungsformen zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden gegebenenfalls durch konventionelle Symbole in den Zeichnungen dargestellt, die nur die spezifischen Details zeigen, die für das Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um die Offenbarung nicht durch Details zu verdecken, die für den Durchschnittsfachmann, der den Vorteil der vorliegenden Beschreibung hat, leicht erkennbar sind.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Beispiele, die hierin offenbart werden, richten sich an ein Verfahren in einer Computervorrichtung zur automatischen kontextbezogenen Aufgabendarstellung, wobei das Verfahren umfasst: Speichern einer Sequenz von Aufgabenanweisungen in einem Speicher der Computervorrichtung zur Darstellung für einen Bediener der Computervorrichtung über eine Ausgabeeinheit, die mit der mobilen Computervorrichtung verbunden ist; Detektieren, mittls einer Eingabeeinheit der Computervorrichtung, eines Aufgabeninitiierungsereignisses; als Reaktion auf das Detektieren des Aufgabeninitiierungsereignisses: Steuern der Ausgabeeinheit, um dem Bediener eine erste Aufgabenanweisung aus der Sequenz darzustellen; Erhalten von Ausrichtungsdaten, die dem Bediener entsprechen, von einer Trägheitsmesseinheit, die mit der Computervorrichtung verknüpft ist; basierend auf den Ausrichtungsdaten Nachverfolgen einer akkumulierten Bedienerausrichtungsänderung seit der Detektion des Aufgabeninitiierungsereignisses; und wenn die akkumulierte Bedienerausrichtungsänderung einen Schwellenwert überschreitet, Steuern der Ausgabeeinheit, um dem Bediener eine zweite Aufgabenanweisung aus der Sequenz darzustellen.
  • Weitere hierin offenbarte Beispiele sind an eine Computervorrichtung gerichtet, die umfasst: einen Speicher, der eine Sequenz von Aufgabenanweisungen zur Darstellung für einen Bediener der Computervorrichtung über eine Ausgabeeinheit, die mit der Computervorrichtung verbunden ist, speichert; eine Eingabeeinheit, die konfiguriert ist, ein Aufgabeninitiierungsereignis zu detektieren; einen Prozessor, der mit dem Sensor und dem Speicher verbunden ist; wobei der Prozessor konfiguriert ist zum: als Reaktion auf den Empfang einer Detektion des Aufgabeninitiierungsereignisses von der Eingabeeinheit: Steuern der Ausgabeeinheit, um dem Bediener eine erste Aufgabenanweisung von der Sequenz darzustellen; Erhalten von Ausrichtungsdaten, die dem Bediener entsprechen, von einer Trägheitsmesseinheit; basierend auf den Ausrichtungsdaten, Verfolgen einer akkumulierten Bedienerausrichtungsänderung seit der Detektion des Aufgabeninitiierungsereignisses; und wenn die akkumulierte Bedienerausrichtungsänderung einen Schwellenwert überschreitet, Steuern der Ausgabeeinheit, um dem Bediener eine zweite Aufgabenanweisung von der Sequenz darzustellen.
  • 1 zeigt ein System 100 zur automatischen kontextbezogenen Aufgabendarstellung. Das System 100 kann in einer Warenlagerumgebung oder dergleichen eingesetzt werden, in der ein oder mehrere Arbeiter Objekte zum Verpacken und Versenden aus Tragstrukturen, wie beispielsweise Gestellen, Regalen oder dergleichen entnehmen. Einem Fachmann wird klar sein, dass das System 100 auch in anderen Umgebungen, wie z. B. in Einzelhandelseinrichtungen und dergleichen, eingesetzt werden kann.
  • Das System 100 umfasst eine mobile Computervorrichtung 104, die hierin auch einfach als die Vorrichtung 104 bezeichnet wird. Die mobile Computervorrichtung 104 ist als tragbarer Computer veranschaulicht, der an einem Handgelenk, Arm, Gürtel oder dergleichen eines Bedieners angebracht sein kann. Bei anderen Ausführungsformen kann die Vorrichtung 104 jedoch einen anderen geeigneten Formfaktor einschließlich dessen eines Smartphones, eines Laptop-Computers, eines Tablet-Computers, eines tragbaren mobilen Computers (z. B. einschließlich eines Pistolengriffs) oder dergleichen aufweisen. Die Vorrichtung 104 umfasst ein Gehäuse 108, das Eingabe- und Ausgabevorrichtungen einschließlich eines Displays 112, das einen integrierten Touchscreen umfassen kann, unterstützt. Andere von dem Gehäuse 108 getragene Eingabevorrichtungen können auch ein Mikrofon 116 und eine oder mehrere Tasten 120 umfassen. Andere von dem Gehäuse 108 getragene Ausgabevorrichtungen können einen Lautsprecher 124 umfassen. Das Gehäuse 108 trägt zudem verschiedene interne Komponenten der Vorrichtung 104, die nachstehend ausführlicher beschrieben werden.
  • Das System 100 umfasst in dem vorliegenden Beispiel, das in 1 gezeigt ist, zudem eine Datenerfassungsvorrichtung 126 als handgetragener Barcodescanner und wird daher hierin auch als Scanner 126 bezeichnet. Im Allgemeinen ermöglicht die Datenerfassungsvorrichtung 126 einem Bediener der Vorrichtung 104 und des Scanners 126, Daten von maschinenlesbaren Zeichen, wie beispielsweise Barcodes, die an Objekten wie Paketen angebracht sind, zu erhalten. Bei anderen Ausführungsformen kann der Scanner 126 in die Vorrichtung 104 integriert sein. Bei noch weiteren Ausführungsformen kann der Scanner 126 ausgelassen sein.
  • Der Scanner 126 umfasst ein Gehäuse 128, das eine Datenerfassungseinheit trägt, von der ein Abbildungsfenster 132 gezeigt ist. Die Datenerfassungseinheit kann einen bildbasierten oder laserbasierten Barcodescanner und eine zugehörige Steuerungs- und Decodierungshardware umfassen. Der Scanner 126, der in dem vorliegenden Beispiel an der Hand angebracht ist, umfasst zudem einen Riemen 136 zum Anbringen an der Hand (z. B. an einem oder mehreren Fingern) eines Bedieners, wie beispielsweise eines Arbeiters in dem vorstehend erwähnten Warenlager. Der Scanner 126 umfasst ferner einen Auslöser 140 oder eine andere Eingabeeinheit, die zum Aktivieren der Datenerfassungseinheit verwendet wird. Der Scanner 126 und die Vorrichtung 104 sind konfiguriert, über eine Verbindung 144, wie beispielsweise eine drahtlose Verbindung (z. B. Bluetooth™) zu kommunizieren. In anderen Beispielen kann die Verbindung 144 verdrahtet anstatt drahtlos sein.
  • Das System 100 umfasst ferner eine Hilfsausgabevorrichtung, die im vorliegenden Beispiel als tragbares Heads-up-Display (HUD) 148 implementiert ist. Das HUD 148 umfasst, wie in 1 gezeigt, einen Brillenrahmen und eine geeignete Anzeigehardware (z. B. Projektionshardware oder dergleichen), um visuelle Informationen auf einer Region 152 der Brille darzustellen. Das HUD 148 umfasst zudem eine Kommunikationsschnittstelle zur Kommunikation mit der Vorrichtung 104 über eine Verbindung 156, wie beispielsweise eine weitere Bluetooth™-Verbindung. Die Vorrichtung 104 ist daher in der Lage, Daten an das HUD 148 zum Anzeigen in der Region 152 zu senden.
  • Wie nachstehend näher beschrieben, werden die Vorrichtung 104, der Scanner 126 und das HUD 148 von einem Bediener getragen und sind konfiguriert, dem Bediener automatisch aufgabenbezogene Informationen über die Region 152 darzustellen. Insbesondere ist die Vorrichtung 104 konfiguriert, die in der Region 152 präsentierten Informationen als Reaktion auf bestimmte Ereignisse, die von einem oder mehreren von der Vorrichtung 104, HUD 148 und dem Scanner 126 detektiert wurden, automatisch zu aktualisieren.
  • Die vorstehend erwähnten aufgabenbezogenen Informationen definieren im vorliegenden Beispiel Warenentnahmeaufgaben, die von dem Bediener auszuführen sind. Das heißt, die Aufgabeninformationen definieren Orte innerhalb der Einsatzumgebung (z. B. ein Warenlager), zu denen sich der Bediener bewegen muss, um bestimmte Objekte zu entnehmen. Die Aufgabeninformationen können auch das spezifische zu entnehmende Objekt sowie die Anzahl solcher Objekte, die entnommen werden sollen, identifizieren. Wie dem Fachmann jetzt klar sein wird, können zahlreiche solcher Aufgaben durch den Bediener erforderlich sein, wobei jede Aufgabe einen anderen Objekttyp (und eine Anzahl solcher Objekte) spezifiziert, die zu entnehmen sind. Zu diesem Zweck kann das System 100 auch einen Server 160 umfassen, der über ein Netzwerk 162 mit der Vorrichtung 104 verbunden ist und einen Aufbewahrungsort 164 von Aufgabenanweisungen speichert. Die Aufgabenanweisungen können an die Vorrichtung 104 (z. B. in Sätzen oder nacheinander) zur Darstellung für den Bediener der Vorrichtung 104 in Reihenfolge bereitgestellt werden. Der Ablauf der Sequenz wird durch die Vorrichtung 104 und das HUD 148 mindestens teilweise automatisch gesteuert.
  • Unter jetziger Bezugnahme auf 2 werden vor der ausführlicheren Beschreibung der Funktionsweise des Systems 100 bestimmte innere Komponenten der Vorrichtung 104 und des HUD 148 ausführlicher beschrieben.
  • Wie in 2 gezeigt, umfasst die Vorrichtung 104 eine Zentraleinheit (CPU), die auch als Prozessor 200 bezeichnet wird, die mit einem nicht-flüchtigen, computerlesbaren Speichermedium, wie einem Speicher 204 verbunden ist. Der Speicher 204 umfasst eine geeignete Kombination aus flüchtigem Speicher (z. B. Direktzugriffsspeicher (RAM)) und nicht-flüchtiger Speicher (z. B. Nur-Lese-Speicher (ROM), elektrisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM), Flash). Der Prozessor 200 und der Speicher 204 umfassen jeweils eine oder mehrere integrierte Schaltungen (ICs).
  • Die in 1 gezeigten Komponenten der Vorrichtung 104 (z. B. das Display und der Touchscreen 112, das Mikrofon 116, die Tasten 120 und der Lautsprecher 124) sind mit dem Prozessor 200 über einen oder mehrere Kommunikationsbusse verbunden. Die Vorrichtung 104 umfasst auch eine Kommunikationsschnittstelle 208, die es der Vorrichtung 104 ermöglicht, Daten mit anderen Vorrichtungen einschließlich des Scanners 126, des HUD 148 und des Servers 160 auszutauschen. Die Kommunikationsschnittstelle 208 umfasst daher jede geeignete Hardware (z. B. Sender, Empfänger, Netzwerkschnittstellensteuerungen und dergleichen), die es der Vorrichtung 104 ermöglicht, mit solchen anderen Vorrichtungen zu kommunizieren.
  • Die Vorrichtung 104 kann auch einen Bewegungssensor 212 umfassen. Der Bewegungssensor 212 umfasst eine Trägheitsmesseinheit (IMU), die einen oder mehrere Beschleunigungsmesser und ein oder mehrere Gyroskope umfasst. Der Bewegungssensor 212 ist mit anderen Worten konfiguriert, die Beschleunigung der Vorrichtung 104 in drei Dimensionen sowie Änderungen in der Ausrichtung der Vorrichtung 104 in drei Dimensionen zu detektieren und Daten, die solche Beschleunigungs- und Ausrichtungsänderungen angeben, an den Prozessor 200 zu senden. Bei anderen Ausführungsformen ist der Bewegungssensor 212 ausgelassen. Die Komponenten der Vorrichtung 104 sind durch die vorstehend erwähnten Kommunikationsbusse miteinander verbunden und werden durch eine Batterie oder eine andere Stromquelle über die Kommunikationsbusse oder getrennte Stromleitungen (nicht gezeigt) versorgt.
  • Der Speicher 204 speichert mehrere Anwendungen, die jeweils mehrere computerlesbare Befehle umfassen, die von dem Prozessor 200 ausgeführt werden können. Die Ausführung der vorstehend erwähnten Befehle durch den Prozessor 200 veranlasst die Vorrichtung 104, bestimmte Funktionen zu implementieren, wie sie hierin beschrieben werden. Von den Anwendungen wird daher angenommen, dass sie derart konfiguriert sind, dass sie in der nachstehenden Beschreibung diese Funktionalität ausführen. Im vorliegenden Beispiel speichert der Speicher 204 der Vorrichtung 104 eine Aufgabendarstellungsanwendung 216, die hierin auch als Anwendung 216 bezeichnet wird. Die Vorrichtung 104 ist über die Ausführung der Anwendung 216 durch den Prozessor 200 konfiguriert, dem Bediener z. B. über das HUD 148 als Reaktion auf bestimmte Ereignisse, die von dem Prozessor 200 detektiert werden, Aufgabeninformationen darzustellen. Die Aufgabeninformationen selbst können auch in dem Speicher 204 beispielsweise in einem Aufbewahrungsort 220, der von dem Server 160 erhalten wird (der z. B. eine Teilmenge des Aufbewahrungsorts 164 ist, der in Verbindung mit 1 erwähnt wird) gespeichert werden.
  • Das HUD 148 umfasst, wie in 2 gezeigt, einen Prozessor 230, der mit einer Kommunikationsschnittstelle 234 und einer Displayeinheit 238 verbunden ist. Die Kommunikationsschnittstelle 234 ermöglicht es, dass das HUD 148 mit anderen Computervorrichtungen, wie beispielsweise der Vorrichtung 104, kommuniziert, und umfasst daher jede geeignete Kombination von Sendern, Empfängern, Netzwerkschnittstellensteuerungen und dergleichen, die notwendig ist, um derartige Kommunikationen zu ermöglichen. Die Displayeinheit 238 umfasst jede geeignete Displayhardware, wie beispielsweise Displayfilme, Projektoren und dergleichen, die durch den Prozessor 230 steuerbar ist, um von der Vorrichtung 104 empfangene Daten in der Region 152 darzustellen, die in 1 gezeigt ist.
  • Das HUD 148 kann auch einen Bewegungssensor 242, wie beispielsweise eine IMU, umfassen, der konfiguriert ist, Daten zu erfassen, die Änderungen in der Ausrichtung und den Beschleunigungen des HUD 148 angeben, zur Übertragung an die Vorrichtung 104 über den Prozessor 230 und die Kommunikationsschnittstelle 234. Bei anderen Ausführungsformen ist einer der Bewegungssensoren 212 und 242 ausgelassen. Das heißt, die nachstehend beschriebene Funktionalität, die auf Bewegungsdaten beruht, die von einer IMU erfasst werden, kann mit einem der Bewegungssensoren 212 und 242 implementiert werden, und der andere Bewegungssensor kann in dem System 100 ausgelassen werden.
  • Bei weiteren Ausführungsformen sind einer oder beide der Prozessoren 200 und 230 als ein oder mehrere speziell konfigurierte Hardwareelemente implementiert, wie beispielsweise feldprogrammierbare Gate-Arrays (FPGAs) und/oder anwendungsspezifische integrierte Schaltungen (ASICs).
  • Unter Bezugnahme auf 3 wird der Betrieb des Systems 100 ausführlicher beschrieben. 3 veranschaulicht ein Flussdiagramm eines Verfahrens 300 zur automatischen kontextbezogenen Aufgabendarstellung. Die Ausführung des Verfahrens 300 wird in Verbindung mit seiner Ausführung innerhalb des Systems 100 beschrieben. Insbesondere werden die Blöcke des Verfahrens 300 in der nachfolgenden Beschreibung durch die Vorrichtung 104 mittels der Ausführung der Anwendung 216 durch den Prozessor 200 ausgeführt.
  • Bei Block 305 ist die Vorrichtung 104 konfiguriert, eine Sequenz von Aufgabenanweisungen zu erhalten und in dem Speicher 204 zu speichern. Die Vorrichtung 104 kann beispielsweise konfiguriert sein, die Aufgabenanweisungen durch Senden einer Anforderung an den Server 160 über das Netzwerk 162 zu erhalten. Die Anforderung kann eines oder mehrere von einem Ort der Vorrichtung 104 und/oder einer Kennung der Vorrichtung 104 (z. B. eine Kontokennung, die mit dem aktuellen Bediener der Vorrichtung 104 verknüpft ist, oder dergleichen) umfassen. Als Reaktion auf die Anforderung kann der Server 160 konfiguriert sein, einen Satz von Aufgabenanweisungen aus dem Aufbewahrungsort 164 abzurufen und die Aufgabenanweisungen zur Speicherung in dem lokalen Aufbewahrungsort 220 und zur anschließenden Darstellung über das HUD 148 an die Vorrichtung 104 zu senden.
  • Die Aufgabenanweisungen definieren jeweils eine Aufgabe, die von dem Bediener der Vorrichtung 104 auszuführen ist. Zum Beispiel kann eine Sequenz von Aufgabenanweisungen eine anfängliche Aufgabe definieren, sich an einen bestimmten Ort innerhalb eines Warenlagers zu bewegen und einen Barcode zu scannen, der mit einem spezifizierten Objekt an diesem Ort verknüpft ist. Die Aufgabenanweisung kann daher Daten enthalten, die den Ort und eine Kennung des Objekts angeben. Die Aufgabenanweisung kann auch einen Textstring, eine Audiodatei oder dergleichen umfassen, die den Bediener anweist, den vorstehend erwähnten Barcode (z. B. mit dem Scanner 126) bei Ankunft an dem spezifizierten Ort zu scannen.
  • Eine nachfolgende Aufgabenanweisung in der vorstehend erwähnten Beispielsequenz kann eine weitere Aufgabe definieren, eine bestimmte Anzahl der Objekte an dem vorstehend genannten Ort zu entnehmen. Solch eine Aufgabenanweisung kann daher Daten, welche die vorstehend erwähnte Objektkennung definieren, sowie eine erforderliche Menge umfassen. Die Aufgabenanweisung kann auch weitere Ortsdaten, die beispielsweise die Angabe eines genauen Orts in einem Gestell, Regal oder einer anderen Tragstruktur, aus der die Objekte entnommen werden sollen, umfassen. Noch eine weitere Aufgabenanweisung in der Sequenz kann eine weitere Aufgabe definieren, die entnommenen Objekte in einen Wagen, eine Transportvorrichtung oder dergleichen zu platzieren, der bzw. die von dem Bediener der Vorrichtung 104 befördert (oder geschoben) werden. Die Aufgabenanweisung umfasst daher Daten, die beispielsweise definieren, an welchem Ort die entnommenen Objekte platziert werden sollen.
  • Bei Block 310 ist die Vorrichtung 104 konfiguriert, zu bestimmen, ob ein Aufgabeninitiierungsereignis über eine Eingabeeinheit, wie beispielsweise die Datenerfassungseinheit des Scanners 126, detektiert wurde. Die Ausführung des Blocks 310 ist in den 4A und 4B veranschaulicht. Vor dem Ausführen von Block 310 wird davon ausgegangen, dass die Vorrichtung 104 das HUD steuert, um dem Bediener 400 eine anfängliche Anweisung darzustellen, sich mit einem Wagen 408 an einen bestimmten Ort unter mehreren Regalen 404-1, 404-2, 404-3 in einem Warenlager zu bewegen. Die anfängliche Anweisung weist den Bediener 400 ferner an, einen Barcode (oder Daten von einem anderen Zeichen, wie beispielsweise einem RFID-Tag oder dergleichen) zu scannen, der mit einem bestimmten Objekt verknüpft ist. 4A veranschaulicht eine Draufsicht der Anlage nach Ankunft des Bedieners 400 an dem spezifizierten Ort. Bei anderen Ausführungsformen kann die vorstehend erwähnte Aufgabenanzeige durch das HUD 148 ausgelassen sein. Der Bediener 400 kann die anfängliche Anweisung beispielsweise durch einen anderen geeigneten Mechanismus empfangen haben.
  • Wie in 4B gezeigt, steuert der Bediener 400 den Scanner 126, um den vorstehend erwähnten Barcode zu erfassen, was in einer positiven Bestimmung bei Block 310 resultiert. Wenn die Bestimmung bei Block 310 negativ ist, wartet die Vorrichtung 104 auf die Detektion des Aufgabeninitiierungsereignisses. Unter erneuter Bezugnahme auf 3, ist bei Block 315, als Reaktion auf die Detektion eines Aufgabeninitiierungsereignisses, die Vorrichtung 104 konfiguriert, eine primäre Aufgabenanweisung aus dem Speicher 204 (z. B. aus dem Aufbewahrungsort 220) abzurufen und die primäre Aufgabenanweisung über das HUD 148 darzustellen. Wie in 4C gezeigt, umfasst die primäre Aufgabenanweisung, die in der Region 152 des HUD 148 präsentiert wird, eine Kennung 412 eines Objekts sowie eine Menge 416 des Objekts, das aus dem Regal 404-2 entnommen werden soll. Die primäre Aufgabenanweisung kann auch eine visuelle Darstellung 420 des Regals 404-2 einschließlich eines Indikators (z. B. ein Schlaglicht oder ein anderes visuelles Merkmal) 424 des spezifischen Orts in dem Regal 404-2, von dem der bzw. die Artikel entnommen werden sollen, umfassen.
  • Unter erneuter Bezugnahme auf 3 ist die Vorrichtung 104 bei Block 320 konfiguriert, Ausrichtungsdaten, die dem Bediener 400 entsprechen, zu erhalten. Die Ausrichtungsdaten werden von einer IMU und insbesondere von einem der Bewegungssensoren 212 und 242 erhalten, die vorstehend in Verbindung mit 2 erwähnt sind. Wie dem Fachmann ersichtlich ist, erzeugen die IMUs 212 und 242 Daten, welche die Beschleunigung in drei Dimensionen (d. h., entlang jeder von drei Achsen) und die Drehung in drei Dimensionen (d. h., um jede von drei Achsen) angeben. Die Vorrichtung 104 ist konfiguriert, die Ausgabe des Bewegungssensors 212 oder 242 zu verarbeiten, um eine akkumulierte Ausrichtungsänderung nachzuverfolgen. Die Vorrichtung 104 kann beispielsweise konfiguriert sein, die Ausgabe von einem oder mehreren Gyroskopen zu integrieren, um akkumulierte Ausrichtungsänderungen um jede der vorstehend genannten drei Achsen zu erzeugen. Da der Scanner 126 und die Vorrichtung 104 am Körper des Bedieners 400 getragen werden, weisen die akkumulierten Ausrichtungsänderungen auf eine Bewegung des Bedieners 400 hin.
  • Die Vorrichtung 104 ist konfiguriert, die akkumulierte Ausrichtungsänderung beginnend zum Zeitpunkt der positiven Bestimmung bei Block 310 nachzuverfolgen. Das heißt, die Vorrichtung 104 kann konfiguriert sein, als Reaktion auf die positive Bestimmung bei Block 310 (z. B. gleichzeitig mit der Ausführung von Block 315) zu beginnen, die Gyroskopausgabe von dem Bewegungssensor 212 oder 242 zu integrieren.
  • Bei Block 325 ist die Vorrichtung 104 konfiguriert, zu bestimmen, ob die akkumulierte Ausrichtung seit der positiven Bestimmung bei Block 310 einen vordefinierten Schwellenwert überschreitet. Unter Bezugnahme auf 4B wird der Fachmann verstehen, dass der Bediener 400, wenn der Bediener 400 die durch die Aufgabenanweisung in Block 315 identifizierten Objekte (d. h., zwei ACME-Fallschirme im vorliegenden Beispiel) entnommen hat, sich drehen muss, um sich dem Wagen 408 zuzuwenden und die Objekte in den Wagen 408 zu legen. Die für den Bediener 400 erforderliche Drehbewegung, um dem Wagen 408 zugewandt zu sein, gibt an, dass die Aufgabe des Entnehmens der Objekte abgeschlossen ist. Die Bestimmung bei Block 325 ermöglicht es der Vorrichtung 104, den Abschluss der Entnehmungsaufgabe automatisch zu detektieren, ohne dass der Bediener 400 über die Bewegung, um sich dem Wagen 408 zuzuwenden, hinaus eine explizite Angabe bezüglich des Abschlusses bereitstellen muss.
  • Unter Bezugnahme auf 5A ist eine Ausgangsposition 500 des Bedieners 400 (wie in 4B gezeigt) zusammen mit einer aktuellen Position des Bedieners 400 veranschaulicht. Wie in 5A ersichtlich, hat sich der Bediener 400 dem Regal 404-2 genähert, um die Objekte zu entnehmen, die durch die bei Block 315 dargestellte primäre Anweisung identifiziert werden. 5B veranschaulicht akkumulierte Ausrichtungsdaten 504, die von der Vorrichtung 104 als Ergebnis der in 5A gezeigten Bewegung erzeugt werden. Wie in 5B ersichtlich, geben die akkumulierten Ausrichtungsdaten 504 eine Änderung in der Ausrichtung um eine Achse von beispielsweise 5 Grad an, da der Bediener 400 der gleichen Richtung zugewandt ist wie in der Ausgangsposition 500. Der Schwellenwert kann beispielsweise auf einen Wert zwischen 40 Grad und 100 Grad (z. B. 60 Grad) eingestellt sein und die akkumulierte Ausrichtungsänderung in Zusammenhang mit den 5A und 5B überschreitet den Schwellenwert nicht. Die Bestimmung bei Block 325 ist daher negativ und die Vorrichtung 104 verfolgt weiterhin die akkumulierte Ausrichtungsänderung bei Block 320. Das HUD 148 stellt daher auch weiterhin die in 4C gezeigte primäre Aufgabenanweisung dar.
  • Unter Bezugnahme auf 6A ist eine vorherige Position 600 des Bedieners 400 gezeigt (d. h., die Position des Bedieners 400 in 5A) sowie die gegenwärtige Position des Bedieners 400. In 6A hat sich der Bediener 400 von dem Regal 404-2 weggedreht, um sich dem Wagen 408 zuzuwenden, nachdem er die Objekte entnommen hat, die durch die in 4C gezeigte primäre Aufgabenanweisung angegeben sind. Wie vorstehend erwähnt, ist die Vorrichtung 104 konfiguriert, die Nachverfolgung der akkumulierten Ausrichtungsänderungen bei Block 320 fortzusetzen, bis bei Block 325 eine positive Bestimmung vorhanden ist. Daher wird, wie in 6B gezeigt, die akkumulierte Ausrichtungsänderung, die nach dem Drehen des Bedieners 400 erzeugt wird, der in 6A gezeigt ist, durch die akkumulierten Ausrichtungsänderungsdaten 604a dargestellt. Die Daten 604a definieren die bereits erwähnte 5-Grad-Drehung sowie eine Drehung (von z. B. 170 Grad) um eine zweite Achse.
  • Bei einer weiteren Ausführung von Block 325 ist die Vorrichtung 104 konfiguriert, jede der Drehungen in den akkumulierten Ausrichtungsdaten 604a mit dem zuvor erwähnten Schwellenwert zu vergleichen. Wie nun offensichtlich, überschreitet die in 6B gezeigte Drehung von 170 Grad den Schwellenwert, sodass die Bestimmung bei Block 325 daher positiv ist.
  • Bevor der Block 330 des Verfahrens 300 beschrieben wird, wird darauf hingewiesen, dass 6B zudem ein weiteres Beispiel der akkumulierten Ausrichtungsdaten 604b veranschaulicht. Während die Daten 504 und 604a Achsen umfassen, die mit dem Bediener 400 ausgerichtet sind (z. B. eine im Wesentlichen vertikale Achse und zwei im Wesentlichen horizontale Achsen, die zueinander orthogonal sind), erfordert die Ausführung des Verfahrens 300 keine Kalibrierung der Bewegungssensoren 212 und 242. Ferner erfordert die Ausführung des Verfahrens 300 keine Kenntnis der physischen Anordnung der Bewegungssensoren 212 und 242. Das heißt, die Vorrichtung 104 und/oder das HUD 148 können in verschiedenen Positionen und Ausrichtungen am Bediener angeordnet sein, ohne die Ausführung des Verfahrens 300 zu beeinträchtigen. Die bei Block 320 erhaltenen Ausrichtungsdaten können daher mit dem Bediener 400 nicht ausgerichtet sein. Die akkumulierten Ausrichtungsdaten 604b sind beispielsweise als Drehwinkel um Achsen definiert, die relativ zu den vertikalen und horizontalen Achsen geneigt sind, die in Verbindung mit den Daten 604a gezeigt sind. Da der Schwellenwert bei Block 325 jedoch für jede Achse der Ausrichtungsdaten bewertet wird, ist die Ausrichtung der in den Daten 604b dargestellten Achsen relativ zu der physischen Umgebung des Bedieners 400 nicht relevant, und die Bewegungssensoren 212 und 242 müssen nicht kalibriert werden. Die Daten 604b geben beispielsweise eine Drehung von ungefähr 140 Grad um eine erste Achse und eine Drehung von ungefähr 50 Grad um eine zweite Achse an. Die Bestimmung bei Block 325 ist daher trotz der Ausrichtung der durch die Daten 604b definierten Achsen positiv.
  • Unter erneuter Bezugnahme auf 3 ist bei Block 330 nach einer positiven Bestimmung bei Block 325 die Vorrichtung 104 konfiguriert, die Nachverfolgung der akkumulierten Ausrichtungsänderung zu beenden. Das heißt, die akkumulierte Ausrichtungsänderung wird zurückgesetzt. Die Vorrichtung 104 ist ferner konfiguriert, eine sekundäre Aufgabenanweisung darzustellen, die der primären Aufgabenanweisung in der Sequenz folgt. Unter Bezugnahme auf 6C ist ein Beispiel der sekundären Aufgabenanweisung veranschaulicht, wie sie auf dem HUD 148 dargestellt wird (spezifisch in der Region 152 des HUD 148). Die sekundäre Aufgabenanweisung umfasst die vorstehend erwähnten Identifikatoren 412 und 416 sowie eine visuelle Anzeige 608, wo die entnommenen Objekte in dem Wagen 408 zu platzieren sind. Die visuelle Anzeige 608 kann zum Beispiel eine hervorgehobene Region 612 umfassen, die einem bestimmten Behälter oder dergleichen in dem Wagen 408 entspricht, in den die entnommenen Objekte zu platzieren sind. Nach der Ausführung von Block 330 kann die Vorrichtung 104 zu Block 310 zurückkehren, um auf die Detektion eines weiteren Aufgabeninitiierungsereignisses zu warten und die nächste Sequenz von Aufgabenanweisungen darzustellen.
  • Bei anderen Ausführungsformen umfasst die in Block 305 erhaltene Anweisungssequenz Informationen, die mehrere primäre und sekundäre Aufgaben definieren. Bei solchen Ausführungsformen fährt die Vorrichtung 104 fort, die akkumulierte Ausrichtungsänderung nachzuverfolgen, um eine ausreichende Bewegung zu detektieren und die Darstellung der nächsten primären Aufgabenanweisung auszulösen, anstatt die akkumulierte Ausrichtungsänderung bei Block 330 nachzuverfolgen. Nachdem eine Winkeländerung detektiert wurde, die ausreichend ist, um eine positive Bestimmung bei Block 325 auszulösen, kann die Vorrichtung 104 beispielsweise die Nachverfolgung der akkumulierten Ausrichtungsänderung fortsetzen und Block 325 wiederholen, um zu bestimmen, ob die nächste primäre Aufgabenanweisung präsentiert werden soll (nachdem die erste sekundäre Aufgabenanweisung bei Block 330 präsentiert wurde).
  • Es sind weitere Variationen der vorstehenden Systeme und Verfahren denkbar. Die Aufgabenanweisungen brauchen zum Beispiel nicht auf dem HUD 148 dargestellt werden, sondern können dem Bediener 400 über das Display 112, den Lautsprecher 124 oder eine Kombination davon präsentiert werden. Bei weiteren Ausführungsformen führt das HUD 148 selbst das Verfahren 300 aus. Das heißt, der Prozessor 230 des HUD 148 führt unabhängig von der mobilen Vorrichtung 104 jeden der Blöcke 305 bis 330 aus (anstatt dass das HUD 148 als eine Peripherievorrichtung für die mobile Vorrichtung 104 agiert, wobei die mobile Vorrichtung 104 selbst die mit dem Verfahren 300 in Zusammenhang stehenden Berechnungen ausführt).
  • Bei einigen Ausführungsformen muss die Sequenz von Aufgabenanweisungen bei Block 305 nicht abgerufen werden. Stattdessen kann die Vorrichtung 104 konfiguriert sein, nur eine Aufgabe zu einer Zeit abzurufen und die nächste Aufgabe in der Sequenz nur nach Abschluss der vorherigen Aufgabe von dem Server 160 anzufordern. Daher kann die Vorrichtung 104 beispielsweise konfiguriert sein, die sekundäre Aufgabe nach einer positiven Bestimmung bei Block 325 anzufordern.
  • Anstelle des vorstehend erwähnten Barcodescannens sind verschiedene andere Aufgabeninitiierungsereignisse zur Detektion bei Block 310 denkbar. Ein weiteres Beispiel für ein Aufgabeninitiierungsereignis umfasst die Detektion eines Audiosignals, wie beispielsweise das Aussprechen einer vorbestimmten Zeichenfolge durch den Bediener 400 (z. B. Text oder Ziffern, der bzw. die an dem Regal 404-2 angebracht ist/sind). Bei solchen Ausführungsformen umfasst die vorstehend erwähnte Eingabeeinheit das Mikrofon 116. Ein weiteres Beispiel für ein Aufgabeninitiierungsereignis umfasst die Überwachung eines Fußschrittzählers durch die Vorrichtung 104 (der Zähler kann eine Komponente der Vorrichtung 104 selbst sein, die z. B. durch eine zusätzliche Verarbeitung von IMU-Daten implementiert ist, oder er kann physisch getrennt sein). Wenn für eine vordefinierte Zeitdauer (z. B. 2 Sekunden) keine Fußschritte detektiert werden, wird davon ausgegangen, dass der Bediener 400 an dem in 4A gezeigten Ort angekommen ist und angehalten hat, um weitere Anweisungen zu erhalten. In weiteren Beispielen umfasst die Eingabeeinheit einen Bildsensor und das Aufgabeninitiierungsereignis umfasst Daten, die in einem Bild detektiert werden, das von dem HUD 148 erfasst wird. Die in dem Bild detektierten Daten können der vorstehend erwähnte Barcode oder ein anderes maschinenlesbares Zeichen (z. B. ein QR-Code) oder ein anderes geeignetes physisches Merkmal eines Regals 404 oder einer anderen Struktur sein.
  • In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann wird jedoch verstehen, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Umfang der Erfindung, wie er in den nachstehenden Ansprüchen dargelegt ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren in einem veranschaulichenden und nicht einschränkenden Sinne zu sehen und alle solche Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein.
  • Der Nutzen, die Vorteile, Problemlösungen und jedes bzw. jede Elemente, die dafür sorgen können, dass jeglicher Nutzen, Vorteil oder Lösung auftritt oder stärker hervorkommt, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente irgendeines oder aller der Ansprüche auszulegen. Die Erfindung wird ausschließlich durch die beigefügten Ansprüche einschließlich aller während der Anhängigkeit dieser Anmeldung vorgenommenen Änderungen und aller Äquivalente dieser Ansprüche in der vorliegenden Fassung definiert.
  • Darüber hinaus können in diesem Dokument Beziehungsbegriffe, wie erste(r) und zweite(r), oben und unten usw. nur zur Unterscheidung einer Einheit oder Aktion von einer anderen Einheit oder Aktion verwendet sein, ohne dass eine Beziehung oder Reihenfolge bei diesen Entitäten oder Aktionen erforderlich oder impliziert ist. Die Ausdrücke „umfasst“, „umfassend“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, sodass ein Prozess, Verfahren, Produkt oder eine Vorrichtung, der/die/das eine Liste von Elementen umfasst, aufweist, enthält, nicht nur diese Elemente enthält, sondern auch andere Elemente enthalten kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder einer solchen Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „weist ... ein“, „enthält ... ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als ein oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „ungefähr“, „etwa“ oder jede andere Version davon sind derart definiert, dass sie dem Verständnis eines Durchschnittsfachmanns nahe kommen, und in einer nicht einschränkenden Ausführungsform ist der Begriff derart definiert, dass er innerhalb von 10 %, in einer weiteren Ausführungsform innerhalb von 5 %, in einer weiteren Ausführungsform innerhalb von 1 % und in einer weiteren Ausführungsform innerhalb von 0,5 % liegt. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „konfiguriert“ ist, ist mindestens derart konfiguriert, kann aber auch auf Arten konfiguriert sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen einen oder mehrere spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“), wie beispielsweise Mikroprozessoren, Digitalsignalprozessoren, kundenspezifische Prozessoren und feldprogrammierbare Gate-Arrays (FPGAs), sowie einzigartig gespeicherte Programmbefehle (einschließlich Software und Firmware) umfassen können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle Funktionen des hierin beschriebenen Verfahrens und/oder der hierin beschriebenen Vorrichtung zu implementieren. Alternativ könnten einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die keine gespeicherten Programmbefehle aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), wobei jede Funktion oder einige Kombinationen von bestimmten der Funktionen als spezifische Logik implementiert werden. Natürlich könnte eine Kombination der zwei Herangehensweisen verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der z. B. einen Prozessor umfasst) zu programmieren und ein Verfahren, wie es hierin beschrieben und beansprucht wird, auszuführen. Beispiele für solche computerlesbaren Speichermedien umfassen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher, sind aber nicht darauf beschränkt. Ferner wird erwartet, dass ein Durchschnittsfachmann ungeachtet der möglicherweise erheblichen Anstrengungen und vielen Auslegungsmöglichkeiten, motiviert durch beispielsweise verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen, leicht in der Lage sein wird, solche Softwarebefehle und -programme sowie ICs mit minimalem Experimentieren zu erzeugen, wenn er durch die hierin offenbarten Konzepte und Prinzipien geführt wird.
  • Die Zusammenfassung der Offenbarung dient dazu, dem Leser zu ermöglichen, schnell die Art der technischen Offenbarung zu bestimmen. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht dazu verwendet wird, den Umfang oder die Bedeutung der Ansprüche zu interpretieren oder einzuschränken. Zusätzlich ist aus der vorstehenden ausführlichen Beschreibung ersichtlich, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengefasst sind, um die Offenbarung zu straffen. Dieses Verfahren der Offenbarung ist nicht so auszulegen, dass es eine Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Wie die folgenden Ansprüche zeigen, liegt der erfinderische Gegenstand vielmehr in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Daher werden die folgenden Ansprüche in die Ausführliche Beschreibung aufgenommen, wobei jeder Anspruch für sich genommen einen gesonderten beanspruchten Gegenstand darstellt.

Claims (22)

  1. Verfahren, in einer Computervorrichtung, zur automatischen kontextbezogenen Aufgabendarstellung, wobei das Verfahren umfasst: Speichern einer Sequenz von Aufgabenanweisungen in einem Speicher der Computervorrichtung zur Darstellung für einen Bediener der Computervorrichtung über eine mit der mobilen Computervorrichtung verbundene Ausgabeeinheit; Detektieren, mittls einer Eingabeeinheit der Computervorrichtung, eines Aufgabeninitiierungsereignisses; als Reaktion auf das Detektieren des Aufgabeninitiierungsereignisses: Steuern der Ausgabeeinheit, um eine erste Aufgabenanweisung von der Sequenz dem Bediener darzustellen; Erhalten von Ausrichtungsdaten, die dem Bediener entsprechen, von einer Trägheitsmesseinheit, die mit der Computervorrichtung verknüpft ist; basierend auf den Ausrichtungsdaten Nachverfolgen einer akkumulierten Bedienerausrichtungsänderung seit der Detektion des Aufgabeninitiierungsereignisses; und wenn die akkumulierte Bedienerausrichtungsänderung einen Schwellenwert überschreitet, Steuern der Ausgabeeinheit, um dem Bediener eine zweite Aufgabenanweisung aus der Sequenz darzustellen.
  2. Verfahren nach Anspruch 1, wobei die Computervorrichtung mindestens eines von einer mobilen Computervorrichtung und einem Heads-up-Display (HUD) umfasst.
  3. Verfahren nach Anspruch 1, wobei die Ausgabeeinheit ein Heads-up-Display (HUD) umfasst, das mit der Computervorrichtung verbunden ist; und wobei das Steuern der Ausgabeeinheit, um die erste und die zweite Aufgabenanweisung darzustellen, das Senden der ersten und der zweiten Aufgabenanweisung an das HUD umfasst.
  4. Verfahren nach Anspruch 1, wobei die Eingabeeinheit eine Datenerfassungseinheit umfasst, die mit der Computervorrichtung verbunden ist, und wobei das Detektieren des Aufgabeninitiierungsereignisses das Detektieren von Daten von einem maschinenlesbaren Zeichen über die Datenerfassungseinheit umfasst.
  5. Verfahren nach Anspruch 4, wobei das maschinenlesbare Zeichen ein Strichcode ist.
  6. Verfahren nach Anspruch 1, wobei die erste Aufgabenanweisung einen Entnahmevorgang definiert und einen Ort auf einer Tragstruktur, eine Objektkennung und eine Menge umfasst.
  7. Verfahren nach Anspruch 1, wobei die zweite Aufgabenanweisung einen Ortsvorgang definiert und einen Ort auf einem Wagen umfasst.
  8. Verfahren nach Anspruch 1, wobei das Erhalten der Ausrichtungsdaten das Erfassen der Ausrichtungsdaten von der Trägheitsmesseinheit umfasst.
  9. Verfahren nach Anspruch 3, wobei das Erhalten der Ausrichtungsdaten das Empfangen der Ausrichtungsdaten von dem HUD umfasst; wobei das HUD die Trägheitsmesseinheit umfasst.
  10. Verfahren nach Anspruch 1, wobei das Detektieren des Aufgabeninitiierungsereignisses das Detektieren eines hörbaren Signals über ein Mikrofon der mobilen Computervorrichtung umfasst.
  11. Verfahren nach Anspruch 1, ferner umfassend: wenn die akkumulierte Bedienerausrichtungsänderung einen Schwellenwert überschreitet, Rücksetzen der akkumulierten Ausrichtungsänderung.
  12. Computervorrichtung, umfassend: einen Speicher, der eine Sequenz von Aufgabenanweisungen zur Darstellung für einen Bediener der Computervorrichtung mittels einer mit der Computervorrichtung verbundenen Ausgabeeinheit speichert; eine Eingabeeinheit, die konfiguriert ist, ein Aufgabeninitiierungsereignis zu detektieren; einen Prozessor, der mit dem Sensor und dem Speicher verbunden ist; wobei der Prozessor konfiguriert ist zum: als Reaktion auf den Empfang einer Detektion des Aufgabeninitiierungsereignisses von der Eingabeeinheit: Steuern der Ausgabeeinheit, um dem Bediener eine erste Aufgabenanweisung von der Sequenz darzustellen; Erhalten von Ausrichtungsdaten, die dem Bediener entsprechen, von einer Trägheitsmesseinheit; basierend auf den Ausrichtungsdaten, Verfolgen einer akkumulierten Bedienerausrichtungsänderung seit der Detektion des Aufgabeninitiierungsereignisses; und wenn die akkumulierte Bedienerausrichtungsänderung einen Schwellenwert überschreitet, Steuern der Ausgabeeinheit, um dem Bediener eine zweite Aufgabenanweisung aus der Sequenz darzustellen.
  13. Computervorrichtung nach Anspruch 12, ferner umfassend mindestens eines von einem mobilen Computervorrichtungsgehäuse und einem Heads-up-Display (HUD)-Rahmen, der den Speicher, die Eingabeeinheit, den Prozessor und die Ausgabeeinheit trägt.
  14. Mobile Computervorrichtung nach Anspruch 12, wobei die Ausgabeeinheit ein Heads-up-Display (HUD) umfasst, das mit der Computervorrichtung verbunden ist; und wobei der Prozessor konfiguriert ist, die erste und die zweite Aufgabenanweisung an das HUD zu senden.
  15. Mobile Computervorrichtung nach Anspruch 12, wobei der Sensor eine Datenerfassungsvorrichtung umfasst, und wobei der Prozessor konfiguriert ist, das Aufgabeninitiierungsereignis zu detektieren, um Daten zu empfangen, die von einem maschinenlesbaren Zeichen von der Datenerfassungsvorrichtung erfasst wurden.
  16. Mobile Computervorrichtung nach Anspruch 15, wobei das maschinenlesbare Zeichen ein Strichcode ist.
  17. Mobile Computervorrichtung nach Anspruch 12, wobei die erste Aufgabenanweisung einen Entnahmevorgang definiert und einen Ort auf einer Tragstruktur, eine Objektkennung und eine Menge umfasst.
  18. Mobile Computervorrichtung nach Anspruch 12, wobei die zweite Aufgabenanweisung einen Ortsvorgang definiert und einen Ort auf einem Wagen umfasst.
  19. Mobile Computervorrichtung nach Anspruch 12, ferner umfassend die Trägheitsmesseinheit.
  20. Mobile Computervorrichtung nach Anspruch 14, wobei der Prozessor konfiguriert ist, die Ausrichtungsdaten zu erhalten, um die Ausrichtungsdaten von dem HUD zu empfangen.
  21. Mobile Computervorrichtung nach Anspruch 12, ferner umfassend ein Mikrofon; wobei der Prozessor konfiguriert ist, das Aufgabeninitiierungsereignis zu detektieren, um über das Mikrofon ein hörbares Signal zu detektieren.
  22. Mobile Computervorrichtung nach Anspruch 12, wobei der Prozessor ferner konfiguriert ist, die akkumulierte Ausrichtungsänderung zurückzusetzen, wenn die akkumulierte Bedienerausrichtungsänderung einen Schwellenwert überschreitet.
DE112020001934.9T 2019-04-15 2020-02-04 Verfahren und system zur automatischen kontextbezogenen aufgabendarstellung Pending DE112020001934T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/384,565 2019-04-15
US16/384,565 US10726370B1 (en) 2019-04-15 2019-04-15 Method and system for automatic contextual task presentation
PCT/US2020/016634 WO2020214229A1 (en) 2019-04-15 2020-02-04 Method and system for automatic contextual task presentation

Publications (1)

Publication Number Publication Date
DE112020001934T5 true DE112020001934T5 (de) 2022-01-20

Family

ID=71783204

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020001934.9T Pending DE112020001934T5 (de) 2019-04-15 2020-02-04 Verfahren und system zur automatischen kontextbezogenen aufgabendarstellung

Country Status (6)

Country Link
US (1) US10726370B1 (de)
KR (1) KR20210154200A (de)
CN (1) CN113711252B (de)
DE (1) DE112020001934T5 (de)
GB (1) GB2596731B (de)
WO (1) WO2020214229A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021252580A1 (en) 2020-06-11 2021-12-16 Carefusion 303, Inc. Hands-free medication tracking
US11972304B1 (en) * 2021-05-25 2024-04-30 United Services Automobile Association (Usaa) Systems and methods for automatic detection of an event and providing resources customized based on the event

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8232742B2 (en) * 2008-11-27 2012-07-31 Arkalumen Inc. Method, apparatus and computer-readable media for controlling lighting devices
US9696809B2 (en) * 2009-11-05 2017-07-04 Will John Temple Scrolling and zooming of a portable device display with device motion
CN104991556A (zh) * 2015-06-24 2015-10-21 上海快仓智能科技有限公司 一种智能仓储分拣站及其仓储分拣方法
US9588593B2 (en) * 2015-06-30 2017-03-07 Ariadne's Thread (Usa), Inc. Virtual reality system with control command gestures
EP3402729B1 (de) * 2016-01-14 2022-09-07 Crown Equipment Corporation Ware-zur-person-warenlager mit regal mit mehreren ebenen, mobilen speichereinheiten, speichereinheittransportern und bestückungsfahrzeug
SG11201809314UA (en) * 2016-05-03 2018-11-29 Opex Corp Material handling apparatus and method for sorting items using a dynamically configurable sorting array
AU2017315755B2 (en) * 2016-08-25 2023-07-27 Crown Equipment Corporation Observation based event tracking
US10127632B1 (en) * 2016-09-05 2018-11-13 Google Llc Display and update of panoramic image montages
US10416757B2 (en) * 2016-12-08 2019-09-17 Raymond Maurice Smit Telepresence system
CA3060709A1 (en) * 2017-05-03 2018-11-08 Opex Corporation Material handling apparatus and method for automatic and manual sorting of items using a dynamically configurable sorting array
US10242333B1 (en) * 2017-07-26 2019-03-26 Amazon Technologies, Inc. Transporting packages using light guided operations

Also Published As

Publication number Publication date
KR20210154200A (ko) 2021-12-20
US10726370B1 (en) 2020-07-28
GB2596731B (en) 2023-02-15
CN113711252A (zh) 2021-11-26
GB202114489D0 (en) 2021-11-24
CN113711252B (zh) 2023-12-08
GB2596731A (en) 2022-01-05
WO2020214229A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
DE112015003933T5 (de) Vorrichtung und Verfahren zum Ausführen eines Sachen-Auswahlprozesses
DE102008018436B4 (de) Lagerregal mit automatischer Lagerortbuchung
DE102014211692A1 (de) Anhängeridentifizierung
EP1770607B1 (de) System und Verfahren zur Darstellung von Benutzerinformationen, insbesondere von Augmented-Reality-Informationen, mit Hilfe von in RFID-Datenspeichern hinterlegten Trackinginformationen
DE112017005853T5 (de) Systeme und Verfahren zum Maximieren von Tragebehältnisinhalt
DE102015209963A1 (de) Bildbearbeitungsverfahren und Systeme zur Barcode- und/oder Produktkennzeichen-Erkennung
DE112019005489T5 (de) Bestimmung visueller attribute zur inhaltsauswahl
DE102018120510A1 (de) Systeme und verfahren zur verkaufsstellenerkennung mit bildsensoren zur identifizierung neuer radiofrequenz- identifikations (rfid) -etiketten-ereignisse in der nähe eines rfid- lesegeräts
DE112020001934T5 (de) Verfahren und system zur automatischen kontextbezogenen aufgabendarstellung
DE112016003284T5 (de) Aktivitäts-aufzeichner, aktivitäts-aufzeichnungsprogramm und aktivitäts-aufzeichnungsverfahren
WO2014053436A1 (de) Verfahren und vorrichtung zur organisation wenigstens eines objekts
DE112020004597T5 (de) Elektronische vorrichtung zur automatisierten benutzeridentifizierung
DE112017006487T5 (de) Verfahren und vorrichtung zum erzeugen eines suchmusters für einen ereignisort
EP3651091A1 (de) Lagerverwaltungssystem mit positionsermittlung von lagergütern und zugeordneten lagerbereichen
DE102019102866A1 (de) Identifizierung eines Herstellungsteils unter Verwendung von Computervision und Maschinenlernen
DE102017116854A1 (de) System und Verfahren zum Konfigurieren eines Kennungslesegeräts unter Verwendung einer Mobilvorrichtung
EP3347878B1 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit einem virtuellen bild und mobiles gerät
DE102014117413A1 (de) Aufzeichnung von Kontext zur Durchführung von Suchvorgängen
EP3214590A1 (de) Verfahren zur erstellung einer beschreibung eines gepäckstücks und gepäckbeschreibungssystem
US11492202B2 (en) Asset loading system
DE112017003723T5 (de) Verbesserte Steuerung einer robotischen Prothese durch ein kognitives System
DE112019006132T5 (de) Verfahren, system und vorrichtung zur hilfsetikett-erkennung und -zuordnung
DE102020117545A1 (de) System und methode zur identifizierung von objekten in einem zusammengesetzten objekt
WO2017148532A1 (de) Verfahren zur technischen unterstützung eines manuellen kommissioniervorgangs
DE102018107361A1 (de) Robotersystem mit biometrischer Authentifizierungsfunktion

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)