DE202016007875U1 - Systeme für die automatische Überwachung von Echtzeit-Aktivitäten an einem Standort zur Ermittlung von Wartezeiten unter Verwendung von tragbaren Geräten - Google Patents

Systeme für die automatische Überwachung von Echtzeit-Aktivitäten an einem Standort zur Ermittlung von Wartezeiten unter Verwendung von tragbaren Geräten Download PDF

Info

Publication number
DE202016007875U1
DE202016007875U1 DE202016007875.6U DE202016007875U DE202016007875U1 DE 202016007875 U1 DE202016007875 U1 DE 202016007875U1 DE 202016007875 U DE202016007875 U DE 202016007875U DE 202016007875 U1 DE202016007875 U1 DE 202016007875U1
Authority
DE
Germany
Prior art keywords
time
user
estimated
restaurant
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202016007875.6U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202016007875U1 publication Critical patent/DE202016007875U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations

Abstract

Mobiles Computergerät, Folgendes umfassend: einen oder mehrere Prozessoren; und ein oder mehrere Speichergeräte, die Anweisungen speichern, die, wenn sie von dem oder den Prozessoren ausgeführt werden, den oder die Prozessoren veranlassen, Vorgänge auszuführen, diese Vorgänge umfassen Folgendes: automatisches Sammeln eines oder mehrerer Teile von Sensordaten von einem oder mehreren Computergeräten, die von einem Nutzer betrieben werden; Feststellen einer geschätzten Wartezeit aus dem oder den Teilen von Sensordaten; und Bereitstellen einer Anzeige einer Benachrichtigung, die Informationen liefern, die die geschätzte Wartezeit für den Nutzer an einem bestimmten Standort ermittelt.

Description

  • GEBIET
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf die Überwachung von Echtzeit-Aktivitäten an einem Standort für die Ermittlung von Wartezeiten an dem jeweiligen Ort unter Verwendung von tragbaren Geräten, und insbesondere auf die Verwendung von Sensordaten von mobilen Computergeräten zur automatischen Schätzung von Wartezeiten in Restaurants. Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen.
  • HINTERGRUND
  • Einer der wichtigsten Faktoren für Personen bei der Auswahl von Restaurants ist die aktuelle Wartezeit (z. B. die Zeit, die eine Person oder eine Gruppe von Personen warten muss, bis sie in einem Restaurant einen Tisch bekommt). Die Ermittlung der Wartezeit kann bei verschiedenen Anlässen für den Besuch eines Restaurants unterschiedlich wichtig sein (z. B. typischerweise Frühstück, Mittag- oder Abendessen, Snack und/oder Besprechungen oder andere spezifische Zeiten oder Anlässe). Bisher ist der Zugriffszeit auf Wartezeit-Informationen oft darauf beschränkt, einen Restaurant-Mitarbeiter persönlich vor Ort oder per Telefon danach zu fragen. Herkömmliche Möglichkeiten, Informationen über zu erwartende Bedienzeiten zu erfahren, können entsprechend persönliche Anfragen eines Kellners/einer Kellnerin oder historische Informationen beinhalten, die online, z. B. auf einer Webseite mit Informationen über ein Restaurant zur Verfügung stehen.
  • KURZDARSTELLUNG
  • Aspekte und Vorteile von Ausführungsformen der vorliegenden Erfindung werden teilweise in der folgenden Beschreibung dargelegt oder können aus der Beschreibung oder aus der Praxis der Ausführungsformen hervorgehen.
  • Ein Aspekt der vorliegenden Offenbarung richtet sich beispielsweise an ein computerimplementiertes Verfahren zur Schätzung der Restaurant-Wartezeiten. Das Verfahren kann beinhalten, dass ein oder mehrere Computergeräte, aus mindestens einem oder mehreren Teilen von Sensordaten eines oder mehrerer Mobilgeräte, die von einem Nutzer bedient werden, bestimmen, dass der Nutzer zu einer geschätzten Sitzzeit an einem Restauranttisch sitzt. Das Verfahren kann auch beinhalten, dass das oder die Computergeräte, anhand von zumindest zeitlich korrelierten Standortdaten aus dem oder den mobilen Computergeräten, die von einem Nutzer bedient werden, bestimmen, wann der Nutzer voraussichtlich an einem aktuellen Standort ankommt. Das Verfahren kann weiter beinhalten, dass das oder die Computergeräte eine geschätzte Wartezeit ermitteln, indem sie die Differenz zwischen der geschätzten Sitzzeit und der geschätzten Ankunftszeit berechnen. Das Verfahren kann weiter beinhalten, dass das oder die Computergeräte die Daten, aus denen die geschätzte Wartezeit für den Nutzer am aktuellen Standort hervorgeht, an ein anderes Computergerät kommuniziert.
  • Ein weiterer Beispielaspekt der vorliegenden Offenbarung bezieht sich auf ein computergestütztes Verfahren zum Berechnen der geschätzten Bedienzeit im Restaurant. Das Verfahren beinhalten, dass das oder die Computergeräte aus mindestens einem oder mehreren zusätzlichen Teilen von Sensordaten eines oder mehrerer Mobilgeräte, die von einem Nutzer bedient werden, bestimmt, dass der Nutzer zu einem bestimmten geschätzten Zeitpunkt mit dem Essen begonnen hat. Das Verfahren kann auch beinhalten, dass das oder die Computergeräte eine oder mehrere geschätzte Ankunftszeiten des Nutzers am Restaurant oder eine geschätzte Sitzzeit des Nutzers im Restaurant erkennen. Das Verfahren kann ferner beinhalten, dass das oder die Computergeräte eine geschätzte Essensservierzeit festlegen, indem sie die Differenz zwischen einer oder mehrerer der geschätzten Sitzzeiten und der geschätzten Essenszeit bzw. der geschätzten Ankunftszeit und der geschätzten Essenszeit berechnen. Das Verfahren kann ferner beinhalten, dass das oder die Computergeräte Daten, aus denen die geschätzte Essensservierzeit am aktuellen Standort für den Nutzer hervorgehen, an eine anderes Computergerät übertragen.
  • Andere exemplarische Aspekte der vorliegenden Offenbarung zielen auf Systeme, Geräte, physische, nicht-transitorische computerlesbare Datenträger, Benutzeroberflächen, Speichermedien und elektronische Geräte, mit denen Navigationsinformation und andere damit in Zusammenhang stehende Daten auf einem mobilen Gerät angezeigt werden können.
  • Diese und andere Merkmale, Aspekte und Vorteile verschiedener Ausführungsformen werden besser in Bezug auf die folgende Beschreibung und angefügten Ansprüche verstanden werden. Die beiliegenden Zeichnungen, die in diese Spezifikation integriert wurden und einen Teil dieser Spezifikation ausmachen, veranschaulichen die Ausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung dazu, um die damit verbundenen Prinzipien zu erklären.
  • Obwohl sich die vorliegende Anwendung auf Wartezeiten in Restaurants bezieht, versteht es sich, dass die Verfahren und Systeme, die hierin beschrieben und beansprucht werden, für Echtzeit-Überwachung und -Berichterstattung von Aktivitäten an einem beliebigen Standort verwendet werden können, um Wartezeiten für den Erhalt von Waren und Dienstleistungen automatisch zu schätzen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Eine ausführliche Erörterung der Ausführungsformen, die auf Fachleute auf dem Gebiet gerichtet sind, wird in der Beschreibung dargelegt, die Bezug auf die beigefügten Figuren nimmt, in denen:
  • 1 ist ein Beispiel-Überblick über mobile Geräte, einschließlich tragbarer Mobilgeräte, die von einem Nutzer bei der Bestimmung von Restaurant-Wartezeiten bzw. Essensservierzeiten gemäß beispielhaften Aspekten der vorliegenden Offenbarung verwendet werden können;
  • 2 zeigt ein Flussdiagramm eines beispielhaften Verfahrens für die Schätzung von Restaurantwartezeiten gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 3 zeigt ein Flussdiagramm mit zusätzlichen Aspekten im Zusammenhang damit, dass anhand eines oder mehrerer Teile von Sensordaten erkannt wird, dass ein Nutzer an einem Tisch im Restaurant sitzt, gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 4 zeigt ein Flussdiagramm eines exemplarischen Verfahrens für das Ermitteln einer Essensservierzeit in Übereinstimmung mit den exemplarischen Aspekten der vorliegenden Offenbarung;
  • 5 zeigt ein Flussdiagramm zusätzlicher Aspekte im Zusammenhang damit, dass anhand eines oder mehrerer Teile von Sensordaten erkannt wird, dass ein Nutzer isst, gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 6 zeigt einen beispielhaften Überblick über die Systemkomponenten in einem tragbaren Computergerät für die Implementierung von Schätzungen von Restaurant-Wartezeiten und -Essenservierzeiten, gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 7 zeigt einen beispielhaften Überblick über die zusätzlichen Komponenten, die in einem Speichergerät gespeichert werden, zur Erkennung des Auftretens spezifischer Aktivitäten eines Nutzers, der an einem Tisch sitzt bzw. isst, gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 8 zeigt einen beispielhaften Überblick über die Systemkomponenten innerhalb eines mobilen Computergeräts zur Implementierung der Schätzung von Restaurant-Wartezeiten und Essenservierzeiten, gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 9 zeigt einen beispielhaften Überblick über zusätzliche Komponenten innerhalb eines Speichergeräts für die Implementierung der Schätzung von Restaurant-Wartezeiten und Essenservierzeiten, gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 10 zeigt einen beispielhaften Überblick über die Systemkomponenten für Netzwerke im Zusammenhang mit der Erkennung und Kommunikation von Restaurant-Wartezeiten und Essenservierzeiten, gemäß beispielhaften Aspekten der vorliegenden Offenbarung;
  • 11 zeigt eine beispielhafte Bedienoberfläche einschließlich Mitteilungen für die Weiterleitung von Informationen geschätzter Wartezeiten und/oder Essenservierzeiten für ein Restaurant, gemäß beispielhaften Aspekten der vorliegenden Offenbarung; und
  • 12 zeigt eine weitere beispielhafte Bedienoberfläche einschließlich Mitteilungen für die Weiterleitung von Informationen über geschätzte Wartezeiten und/oder Essenservierzeiten für ein Restaurant, gemäß beispielhaften Aspekten der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Bezug wird nun im Detail auf Ausführungsformen genommen werden, von denen ein oder mehrere Beispiele in den Zeichnungen dargestellt sind. Jedes Beispiel wird zur Erläuterung der Ausführungsformen bereitgestellt, nicht zur Beschränkung der vorliegenden Offenbarung. Tatsächlich wird dem Fachmann ersichtlich, dass diverse Modifikationen und Variationen an den Ausführungsformen vorgenommen werden können, ohne vom Umfang oder Gedanken der vorliegenden Offenbarung abzuweichen. Zum Beispiel können Merkmale, die als ein Teil einer Ausführungsform veranschaulicht oder beschrieben sind, bei einer anderen Ausführungsform verwendet werden, um eine noch weitere Ausführungsform zu ergeben. Deshalb ist beabsichtigt, dass Aspekte der vorliegenden Offenbarung solche Modifikationen und Variationen abdecken.
  • Um die Vorteile der hierin beschriebenen Techniken nutzen zu können, muss der Nutzer bei einigen Ausführungsformen möglicherweise die Erfassung und Auswertung von Sensordaten, Standortdaten und anderen relevanten Informationen gestatten, die von tragbaren bzw. nicht tragbaren Geräten erfasst werden. So haben Nutzer bei einigen Ausführungsformen die Möglichkeit zur Steuerung, ob Programme oder Funktionen derartige Informationen erfassen dürfen. Wenn der Nutzer die Erfassung und Nutzung solcher Signale nicht erlaubt, kann der Nutzer auch nicht in den Genuss der hier beschriebenen Vorteile kommen. Dem Nutzer können auch Werkzeuge bereitgestellt werden, mit denen er seine Zustimmung widerrufen oder modifizieren kann. Darüber hinaus können bestimmte Informationen oder Daten vor ihrer Speicherung oder Verwendung auf eine oder mehrere Weisen verarbeitet werden, so dass persönliche oder andere Informationen entfernt werden.
  • Beispielhafte Aspekte der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren für die Schätzung aktueller Wartezeiten für einen bestimmten Ort, wie ein Restaurant oder ein Geschäft für die Nutzung eines oder mehrerer Produkte bzw. Dienstleistungen. Einer der wichtigsten Faktoren für Personen bei der Auswahl von Restaurants ist die aktuelle Wartezeit (z. B. die Zeit, die eine Person oder eine Gruppe von Personen voraussichtlich warten muss, bis sie in einem Restaurant einen Tisch bekommt). Die Ermittlung der Wartezeit kann bei verschiedenen Anlässen für den Besuch eines Restaurants unterschiedlich wichtig sein (z. B. typischerweise Frühstück, Mittag- oder Abendessen, Snack und/oder Besprechungen oder andere spezifische Zeiten oder Anlässe). Bisher ist der Zugriffszeit auf Wartezeit-Informationen oft darauf beschränkt, einen Restaurant-Mitarbeiter persönlich vor Ort oder per Telefon danach zu fragen.
  • In einem beispielhaften Aspekt beziehen sich die beschriebenen Ausführungsformen auf Techniken zur automatischen Überwachung einer oder mehrerer Aktivitäten an einem Ort wie einem Restaurant, und auf die Ermittlung von Wartezeiten in Echtzeit anhand des Ergebnisses dieser Überwachung. Die Umsetzung solcher Techniken mit Hilfe von Sensordaten, die mit Signalen zu/von einem oder mehreren Kommunikationsgeräten über ein drahtloses Netzwerk kommuniziert werden, wird im Folgenden beschrieben, um realistische Wartezeiten für ein bestimmtes Restaurant oder einen bestimmten Standort zu ermitteln. Die beispielhaften Ausführungsformen gemäß Aspekten der vorliegenden Offenbarung können Restaurant-Wartezeiten automatisch in Echtzeit schätzen, ohne dass die Restaurantgäste aktiv daran beteiligt wären. Von aktuellen Restaurantgästen können relevante Sensordaten erfasst werden, die dazu beitragen, bestimmte Ereignisse wie z. B. geschätzte Sitzzeiten und geschätzte Essenszeiten für einen bestimmten Gast zu erkennen und zu ermitteln. Sensordaten können aus verschiedenen mobilen Geräten geliefert werden, einschließlich tragbarer Computergräte (z. B. Smart-Uhren, am Handgelenk befestigte Activity Tracker, am Kopf oder am Ohr montierte Geräte, Blutzucker-Monitore usw.) und/oder andere Geräte (z. B. Smartphones, Tablets, Laptops, persönliche digitale Assistenten (PDAs) usw.).
  • Sensordaten im Zusammenhang mit einem bestimmten Nutzer können eine Vielzahl von relevanten Formen haben, für die Unterstützung bei der Ermittlung, ob der jeweilige Nutzer am Tisch sitzt. Ein Beispiel für relevante Sensordaten kann Bewegungsdaten und/oder Orientierungsdaten von einem mobilen Gerät beinhalten, das dazu dient, zu erkennen, ob sich das mobile Gerät für einen Schwellenwertzeitraum in einer horizontalen Position befindet. Dies kann ein aussagekräftiger Indikator dafür sein, dass ein Gast sein Telefon auf einem Restauranttisch abgelegt hat, als er sich gesetzt hat. Ein weiteres Beispiel für relevante Sensordaten kann Bewegungsdaten und/oder Orientierungsdaten von einem am Handgelenk befestigten tragbaren Gerät beinhalten, das verwendet werden kann, um das Auftreten von bestimmten Bewegungsmustern zu erfassen, die darauf schließen lassen, dass ein Nutzer an einem Tisch sitzt (z. B. Platzierung der Hände auf dem Tisch, eine reduzierte Menge an Handbewegung, ein Nutzer trinkt usw.). Weitere Beispiele für relevante Sensordaten beinhalten Audiodaten, die helfen können, das Auftreten von bestimmten Klangmustern zu erkennen (z. B. Utensilien, die auf einem Tisch abgestellt werden, das Klirren von Gläsern, Schluckgeräusche usw.) und/oder Bilddaten, die helfen können, das Auftreten von bestimmten Bildmustern zu erkennen (z. B. Identifizierung von Gegenständen wie Besteck und Geschirr und/oder Gästen usw.). Zeitdaten können auch verwendet werden, um zu helfen, die Wahrscheinlichkeit zu bewerten, mit der bestimmte Ereignisse in einem bestimmten Restaurant oder bei einem bestimmten Nutzer vorkommen im Verhältnis zu typischen Zeitfenstern für Frühstück, Mittagessen, Abendessen, Kaffee, Snacks usw. in einem bestimmten Restaurant.
  • Integrierte Teile der Sensordaten, die aus einem oder mehreren Geräten erfasst werden, die von einem Nutzer betrieben werden, können helfen, zu erkennen, wenn ein Nutzer an einem Tisch sitzt (z. B. die geschätzte Sitzzeit). In einigen Ausführungsformen kann maschinelles Lernen verwendet werden, um erhaltene Sensordaten zu bewerten und einen Klassifikator zu entwickeln, der vorgegebene Sensordaten mit spezifischen Ereignissen verknüpft, die die Identifizierung eines Nutzers auslösen, der sich an einen Restauranttisch setzt. Beispielsweise können zeitlich korrelierte Sensordaten ein Merkmal für das Trainieren eines Klassifikators verwendet werden, indem ein Lernalgorithmus wie ein neuronales Netz, Support Vector Machine (SVM) oder andere Maschinenlernverfahren verwendet werden. Klassifikatoren können trainiert werden, um zu bewerten, ob sich eine Person an einen Restauranttisch setzt. Dann läuft der Klassifikator in Echtzeit auf dem mobilen Gerät eines Nutzers und erkennt nachfolgende Ereignisse, in denen sich ein Nutzer in einem Restaurant an einen Tisch setzt.
  • Für die Bestimmung einer geschätzten Sitzzeit kann ein ähnliches Verfahren verwendet werden. Zusätzliche Teile der Sensordaten können beispielsweise helfen, Handbewegungsmuster zu erkennen (z. B. ein Nutzer, der Essen zum Mund führt), Bewegung von Wangenknochen/-muskeln zu erkennen, aus denen hervorgeht, dass gekaut wird, Ton- und/oder Bildmuster zu erkennen, die mit der Identifizierung von Lebensmitteln und/oder Essen übereinstimmen, steigende Blutzuckerspiegel usw. Bestimmte Kombinationen dieser zusätzlichen Teile von Sensordaten können auch verwendet werden, um Klassifikatoren zu trainieren und darauffolgende Vorfälle von Essen, das in einem Restaurant serviert wird (d. h. die geschätzte Essenszeit) zu ermitteln.
  • Ein weiterer Parameter, der nach Gesichtspunkten von Aspekten der vorliegenden Offenbarung erkannt werden kann, kann die Ankunftszeit im Restaurant beinhalten. Die Ankunftszeit kann anhand von Standortdaten festgelegt werden, die über ein oder mehrere mobile Geräte geliefert werden, die ein Gast in einem Restaurant verwendet. In einigen Fällen kann die Erfassung eines Ereignisses, wenn beispielsweise ein Gast an einem Restauranttisch sitzt, Essen serviert bekommt oder isst, als Auslöser dienen, um eine geschätzte Ankunftszeit für den Nutzer an dem aktuellen Standort zu ermitteln. Die von Standortermittlungs-Technologien wie GPS, Mobiltelefon-Triangulation, Identifizierung drahtloser Netzwerke, Bluetooth Low Energy (BLE) Beacons oder anderen zur Verfügung gestellten Standortsensoren können über bestimmte Zeiträume verfolgt werden, um zu ermitteln, wie lang sich ein Nutzer an einem aktuellen Standort aufgehalten hat und daraus eine geschätzte Ankunftszeit aus den zeitlich korrelierten Standortdaten abzuleiten.
  • Sobald eine geschätzte Ankunftszeit, geschätzte Sitzzeit und eine geschätzte Esszeit ermittelt wurden, können verschiedene Wartezeiten festgelegt werden. Eine erste Wartezeit kann der Zeit entsprechen, die zwischen dem Zeitpunkt, an dem ein Nutzer an einem Restaurant ankommt und dem Zeitpunkt, an dem er an einen Tisch geführt wird, vergeht. Eine zweite Wartezeit kann der Zeit entsprechen, die zwischen dem Zeitpunkt, an dem ein Nutzer im Restaurant an einen Tisch geführt wird und dem Zeitpunkt, an dem ihm das Essen serviert wird, vergeht. Eine dritte Wartezeit kann der gesamten Zeit entsprechen, die zwischen dem Zeitpunkt, an dem der Nutzer an einem Restaurant ankommt und dem Zeitpunkt, an dem ihm das Essen serviert wird, vergeht.
  • Ermittelte Wartezeiten können dann anderen Computergeräten für zusätzliche statistische Verarbeitung übermittelt werden. Zum Beispiel kann ein Remote-Computergerät Restaurant-Wartezeiten von mehreren Nutzern in einem bestimmten Restaurant erfassen und Statistiken der Wartezeiten über einen bestimmten Zeitraum auswerten (z. B. 10 Minuten), indem es Wartezeiten für die verschiedene Nutzer kombiniert. Beispiel-Statistiken können eine mittlere Wartezeit, eine Durchschnitts-Wartezeit, die Varianz in der Wartezeit, den erwarteten Wert der Wartezeit und ein Konfidenzintervall der Wartezeit beinhalten, ohne darauf begrenzt zu sein.
  • Informationen über die geschätzte Wartezeit und/oder Essensservierzeit können auf unterschiedliche Weise auf die aktuellen, zukünftigen und/oder potenziellen Gäste eines Restaurants angewendet werden. Zum Beispiel können einige Informationen die aktuelle Wartezeit für ein bestimmtes Restaurant beinhalten, während andere Informationen die typische Wartezeit für ein bestimmtes Restaurant zu einem bestimmten Zeitpunkt (z. B. 19.00 Uhr) anzeigen. Weitere Informationen können in Form von Warnungen weitergegeben werden, wie beispielsweise eine Benachrichtigung, die an einem interessierten Nutzer weitergeleitet wird, aus der hervorgeht, wann die geschätzte Wartezeit für ein bestimmtes Restaurant unter einem bestimmten Schwellenwert liegt (z. B. Pop-up, wenn die Wartezeit unter 15 Minuten liegt).
  • Gemäß einer beispielhaften Ausführungsform kann ein mobiles Gerät eine Anwendung für die Schätzung von Wartezeiten beinhalten, die auf einem Mobilgerät läuft. Vorausgesetzt ein Nutzer stimmt der Erfassung von Daten wie Standort, Ankunftszeit und anderen Zeiten bzw. der Analyse von Bildern, Bewegungsmustern und/oder anderen Sensordaten zu, können relevante Daten erfasst werden. Relevanten Sensordaten können von dem mobilen Gerät erfasst werden, auf dem die Anwendung läuft oder von anderen tragbaren Computergeräten. Relevante Sensordaten können verwendet werden, um das Auftreten spezifischer Muster integrierter Daten zu verfolgen, einschließlich Bewegungsdaten, Orientierungsdaten, Tondaten, Bilderdaten, Zeitdaten oder anderer relevanter Informationen. Die gesammelten Informationen können in Echtzeit analysiert werden, um das Auftreten von Ereignissen zu erfassen, einschließlich des Falls, dass ein Gast in einem Restaurant an einem Tisch sitzt. Dieser Vorgang kann dann verwendet werden, um eine geschätzte Sitzzeit zu ermitteln. Eine geschätzte Ankunftszeit kann von zeit-korrelierten Standortdaten ermittelt werden, die über das mobile Gerät erfasst werden. Eine geschätzte Wartezeit kann dann aus der Zeitdifferenz zwischen geschätzter Ankunftszeit und Sitzzeit berechnet werden. Zusätzliche Wartezeiten im Zusammenhang mit einer Essensservierzeit können unter Verwendung weiterer Teile der Sensordaten geschätzt werden, wenn erfasst wird, dass ein Nutzer begonnen hat, zu essen. Geschätzte Wartezeiten können dann an eine zentrale Stelle weitergeleitet werden, wo die sie kombiniert und für mehrere Nutzer in einem gegebenen Restaurant während einer Zeitdauer weiter analysiert werden können. Statistische Ergebnisse der ermittelten Wartezeitschätzungen können mit anderen Anwendungsnutzern gemeinsam verwendet werden, einschließlich der aktuellen, zukünftigen und/oder potenziellen Restaurantgäste.
  • Unter nun erfolgender Bezugnahme auf 112 werden verschiedene spezifische Aspekte der beispielhaften Systeme und Verfahren zur automatischen Schätzung von Restaurant-Wartezeiten dargestellt. Mit besonderer Bezugnahme auf 1 sind ein oder mehrere Nutzer mobiler Geräte 102, 112 Gäste in einem Restaurant der Umgebung 100. Die Nutzer 102, 112 wurden beide an Tisch 103 gesetzt. Obwohl in 1 nur zwei Nutzer 102, 112 dargestellt werden, wird darauf verwiesen, dass die vorliegende Offenbarung mit jeder beliebigen Anzahl von Gästen eines Restaurants oder einer anderen Umgebung, in der Verbrauchsgüter serviert werden, implementiert werden kann. Darüber hinaus können verschiedene Gruppen von einem oder mehreren Gästen, die sich an unterschiedlichen Tischen treffen, separat identifiziert und für kombinierte statistische Analyse der durchschnittlichen Wartezeit in einem Restaurant verwendet werden.
  • Obwohl sich beispielhafte Ausführungsformen auf Daten und ermittelte Wartezeiten hinsichtlich eines Restaurants beziehen, sollte es klar sein, dass die vorliegende Offenbarung auch auf andere Lokale der Lebensmittelindustrie angewendet werden kann, einschließlich jedoch nicht beschränkt auf Imbissgeschäfte, Bars, Bäckereien, Cafés, Eiscremegeschäfte, Catering-Geschäfte, Märkte, Lebensmittelgeschäfte, Supermärkte, Food-Events, Essensstände, Imbisswagen, mobile Anbieter, Bauernmärkte, Schulen, Hotels, Pensionen, Verkaufsstellen oder jede andere Einrichtung, die Speisen und/oder Getränken für den menschlichen Verzehr lagert, zubereitet, verpackt, serviert, verkauft und/oder auf andere Weise zur Verfügung stellt.
  • Sensordaten, die aus einem oder mehreren mobilen Geräten stammen, die von den Nutzern 102, 112 betrieben werden, können verwendet werden, um bestimmte Ereignisse innerhalb des Restaurants zu erkennen, die für die Ermittlung der Wartezeiten relevant sind. Sensordaten von Computergeräten, die von den Nutzern 102, 112 betrieben werden, können beispielsweise verwendet werden, um spezifische Ereignisse zu ermitteln, wie eine geschätzte Sitzzeit (d. h. die Zeit, die die Nutzer 102, 112 an Tisch 103 gesessen haben) und/oder eine geschätzte Essenszeit (d. h. die Zeit, die die Nutzer 102, 112 Essen serviert bekommen oder eine weitere Bestellung aufgegeben haben). Die geschätzte Sitzzeit und/oder Esszeit kann mit Standortdaten und/oder elektronischen Daten kombiniert werden, um automatische Wartezeiten und/oder Essensservierzeiten für bestimmte Restaurant-Standorte zu ermitteln und an andere Computergeräte weiterzuleiten.
  • Weiter unter Bezugnahme auf 1 können die verschiedenen Computergeräte, die die Nutzer 102, 112 verwenden, ein oder mehrere Computergeräte wie Smartphones 104, 114 beinhalten. Andere mobile Geräte können einen Tablet-Computer beinhalten, ein Mobiltelefon, einen persönlichen digitalen Assistenten (PDA), einen Laptop-Computer, ein Gaming-System, einen Media-Player, einen E-Book-Reader, eine TV-Plattform, ein Auto-Navigationssystem, eine Kamera oder dergleichen. Smartphones 104, 114 oder andere mobile Computergeräte, die von den Nutzern 102, 112 betrieben werden, können Befehle enthalten, aufgrund derer sie Operationen durchführen wie die Identifizierung spezifischer Aktivitätsvorfälle (z. B. Sitzen, Essen). Smartphones 104, 114 können auch als Datenerfassungs-Hub dienen, um Sensorinformationen von anderen tragbaren Geräten oder mobilen Computergeräten, die von den Nutzern 102, 112 betrieben werden, zu sammeln.
  • Die mobilen Computergeräte für die Erfassung von Sensordaten in Übereinstimmung mit Ausführungsbeispielen können auch tragbare Computergeräte beinhalten. In der Darstellung trägt beispielsweise der Nutzer 102 einen Activity Tracker 106 am Handgelenk und Nutzer 112 eine Smart Watch 116. Beide Handgelenksgeräte 106, 116 sind so ausgelegt, dass sie am Handgelenk des Nutzers funktionsfähig sind und Sensordaten einschließlich Bewegungs- und/oder Orientierungsdaten im Zusammenhang mit dem Nutzer analysieren. Nutzer 102 betreibt in der Darstellung zudem ein optisches, am Kopf angebrachtes Gerät 108, das insbesondere mit einem tragbaren Gerät übereinstimmt, wie einem computerisierten Augengerät oder einem computerisierten Gerät, das auf dem Kopf angebracht ist. Dieses Gerät kann Teile der Sensordaten, die für die Ermittlung von Wartezeit und/oder Essensservierzeit relevant sind, erfassen. Nutzer 112 trägt in der Darstellung ein auf dem Kopf oder am Ohr angebrachtes Gerät 118, das einem am Ohr angebrachten Bluetooth-Gerät entsprechen kann, wie eins, das für eine Freisprech-Audioverbindung zum Smartphone 114 von Nutzer 112 verwendet werden kann. Am Ohr angebrachte Geräte 118 können auch Bewegungs- und/oder Orientierungssensoren beinhalten, die so ausgelegt sind, dass sie Vorfälle wie Bewegungen des Wangenknochens oder der Wangenmuskeln eines Nutzers erfassen, was potenziell ein Hinweis darauf ist, dass Nutzer 112 isst. Ein weiteres tragbares Gerät, das durch den Nutzer 112 betrieben werden kann, ist ein Blutzuckermonitor (oder Glukometer) 120, das einen oder mehrere Sensoren beinhaltet, die den aktuellen Blutzuckerspiegel im Blutkreislauf eines Nutzers ermittelt. In den Ausführungsbeispielen können noch zusätzliche und/oder alternative tragbare Geräte verwendet werden.
  • In einer bestimmten Implementierung der Sensoren in dem Beispiel von 1 können die am Handgelenk befestigten Gerät 106, 116 Sensoren beinhalten, die die Bewegung und/oder Ausrichtung der Handgelenke/Hände der Nutzer 102, 112 analysieren, um bestimmte Bewegungsmuster zu erfassen, die darauf hinweisen, dass die Nutzer 102, 112 an einem Tisch sitzen. Ein Beispiel für ein relevantes Bewegungsmuster entspricht der Bewegung, die ein Nutzer macht, wenn er seine Hände auf den Tisch legt, da es unwahrscheinlich ist, dass diese Bewegung ausgeführt wird, während die Nutzer 102, 112 stehen und auf einen Tisch warten oder in einem Restaurant zwar sitzen, aber nicht an ihrem Tisch. Ein weiteres Beispiel für ein relevantes Bewegungsmuster, aus dem hervorgeht, dass sich ein Nutzer gesetzt hat, entspricht der Beobachtung, dass der Nutzer seine Hände wenig bewegt. Viele Nutzer bewegen ihre Hände mehr, wenn sie stehen, als wenn sie sitzen. Noch ein weiteres Beispiel eines relevanten Bewegungsmusters, aus dem hervorgeht, dass ein Nutzer sitzt, ist die Bewegung der Hand/des Handgelenks vom Tisch zum Mund, was daraus schließen lässt, dass der Nutzer wahrscheinlich Wasser oder ein anderes Getränk zu sich nimmt, nachdem er sich gesetzt hat. Zusätzliche und wiederholte Vorfälle, dass ein Nutzer seine Hände/seine Handgelenke vom Tisch zu seinem Mund führt, können verwendet werden, um die geschätzte Essenszeit für einen Nutzer zu erfassen und zu identifizieren.
  • In anderen bestimmten Implementierungen der Sensoren, die in dem Beispiel von 1 dargestellt sind, können optische, am Kopf angebrachte Anzeigen 108 einen oder mehrere Sensoren beinhalten, wie Bildsensoren, Bewegungssensoren und Audiosensoren. Bildsensoren in optischen, am Kopf angebrachten Anzeigen 108 können verwendet werden, um bestimmte Elemente vor dem Nutzer 102 zu ermitteln, die dazu beitragen, anzuzeigen, dass ein Nutzer an einem Tisch sitzt. Bild-basierte Elemente für mögliche Erkennung beinhalten Tisch 103, ein Gast, der dem Nutzer 102 (z. B. Gast 112) gegenübersitzt, Geschirr, Gläser und/oder Utensilien, die auf Tisch 103 stehen o. ä. Andere erfasste oder erkannte Bilder, einschließlich von Bildern, auf denen Essen zu sehen ist oder die Hände von Nutzer 102, die Essen zum Gesicht/Mund führen, können analysiert werden, um dabei zu helfen, die geschätzte Essenszeit für den Nutzer 102 zu identifizieren. Bewegungssensoren im optischen, am Kopfbefestigten Display 108 können helfen, die Bewegung der Getränke in Richtung des Gesichts oder Munds eines Nutzers zu identifizieren, woraus man potenziell schließen kann, dass ein Nutzer innerhalb einer geschätzten Sitzzeit trinkt. Zusätzlich oder alternativ können Bewegungssensoren im optischen, am Kopfbefestigten Display 108 dabei helfen, die Bewegung von Nahrung in Richtung des Gesichts oder Munds eines Nutzers zu identifizieren, woraus man potenziell schließen kann, dass ein Nutzer innerhalb einer geschätzten Essenszeit isst. Audio-Sensoren im optischen, am Kopf befestigten Display 108 können dabei helfen, das Auftreten bestimmter Klangmuster (z. B. Utensilien, die auf einen Tisch gestellt werden, klirrende Gläser, Schluckgeräusche usw.) zu erkennen.
  • Optische, am Kopf befestigte Displays 108 oder andere Geräte einschließlich Audio- und/oder Bildsensoren können auch Audio- und/oder Bildmuster erkennen, die dabei helfen, festzustellen, ob sich ein Nutzer drinnen oder draußen befindet. In einem Beispiel kann die Identifizierung von Elementen, die typischerweise draußen auftreten, wie Autos, Himmel o. ä., ohne darauf beschränkt zu sein, dazu beitragen, festzustellen, ob ein Nutzer noch immer auf einen Tisch wartet, da man eher draußen als drinnen wartet. Wenn ein bestimmtes Restaurant normalerweise oder jahreszeitenbedingt draußen Bestuhlung hat, können zusätzliche Trainingsdaten identifiziert werden, die helfen, diese Informationen zu erfassen und aus den bereits erfassten Audio-/Bilddaten der Umgebung eines Nutzers die entsprechenden Schlussfolgerungen zu ziehen.
  • Noch weitere Implementierungen der Sensoren, die im Beispiel von 1 gezeigt werden, umfassen die Verwendung von Sensoren in dem am Ohr montierten Gerät 118 und/oder des Glukometers 120. Das am Ohr montierte Gerät 118 kann Audio-Sensoren und/oder Bewegungsmelder beinhalten. Audiosensoren im am Ohr montierten Gerät 118 können dazu beitragen, bestimmte Klangmuster zu erkennen (z. B. Utensilien, die auf den Tisch gestellt werden, Gläserklirren, Schluckgeräusche usw.), während Bewegungssensoren dazu beitragen können, die Halsbewegung des Nutzers 112 zu erkennen, die potenziell darauf hinweisen kann, dass der Nutzer 112 schluckt und/oder dass sich seine Wangenmuskulatur bewegt und dass er kaut. Glukometer 120 kann einen oder mehrere Sensoren beinhalten, die in der Lage sind, die Menge an Zucker oder Glukose anzugeben, die sich im Blutkreislauf des Nutzers befindet. In einigen Beispielen kann das Glukometer 120 einen separaten Glukosesensor beinhalten, der manuell oder automatisch in regelmäßigen Abständen betrieben wird, wenn der Nutzer 120 eine Blutprobe anfertigt. In anderen Beispielen kann das Glukometer 120 Teil einer Insulinpumpe oder eines anderen Geräts sein, das eine kontinuierliche Blutzuckerkontrolle des Nutzers 112 vornimmt und dem Blutkreislauf des Nutzers bei Bedarf Insulin zuführt. Wenn das Glukometer 120 einen erhöhten Blutzuckerspiegel bei einem Nutzer erkennt, kann dies ein weiteres Ereignis sein, das darauf hinweist, dass ein Nutzer im Restaurant 100 begonnen hat zu trinken und/oder zu essen.
  • In weiteren Beispielen können die Nutzer 102, 112 in 1 Sensoren in ihren mobilen Geräten 104, 114 verwenden, um ähnliche oder zusätzliche Ereignisse wie oben beschreiben zu erkennen. Viele mobile Geräte einschließlich Smartphones u. ä. beinhalten Audiosensoren, Bildsensoren, Orientierungssensoren und Bewegungssensoren, die verwendet werden können, um verschiedene Bewegungs-, Ton- und/oder Bildmuster zu erkennen, die potenziell auf die geschätzte Sitzzeit und/oder geschätzte Essenszeit für die Nutzer 102, 112 hinweisen. Einige beispielhafte Ausführungsformen können nur mit den mobilen Geräten 104, 114 implementiert werden. In anderen beispielhaften Ausführungsformen können verschiedene Mengen oder Kombinationen von mobilen Computergeräten (z. B. ein einzelnes tragbares Gerät oder viele tragbare Geräte) allein oder in Kombination mit einem mobilen Gerät wie z. B. 104, 114 verwendet werden, um relevante Sensordaten zu erhalten. Es wird ausdrücklich darauf hingewiesen, dass verschiedene Kombinationen von mobilen Computergeräten, einschließlich tragbaren und nicht tragbaren Geräten in unterschiedlichen Kombinationen verwendet werden können, um zum Beispiel zu erfassen, dass ein Nutzer an einem Tisch sitzt und/oder isst.
  • Jetzt unter Bezugnahme jetzt auf 2 kann ein Beispielverfahren (200) für die Schätzung der Restaurant-Wartezeit beinhalten, dass von mindestens einem oder mehreren Teilen der Sensordaten eines oder mehrerer mobiler Computergeräte, die von einem Nutzer betrieben werden, erkannt wird (202), dass ein Nutzer an einem Tisch im Restaurant sitzt. Aspekte des Verfahrens (200) werden im Zusammenhang mit einem einzelnen Nutzer beschreiben, aber es wird ausdrücklich darauf hingewiesen, dass ähnliche Techniken auf viele Nutzer an einem bestimmten oder an mehreren Tischen in einem bestimmten oder in mehreren Restaurants angewendet werden können. Das oder die Teile von Sensordaten im Zusammenhang mit der Identifizierung in (202) können Sensordaten beinhalten, die von den verschiedenen tragbaren und nicht tragbaren mobilen Computergeräten, die in 1 dargestellt werden, erfasst werden, einschließlich aber nicht beschränkt auf Bewegungssensoren, Audiosensoren, Bildsensoren, Glukometersensoren und anderen. Weitere Informationen über die Sensordaten, die verwendet werden können, um zu erkennen (202), dass ein Nutzer an einem Tisch im Restaurant sitzt, wird in Bezug auf 3 beschrieben. Der Zeitpunkt, an dem erkannt wird, dass ein Nutzer wahrscheinlich an einem Tisch im Restaurant sitzt, wird als die geschätzte Sitzzeit bezeichnet.
  • Weiter in Bezug auf 2 kann das Verfahren (200) beinhalten, dass eine geschätzte (204) Ankunftszeit eines Nutzers an der aktuellen Position (z. B. dem bestimmten Restaurant, das der Nutzer besucht) bestimmt wird. Mobile Computergeräte, die vom Nutzer betrieben werden, insbesondere mobile Geräte wie 104, 114 aus 1, beinhalten normalerweise einen oder mehrere Standortsensoren, die den aktuellen Standpunkt eines Nutzers automatisch bestimmmen können und diesen Standort auch einer spezifischen Standortentität (z. B. einem Restaurant oder einem anderen Gewerbe) zuordnen können. Standortdaten können anhand eines mobilen Computergeräts ermittelt werden, das bestimmte Technologien verwendet wie GPS, Mobilfunk-Triangulation, Funknetzidentifizierung und Signalstärkenanalyse, Bluetooth Low Energy Beacons oder andere Technologien zur Ermittlung des Standorts. Zusätzlich oder alternativ kann die geschätzte Ankunftszeit bei (204) aus Sensordaten abgeleitet werden, beispielsweise durch Identifizierung des Restaurants oder des Restaurantgebiets in Bilddaten, die von verschiedenen mobilen Computergeräten erfasst werden, durch Identifizierung eines Ton- oder Audiomusters, das typisch für ein bestimmtes Restaurant ist, aus Audiodaten, die von verschiedenen mobilen Computergeräten erfasst werden usw. Sensordaten wie Bilder und/oder Audioclips können auch verknüpfte Metadaten enthalten einschließlich Geotags und/oder Zeitstempel, die verwendet werden können, um zu helfen, ein bestimmtes Lokal zu identifizieren, das mit dem aktuellen Standort des Nutzers und/oder der Ankunftszeit übereinstimmt.
  • Besondere geografische Koordinaten (z. B. Längengrad/Breitengrad oder andere geografische Kennzeichen) können aus den Standortdaten erfasst und mit Datenbanken bekannter Standortentitäten verglichen werden, um den spezifischen aktuellen Standort eines Nutzers zu identifizieren. Das heißt, Standortdaten, die bei der Ermittlung von (204) analysiert werden, können einen spezifischen geografischen Standort beinhalten, einschließlich einen oder mehrere Kennzeichen wie Längengrad/Breitengrad, ein Kennzeichen der Straßenadresse und/oder ein Kennzeichen der Standortentität (z. B. den Namen eines Restaurants oder eines anderen Lokals). Bekannte geografische Koordinaten und andere Standortinformationen im Zusammenhang mit der Privat- oder Berufsadresse eines Nutzers können auch hilfreich sein, um zu unterscheiden, ob ein Nutzer in einem Restaurant isst oder ob er zu Hause isst, wenn die Wartezeiten weniger relevant sind und nicht analysiert werden müssen.
  • Standortdaten, die bei der Ermittlung von (204) analysiert werden, können zeit-korreliert sein, um eine geschätzte Ankunftszeit des Nutzers an seinem aktuellen Standort zu ermitteln. In vielen Fällen entsprechen zeitlich korrelierte Standortdaten Standortdaten, die über eine oder mehrere Zeitreihen analysiert werden. Der Standortverlauf eines Nutzers kann mit korrelierenden Zeitstempeln gespeichert und dann analysiert werden, um festzustellen, wie lange sich ein Nutzer an einem aktuellen Standort aufgehalten hat, von einer geschätzten Ankunftszeit bis zur Gegenwart. In einigen Beispielen kann die Erfassung eines Ereignisses wie die Tatsache, dass ein Nutzer an einem Restauranttisch sitzt, Essen serviert bekommt oder in einem Restaurant isst, als Auslöser dafür dienen, um eine geschätzte Ankunftszeit des Nutzers an seinem aktuellen Standort zu ermitteln. Die Auslöseereignisse veranlassen Standortdatensensoren dazu, den Standortverlauf des Nutzers zu analysieren, um eine aktuelle Dauer (z. B. x Minuten) zu bestimmen, die sich der Nutzer an seinem aktuellen Standort aufhält. Zieht man diese aktuelle Dauer von der aktuellen Zeit ab, erhält man eine Schätzung der Ankunftszeit des Nutzers an seinem aktuellen Standort. In anderen Beispielen kann ein Zeitstempel im Zusammenhang mit den Standortdaten verwendet werden, aus denen die Ankunft des Nutzers an seinem aktuellen Standort hervorgeht, um die geschätzte Ankunftszeit des Nutzers an seinem aktuellen Standort zu ermitteln.
  • Noch immer in Bezug auf 2 kann eine geschätzte Wartezeit bei (206) ermittelt werden, die mit der Zeit übereinstimmt, die ein Nutzer gewartet hat, nachdem er beim Restaurant angekommen ist, bis er an einen Tisch geführt wurde. In einigen Beispielen kann die geschätzte Wartezeit, die bei (206) ermittelt wird, mit der Zeitdifferenz zwischen der geschätzten Sitzzeit, die bei (202) ermittelt wird, und einer geschätzten Ankunftszeit, die bei (204) ermittelt wird, übereinstimmen. In anderen Beispielen kann die geschätzte Ankunftszeit, die bei (206) ermittelt wurde, direkter aus der Zeitdauer zwischen einem Auslöseereignis (z. B. ein Nutzer nimmt an einem Restauranttisch platz) und der abgeleiteten Ankunftszeit am aktuellen Standort des Nutzers ermittelt werden. Noch spezifischere Formen der Zeit- und Standortanalyse können verwendet werden, um die Ankunftszeit des Nutzers und die entsprechende Zeitdauer zu ermitteln, die der Nutzer an seinem aktuellen Standort gewartet hat, bis er zu einem Tisch geführt wurde.
  • Bestimmung einer geschätzten Wartezeit bei (206) kann mehrere Vorteile bieten. Ein Vorteil kann erkannt werden, wenn die Wartezeit automatisch aus speziell identifizierten Aktivitäten ermittelt wird, ohne dass eine aktive Teilnahme eines Nutzers erforderlich wäre. Es wäre möglich, dass Nutzer das Eintreten spezifischer Ereignisse manuell in ein mobiles Computergerät eingeben, einschließlich der Ankunftszeit, Sitzzeit, Wartezeit o. ä. des Nutzers. Einige elektronische Anwendungen beinhalten Gelegenheiten für Nutzer, in aktuelle Standorte „einzuchecken” und relevante Daten wie Wartezeiten etc. einzugeben. Die Verwendung von Sensordaten und automatisierter Ereigniserkennungsanalyse macht es jedoch unnötig, dass ein Nutzer sich aktiv beteiligt und die Wartezeitinformationen selbst eingibt.
  • Die bei (206) ermittelte Wartezeit für ein bestimmtes Restaurant kann eine wertvolle Information für andere Personen sein, die mit dem Restaurant in Verbindung stehen, wie den aktuellen Gästen, die auf einen Tisch warten, tatsächlichen oder zukünftigen Gästen, die ein Interesse an der Wartezeit haben, Restaurantbesitzer oder andere, die die Wartezeiten eines Restaurants verfolgen möchten. Als solche können Daten, aus denen die geschätzte Wartezeit hervorgeht, die bei (206) für einen bestimmten Nutzer ermittelt wurde, bei (208) an ein anderes Computergerät weitergeleitet werden. Daten, aus denen die geschätzte Wartezeit hervorgeht, können die tatsächliche geschätzte Wartezeit beinhalten, Daten, die verwendet werden, um die geschätzte Wartezeit zu berechnen, Bild- und/oder Audiomitteilungen, aus denen die geschätzte Wartezeit oder damit zusammenhängende Information hervorgeht und/oder andere relevante Daten. In einigen Beispielen können die Daten, aus denen die geschätzte Wartezeit hervorgeht, bei (208) an einen oder mehrere Server oder andere Remote-Computergeräte zwecks zentralisierter Erfassung der Wartezeitinformationen, zusätzlicher statistischer Analyse und/oder weiterer Verarbeitung weitergeleitet werden. In anderen Beispielen können die Daten, aus denen die geschätzte Wartezeit hervorgeht, bei (208) an andere mobile Computergeräte weitergeleitet werden, die von Gästen betrieben werden, die regelmäßig Informationen bezüglich eines bestimmten Standortes erhalten. Ein Nutzer, der vorhat, Restaurant A zu besuchen, kann für eine aktuelle oder zukünftige Zeitperiode regelmäßig Informationen über die aktuellen Wartezeiten bei Restaurant A erhalten und die Daten bezüglich der geschätzten Wartezeit bei (208) erhalten. In anderen Beispielen erhalten Nutzer diese Informationen erst nach weiteren statistischen Analysen bei (210).
  • Eine statistische Analyse kann bei (210) durchgeführt werden, um geschätzte Wartezeiten von mehreren Nutzern an einem aktuellen Standort oder bestimmten Restaurant zu kombinieren. Beispielsweise kann ein Remote-Computergerät Restaurant-Wartezeiten von mehreren Nutzern an einem bestimmten Restaurant erfassen und Statistiken der Wartezeiten über einen Zeitraum (z. B. 10 Minuten) auswerten, indem es die Wartezeiten der verschiedenen Nutzer kombiniert. Beispielstatistiken können beinhalten, sind aber nicht beschränkt auf eine mittlere Wartezeit, durchschnittliche Wartezeit, Varianz in der Wartezeit, erwarteten Wert der Wartezeit und Konfidenzintervall der Wartezeit.
  • Die bei (210) berechnete Statistik im Verhältnis zur geschätzten Wartezeit für verschiedene Restaurants kann auf anderen Computergeräten im Netzwerk auf verschiedenste Weise angezeigt werden. Beispielsweise können andere Computergeräte, die von aktuellen, zukünftigen und/oder potenziellen Gästen eines Restaurants, Besitzern/Betreibern eines Restaurants oder anderen betrieben werden, Programme, Anwendungen, Internetzugang zu Webseiten oder andere Merkmale beinhalten, um Wartezeitbenachrichtigungen und andere Wartezeitinformationen zu erhalten. Benachrichtigungen über geschätzte Wartezeitstatistiken für verschiedene Restaurants können bei (212) vernetzten Computergeräten zur Verfügung gestellt werden, die von anderen Nutzern betrieben werden.
  • Benachrichtigungen können in einer Vielzahl von sinnvollen Möglichkeiten Zeitstatistiken und Informationen bereitstellen. Beispielsweise könnten einige Benachrichtigungsinformationen, die bei (212) bereitgestellt werden, die aktuelle Wartezeit bei einem bestimmten Restaurant beinhalten, während andere Informationen die typische Wartezeit bei einem bestimmten Restaurant zu einer bestimmten Zeit angeben (z. B. 19:00 Uhr). Weitere Informationen können in Form von Warnungen weitergeleitet werden, wie eine Benachrichtigung, die an interessierte Nutzer gesendet wird und aus der hervorgeht, wann die geschätzte Wartezeit an einem bestimmten Restaurant unter einem bestimmten Schwellenwert liegt (z. B. ein Popup, wenn die Wartezeit unter 15 Minuten liegt). Benachrichtigungsinformationen, die bei (212) bereitgestellt werden, können in Form von Balkendiagrammen oder anderen grafischen Darstellungen bereitgestellt werden, die die geschätzten Wartezeiten über den Verlauf unterschiedlicher Zeitperioden (z. B. jede Stunde, jede halbe Stunde, alle zehn Minuten usw.) und für verschiedene Wochentage (z. B. Montag, Dienstag, Mittwoch, Donnerstag, Freitag, Samstag, Sonntag) oder für Tagegruppen (z. B. Wochentage, Wochenabende, Wochenendtage, Wochenendabende usw.) zeigen. Noch weitere Formen der Benachrichtigungen und bestimmter Arten der Kommunikation liegen im Rahmen der vorliegenden Offenbarung.
  • In einigen Beispielen können die bei (212) dargestellten Benachrichtigungen Teil einer spezifischen Anwendung oder eines spezifischen Programms sein, das dafür ausgelegt ist, Wartezeitschätzungen für verschiedene Restaurants und Lokalen zu liefern. In anderen Beispielen können die bei (212) bereitgestellten Benachrichtigungen Teil eines allgemeineren Internetsuchtools sein, wie Google Search von Google, Inc. Wenn bei der Suche nach einem Restaurant Google Search verwendet wird, können zusätzliche Informationen zu dem Restaurant bereitgestellt werden, wie Adresse, Telefonnummer, Öffnungszeiten und Zeiten, an denen das Restaurant voll besetzt ist. Relevante Daten, die in Übereinstimmung mit der vorliegenden Offenbarung identifiziert und/oder ermittelt werden, können dazu beitragen, Informationen bereitzustellen, die Zeiten identifizieren, an denen das Restaurant voll besetzt ist oder sie können dazu beitragen, neue Informationen bereitzustellen, aus denen geschätzte Wartezeiten und/oder Zeiten, an denen die Küche geöffnet ist, für ein Restaurant hervorgehen. Stoßzeiten, geschätzte Wartezeiten und/oder geschätzte Zeiten, an denen die Küche geöffnet ist, für ein bestimmtes Restaurant können einem Nutzer auf unterschiedlichste Weise angezeigt werden, wie z. B. in einem Balkendiagramm-Formular, auf dem man durch die einzelnen Tage scrollen kann, um die Öffnungszeiten des Restaurants zu erfahren.
  • In Bezug auf 3 werden im Folgenden zusätzliche Aspekte im Hinblick auf die Identifizierung einer geschätzten Sitzzeit bei (202) dargestellt. Zusätzliche Aspekte (220)–(230) können jeweils selektiv in die Identifizierung bei (202) integriert werden. Nicht alle Aspekte müssen in jeder Beispiel-Ausführungsform genutzt werden. In anderen Ausführungsformen können außer den dargestellten (220)–(230) noch zusätzliche oder alternative Aspekte als Teil der Ermittlung einer geschätzten Sitzzeit bei (202) eingesetzt werden.
  • In einigen Beispielen für die Ermittlung einer geschätzten Sitzzeit bei (202) können Bewegungsdaten und/oder Orientierungsdaten von einem mobilen Gerät analysiert werden, um bei (220) festzustellen, dass sich das mobile Gerät für eine bestimmte Mindestdauer in einer horizontalen Position befindet. Bei (220) analysierte Daten könnten Daten entsprechen, die von Bewegungs-/Orientierungssensoren stammen, wie ein Kompass, ein Gyroskop, ein Beschleunigungsaufnehmer o. ä, die sich in den mobilen Geräten 104, 114 befinden, die in 1 dargestellt werden. Diese Horizontalpositions-Daten können ein aussagekräftiger Indikator für einen Gast sein, der sein Telefon oder ein anderes mobiles Gerät auf einen Restauranttisch legt, nachdem er sich gesetzt hat.
  • Ein weiteres Beispiel für eine bei (202) geschätzte Sitzzeit kann bei (222) Bewegungsdaten und/oder Orientierungsdaten aus einem Armbandgerät analysieren. Sensordaten, die aus einem Armbandgerät stammen, können analysiert werden, um spezifische Bewegungsmuster zu erkennen, die darauf hinweisen, dass ein Nutzer an einem Tisch sitzt (z. B. mit den Händen auf dem Tisch, mit reduzierten Handbewegungen im Vergleich zum Stehen, Trinken unverzüglich nach oder kurz nach dem Hinsetzen usw.). Daten, die bei (222) analysiert werden, könnten Daten aus Bewegungs-/Orientierungssensoren entsprechen, die sich in Armbandgeräten befinden, wie Activity Tracker 106 und/oder Smart Watch 116, wie dargestellt in 1.
  • Ein weiteres Beispiel für eine bei (202) geschätzte Sitzzeit kann bei (224) Audiodaten von einem oder mehreren Audiosensoren analysieren, beispielsweise Audio-Sensoren, die als Teil eines Mikrofons in einer mobilen Rechenvorrichtung bereitgestellt werden. Von Audiosensoren erhaltene Sensordaten können dazu beitragen, das Auftreten von spezifischen Tonmustern (z. B. Utensilien, die auf einem Tisch abgestellt werden, Gläserklirren, Nutzer, die Schluckgeräusche machen usw.) zu erkennen. Audiosensoren, die Daten bereitstellen, die bei (224) analysiert werden, können aus verschiedenen Geräten stammen, beispielsweise aus einem optischen, am Kopf angebrachten Gerät 108, einem am Ohr angebrachten Gerät 118, aus mobilen Geräten 104, 114 aus 1 und anderen, ohne darauf beschränkt zu sein.
  • Ein weiteres Beispiel für die Ermittlung einer geschätzten Sitzzeit bei (202) kann Bilddaten bei (226) aus einem oder mehreren Bildsensoren analysieren, z. B. Bildsensoren, die als Teil einer Kamera in einem mobilen Computergerät bereitgestellt werden. Von Bildsensoren erhaltene Sensordaten können dazu beitragen, das Auftreten von spezifischen Bildmustern (z. B. Gegenstände wie ein Tisch, Geschirr, Besteck, Gläser und/oder essende Gäste usw.) zu erkennen. Bilddaten, die bei (226) analysiert werden, können aus einer Vielzahl von Geräten stammen, beispielsweise aus optischen, am Kopf angebrachten Geräten 108 und/oder mobilen Geräten 104, 114 aus 1 und anderen, ohne darauf beschränkt zu sein.
  • Eine weitere zusätzliche und/oder alternative Datenart, die als Teil der Ermittlung einer geschätzten Sitzzeit bei (202) verwendet werden kann, kann Zeitdaten beinhalten. Zeitdaten können bei (228) verwendet werden, um dazu beizutragen, die Wahrscheinlichkeit zu bewerten, mit der bestimmte Ereignisse in einem bestimmten Restaurant oder bei einem bestimmten Nutzer im Verhältnis zu typischen Zeitfenstern für Frühstück, Lunch, Dinner, Kaffee, Imbiss usw. auftreten. Wenn beispielsweise Bildmuster erkannt werden, aus denen hervorgeht, dass um 19:00 Uhr ein Tisch vor dem Nutzer steht, könne es hilfreich sein, dieses erkannte Bildmuster höher zu bewerten, wenn es darum geht, zu ermitteln, ob ein Nutzer während eines Zeitfensters, das für Abendessen typisch ist, in einem Restaurant sitzt. In anderen Beispielen könnte es wahrscheinlicher sein, dass ein bestimmter Nutzer in einem Restaurant frühstückt, als zu Mittag oder zu Abend zu essen. Bestimmte Einstellungen oder Gewichtungspräferenzen können für unterschiedliche Zeitfenster und einen bestimmten Nutzer voreingestellt und vorprogrammiert werden, um dazu beizutragen, dass die erhaltenen Zeitdaten die aussagekräftigsten zusätzlichen Faktoren für eine Analyse bei (228) bereitstellen.
  • Unter weiterer Bezugnahme auf 3 beinhaltet ein zusätzlicher Aspekt für die Ermittlung einer geschätzten Sitzzeit bei (202) die Nutzung eines Klassifikator-Trainings bei (230). Obwohl auf dem Flussdiagramm aus 3 als letzter Aspekt (230) erwähnt, ist darauf hinzuweisen, dass das Klassifikator-Training bei (230) als anfänglicher Trainingsschritt bei der Ermittlung (202) durchgeführt werden kann, so dass den bei (220)–(228) erhaltenen und analysierten Sensordaten ein aussagefähiges Netz für die Analyse zur Verfügung steht. Auf diese Weise können ein oder mehrere Teile von Sensordaten, die bei (220)–(228) erhalten und analysiert wurden, mit einem vorkonfigurierten Klassifikator verglichen werden, der vorbestimmte Sensordaten mit bestimmten Ereignissen korreliert, die die Identifizierung eines Nutzers auslösen, der an einem Tisch sitzt. In einigen Beispielen des Klassifikator-Trainings kann maschinelles Lernen verwendet werden, um erhaltene Sensordaten bei (230) zu bewerten. Beispielsweise können zeitlich korrelierte Sensordaten ein Merkmal für das Trainieren eines Klassifikators werden, indem ein Lernalgorithmus wie ein neuronales Netz, Support Vector Machine (SVM) oder andere Maschinenlernverfahren verwendet werden. Klassifikatoren können trainiert werden, um zu bewerten, ob eine Person an einem Restauranttisch sitzt. Dann läuft der Klassifikator in Echtzeit auf dem mobilen Gerät eines Nutzers und identifiziert darauffolgende Ereignisse eines Nutzers, der an einem Restauranttisch sitzt, indem die in Echtzeit erhaltenen Sensordaten analysiert werden.
  • Unter nun erfolgender Bezugnahme auf 45 werden ein beispielhaftes Verfahren (240) für die Schätzung der Essensservierzeit sowie damit zusammenhängende Aspekte beschrieben. Eine geschätzte Essensservierzeit kann auch als eine Wartezeit in einem Restaurant angesehen werden. Aus terminologischen Gründen wird die hier beschriebene „geschätzte Wartezeit” jedoch verwendet, um sich auf die typische Wartezeit eines Gastes zwischen Ankunft und Sitzen am Tisch zu beziehen, während die hier beschriebene „geschätzte Essensservierzeit” verwendet wird, um sich auf die Wartezeit zu beziehen, bis das Essen in dem Restaurant serviert wird. Wie aus der vorliegenden Offenbarung hervorgeht, kann eine Essensservierzeit im Verhältnis zu verschiedenen Zeitperioden berechnet werden (z. B. aus einer geschätzten Ankunftszeit in einem Restaurant und/oder aus einer geschätzten Sitzzeit im Restaurant.)
  • Verfahren (240) in 4 kann beinhalten, dass aus zumindest einem oder mehreren zusätzlichen Teilen von Sensordaten aus einem oder mehreren mobilen Geräten, die von einem Nutzer betrieben werden, ermittelt werden kann (242), dass ein Nutzer in einem Restaurant mit dem Essen begonnen hat. Aspekte des Verfahrens (240) werden in Bezug auf einen einzelnen Nutzer beschrieben, aber es wird darauf hingewiesen, dass ähnliche Techniken auf mehrere Nutzer an einem bestimmten Tisch, auf mehrere Tische in einem bestimmten Restaurant und/oder in mehreren Restaurants angewendet werden können. Der oder die Teile der zusätzlichen Sensordaten, die für die Ermittlung in (242) relevant sind, können Sensordaten beinhalten wie die, die von verschiedenen tragbaren und nicht tragbaren mobilen Computergeräten wie in 1 dargestellt erhalten werden, einschließlich aber nicht beschränkt auf Daten aus Bewegungssensoren, Orientierungssensoren, Audiosensoren, Bildsensoren, Glukometersensoren und anderen. Weitere Einzelheiten bezüglich der Sensordaten, die verwendet werden können, um (242) zu ermitteln, dass ein Nutzer begonnen hat, an einem Restaurantstandort zu essen, wird in 5 beschrieben. Der Zeitpunkt, an dem ermittelt werden kann, dass ein Nutzer wahrscheinlich mit dem Essen begonnen hat, wird als die geschätzte Essenszeit bezeichnet.
  • Noch immer in Bezug auf 4 kann Verfahren (240) auch beinhalten, dass eine geschätzte Essensservierzeit ermittelt wird (244), indem die Zeitdifferenz zwischen der bei (242) ermittelten geschätzten Essenszeit und einer anfänglichen Zeit analysiert wird. In einigen Beispielen entspricht die anfängliche Zeit der geschätzten Sitzzeit, die bei (202) für den bestimmten Nutzer in einem bestimmten Restaurant ermittelt wurde, so dass die bei (244) ermittelte geschätzte Essensservierzeit der Zeit entspricht, die zwischen der bei (202) geschätzten Sitzzeit und der bei (242) ermittelten geschätzten Essenszeit vergangen ist. In anderen Beispielen entspricht die anfängliche Zeit der bei (204) ermittelten geschätzten Ankunftszeit für den bestimmten Nutzer in einem bestimmten Restaurant, so dass die bei (244) geschätzte Essensservierzeit der Zeit entspricht, die zwischen der bei (204) ermittelten geschätzten Ankunftszeit und der bei (242) ermittelten geschätzten Essenszeit vergangen ist.
  • Die Ermittlung Bestimmung einer geschätzten Essensservierzeit bei (244) kann mehrere Vorteile bieten. Ein Vorteil kann beinhalten, dass die Essensservierzeit automatisch anhand von spezifischen, identifizierten Aktivitäten ermittelt wird, ohne dass die aktive Teilnahme eines Nutzers notwendig wäre. Es wäre möglich, dass Nutzer das Auftreten spezifischer Ereignisse manuell eingeben, einschließlich der Ankunfts-, Sitz-, Ess-, Wartezeit des Nutzers u. ä., indem die Daten manuell in ein mobiles Computergerät eingegeben werden. Einige elektronische Anwendungen bieten dem Nutzer die Möglichkeit, sich in aktuelle Standorte „einzuchecken” und damit verbundene Daten einzugeben, wie Essensservierzeiten usw. Durch die Verwendung von Sensordaten und automatischen Ereigniserkennungsanalysen ist jedoch die aktive Teilnahme eines Nutzers nicht unbedingt erforderlich.
  • Die bei (244) ermittelte Essensservierzeit für ein bestimmtes Restaurant kann eine wertvolle Information für andere Personen sein, die mit dem Restaurant in Verbindung stehen, einschließlich der aktuellen Gäste, die auf einen Tisch warten, tatsächlicher oder potenzieller zukünftiger Gäste, die die Wartezeit gerne erfahren möchten, Restaurantbesitzer oder anderer Entitäten, die möglicherweise Wartezeiten für ein Restaurant verfolgen möchten, oder anderer. Als solche können Daten, die bei (244) für einen bestimmten Nutzer ermittelt werden und aus denen die geschätzten Essensservierzeiten hervorgehen, bei (246) an ein anderes Computergerät weitergeleitet werden. Daten, aus denen die geschätzten Essensservierzeiten hervorgehen, können Folgendes beinhalten: die tatsächliche geschätzte Essensservierzeit, Daten, die verwendet werden, um die geschätzte Essensservierzeit zu berechnen, Bild- und/oder Audiobenachrichtigungen, aus denen die geschätzte Essensservierzeit oder damit zusammenhängende Informationen hervorgehen, und/oder andere relevante Daten. In einigen Beispielen können die Daten, aus denen geschätzte Essensservierzeiten hervorgehen, bei (246) an einen oder mehrere Server oder Remote-Computergeräte zwecks zentralisierter Erfassung von Essensservierzeit-Informationen, zusätzlicher statistischer Analyse und/oder anderer weiterer Verarbeitung weitergeleitet werden. In anderen Beispielen können die Daten, aus denen die geschätzte Essensservierzeit hervorgeht, bei (246) an andere mobile Computergeräte weitergeleitet werden, die von Gästen bedient werden, die regelmäßig Informationen über einen bestimmten Standort beziehen. Beispielsweise kann ein Nutzer, der plant, Restaurant A in einem aktuellen oder zukünftigen Zeitraum zu besuchen, Informationen über die aktuellen Essensservierzeiten in Restaurant A abonnieren und die geschätzten Essensservierzeiten, die bei (246) weitergeleitet wurden, erhalten. In anderen Beispielen erhalten Nutzer diese Informationen erst, nachdem zusätzliche statistische Analysen bei (248) durchgeführt wurden.
  • Statistische Analysen können bei (248) durchgeführt werden, um geschätzte Essensservierzeiten mehrerer Nutzer an einem aktuellen Standort oder in einem bestimmten Restaurant zu kombinieren. Beispielsweise kann ein Remote-Computergerät Essensservierzeiten mehrerer Nutzer eines bestimmten Restaurants erfassen und Statistiken der Essensservierzeiten über einen Zeitraum (z. B. 10 Minuten) bewerten, indem Essensservierzeiten für die unterschiedlichen Nutzer kombiniert werden. Beispielhafte Statistiken können Folgendes beinhalten, ohne darauf beschränkt zu sein: durchschnittliche Essensservierzeit, Mittlere Essensservierzeit, Varianz der Essensservierzeit, erwarteter Wert der Essensservierzeit und Konfidenzintervall der Essensservierzeit.
  • Die bei (248) berechnete Statistik im Zusammenhang mit den geschätzten Essensservierzeiten für verschiedene Restaurants können auf unterschiedliche Weise auf anderen Computergeräten im Netzwerk angezeigt werden. Beispielsweise können andere Computergeräte, die von aktuellen, zukünftigen und/oder potenziellen Gästen eines Restaurants, eines Besitzers/Betreibers eines Restaurants oder anderen Programme, Anwendungen, Internet-Zugang zu Webseiten oder andere Funktionen beinhalten, um die Benachrichtigungen über Essensservierzeiten und andere Wartezeitinformationen anzuzeigen. Benachrichtigungen über geschätzte Essensservierzeiten-Statistiken für verschiedene Restaurants können bei (250) Computergeräten zur Verfügung gestellt werden, die von anderen betrieben werden. Benachrichtigungen können Statistiken und damit einhergehende Informationen über Essensservierzeiten auf verschiedene aussagekräftige Weise bereitstellen. Beispielsweise können einige Benachrichtigungen, die bei (250) bereitgestellt werden, die aktuelle Essensservierzeit in einem bestimmten Restaurant beinhalten, während aus anderen Informationen die typischen Essensservierzeiten eines bestimmten Restaurants zu einem bestimmten Zeitpunkt (z. B. 19:00 Uhr) hervorgehen. Weitere Informationen können in Form von Warnungen weitergeleitet werden, so wie eine Benachrichtigung, die an interessierte Nutzer weitergeleitet wird, und aus der hervorgeht, wann die geschätzte Essensservierzeit in einem bestimmten Restaurant unter einem bestimmten Schwellenwert liegt (z. B. Popup, wenn die Essensservierzeit unter 15 Minuten liegt). Weitere Benachrichtigungsformen und besondere Arten der Weitergabe dieser Informationen liegen im Bereich der vorliegenden Offenbarung und beinhalten Kombinationen von Benachrichtigungen, die sowohl Wartezeitinformationen als auch Essensservierzeit-Informationen beinhalten.
  • In Bezug auf 5 werden zusätzliche Aspekte im Zusammenhang mit der Ermittlung einer geschätzten Essenszeit bei (242) erörtert. Zusätzliche Aspekte (260)–(268) können selektiv in die Ermittlung bei (242) integriert werden. Nicht alle Aspekte müssen in jeder Ausführung genutzt werden. In anderen Ausführungsformen können zusätzliche oder alternative Aspekte außer den bei (260)–(268) beschriebenen als Teil der Ermittlung einer geschätzten Essenszeit bei (242) eingesetzt werden.
  • In einigen Beispielen für die Ermittlung einer geschätzten Essenszeit bei (242) können Bewegungsdaten und/oder Orientierungsdaten von einem Armbandgerät bei (260) analysiert werden. Sensordaten, die von einem Armbandgerät stammen, können analysiert werden, um zu erkennen, dass spezifische Bewegungsmuster vorgefallen sind, die darauf hinweisen, dass ein Nutzer isst (z. B. wiederholte Bewegung beider Hände zusammen, was darauf schließen lässt, dass mit ihnen mehrere Utensilien verwendet werden, um beispielsweise Essen zu schneiden oder zu bewegen, wiederholte Bewegung der Hände zwischen Tisch/Teller und dem Mund, was darauf schließen lässt, dass der Nutzer Essen zu seinem Mund führt usw.). Bei (260) analysierte Daten könnten Daten entsprechen, die aus Bewegungs-/Orientierungssensoren stammen, die sich in Armbandgeräten wie Activity Trackern 106 und/oder Smart Watches 116 befinden, siehe 1.
  • Ein weiteres Beispiel für die Ermittlung einer geschätzten Essenszeit bei (242) kann bei (262) Audiodaten aus einem oder mehreren Audiosensoren analysieren, z. B. aus Audiosensoren, die Teil eines Mikrofons in einem mobilen Computergerät sind. Sensordaten, die aus Audiosensoren stammen, können dazu beitragen, festzustellen, wann spezifische Tonmuster auftreten (z. B. wiederholtes Klirren von Utensilien, Kauen, Schlucken usw.). Audiosensoren, die bei (262) analysierte Daten bereitstellen, können von verschiedenen Geräten stammen, wie von optischen, am Kopfbefestigten Geräten 108, am Ohr befestigten Geräten 118, mobilen Geräten 104, 114, siehe 1 und anderen, ohne darauf beschränkt zu sein.
  • Ein weiteres Beispiel für die Ermittlung einer geschätzten Essenszeit bei (242) kann bei (264) Bilddaten von einem oder mehreren Bildsensoren analysieren, z. B. von Bildsensoren, die als Teil einer Kamera in einem mobilen Computergerät bereitgestellt werden. Sensordaten aus Bildsensoren können dazu beitragen, den Vorfall spezifischer Bildmuster zu erkennen (z. B. Identifizierung von Gegenständen wie Essen, das auf einen Tisch gestellt wird, Nutzer, die Essen und/oder Utensilien zu ihrem Mund führen usw.). Bei (264) analysierte Bilddaten können auch Bilder enthalten, die ein Nutzer möglicherweise von seinem Essen oder von anderen servierten Gegenständen macht. Bild-Metadaten wie Geotags und/oder Zeitstempel usw. im Zusammenhang mit erfassten Bilddaten können auch analysiert werden, um zu helfen, bei (242) eine geschätzte Essenszeit und Standortdaten zu ermitteln, die in einem anderen Aspekt der vorliegenden Offenbarung analysiert werden. Bilddaten, die Daten liefern, die bei (264) analysiert werden, können aus verschiedenen Geräten stammen, wie aus optischen, am Kopf befestigten Geräten 108 und/oder mobilen Geräten 104, 114 aus 1 und anderen, ohne darauf beschränkt zu sein.
  • Ein weiteres Beispiel für die Ermittlung einer geschätzten Essenszeit bei (242) kann bei (266) Bewegungsdaten aus einem oder mehreren Bewegungssensoren analysieren, die im Verhältnis zum Kopf, Gesicht oder Mund eines Nutzers angebracht sind. Daten von Bewegungssensoren dieser Art können hilfreich sein, um zu erkennen, ob spezifische Bewegungsmuster auftreten, wie beispielsweise die Bewegung der Wangenknochen und/oder die Bewegung der Wangenmuskeln, woraus hervorgeht, dass der Nutzer isst. Daten von Bewegungssensoren, die bei (266) analysiert werden, können aus verschiedenen Geräten stammen, wie aus am Ohr befestigten Geräten 118 aus 1 und anderen, ohne darauf beschränkt zu sein.
  • Eine andere zusätzliche und/oder alternative Datenart, die als Teil der Ermittlung einer geschätzten Essenszeit bei (242) verwendet werden kann, kann Zeitdaten enthalten. Zeitdaten können bei (268) verwendet werden, um dazu beizutragen, die Wahrscheinlichkeit zu bewerten, dass bestimmte Ereignisse in einem bestimmten Restaurant oder für einen bestimmten Nutzer auftreten, im Verhältnis zu typischen Zeitfenstern für Frühstück, Mittag- und Abendessen, Kaffee, Imbiss usw. Wenn beispielsweise Bildmuster erkannt werden, aus denen hervorgeht, dass um 19:00 Uhr Essen vor den Nutzer gestellt wird, könne es hilfreich sein, dieses erkannte Bildmuster höher zu bewerten, wenn es darum geht, zu ermitteln, ob ein Nutzer während eines Zeitfensters, das für Abendessen typisch ist, mit dem Essen begonnen hat. In anderen Beispielen könnte es wahrscheinlicher sein, dass ein bestimmter Nutzer in einem Restaurant frühstückt, als zu Mittag oder zu Abend zu essen. Bestimmte Einstellungen oder Gewichtungspräferenzen können für unterschiedliche Zeitfenster und einen bestimmten Nutzer voreingestellt und vorprogrammiert werden, um dazu beizutragen, dass die erhaltenen Zeitdaten die aussagekräftigsten zusätzlichen Faktoren für eine Analyse bei (268) bereitstellen.
  • Eine weitere zusätzliche bzw. alternative Datenart, die als Teil der Ermittlung einer geschätzten Essenszeit bei (242) verwendet werden kann, kann Blutzuckerdaten beinhalten. Blutzuckerdaten können bei (270) verwendet werden, um zunehmende Blutzuckerspiegel zu identifizieren, aus denen hervorgeht, dass ein Nutzer isst. Durchschnittliche Blutzuckerkurven-Modelle oder Blutzuckerkurven-Modelle, die für einen bestimmten Nutzer spezifisch sind, können als Basis für einen Vergleich von aktuellen Blutzuckerspiegeln dienen und Zunahmen identifizieren, die wahrscheinlich darauf zurückzuführen sind, dass ein Nutzer isst.
  • Noch immer unter Bezugnahme auf 5 beinhaltet ein zusätzlicher Aspekt der Ermittlung einer geschätzten Essenszeit bei (242), dass ein Klassifikator-Training bei (272) verwendet wird. Obwohl auf dem Flussdiagramm aus 5 als letzter Aspekt (272) erwähnt, ist darauf hinzuweisen, dass das Klassifikator-Training bei (272) als anfänglicher Trainingsschritt bei der Ermittlung (242) durchgeführt werden kann, so dass den bei (260)–(270) erhaltenen und analysierten Sensordaten ein aussagefähiges Netz für die Analyse zur Verfügung steht. Auf diese Weise können ein oder mehrere Teile von Sensordaten, die bei (260)–(270) erhalten und analysiert wurden, mit einem vorkonfigurierten Klassifikator verglichen werden, der vorbestimmte Sensordaten mit bestimmten Ereignissen korreliert, die die Identifizierung eines Nutzers auslösen, der isst. In einigen Beispielen des Klassifikator-Trainings kann maschinelles Lernen verwendet werden, um erhaltene Sensordaten bei (272) zu bewerten. Beispielsweise können zeitlich korrelierte Sensordaten ein Merkmal für das Trainieren eines Klassifikators werden, indem ein Lernalgorithmus wie ein neuronales Netz, Support Vector Machine (SVM) oder andere Maschinenlernverfahren verwendet werden. Klassifikatoren können trainiert werden, um zu bewerten, ob sich eine Person an einen Restauranttisch setzt. Dann läuft der Klassifikator in Echtzeit auf dem mobilen Gerät eines Nutzers und identifiziert darauffolgende Ereignisse eines Nutzers, der isst, indem die in Echtzeit erhaltenen Sensordaten analysiert werden.
  • Unter nun erfolgender Bezugnahme auf 610 werden verschiedene Beispiele für Gerät bzw. Systemkomponenten für die Umsetzung von Techniken für die Schätzung von Wartezeiten und/oder Essensservierzeiten dargestellt. 6 zeigt eine beispielhafte Übersicht der Systemkomponenten in einem tragbaren Computergerät 300. Tragbare Computergeräte 300 können jedem beliebigen der tragbaren Geräte entsprechen, die in 1 dargestellt sind, einschließlich aber nicht beschränkt auf Activity-Tracker 106, Smart Watches 116, optische, am Kopf angebrachte Displaygeräte 108, am Ohr angebrachte Geräte 118, Glukometer 120 und andere.
  • Das tragbare Computergerät 300 kann mindestens ein Leistungsgerät 302, mindestens einen Sensor 304, mindestens ein Speichergerät 306, mindestens einen Prozessor 308 und mindestens ein Kommunikationsgerät 310 beinhalten. Tragbare Computergeräte 300 können in ihrer allgemeinen Komplexität sowie Anzahl und Art der Komponenten unterschiedlich sein, es wird hier also darauf hingewiesen, dass einige tragbare Computergeräte mehr, weniger oder andere Komponenten enthalten können als andere. Wenn beispielsweise ein tragbares Computergerät einem optischen, am Kopf angebrachten Display 108 entspricht, wie in 1 dargestellt, kann es mehrere Sensoren und zugehörige Komponenten wie ein Glukometer 120 beinhalten.
  • Leistungsgerät 302 kann jede Art von Energiespeichergerät beinhalten, wie eine Batterie oder ein kapazitives Gerät, das optional auch wieder aufladbar sein kann. In einigen Beispielen kann das Leistungsgerät 302 eine passive Energiequelle beinhalten, z. B. eine, die Energie, die von einem abfragenden Hochfrequenz-Feld oder einem elektromagnetischen Feld empfangen wird, um die anderen Schaltungen innerhalb des tragbaren Computergeräts 200 mit Leistung zu versorgen.
  • Ein oder mehrere Sensoren 304 können sich auch in einem tragbaren Computergerät 300 befinden. Obwohl sich innerhalb einiger Beispiele eines tragbaren Computergeräts 300 mehrere Sensoren befinden können, begrenzen andere Beispiele die Anzahl der Sensoren pro tragbarem Computer. Sensoren 304, die wie in 1 dargestellt in einen Activity Tracker 106 integriert sind, können einen Bewegungssensor und/oder einen Orientierungssensor beinhalten. Sensoren 304, die wie in 1 dargestellt in eine Smart Watch 116 und/oder in ein optisches, am Kopfbefestigtes Display 108 integriert sind, können einen Bewegungssensor, einen Orientierungssensor, einen Audiosensor und/oder einen Bildsensor beinhalten. Sensoren 304, die in am Ohr angebrachten Geräten 118 wie in 1 dargestellt enthalten sind, können einen Bewegungssensor und/oder Audiosensor beinhalten. Sensoren 304, die im Glukometer 120 wie in 1 dargestellt enthalten sind, können einen Blutzuckersensor beinhalten. Zusätzliche Sensoren können in anderen Ausführungsformen enthalten sein und verwendet werden.
  • Daten, die von dem oder den Sensoren 304 erfasst werden sowie andere Informationen innerhalb des tragbaren Computergeräts 300 können in dem oder den Computergeräten 306 gespeichert werden. Ein oder mehrere Speichervorrichtungen 306 können ein oder mehrere computerlesbare Medien beinhalten, insbesondere nicht-übertragbare computerlesbare Medien, RAM, ROM, Festplatten, Flash-Speicher oder andere Speichervorrichtungen. In einigen Beispielen können die Speichergeräte 306 koordinierten Datenbanken entsprechen, die auf verschiedene Standorte oder mobile Computergeräte verteilt sind.
  • Ein oder mehrere Speichervorrichtungen 306 können Informationen speichern, die für einen oder mehrere Prozessoren 308 abrufbar sind, einschließlich Anweisungen, die von einem oder mehreren Prozessoren 308 ausgeführt werden. Der oder die Prozessoren 308 können jede geeignete Verarbeitungsvorrichtung, wie etwa einen Mikroprozessor, Mikrocontroller, eine integrierte Schaltung, eine Logikvorrichtung oder eine andere geeignete Verarbeitungsvorrichtung beinhalten. Das oder die Speichergeräte 306 können auch Daten beinhalten, die vom einen oder von den mehreren Prozessoren 308 abgerufen, manipuliert, erstellt oder gespeichert werden können.
  • Anweisungen und/oder Algorithmen, die innerhalb des oder der Speichergeräte 306 gespeichert werden, können dazu beitragen, die verschiedenen computerimplementierten Verfahren umzusetzen. Anweisungen können auch in Speichergeräten 306 gespeichert werden, die dazu beitragen, Smart-Operationen des oder der Sensoren 304 umzusetzen, wie beispielsweise, dass Sensoren nur Daten erhalten, wenn ein vorbestimmtes Ereignis am tragbaren Computergerät erkannt wird. Beispielsweise können Bilder nur über einen oder mehrere Bildsensoren empfangen werden, wenn in der Nähe des tragbaren Computergeräts Bewegung erkannt wird.
  • Das tragbare Computergerät 300 kann auch ein oder mehrere Kommunikationsgeräte 310 beinhalten, um die Kommunikation zwischen dem tragbaren Computergerät 300 und einem anderen tragbaren Computergerät, einem mobilen Computergerät, einem Remote-Computergerät, einem Home-Computergerät zu ermöglichen, im Zusammenhang mit einem bestimmten Nutzer oder einem Netzwerk, über das die Kommunikation mit diesen Geräten oder anderen Geräten erfolgen kann. In einigen Beispielen kann zu dem Kommunikationsgerät 310 eine Netzwerk-Schnittstelle gehören, um mit anderen Computergeräten über ein Nahbereichskommunikationsnetzwerk mit einer oder mehreren Kommunikationstechnologien zu kommunizieren, wie WLAN, Bluetooth, Zigbee, NFC oder andere elektromagnetische Induktionstechnologien, ohne darauf beschränkt zu sein. In anderen Beispielen kann das Kommunikationsgerät 210 eine Netzwerkschnittstelle zu anderen Arten von Kommunikationsnetzwerken sein, wie ein lokales Netzwerk (z. B. Intranet), Weitverkehrsnetz (z. B. Internet), ein Funknetzwerk oder eine Kombination daraus. Die Netzwerkschnittstelle(n) kann bzw. können alle geeigneten Komponente zur Kopplung mit einem oder mehreren Netzwerken beinhalten, einschließlich z. B. Transmitter, Empfänger, Ports, Controller, Antennen oder andere geeignete Komponenten.
  • Obwohl 6 ein Beispiel für eine Art von elektronischen Komponenten darstellt, die in einem tragbaren Computergerät 300 enthalten sein können, ist darauf hinzuweisen, dass andere Beispiele ein bestehendes Computergerät anpassen können, um die gewünschte Funktionalität eines tragbaren Computergeräts durchzuführen. Beispielsweise kann der Speicher in einem existierenden Computergerät wie ein Mobilgerät, Smartphone, Tablet, Laptop, tragbares Computergerät oder ähnliches mit Anweisungen programmiert werden, die das existierende Computergerät veranlassen, computerimplementierte Methoden für die Verwendung mit einem tragbaren Computergerät durchzuführen.
  • 7 zeigt spezifischere Aspekte von Daten und durchführbaren Anweisungen in Form von Algorithmen oder anderen computer-ausführbaren Schritten, die in einem Speichergerät 306 eines tragbaren Computergeräts 300 gespeichert werden können. In einigen Beispielen können Sensordaten 320, die von dem oder den Sensoren 304 des tragbaren Computergeräts 300 erfasst wurden, im Speichergerät 306 gespeichert werden. Abhängig von Art und Konfiguration des tragbaren Computergeräts 300 können Sensordaten 320 einen oder mehrere spezifische Datentypen beinhalten, einschließlich aber nicht beschränkt auf Bewegungsdaten 322, Orientierungsdaten 324, Bilddaten 326, Audiodaten 328 und Blutzuckerdaten 330. Sensordaten 320 können Daten enthalten, die relevant sind für die Feststellung, ob ein Nutzer in einem Restaurant an einem Tisch sitzt und/oder in der Restaurantumgebung isst.
  • Vordefinierte Aktivitätsdaten 340 und Aktivitätserkennungsalgorithmus(-men) 350 können auch im Speichergerät 306 gespeichert werden. Vordefinierte Aktivitätsdaten können als markiertes Trainingsset oder als markierte Sensordaten erfasst werden, und legen dabei fest, ob eine Person sitzt oder nicht sitzt und/oder isst oder nicht isst, wie gemessen von einem oder mehreren Nutzern. Vordefinierte Aktivitätsdaten 340 können auch einen oder mehrere Trainings-Klassifikatoren enthalten, dabei wird ein Verfahren verwendet wie Neuronale Netze (NN) oder Support-Vector-Machine-(SVM)-Lerntechniken. Die Trainings-Klassifikatoren können dazu beitragen, ein Datenmodell zu definieren, aus dem spezifische Ereignisvorfälle hervorgehen, beispielsweise, dass eine Person an einem Tisch sitzt oder nicht und/oder, dass sie isst oder nicht. Algorithmen (350) für die Erkennung von Aktivitäten können Sensordaten 306 verarbeiten, die Sensoren 304 aus einem oder mehreren Computergeräten erhalten haben. Beispielsweise kann ein Algorithmus 350 für Aktivitätserkennung anhand der von den Sensoren 304 erhaltenen Daten mindestens eine computer-erzeugte Angabe erzeugen, dass ein Nutzer an einem Tisch sitzt und/oder isst, und sie zumindest mit den vordefinierten Aktivitätsdaten 340 vergleichen. In einigen Beispielen beinhalten der oder die Algorithmen (350) die computer-ausführbaren Anweisungen, die die Identifizierung bei (202) von 2 implementieren, dass ein Nutzer an einem Restauranttisch sitzt und wie in den Aspekten von 3 weiter im Detail beschrieben. In einigen Beispielen beinhalten der oder die Algorithmen (350) die computer-ausführbaren Anweisungen, die die Identifizierung bei (242) von 4 implementieren, dass ein Nutzer isst und wie in den Aspekten von 5 weiter im Detail beschrieben.
  • Ein spezifisches Beispiel für die Interaktion zwischen den Sensordaten 320, vordefinierten Aktivitätsdaten 340 und Aktivitätserkennungsalgorithmus 350 entspricht der Kontrolle von Daten bezüglich des Blutzuckers eines Nutzers, um dazu beizutragen, festzustellen, ob dieser Nutzer isst. Wenn zum Beispiel das tragbare Computergerät 300 ein Glukometer ist, können Sensoren 304 Blutzuckerdaten 330 erhalten, um den aktuellen Blutzuckerspiegel eines Nutzers zu erhalten. Der Algorithmus zur Aktivitätserkennung 350 kann die aktuellen Blutzuckerdaten 330 eines Nutzers mit einer vordefinierten Aktivität 340 vergleichen, einschließlich Daten, die eine Erhöhung des typischen Blutzuckerspiegels feststellen, was darauf hinweist, dass der Nutzer isst. Aktivitätserkennungsalgorithmus 350 kann dann über das Kommunikationsgerät 310 ein erfasstes Ereignis eines ansteigenden Blutzuckerspiegels eines Nutzers an ein anderes Computergerät weiterleiten.
  • Obwohl Sensordaten 320, vordefinierte Aktivitätsdaten 340 und Aktivitätserkennungsalgorithmen 350 als Teil des Speichergeräts 306 dargestellt sind, das mit dem tragbaren Computergerät 300 verbunden ist, können diese Daten und Anweisungen zusätzlich oder alternativ in einem anderen tragbaren oder nicht tragbaren Computergerät enthalten sein, das mit einem bestimmten Nutzer verbinden ist, mit einem Remote-Computergerät und/oder auf verschiedene Computergeräte verteilt werden, wie ein lokales Computergerät und ein Remote-Computergerät.
  • 89 sind in vieler Hinsicht ähnlich zu den 67, aber ihr Zweck ist es, Geräte oder Systemkomponenten in einem nicht tragbaren mobilen Computergerät zu erläutern, im Gegensatz zu tragbaren Computer, für die Implementierung der Schätzung von Restaurant-Wartezeiten und Essensservierzeiten. Ein mobiles Computergerät 360 wie erläutert in 8 kann einem nicht am Körper tragbaren mobilen Gerät wie einem Smartphone 104, 114 entsprechen, siehe 1. Einige Beispiele für mobile Computergeräte 360 können mehr Komponenten beinhalten als ein am Körper tragbares Computergerät 300, weil ein nicht tragbares Gerät weniger Beschränkungen hinsichtlich Größe, Standort und Funktionalität unterworfen ist.
  • In einigen Beispielen sind Komponenten in mobilen Computergeräten 360 ähnlich wie Komponenten in tragbaren Computergeräten 300. Zum Beispiel kann ein Leistungsgerät 362 des mobilen Computergeräts 360 mit dem Leistungsgerät 302 des tragbaren Computergeräts 300 gleichgesetzt werden. Ein oder mehrere Sensoren 364 des mobilen Computergeräts 360 kann mit Sensoren 304 des tragbaren Computergeräts 300 gleichgesetzt werden. Ein oder mehrere Speichergeräte 366 des mobilen Computergeräts 360 können mit einem oder mehreren Speichergeräten 306 des tragbaren Computergeräts 300 gleichgesetzt werden. Ein oder mehrere Prozessoren 376 des mobilen Computergeräts 360 können mit dem oder den Prozessoren 308 des tragbaren Computergeräts 300 gleichgesetzt werden. Ein oder mehrere Kommunikationsgeräte 368 des mobilen Computergeräts 360 können mit einem oder mehreren Kommunikationsgeräten 310 des tragbaren Computergeräts 300 gleichgesetzt werden. Daher gilt die Beschreibung solcher Komponenten aus 6 auch für die ähnlichen Komponenten, die in 8 beschrieben werden.
  • In einigen Beispielen kann ein mobiles Computergerät 360 noch weitere Komponenten enthalten, wie ein oder mehrere Eingabegeräte 370, ein oder mehrere Ausgabegeräte 372 und ein oder mehrere Standortsensoren 374, ohne darauf beschränkt zu sein. So kann beispielsweise ein Eingabegerät 370 Geräte wie einen Touch-Screen, ein Touch-Pad, Dateneingabetasten und/oder ein zur Spracherkennung taugliches Mikrofon enthalten. Ein Ausgabegerät 372 kann Audio- oder visuelle Ausgaben wie Lautsprecher für die Audioausgabe beinhalten, Displays für die Bereitstellung von grafischen Benutzeroberflächen oder anderen visuellen Benachrichtigungen oder Mitteilungen, Leuchten für Blinkanzeiger oder Geräte für die Bereitstellung von somatosensorischen und/oder haptischen Reaktionen usw. Standortssensoren 374 können ein GPS-Gerät, BLE-Beacondetektoren oder andere Geräte oder eine Kombination von Geräten und Anweisungen beinhalten, die den aktuellen Standort eines Nutzers ermitteln, um die Ankunftszeit und/oder das spezifische Restaurant, das mit dem aktuellen geografischen Standort eines Nutzers verbunden ist, zu ermitteln.
  • 9 zeigt spezifischere Aspekte von Daten und durchführbaren Anweisungen in Form von Algorithmen oder anderen computer-ausführbaren Schritten, die in einem Speichergerät 366 eines mobilen Computergeräts 360 gespeichert werden können. In einigen Beispielen können Sensordaten 380, die von dem oder den Sensoren 364 des mobilen Computergeräts 360 und/oder von einem oder mehreren Sensoren 304 des tragbaren Computergeräts 300 erfasst wurden, im Speichergerät 366 gespeichert werden. Ähnlich wie Sensordaten 320 können Sensordaten 380 ein oder mehrere Datentypen beinhalten, einschließlich Bewegungsdaten, Orientierungsdaten, Bilddaten, Audiodatan, Zeitdaten und Blutzuckerdaten. Sensordaten 380 können Daten enthalten, die relevant sein können für die Feststellung, ob ein Nutzer in einem Restaurant an einem Tisch sitzt und/oder in der Restaurantumgebung isst. Standortdaten 382 entsprechen aktuellen Standortinformationen, die vom Standortsensor 374 ermittelt wurden und/oder im Zusammenhang mit den zeit-korrelierten Standortdaten stehen, die bei (204) verwendet werden, um eine geschätzte Ankunftszeit am aktuellen Standort eines Nutzers zu ermitteln.
  • Das Speichergerät 366 kann auch verschiedene Sätze von computer-ausführbaren Anweisungen beinhalten, jeweils gespeichert als Algorithmen 384390, einschließlich Wartezeitschätzungs-Algorithmus 384, Essensservierzeitschätzungs-Algorithmus 386, Algorithmus für statistische Bewertung 388 und Benachrichtigungs-Algorithmus 390. In einigen Beispielen kann der Wartezeitschätzungs-Algorithmus 384 computer-ausführbare Anweisungen beinhalten, die die Identifizierung (202) der geschätzten Sitzzeit, die Ermittlung (204) der geschätzten Ankunftszeit, die Ermittlung (206) der geschätzten Wartezeit und die Kommunikation (208) der geschätzten Wartezeit an ein anderes Computergerät aus 2 umsetzen. In einigen Beispielen kann der Essensservierzeitschätzungs-Algorithmus 386 computer-ausführbare Anweisungen beinhalten, die die Identifizierung (242) der geschätzten Essenszeit, die Ermittlung (244) der geschätzten Essensservierzeit und die Kommunikation (246) der geschätzten Essensservierzeit an ein anderes Computergerät aus 4 umsetzen. In einigen Beispielen kann der Algorithmus 388 für die statistische Bewertung computer-ausführbare Anweisungen beinhalten, die die Kombination geschätzter Wartezeiten bei (210) von 2 und/oder die Kombination von geschätzten Essensservierzeiten bei (250) in 4 umsetzen. In einigen Beispielen kann der Benachrichtigungs-Algorithmus 390 computer-ausführbare Anweisungen beinhalten, die die Bereitstellung von Benachrichtigungen bei (212) in 2 oder bei (252) in 4 umsetzen.
  • 10 zeigt einen beispielhaften Überblick über die Systemkomponenten für die Erkennung und Kommunikation von Restaurant-Wartezeiten und Essenservierzeiten in Netzwerken und wie für mehrere Restaurants umgesetzt. 10 zeigt Komponenten, die für die Wartezeitschätzung im Restaurant A 400 und Restaurant B 440 zur Verfügung gestellt werden. Obwohl zwei verschiedene Restaurants 400, 440 in 10 dargestellt werden, können beispielhafte Ausführungsformen für eine viel größere Anzahl von Restaurants an vielen verschiedenen Standorten in einem bestimmten Gebiet, einem bestimmten Land oder der Welt umgesetzt werden.
  • Im Restaurant A liefert eine Mehrzahl (N) von verschiedenen Nutzern zusammen relevante Sensordaten, die verwendet werden können, um die Wartezeit und/oder Essensservierzeit in Restaurant A zu schätzen. Nutzer 1 402, Nutzer 2 404 bis Nutzer N 406 können eine Reihe von entsprechenden Clientengeräten betreiben. Zum Beispiel kann Nutzer 1 402 ein oder mehrere tragbare Computergeräte 408 und/oder nicht tragbare mobile Computergeräte 410 erhalten, während Nutzer 2 404 ein oder mehrere tragbare Computergeräte 412 und/oder nicht tragbare mobile Computergeräte 414 erhalten kann und Nutzer N 406 ein oder mehrere tragbare Computergeräte 416 und/oder nicht tragbare mobile Computergeräte 418 erhalten kann.
  • In einigen Beispielen erfassen ein oder mehrere der Clientengeräte für jeden entsprechenden Nutzer 1, 2, ... N in Restaurant A relevante Sensordaten und nehmen eine Ermittlung einer geschätzten Wartezeit und/oder Essensservierzeit vor. Die ermittelte Wartezeit und/oder Essensservierzeit kann dann von jedem Nutzer 1, 2, ..., N über Netzwerk 420 an ein Remote-Computergerät 422 kommuniziert werden. Netzwerk 420 kann jede beliebige Art von Netzwerken beinhalten, so zum Beispiel ein Local Area Network (z. B. Intranet), Wide Area Network (z. B. Internet), Mobilfunknetz oder eine Kombination daraus, ohne darauf beschränkt zu sein. Das Remote-Computergerät 422 kann einer zentralisierten Datenbank oder einem zentralisierten Computergerät entsprechen. In einigen Beispielen kann das Remote-Computergerät 422 die statistische Bewertung der geschätzten Wartezeiten und/oder der geschätzten Essensservierzeiten für mehrere Nutzer 1, 2, ..., N in Restaurant A implementieren, um Statistiken wie mittlere, durchschnittliche, Varianz-, erwartete Werte und/oder das Konfidenzintervall der verschiedenen ermittelten Zeiten zu erhalten. In anderen Beispielen kann das Remote-Computergerät 422 einfache Sensor- und Standortdaten von den verschiedenen tragbaren Computergeräten 408, 412, 416 und den nicht tragbaren Computergeräten 410, 414, 418 und/oder die Essensservierzeiten am Remote-Computergerät 422 erfassen, im Gegensatz zu den Clientengeräten, die von Nutzern 1, 2, ..., N betrieben werden.
  • Ein ähnlicher Breakout von Sensordaten-Erfassung und Schätzung von Wartezeiten und/oder Essensservierzeiten kann im Verhältnis zu Nutzern 1, 2, ..., M in Restaurant B implementiert werden. Als solcher kann die Beschreibung von Komponenten von Restaurant A 400 auf ähnliche Komponenten, die in Restaurant B 440 beschrieben werden, zutreffen.
  • Sobald die Wartezeiten und/oder Essensservierzeiten von Remote-Computergerät 422 ermittelt wurden bzw. an dieses kommuniziert wurden, ist es möglich, diese wertvollen Informationen mit weiteren Nutzern zu teilen. In einigen Beispielen können geschätzte Wartezeiten- und/oder geschätzte Essensservierzeiten-Statistiken von Nutzer 1 402 in Restaurant A 400 mit anderen aktuellen Nutzern (z. B. Nutzer 2 404 oder Nutzer N 406) in Restaurant A 400 geteilt werden. In anderen Beispielen können geschätzte Wartezeit- und/oder geschätzte Essensservierzeiten-Statistiken oder damit zusammenhängende Informationen der einzelnen Nutzer 402, 404, 406 oder Zeitstatistiken, die über verschiedene Nutzer an Remote-Computergeräten 422 kombiniert werden, an einen separaten Nutzer P 450 kommuniziert werden. Nutzer P muss sich nicht unbedingt im Restaurant A 400 oder Restaurant B 440 befinden, aber er kann ein Interesse daran haben, Informationen über die geschätzte Wartezeit und/oder Essensservierzeit eines oder mehrerer der Restaurants zu erhalten. Nutzer P 450 kann auf diese Informationen von einem mobilen oder persönlichen Gerät zugreifen und kann einem potenziellen Gast eines Restaurants, einem Besitzer eines Restaurants oder einer anderen interessierten Partei entsprechen.
  • Unter nun erfolgender Bezugnahme auf 1112 werden Beispiele für Bedienoberflächen erörtert, die Benachrichtigungen geschätzter Wartezeiten und/oder Essensservierzeiten und damit zusammenhängende Informationen für ein Restaurant bereitstellen. Zum Beispiel kann die Bedienoberfläche der 11 und 12 verwendet werden, um bei (212) und/oder (250) Benachrichtigungen bereitzustellen, wie in 2 bzw. 4 dargestellt. Verschiedene Arten von Benachrichtigungen mit zusätzlichen oder alternativen Formen der integrierten Restaurant- und/oder Zeitinformationen können auch in Übereinstimmung mit der vorliegenden Offenbarung verwendet werden.
  • 11 zeigt eine beispielhafte Benutzeroberfläche 500, die detaillierte Informationen über ein bestimmtes Restaurant zur Verfügung stellen kann, einschließlich Benachrichtigungen, die die aktuelle geschätzte Wartezeit und aktuelle geschätzte Essensservierzeit für das Restaurant ermitteln. Abschnitt 502 der Benutzeroberfläche kann eine Textkennung des Namens eines bestimmten Restaurants beinhalten (z. B. Restaurant ABC), während Abschnitt 504 der Benutzeroberfläche eine Textbeschreibung des gegebenen Restaurants beinhalten kann. Weitere allgemeine Informationen zum Restaurant ABC können in der Benutzeroberfläche 500 zur Verfügung gestellt werden. Abschnitt 506 der Benutzeroberfläche kann einen Textblock mit der Straßenadresse des bestimmten Restaurants beinhalten sowie einen wählbaren Hyperlink, der dem Nutzer Anreiseanweisungen für das gegebene Restaurant gibt. Abschnitt 508 der Benutzeroberfläche kann die aktuellen Öffnungszeiten des gegebenen Restaurants beinhalten. Ein Scroll-Down-Pfeil innerhalb von Abschnitt 508 der Benutzeroberfläche kann es einem Nutzer ermöglichen, einen anderen Tag der Woche zu wählen (z. B. einen anderen als den aktuellen Tag), um die Öffnungszeiten des Restaurants zu erfahren. Abschnitt 510 der Benutzeroberfläche kann einen wählbaren Hyperlink zu einem Menü für das gegebene Restaurant beinhalten. Abschnitt 512 der Benutzeroberfläche kann eine Telefonnummer für das gegebene Restaurant beinhalten, das mit einer integrierten Anrufanwendung in einem Smartphone oder einem anderen Computergerät verlinkt ist. Abschnitt 514 der Benutzeroberfläche kann eine alphanumerische Kennung der aktuellen geschätzten Wartezeit für das gegebene Restaurant beinhalten, während Abschnitt 516 der Benutzeroberfläche eine alphanumerische Kennung der aktuellen geschätzten Essensservierzeit für das gegebene Restaurant beinhalten kann.
  • 12 zeigt ein Beispiel der Benutzeroberfläche 520, die detaillierte Informationen über ein bestimmtes Restaurant zur Verfügung stellen kann, einschließlich der durchschnittlichen Wartezeiten für das Restaurant über verschiedene Zeitintervalle und Tage. Abschnitt 522 der Benutzeroberfläche kann eine Textkennung des Namens eines bestimmten Restaurants beinhalten (z. B. Restaurant ABC), während Abschnitt 524 der Benutzeroberfläche eine Textbeschreibung des gegebenen Restaurants beinhalten kann. Weitere allgemeine Informationen zum Restaurant ABC können in der Benutzeroberfläche 520 zur Verfügung gestellt werden. Abschnitt 526 der Benutzeroberfläche kann einen Textblock mit der Straßenadresse des bestimmten Restaurants beinhalten sowie einen wählbaren Hyperlink, der dem Nutzer Anreiseanweisungen für das gegebene Restaurant gibt. Abschnitt 528 der Benutzeroberfläche kann die aktuellen Öffnungszeiten des gegebenen Restaurants beinhalten. Ein Scroll-Down-Pfeil innerhalb von Abschnitt 528 der Benutzeroberfläche kann es einem Nutzer ermöglichen, einen anderen Tag der Woche zu wählen (z. B. einen anderen als den aktuellen Tag), um die Öffnungszeiten des Restaurants zu erfahren. Abschnitt 530 der Benutzeroberfläche kann einen wählbaren Hyperlink zu einem Menü für das gegebene Restaurant beinhalten. Abschnitt 532 der Benutzeroberfläche kann eine Telefonnummer für das gegebene Restaurant beinhalten, das mit einer integrierten Anrufanwendung in einem Smartphone oder einem anderen Computergerät verlinkt ist. Abschnitt 534 der Benutzeroberfläche kann ein wählbares Scroll-Down-Menü vorsehen, über das der Nutzer einen bestimmten Wochentag (z. B. Donnerstag) auswählen kann, um die durchschnittliche Wartezeit für das bestimmte Restaurant zu erfahren. Ein Scroll-Down-Menü kann auch in Abschnitt 534 der Benutzeroberfläche zur Verfügung gestellt werden, mit dem ein Nutzer die Art der geschätzten Wartezeit auswählen kann, für die er Informationen haben möchte (z. B. geschätzte Wartezeit, bis er einen Tisch bekommt, geschätzte Wartezeit bis das Essen serviert wird usw.). Abschnitt 536 der Benutzeroberfläche kann ein Balkendiagramm mit Informationen über die durchschnittliche Wartezeit beinhalten, die für verschiedene Stundenintervalle über die Öffnungszeit des Restaurants für den gewählten Wochentag ermittelt wurden. Das Balkendiagramm aus Abschnitt 536 der Benutzeroberfläche kann zusätzlich oder alternativ über verschiedene Zeitintervalle dargestellt werden. Beispielsweise kann ein Nutzer wählen, die durchschnittlichen Wartezeiten in Intervallen von zehn, fünfzehn oder dreißig Minuten oder in anderen Intervalloptionen anzuzeigen. In einigen Beispielen kann Abschnitt 536 der Benutzeroberfläche so konfiguriert sein, dass ein Nutzer über einen Touchscreen wischen oder Pfeile nach links oder nach rechts wählen kann, um durchschnittliche Wartezeiten für einen anderen Wochentag zu sehen, mit der Möglichkeit, durch sieben Tage und durch die Anzahl der Tage hindurchzuscrollen, die das betreffende Restaurant geöffnet ist.
  • Es versteht sich, dass die hierin beschriebenen computer-ausführbaren Algorithmen in Hardware, anwendungsspezifischen Schaltungen, Firmware und/oder Software implementiert werden können, die einen Allzweck-Prozessor steuern. In einer Ausführungsform sind die Algorithmen Programmcode-Dateien, die im Speichergerät gespeichert, in einem oder mehreren Speichergeräten geladen und von einem oder mehreren Prozessoren ausgeführt werden, oder die von Computerprogramm-Produkten bereitgestellt werden können, wie z. B. von computer-ausführbaren Anweisungen, die in einem körperlichen, computerlesbaren Speichermedium wie einem RAM, einem Flash-Laufwerk, einer Festplatte oder einem optischen oder magnetischen Datenträger gespeichert sind. Wenn Software verwendet wird, kann eine beliebige geeignete Programmiersprache oder -plattform verwendet werden, um das Modul zu implementieren.
  • Die hier besprochene Technologie nimmt Bezug auf Server, Datenbanken, Softwareanwendungen, und sonstige computerbasierte Systeme sowie auch auf unternommene Handlungen und Informationen, die an und von derartigen Systemen gesendet werden. Der Durchschnittsfachmann auf diesem Gebiet wird erkennen, dass die naturgemäße Flexibilität computergestützter Systeme eine große Vielfalt an möglichen Konfigurationen, Kombinationen und der Aufteilung von Aufgaben und Funktionalitäten zwischen und unter den Komponenten ermöglicht. Die hierin beschriebenen Serverprozesse können beispielsweise unter Verwendung eines einzelnen Servers oder von mehreren Servern, die zusammenarbeiten, implementiert werden. Datenbanken und Anwendungen können auf einem einzelnen System oder verteilt auf mehreren Systemen implementiert werden. Verteilte Komponenten können sequenziell oder parallel betrieben werden.
  • Während der vorliegende Gegenstand im Hinblick auf dessen spezifische Beispiel-Ausführungsformen detailliert beschrieben wurde, versteht es sich, dass fachkundige Personen, nachdem sie ein Verständnis für das Vorangegangene entwickelt haben, ohne Weiteres Änderungen an diesen, Variationen von diesen und Gleichwertiges wie diese Ausführungsformen generieren können. Demgemäß ist der Umfang der vorliegenden Offenlegung nur beispielhaft und nicht begrenzend, und die betroffene Offenbarung schließt die Einbeziehung solcher Modifizierungen, Varianten und/oder Hinzufügungen des vorliegenden Gegenstands nicht aus, die für den Fachmann problemlos offensichtlich sind.

Claims (5)

  1. Mobiles Computergerät, Folgendes umfassend: einen oder mehrere Prozessoren; und ein oder mehrere Speichergeräte, die Anweisungen speichern, die, wenn sie von dem oder den Prozessoren ausgeführt werden, den oder die Prozessoren veranlassen, Vorgänge auszuführen, diese Vorgänge umfassen Folgendes: automatisches Sammeln eines oder mehrerer Teile von Sensordaten von einem oder mehreren Computergeräten, die von einem Nutzer betrieben werden; Feststellen einer geschätzten Wartezeit aus dem oder den Teilen von Sensordaten; und Bereitstellen einer Anzeige einer Benachrichtigung, die Informationen liefern, die die geschätzte Wartezeit für den Nutzer an einem bestimmten Standort ermittelt.
  2. Das mobile Computergerät nach Anspruch 1, worin der oder die Teile von Sensordaten verwendet werden, um eine geschätzte Sitzzeit und eine geschätzte Ankunftszeit des Nutzers in einem gegebenen Restaurant zu ermitteln, und worin die geschätzte Wartezeit ein berechnetes Zeitintervall zwischen der geschätzten Sitzzeit und der geschätzten Ankunftszeit umfasst.
  3. Das mobile Computersystem nach Anspruch 2, worin die Vorgänge ferner Folgendes umfassen: Feststellung, anhand des oder der zusätzlichen Teile von Sensordaten aus dem oder den Computergeräten, die von einem Nutzer betrieben werden, dass ein Nutzer zu einer geschätzten Essenszeit mit dem Essen begonnen hat; Ermittlung einer geschätzten Essensservierzeit durch die Analyse des Unterschieds zwischen dem geschätzten Sitzzeit und der geschätzten Essenszeit; und Bereitstellen einer Anzeige einer Benachrichtigung, die Informationen liefert, wann der Nutzer am aktuellen Standort voraussichtlich Essen serviert bekommt.
  4. Das mobile Computergerät nach Anspruch 1, worin der oder die Teile von Sensordaten Bewegungsdaten, Orientierungsdaten, Tondaten, Bilddaten, Blutzuckerdaten oder Zeitdaten umfassen.
  5. Das mobile Computergerät nach Anspruch 1, worin die Benachrichtigung eine grafische Darstellung der geschätzten Wartezeit in den unterschiedlichen Zeitabständen des gegenwärtigen Standorts für unterschiedliche Wochentage liefert.
DE202016007875.6U 2015-08-10 2016-08-02 Systeme für die automatische Überwachung von Echtzeit-Aktivitäten an einem Standort zur Ermittlung von Wartezeiten unter Verwendung von tragbaren Geräten Active DE202016007875U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/822,318 US10482551B2 (en) 2015-08-10 2015-08-10 Systems and methods of automatically estimating restaurant wait times using wearable devices
US14/822,318 2015-08-10

Publications (1)

Publication Number Publication Date
DE202016007875U1 true DE202016007875U1 (de) 2017-02-21

Family

ID=57984084

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202016007875.6U Active DE202016007875U1 (de) 2015-08-10 2016-08-02 Systeme für die automatische Überwachung von Echtzeit-Aktivitäten an einem Standort zur Ermittlung von Wartezeiten unter Verwendung von tragbaren Geräten

Country Status (5)

Country Link
US (1) US10482551B2 (de)
EP (1) EP3262598A4 (de)
CN (1) CN107924548B (de)
DE (1) DE202016007875U1 (de)
WO (1) WO2017027258A1 (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489765B2 (en) * 2015-10-02 2019-11-26 Scvngr, Inc. Cross-platform ordering and payment-processing system and method
WO2017153332A1 (en) * 2016-03-11 2017-09-14 Limbic Life Ag Occupant support device and system for controlling objects
JP6399064B2 (ja) 2016-09-07 2018-10-03 トヨタ自動車株式会社 ユーザ特定システム
GB201701753D0 (en) * 2017-02-02 2017-03-22 Alitica2 Ltd System, apparatus and method
US20180260864A1 (en) * 2017-03-07 2018-09-13 Facebook, Inc. Merchant-facing Queue Interface
US20180260849A1 (en) * 2017-03-07 2018-09-13 Facebook, Inc. Multiple-Merchant Community
US11276015B2 (en) * 2017-04-20 2022-03-15 Capital One Services, Llc Machine learning artificial intelligence system for predicting hours of operation
US20180374169A1 (en) * 2017-04-24 2018-12-27 Aleksandar Videnovic Tablebot
CN107248120B (zh) * 2017-08-11 2018-07-27 杭州雄伟科技开发股份有限公司 餐厅备菜管控平台
CN107705469B (zh) * 2017-09-29 2020-08-21 阿里巴巴集团控股有限公司 就餐结算方法、智能点餐设备以及智能餐厅支付系统
WO2019083464A1 (en) * 2017-10-25 2019-05-02 King Mongkut's University Of Technology Thonburi SYSTEM AND METHOD FOR COLLECTING AND ANALYZING BEHAVIORAL CUSTOMER DATA
US20190130322A1 (en) * 2017-11-01 2019-05-02 Google Llc Wait time prediction
CN110636101A (zh) * 2018-06-25 2019-12-31 罗伯特·博世有限公司 用于个性化桌子预订的占用感测系统
CN109471984A (zh) * 2018-10-17 2019-03-15 浙江口碑网络技术有限公司 店铺推荐方法及装置
US10956887B2 (en) 2018-11-21 2021-03-23 Toast, Inc. Dual band restaurant ordering system
US11074568B2 (en) 2018-11-21 2021-07-27 Toast, Inc. Adaptive dual band mobile point-of-sale terminal
US11188891B2 (en) * 2018-11-21 2021-11-30 Toast, Inc. Modular dual band mobile point-of-sale terminal
US11074567B2 (en) 2018-11-21 2021-07-27 Toast, Inc. Dual band mobile point-of-sale terminal
US10878396B2 (en) 2018-11-21 2020-12-29 Toast, Inc. Dual band fixed point-of-sale terminal
US10878397B2 (en) 2018-11-21 2020-12-29 Toast, Inc. Restaurant ordering system employing television whitespace communication channels
IT201800010915A1 (it) * 2018-12-10 2020-06-10 Marconi Group S R L Sistema e metodo di gestione e monitoraggio di un qualsiasi esercizio ricettivo o alberghiero
CN109784653A (zh) * 2018-12-14 2019-05-21 口碑(上海)信息技术有限公司 一种备餐方法、装置及系统
US11023959B2 (en) * 2019-01-15 2021-06-01 Toyota Connected North America, Inc. System and method for ordering items from a vehicle
JP7095614B2 (ja) * 2019-02-08 2022-07-05 トヨタ自動車株式会社 処理装置、処理方法およびプログラム
CN110490356A (zh) * 2019-07-02 2019-11-22 北京星选科技有限公司 界面显示方法、装置、电子设备
US11551812B2 (en) 2019-08-29 2023-01-10 Medtronic Minimed, Inc. Prediction based delivering or guiding of therapy for diabetes
US11443260B1 (en) * 2019-10-07 2022-09-13 Dbd Design Inc. System for managing an integrated drive-through restaurant and carwash facility providing estimated wait times via a graphical user interface
US11222297B2 (en) * 2019-11-21 2022-01-11 Rockspoon, Inc. System and method for matching patrons, servers, and restaurants within the food service industry
US11816746B2 (en) * 2020-01-01 2023-11-14 Rockspoon, Inc System and method for dynamic dining party group management
TW202203142A (zh) * 2020-07-01 2022-01-16 日商藏壽司股份有限公司 飲食物的提供系統
US20220027785A1 (en) * 2020-07-27 2022-01-27 Ricky Cheng Method and system for optimizing waiting time estimation based on party size in a restaurant
CN114468985A (zh) * 2020-11-11 2022-05-13 Oppo广东移动通信有限公司 信息提示方法及装置、系统、存储介质和电子设备
CN113017621B (zh) * 2021-04-22 2023-11-21 恒玄科技(上海)股份有限公司 一种可穿戴设备
US20230036521A1 (en) * 2021-07-30 2023-02-02 International Business Machines Corporation Image comparison to determine resource availability

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040260513A1 (en) * 2003-02-26 2004-12-23 Fitzpatrick Kerien W. Real-time prediction and management of food product demand
US7371226B2 (en) * 2005-06-27 2008-05-13 Hung Chi Huang Plunger of a syringe
JP4834624B2 (ja) * 2006-10-18 2011-12-14 株式会社東芝 行動推定装置およびプログラム
US8583491B2 (en) 2007-09-19 2013-11-12 T1visions, Inc. Multimedia display, multimedia system including the display and associated methods
US8554174B2 (en) * 2009-06-15 2013-10-08 Alcatel Lucent Selective first delivery attempt (FDA) processing for text messages
WO2012116391A1 (en) * 2011-02-09 2012-09-07 Lien Wendy Cosmetic or pharmaceutical formulation
JP5865738B2 (ja) * 2012-03-13 2016-02-17 株式会社日立ハイテクノロジーズ 欠陥検査方法及びその装置
US9135978B2 (en) * 2012-07-11 2015-09-15 Micron Technology, Inc. Memory programming methods and memory systems
US10373170B2 (en) * 2012-10-22 2019-08-06 Long Range Systems, Llc Utilizing user devices in venues
US9449121B2 (en) 2012-10-30 2016-09-20 Apple Inc. Venue based real time crowd modeling and forecasting
CN111499722A (zh) * 2012-11-12 2020-08-07 海德堡吕布莱希特-卡尔斯大学 用于治疗肝脏疾病和心血管疾病的脂肽
US20140163934A1 (en) * 2012-12-06 2014-06-12 Palo Alto Research Center Incorporated Method and apparatus for determining an average wait time for user activities based on contextual sensors
CN103150803A (zh) 2013-02-05 2013-06-12 陈锡明 一种等候提醒方法及装置
US9685097B2 (en) * 2013-06-25 2017-06-20 Clemson University Device and method for detecting eating activities
CN104252347A (zh) 2013-06-27 2014-12-31 鸿富锦精密工业(深圳)有限公司 任务等待时间处理系统及方法
US20150148632A1 (en) 2013-11-26 2015-05-28 David Alan Benaron Calorie Monitoring Sensor And Method For Cell Phones, Smart Watches, Occupancy Sensors, And Wearables
US9659225B2 (en) * 2014-02-12 2017-05-23 Microsoft Technology Licensing, Llc Restaurant-specific food logging from images
CN103985186B (zh) 2014-05-28 2016-10-19 南京亿栋信息科技有限公司 一种用于排队机的等待时间预测方法
US9258256B2 (en) * 2014-07-01 2016-02-09 Netronome Systems, Inc. Inverse PCP flow remapping for PFC pause frame generation
US10178946B2 (en) * 2014-09-08 2019-01-15 Location Labs, Inc. Oral monitor
US9468399B2 (en) * 2014-12-09 2016-10-18 SensaRx, LLC Detection of changes from a seated or lying body position by sensing body angle
WO2016176506A1 (en) 2015-04-28 2016-11-03 Blazer And Flip Flops, Inc Dba The Experience Engine Intelligent prediction of queue wait times

Also Published As

Publication number Publication date
EP3262598A1 (de) 2018-01-03
US10482551B2 (en) 2019-11-19
CN107924548A (zh) 2018-04-17
CN107924548B (zh) 2020-03-20
US20170046800A1 (en) 2017-02-16
WO2017027258A1 (en) 2017-02-16
EP3262598A4 (de) 2018-08-22

Similar Documents

Publication Publication Date Title
DE202016007875U1 (de) Systeme für die automatische Überwachung von Echtzeit-Aktivitäten an einem Standort zur Ermittlung von Wartezeiten unter Verwendung von tragbaren Geräten
US20230165377A1 (en) System architecture for office productivity structure communications
US20190132700A1 (en) Server for controlling an information sharing state between a first mobile phone and a second mobile phone via a network
CN104145272B (zh) 使用生理数据确定社会情绪
US20190156158A1 (en) Machine intelligent predictive communications and control system
Jonason et al. Positioning the booty-call relationship on the spectrum of relationships: Sexual but more emotional than one-night stands
DE202017105871U1 (de) Umsetzbare Vorschläge für Aktivitäten
Krepper et al. Evaluation of a standardized hourly rounding process (SHaRP)
DE102015113924A1 (de) Ranking auf der Grundlage von affektiver Reaktion der Crowd
US20110276440A1 (en) System for Generating and Delivering Both Real-Time and Historical Analytic Reports for Data Captured Through Sensor Related Technology
DE202013012457U1 (de) Digitale Vorrichtung
AU2015300970A1 (en) Chronic disease discovery and management system
US20200012955A1 (en) Device, system and method for factor estimation
Marvin et al. Implementing trauma-informed care at a non-profit human service agency in Alaska: assessing knowledge, attitudes, and readiness for change
DE102016200047A1 (de) Multimodale Überwachungssysteme für physische Aktivität
DE202016007836U1 (de) Systeme zur Erleichterung der Übermittlung von Benutzerbildern von Standorten
WO2007100977A2 (en) Enabling connections between and events attended by people
US20160342846A1 (en) Systems, Methods, and Devices for Information Sharing and Matching
JP6533868B1 (ja) コミュニケーション評価システム及びコミュニケーション評価方法
JP2016009342A (ja) エリアバースト推定提示装置、エリアバースト推定提示方法及びエリアバースト推定提示プログラム
CN107464330A (zh) 餐厅排队信息的提示方法及系统
DE202016007833U1 (de) Inhaltselemente für einen Benutzer bereitstellen
Zhang et al. Investigating user reactions to interactive-signage-based stimulation toward behavior change
EP3586525A1 (de) Verfahren zur beschallung von personen bei einer besprechung sowie system zur durchführung des verfahrens
US20160344827A1 (en) Systems, Methods, and Devices for Information Sharing and Matching

Legal Events

Date Code Title Description
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years