DE102022127765A1 - Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen - Google Patents

Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen Download PDF

Info

Publication number
DE102022127765A1
DE102022127765A1 DE102022127765.8A DE102022127765A DE102022127765A1 DE 102022127765 A1 DE102022127765 A1 DE 102022127765A1 DE 102022127765 A DE102022127765 A DE 102022127765A DE 102022127765 A1 DE102022127765 A1 DE 102022127765A1
Authority
DE
Germany
Prior art keywords
environment
uwb
objects
location
radios
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022127765.8A
Other languages
English (en)
Inventor
Michael E Russell
Jarrett K Simerson
Thomas Yates Merrell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Publication of DE102022127765A1 publication Critical patent/DE102022127765A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/0209Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • G01S13/76Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • H04W64/003Locating users or terminals or network equipment for network management purposes, e.g. mobility management locating network equipment

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

In Aspekten einer Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen umfasst ein System Objekte in einer Umgebung, die getaggte Objekte und nicht getaggte Objekte sind. Das System umfasst Ultrabreitband(UWB)-Funkeinrichtungen, die jeweiligen getaggten Objekten in der Umgebung zugeordnet sind. Ein Mapping-Modul ist implementiert, um einen Standort jedes der getaggten Objekte in der Umgebung basierend auf einer Position der einem getaggten Objekt zugeordneten UWB-Funkeinrichtung zu bestimmen und einen Standort jedes der nicht getaggten Objekte in der Umgebung basierend auf den Positionen der UWB-Funkeinrichtungen zu bestimmen. Das Mapping-Modul kann auch Dimensionen der Umgebung und der Objekte basierend auf dem Standort und einer relativen Position jedes getaggten Objekts und nicht getaggten Objekts in der Umgebung ermitteln. In Implementierungen sind eine oder mehrere der UWB-Funkeinrichtungen UWB-Tags, die für eine Zuordnung zu den jeweiligen getaggten Objekten verortet sind.

Description

  • HINTERGRUND
  • Ultrabreitband (UWB) ist eine Funktechnologie, die genutzt werden kann für sichere Anwendungen zur räumlichen Ortung mit sehr geringem Energieaufwand für die Kommunikation mit kurzer Reichweite und hoher Bandbreite. Die Technologie wird durch den Standard IEEE 802.15.4z für Enhanced Ultra-Wideband (UWB) Physical Layers (PHYs) and Associated Ranging Techniques zur genauen relativen Positionsverfolgung spezifiziert, der Anwendungen ermöglicht, die die relative Entfernung zwischen Einheiten nutzen. UWB nutzt eine doppelseitige Zwei-Wege-Entfernungsmessung zwischen Geräten und ermöglicht eine hochpräzise Positionierung mit einer Entfernungsmessung auf 10 cm genau in nur drei Präzisionsgraden durch Time-of-Flight(ToF)- und Angle-of-Arrival(AoA)-Messungen bis zu 100 m durch den Einsatz von Impulsfunkkommunikation im Frequenzbereich von 6-10 GHz. Die Positionierung ist eine genaue und sichere Technik, die eine verschlüsselte Zeitstempelsequenz (STS), eine kryptographisch sichere Pseudo-Zufallszahlgenerierung und andere Funktionen der UWB-PHY-Ebene nutzt.
  • Figurenliste
  • Implementierungen der Verfahren für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen werden nachfolgend unter Bezugnahme auf die anliegenden Zeichnungen beschrieben, in deren Figuren gleiche oder ähnliche Merkmale und Komponenten mit den gleichen Bezugszeichen versehen sind. In den Figuren zeigen
    • 1 Beispielgeräte und Merkmale für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 2 und 3 Beispiele einer Umgebungsabbildung, die für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen erstellt wird, gemäß einer oder mehrerer der vorliegend beschriebenen Ausführungsformen;
    • 4 ein Beispiel einer Umgebungs-Tiefenkarte, die für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen erstellt wird, gemäß einer oder mehrerer der vorliegend beschriebenen Ausführungsformen;
    • 5 Beispiele einer Standortzuordnung von UWB-Tags und Geräten gemäß einer oder mehrerer der vorliegend beschriebenen Ausführungsformen;
    • 6 ein Beispiel eines Cloud-basierten Systems, bei welchem Aspekte und Merkmale der auf UWB-Funkeinrichtungen basierenden Objekt- und Umgebungsdimensionierung realisiert werden können;
    • 7-10 Beispielverfahren für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen gemäß einer oder mehrerer der vorliegend beschriebenen Ausführungsformen;
    • 11 verschiedene Komponenten eines Beispielgeräts, das für die praktische Ausführung der Verfahren zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen kann.
  • DETAILBESCHREIBUNG
  • Es werden Implementierungen von Verfahren zur Objekt- und Umgebungsdimensionierung basierend auf Ultrabreitband(UWB)-Funkeinrichtungen beschrieben, wobei diese Verfahren von Computergeräten jeder Art durchgeführt werden können, beispielsweise von intelligenten Geräten, Mobilgeräten (z.B. Mobiltelefone, Tablet-Geräte, Smartphones, drahtlose Geräte), Unterhaltungselektronik, Hausautomatisierungsgeräten und dergleichen. Allgemein können UWB-fähige intelligente Geräte wie Smartphones und Hausautomatisierungsgeräte verwendet werden, um das räumliche Bewusstsein zu bestimmen, das Funktionen ermöglicht, die in intelligenten Wohngebäuden und Gebäuden mit Zugangskontrolle, Sicherheit, standortbasierten Diensten und Peer-to-Peer-Anwendungen realisiert werden.
  • In Aspekten der Verfahren zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen umfasst ein System UWB-Funkeinrichtungen die jeweiligen Geräten in einer Umgebung zugeordnet sind. Allgemein können intelligente Geräte Objekte in einer Umgebung sein, die mit einer UWB-Funkeinrichtung für UWB-Kommunikationen ausgeführt sein können. In anderen Implementierungen enthalten UWB-Tags eine UWB-Funkeinrichtung und können für eine Zuordnung zu jeweiligen Objekten in einer Umgebung, die auch nicht UWB-fähige Geräte enthält, verortet werden, und jeder UWB-Tag kann mit einem digitalen Etikett versehen werden, das die Zuordnung zu einem oder mehreren der getaggten Objekte angibt. Wie erwähnt, kann ein Objekt in einer Umgebung getaggte Objekte sowie nicht getaggte Objekte umfassen und kann jede Art eines intelligenten Geräts, Mobilgeräts, drahtlosen Geräts, elektronischen Geräts oder ein nicht kommunikationsfähiges statisches Objekt oder Gerät sein.
  • In Implementierungen können ein oder mehrere UWB-Funkeinrichtungen UWB-Tags sein, die für eine Zuordnung zu einem jeweiligen Objekt, intelligenten Gerät, Mobilgerät, drahtlosen Gerät, elektronischen Gerät und/oder Mediengerät verortet werden. Ein UWB-Tag kann für die Zuordnung zu einem intelligenten Gerät, einem Mediengerät oder einem anderen Objekt in der Umgebung verortet werden, und der UWB-Tag kann basierend auf einer Bluetooth MAC ADDR oder anderen Geräte-Identifizierungsinformationen, die von dem intelligenten Gerät, dem Mediengerät oder dem anderen Objekt übermittelt werden, eine Identität des zugeordneten Geräts bestimmen. Allgemein ist das Taggen eines jeweiligen Objekts (Geräte eingeschlossen) in der Umgebung eine Funktion der Identifizierung einer Position oder eines Standorts des Objekts in der Umgebung und die Anbringung eines semantischen Labels an der UWB-Funkeinrichtung eines UWB-Tag, der sich an dem jeweiligen Gerät befindet und diesem zugeordnet ist.
  • Die beschriebenen Verfahren können UWB-Entfernungsmessdaten, wie zum Beispiel Time-of-Flight(ToF)-, Angle-of-Arrival(AoA)- und/oder Time-Difference-of-Arrival(TDoA)- sowie WiFi- und/oder Bluetooth-RSSI-Messungen, und optional Kamera-Bildgebung nutzen, um Standorte von UWB-Funkeinrichtungen und UWB-Tags in der Umgebung zu bestimmen. Die Möglichkeiten einer präzisen Standortbestimmung von UWB werden genutzt, um eine Standorterfassung der UWB-Funkeinrichtungen und UWB-Tags an bestimmten Standorten in der Umgebung zu ermöglichen, die dann wiederum genutzt werden kann, um durch die Nutzung der präzisen und sicheren Standortbestimmungsfunktionen das Drahtlos- und Digitalerlebnis in einer intelligenten Wohnumgebung zu verbessern.
  • Das System umfasst auch ein Mapping-Modul, das zum Beispiel von einem Computergerät in der Umgebung implementiert wird, wobei das Mapping-Modul den Standort jeder der in UWB-fähigen Geräten implementierten UWB-Funkeinrichtungen und den Standort jedes getaggten Objekts in der Umgebung basierend auf einer Position der dem getaggten Objekt zugeordneten UWB-Funkeinrichtung bestimmen kann. Das Mapping-Modul ist auch derart konfiguriert, dass es einen Standort jedes der nicht getaggten Objekte in der Umgebung bestimmen kann, zum Beispiel basierend auf den UWB-Funkeinrichtungen in der Umgebung. Das Mapping-Modul kann den Standort jeder der UWB-Funkeinrichtungen und/oder jedes der UWB-Tags in der Umgebung bestimmen und kann die relativen Positionen jeder der UWB-Funkeinrichtungen und/oder jedes der UWB-Tags zueinander bestimmen. Das Mapping-Modul bezieht die UWB-Entfernungsmessdaten, die von den UWB-Funkeinrichtungen und/oder UWB-Tags von einem Austausch von In-Band-Sitzungen mit einer UWB-Funkeinrichtung empfangen werden, und bestimmt den Standort und die relative Position jeder der UWB-Funkeinrichtungen und/oder jedes UWB-Tag in der Umgebung basierend auf den UWB-Entfernungsmessdaten.
  • Das Mapping-Modul kann dann die Dimensionen der Umgebung und der Objekte basierend auf dem Standort und einer relativen Position jedes getaggten Objekts und nicht getaggten Objekts in der Umgebung bestimmen. Zum Beispiel kann das Mapping-Modul das Mobilgerät und zwei der UWB-Tags triangulieren, um die Länge und Breite der Umgebung zu ermitteln. Das Mapping-Modul kann auch eine Anfangshöhe des Mobilgeräts und eine anschließende Höhe des Mobilgeräts ermitteln und dann basierend auf der Fläche der Umgebung und einem Höhendelta zwischen der Anfangshöhe und der anschließenden Höhe des Mobilgeräts ein Volumen der Umgebung bestimmen.
  • In Implementierungen kann eine Kameraeinrichtung in der Umgebung verwendet werden, um ein Bild der Umgebung oder eines Bereichs der Umgebung aufzunehmen. Ein Objekterkennungsmodul kann dann verwendet werden, um die Objekte auf dem aufgenommenen Bild zu identifizieren, und das Mapping-Modul kann den Standort und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung basierend auf den UWB-Funkeinrichtungen, den UWB-Tags und/oder den identifizierten Objekten in der Umgebung bestimmen. In Implementierungen kann das Mapping-Modul die Dimensionen eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position des identifizierten Objekts und den von einer oder mehreren der UWB-Funkeinrichtungen und/oder UWB-Tags in der Umgebung empfangenen UWB-Entfernungsmessdaten bestimmen. Zudem kann das Mapping-Modul eine Umgebungsabbildung erstellen, wie zum Beispiel eine Standortzuordnungskarte, die im Allgemeinen ein Grundriss eines Gebäudes ist, wie z.B. bei einer intelligenten Wohnumgebung, der die Standorte der Objekte, der Mediengeräte und/oder der intelligenten Geräte enthält, wobei der Grundriss Positionen der Wände des Gebäudes einschließt, die anhand des aufgenommenen Bildes bestimmt wurden.
  • In Implementierungen kann das Mapping-Modul auch eine Tiefenkarte erstellen, die die relative Lage der Objekte und Geräte in der Umgebung zeigt. Die Tiefenkarte kann erstellt werden, indem räumliche Entfernungen zwischen den identifizierten Objekten und den Geräten, die auf dem aufgenommenen Bild der Umgebung erscheinen, und UWB-Entfernungsmessdaten, die von einer oder mehreren der UWB-Funkeinrichtungen und/oder den UWB-Tags in der Umgebung empfangen werden, verglichen werden. Als Anwendung, die von einem Computergerät ausgeführt wird, ist dem Mapping-Modul eine Benutzerschnittstelle zugeordnet, die generiert wird, um die Tiefenkarte auf einem Anzeigebildschirm des Geräts anzuzeigen, zum Beispiel auf einem Mobilgerät, damit der Benutzer die Umgebung betrachten kann. Das Mapping-Modul kann ferner verwendet werden, um einen verlegten Gegenstands in der Umgebung zu orten, basierend auf den UWB-Entfernungsmessdaten, die von der UWB-Funkeinrichtung und/oder dem dem verlegten Gegenstand zugeordneten UWB-Tag empfangen werden. Der Standort eines Objekts oder Geräts in der Umgebung lässt sich anhand der UWB-Entfernungsmessdaten angesichts der Tatsache bestimmen, dass die UWB-Laufzeit (Time-of-Flight; ToF), der Ankunftswinkel (Angle-of Arrival; AoA) und/oder die Laufzeitdifferenz (Time-Differenceof-Arrival; TDoA) einen Vektor sowohl für die Reichweite als für die Richtung liefern. Das Mapping-Modul kann dann die Benutzerschnittstelle generieren, die den Standort des verlegten Gegenstands in der Umgebung anzeigt.
  • Merkmale bzw. Funktionen und Konzepte der beschriebenen Verfahren zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen können in beliebig vielen verschiedenen Geräten, Systemen, Umgebungen und/oder Konfigurationen umgesetzt werden. Implementierungen der Verfahren zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen werden nachstehend im Zusammenhang mit den folgenden Beispielgeräten, Beispielsystemen und Beispielverfahren ausführlich erläutert.
  • 1 zeigt ein Beispielsystem 100 zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen, wie vorliegend beschrieben. Im Allgemeinen umfasst das System 100 ein Computergerät 102, das verwendet werden kann für die Ausführung der Funktionen und Verfahren der Objekt- und Umgebungsdimensionierung. In diesem Beispielsystem 100 kann das Computergerät 102 ein drahtloses Gerät 104 mit einem Anzeigebildschirm 106 sein, zum Beispiel ein Smartphone, ein Mobiltelefon oder ein drahtloses Mobilgerät einer anderen Art. Alternativ oder zusätzlich kann das System 100 das Computergerät 102 als jede Art eines elektronischen Geräts, Rechengeräts und/oder Kommunikationsgeräts 108 umfassen, z.B. als Computer, Laptop-Gerät, Desktop-Computer, Tablet, drahtloses Gerät, Kamera, intelligentes Gerät, Mediengerät, intelligente Anzeigeeinrichtung, Smart TV, intelligentes Haushaltsgerät, Hausautomatisierungsgerät usw. Das Computergerät 102 kann mit verschiedenen Komponenten realisiert sein, zum Beispiel mit einem Prozessorsystem 110 und einem Speicher 112 sowie einer beliebigen Anzahl und Kombination von verschiedenen Komponenten, die mit Bezug auf das in 11 dargestellte Beispielgerät noch näher beschrieben werden. Das drahtlose Gerät 104 kann beispielsweise über eine Energiequelle für seine Versorgung verfügen. Diese kann eine aufladbare Batterie und/oder eine aktive oder passive Energiequelle einer anderen Art sein, die in einem elektronischen Gerät, Computergerät und/oder Kommunikationsgerät implementiert sein kann.
  • In Implementierungen kann das drahtlose Gerät 104 im Allgemeinen durch eine drahtlose Verbindung mit UWB-Funkeinrichtungen von UWB-Tags und/oder mit anderen UWB-fähigen Einrichtungen für eine UWB-Kommunikation in einer Umgebung 114 verbunden sein. Im Allgemeinen kann die Umgebung 114 das Computergerät 102, das drahtlose Gerät 104, Objekte, die UWB-Tags 116 und andere UWB-fähige Geräte enthalten, die mit einer UWB-Funkeinrichtung zur Kommunikation durch Nutzung von UWB implementiert sind, sowie beliebig viele elektronische Geräte, Computergeräte und/oder Kommunikationsgeräte 108 anderer Art, wie vorliegend beschrieben. Die drahtlosen UWB-Kommunikationen in der Umgebung 114 sind zwischen UWB-Tags und/oder anderen UWB-fähigen Geräten, z.B. dem intelligenten Gerät 118, in der Umgebung ähnlich. Die UWB-Tags 116 können in der Umgebung in der Nähe jedes der Objekte und sonstigen Geräte platziert werden und dann mit einer Funktionsbezeichnung versehen werden, um die Zuordnung eines UWB-Tag zu einem bestimmten Objekt und/oder Gerät anzugeben. In Anbetracht der Winkelgenauigkeit und der zentimetergenauen Entfernungsmessung, die UWB bietet, kann eine Standortbestimmung von UWB-Funkeinrichtungen und UWB-Tags 116 an bestimmten Orten in der Umgebung 114 verwendet werden, um das drahtlose und digitale Erlebnis in einer intelligenten Wohnumgebung zu verbessern.
  • In diesem Beispielsystem 100 können die intelligenten Geräte 118 geeignet sein für UWB-Kommunikationen mit einer eingebetteten UWB-Funkeinrichtung 120. Alternativ kann ein UWB-Tag 116 mit einer UWB-Funkeinrichtung 122 Geräten 124 jeder anderen Art, die nicht UWB-fähig sind, in der Umgebung zugeordnet sein. Ähnlich kann ein UWB-Tag 116 einem Objekt 126 jeder Art in der Umgebung zugeordnet sein, einschließlich jede Art eines intelligenten Geräts, Mediengeräts, Mobilgeräts, drahtlosen Geräts, elektronischen Geräts, und kann ebenso einem statischen Objekt oder Gerät zugeordnet sein, das nicht für eine drahtlose Kommunikation geeignet ist. Zum Beispiel kann der UWB-Tag 116 in der Umgebung 114 positioniert und verortet sein für eine Zuordnung zu jeweiligen Geräten und/oder Objekten, und jeder UWB-Tag kann mit einem digitalen Etikett 128 identifiziert werden, das die Zuordnung zu einem oder mehreren der Objekte 126 und/oder Geräte 124 in der Umgebung angibt. Zum Beispiel kann ein Objekt 126 ein Smart TV in einer Wohnumgebung sein, und das digitale Etikett 128 des UWB-Tag 116 gibt „Smart TV“ als Bezeichnung der UWB-Zuordnung an. Ähnlich kann ein Objekt 126 eine Stehlampe in der Wohnumgebung sein, und das digitale Etikett 128 des UWB-Tag 116 gibt „Stehlampe“ als Bezeichnung der UWB-Zuordnung an. Insbesondere ist das Taggen eine Funktion der Identifizierung einer Position eines Objekts 126 oder eines Geräts 124 und das Anbringen eines semantischen Etiketts oder Labels (z.B. „TV“, „Lampe“, „Sessel“ etc.) an der UWB-Funkeinrichtung 122 des UWB-Tag 116, der verortet und einem bestimmten Objekt oder Gerät zugeordnet wird.
  • In manchen Fällen können ein oder mehrere intelligente Geräte 118, die sonstigen Geräte 124 und/oder die Objekte 126 in der Umgebung 114 bereits UWB-fähig sein, mit einer UWB-Funkeinrichtung 120 für eine drahtlose Kommunikation mit den anderen Geräten und mit den UWB-Tags 116 in der Umgebung. Die drahtlosen UWB-Kommunikationen für die Abbildung bzw. das Mapping der intelligenten Geräte 118, der Objekte 126 und/oder der Geräte 124 in der Umgebung 114 sind zwischen den UWB-Tags 116 und/oder den UWB-fähigen intelligenten Geräten in der Umgebung ähnlich. Die UWB-Tags in einem Netzwerk der UWB-Tags 116 können sich gegenseitig auffinden und können untereinander und/oder mit einer Steuereinrichtung oder einer Steuerlogik kommunizieren, die die Geräte, die intelligenten Geräte und die UWB-Tags in der Umgebung verwaltet.
  • In Implementierungen kann ein UWB-Tag 116 an einem festen Ort verwendet werden, um eine genaue Verortung, eine genaue Abbildung und eine genaue Positionierung von unbeweglichen Objekten und/oder von Bereichen in der Umgebung 114 zu erleichtern, wie zum Beispiel die Positionierung eines UWB-Tag 116 in einer Ecke der Umgebung oder an einer leeren Wand in einer Wohnumgebung. Im Allgemeinen wäre das dem UWB-Tag 116 zugeordnete Objekt 126 dann der Bereich der leeren Wand in der Nähe des UWB-Tag. Angesichts des bekannten Standorts der leeren Wand in der Wohnumgebung kann ein Benutzer dann Augmented-Reality(AR)-Informationen über die leere Wand legen und mit der digitalen Welt interagieren, die durch den UWB-Tag 116 verankert ist, selbst wenn die Wand naturgemäß kein elektronisches Gerät oder ein intelligentes Gerät einer anderen Art ist. Ähnlich können die UWB-Tags 116 in der Umgebung 114 ein AR-geführtes Benutzererlebnis ermöglichen, um beispielsweise einen fehlenden Artikel oder ein verlegtes Gerät aufzufinden bzw. zu orten. Verliert oder verlegt ein Benutzer beispielsweise ein Smartphone oder eine Smart Watch, kann die Genauigkeit der Standortermittlung, die durch das System von UWB-Tags 116 bereitgestellt wird, einen Benutzer zu dem Ort des fehlenden Gegenstands in der Umgebung führen.
  • Das UWB-Protokoll ist ausgelegt für die Nutzung von Out-of-Band-Kommunikationen, die wenig Energie benötigen, von Drahtlosprotokollen zum Auffinden von UWB-Geräten und für die Konfiguration von UWB-Sitzungen, z.B. über Bluetooth oder Bluetooth Low Energy (BLE), das weniger Energie benötigt, als wenn nur eine UWB-Funkeinrichtung verwendet wird. Hinzu kommt, dass die Nutzung von BLE für UWB-Out-of-Band-Kommunikationen angesichts der Anzahl von Geräten, die bereits BLE-geeignet sind, für einen großen Netzwerkeffekt sorgt. Weil BLE geeignet ist, Advertising-Pakete zu empfangen und zu entschlüsseln, kann der in der Umgebung 114 in der Nähe eine Geräts platzierte UWB-Tag 116 die nächstgelegene Bluetooth MAC ADDR ermitteln und wahrscheinlich einen Hinweis auf den Gerätenamen des nahegelegenen Geräts erhalten. Wenn der Name des nächstgelegenen Geräts nicht angekündigt wird, kann der UWB-Tag einen Abgleich mit der BD ADDR durchführen, die auf dem Computergerät 102 bereits bekannt ist, was insbesondere auch zweckmäßig ist, wenn Datenschutzeinstellungen aktiviert werden und ein Identitätsauflösungsschlüssel auf dem UWB-Tag nicht verfügbar ist.
  • Alternativ oder zusätzlich dazu, dass ein UWB-Tag 116 Adress- und Geräte-Identifizierungsinformationen von nahegelegenen Geräten (intelligente Geräte eingeschlossen) empfängt und dann das zu dem UWB-Tag am nächsten gelegene Gerät 124 identifiziert, kann das Computergerät 102 mit den UWB-Tags 116 und den UWB-Funkeinrichtungen anderer Geräte in der Umgebung kommunizieren und über Bluetooth oder BLE angekündigte Kommunikationen von den UWB-Tags und UWB-Einrichtungen der anderen Geräte empfangen. Das Computergerät 102 kann eine zentrale Steuereinheit sein und/oder ein Mobilgerät in der Umgebung, die/das einen UWB-Tag 116 basierend auf RSSI-Messungen der über Bluetooth oder BLE angekündigten Kommunikationen von den UWB-Tags und Geräten mit einem nahegelegenen Gerät 124 korreliert. Das Computergerät 102 kann zum Beispiel angekündigte Signale von einem UWB-Tag 116 oder einem anderen UWB-fähigen Gerät empfangen und kann den Signalwegverlust von den empfangenen Signalen vergleichen, um basierend auf einem ähnlichen Signalwegverlust festzustellen, dass der UWB-Tag und das Gerät in der Umgebung 114 nahe beieinander liegen.
  • In Aspekten der beschriebenen Merkmale bzw. Funktionen zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen können Benutzer-Interaktionen minimiert oder eliminiert werden, da die UWB-Tags eingerichtet sind für eine automatische Identifizierung und Etikettierung, zum Beispiel durch die Nutzung von Bluetooth- oder BLE-Kommunikationen und/oder die Verwendung von aufgenommenen Bildern. Wenn beispielsweise ein UWB-Tag 116 für eine Zuordnung zu einem Gerät 124 in der Umgebung 114 verortet ist, kann der UWB-Tag basierend auf einer Bluetooth MAC ADDR und/oder anderen von dem Gerät übermittelten Geräte-Identifizierungsinformationen eine Identität des Geräts bestimmen. Zusätzlich kann der UWB-Tag empfangene Wi-Fi- oder Bluetooth-RSSI-Messungen in Verbindung mit den UWB-Positionierungsinformationen nutzen, um eine Liste von nahgelegenen Geräten zu erstellen und zu sortieren, und kann die MAC ADDR des zu dem UWB-Tag am nächsten gelegenen Geräts auswählen. Ferner kann der UWB-Tag 116, der für eine Zuordnung zu dem Gerät 124 in der Umgebung verortet ist, in einer Umgebung, die das Computergerät 102 wie beispielsweise ein Mobiltelefon, ein Smartphone oder ein anderes Gerät mit einer Netzwerkverbindung zu dem Gerät 124 enthält, eine Identität des Geräts von dem Computergerät empfangen.
  • In diesem Beispielsystem 100 ist ein UWB-Tag 116 generell repräsentativ für jeden UWB-Tag oder jedes Gerät mit eingebettetem UWB in der Umgebung 114 und kann verschiedene Funkeinrichtungen für drahtlose Kommunikationen mit anderen Geräten und/oder den anderen UWB-Tags in der Umgebung enthalten. Zum Beispiel kann der UWB-Tag 116 eine UWB-Funkeinrichtung 122 und weitere Funkeinrichtungen 130 wie eine Bluetooth-, WiFi- und/oder Global-Positioning-System(GPS)-Funkeinrichtung enthalten, die implementiert sind für drahtlose Kommunikationen mit anderen Geräten und mit den UWB-Tags 116 in der Umgebung 114. Das Computergerät 102 kann auch verschiedene Funkeinrichtungen für eine drahtlose Kommunikation mit den intelligenten Geräten 118, den sonstigen Geräten 124 und/oder den UWB-Tags 116 in der Umgebung enthalten. Beispielsweise hat das Computergerät 102 eine UWB-Funkeinrichtung 132 und weitere Funkeinrichtungen 134 wie eine Bluetooth-, Wi-Fi- und GPS-Funkeinrichtung, die für drahtlose Kommunikationen mit anderen Geräten und mit den UWB-Tags 116 in der Umgebung 114 eingerichtet sind.
  • In Implementierungen können das Computergerät 102, die intelligenten Geräte 118, die sonstigen Geräte 124 und/oder die UWB-Tags 116 jede Art eines Positionierungssystems aufweisen, wie zum Beispiel einen GPS-Transceiver oder eine andere Art eines Geolokators, um den geografischen Standort eines UWB-Tag, eines Geräts und/oder des Computergeräts zu bestimmen. Insbesondere kann jedes der hier beschriebenen Geräte - Komponenten, Module, Dienste, Recheneinrichtungen, Kameraeinrichtungen und/oder UWB-Tags eingeschlossen - die GPS-Daten zwischen jedem der Geräte teilen, ungeachtet dessen, ob sie GPS-hardwarefähig sind oder nicht. Obwohl die Auflösung der globalen Positionierung nicht so präzise ist wie die der lokalen Positionierung, die von UWB bereitgestellt wird, können die von den GPS-fähigen Geräten empfangenen GPS-Daten verwendet werden zur Bestätigung, dass sich die Geräte alle generell in der Umgebung 114 befinden, was von den Geräten bestätigt wird, die ebenfalls UWB-fähig sind und in der Umgebungsabbildung enthalten sind. Weitere Objekte und Geräte wie ein Smart-TV, ein intelligentes Haushaltsgerät, eine Beleuchtungsvorrichtung oder statische, nicht kommunikationsfähige Objekte sind unter Umständen nicht GPS-hardwarefähig, sind aber dennoch in der Umgebungsabbildung enthalten, die auf den UWB-Tag- und UWB-Funkeinrichtungszuordnungen zu den jeweiligen Objekten und Geräten basiert. Der GPS-Standort dieser anderen Objekte und Geräte kann basierend auf ihrer relativen Position in der Umgebung 114 und ihrer Nähe zu GPS-fähigen Geräten bestimmt werden. Dementsprechend können Standortänderungen sowohl von GPS-fähigen Geräten als auch nicht-GPS-fähigen Geräten und Objekten basierend auf globaler Positionierung und lokaler Positionierung in der Umgebung verfolgt werden.
  • Das Computergerät 102 kann eine beliebige Anzahl von Geräteanwendungen und/oder Modulen implementieren, zum Beispiel eine Messaging-Anwendung, eine Medien-Anwendung und/oder jede andere von vielen möglichen Geräteanwendungen oder Anwendungsmodulen. Bei diesem Beispielsystem 100 implementiert das Computergerät 102 ein Mapping-Modul 136, das über unabhängige Verarbeitungs-, Speicher- und/oder Logikkomponenten verfügen kann, die als Recheneinrichtung und/oder elektronische Einrichtung in das Computergerät 102 integriert sind. Alternativ oder zusätzlich kann das Mapping-Modul 136 in Software, in Hardware oder als Kombination von Software- und Hardwarekomponenten ausgeführt sein. In diesem Beispiel ist das Mapping-Modul 136 als Softwareanwendung oder -modul ausgeführt, zum Beispiel als ausführbare Software-Anweisungen (z.B. computerausführbare Anweisungen), die mit einem Prozessor (z.B. dem Prozessorsystem 110) des Computergeräts 102 ausgeführt werden können, um die Verfahren und Funktionen zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen zu realisieren, wie vorliegend beschrieben.
  • Als Softwareanwendung oder -modul kann das Mapping-Modul 136 in einem computerlesbaren Speicher (z.B. dem Speicher 112 des Geräts) oder in einer anderen geeigneten Speichereinrichtung oder einem elektronischen Speicher, der mit dem Modul implementiert ist, gespeichert werden. Alternativ oder zusätzlich kann das Mapping-Modul 136 in Firmware und/oder zumindest teilweise in Computerhardware ausgeführt sein. Zum Beispiel kann zumindest ein Teil des Moduls von einem Computerprozessor ausführbar sein, und/oder zumindest ein Teil des Moduls kann in ein einer logischen Schaltung implementiert sein.
  • Wie vorstehend beschrieben, kann ein UWB-Tag 116, der für eine Zuordnung zu einem Gerät 124 in der Umgebung 114 verortet ist, eine Identität des Geräts basierend auf einer Bluetooth MAC ADDR und/oder anderen von dem intelligenten Gerät übermittelten Geräte-Identifizierungsinformationen bestimmen. Im Allgemeinen können die UWB-Tags 116 einen Scan durchführen, um Geräte-Identifizierungsinformationen 138 zu empfangen, die von nahegelegenen Geräten 124 in der Umgebung übermittelt werden. Die Geräte-Identifizierungsinformationen 138 können über Bluetooth oder BLE von den Geräten als Gerätename, Bluetooth MAC ADDR und als Anzeige der Empfangssignalstärke (RSSI) übermittelt werden. Der UWB-Tag 116 kann das Gerät 124 identifizieren, das zu dem UWB-Tag am nächsten gelegen ist, basierend auf den Geräte-Identifizierungsinformationen 138, die von den Geräten empfangen werden, und kann basierend auf den Geräte-Identifizierungsinformationen eine geordnete Liste von Geräten erstellen, um das dem UWB-Tag am nächsten gelegene Gerät zu identifizieren. Zusätzlich kann das von dem Computergerät 102 implementierte Mapping-Modul 136 die von den Geräten 124 in der Umgebung übermittelten Geräte-Identifizierungsinformationen 138 sowie die von den UWB-Tags 116 in der Umgebung übermittelten UWB-Tag-Kennungen 140 empfangen.
  • In anderen Implementierungen kann das Computergerät 102, wie vorstehend beschrieben, mit den UWB-Tags 116, den UWB-Funkeinrichtungen 120, 122 und mit anderen Geräten 124 in der Umgebung 114 kommunizieren, indem es über Bluetooth oder BLE angekündigte Kommunikationen von den UWB-Tags und Geräten empfängt. Das Computergerät implementiert das Mapping-Modul 136, das einen UWB-Tag 116 mit einem nahegelegenen Gerät 124 korrelieren kann, basierend auf RSSI-Messungen der über Bluetooth oder BLE angekündigten Kommunikationen von den UWB-Tags und Geräten. Zum Beispiel kann das Computergerät 102 angekündigte Signale von den UWB-Tags 116, den UWB-Funkeinrichtungen 120, 122 und/oder den Geräten 124 empfangen, und das Mapping-Modul 136 vergleicht den Signalwegverlust von den empfangenen Signalen, um basierend auf einem ähnlichen Signalwegverlust festzustellen, welche der UWB-Tags, UWB-Funkeinrichtungen und Geräte nahe beieinander liegen. Das Mapping-Modul 136 kann dann einen UWB-Tag einem nahegelegenen Gerät zuordnen und kann diese Zuordnung beispielsweise über eine In-Band-UWB-Kommunikationen an den UWB-Tag zurück übermitteln.
  • Wie vorstehend erwähnt, umfasst das Beispielsystem 100 die UWB-Tags 116, die für eine Zuordnung zu jeweiligen Geräten 124 und Objekten 126 in der Umgebung 114 verortet sind, und die Objekte können sowohl getaggte Objekte als auch nicht getaggte Objekte umfassen. In Aspekten der beschriebenen Verfahren zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen kann das durch das Computergerät 102 implementierte Mapping-Modul 136 den Standort jedes der getaggten Objekte und Geräte in der Umgebung 114 bestimmen, und zwar basierend auf einer Position der UWB-Funkeinrichtung 120, 122, die einem getaggten Objekt oder Gerät zugeordnet ist. Das Mapping-Modul 136 kann auch einen Standort jedes der Objekte, Geräte und nicht getaggten Objekte basierend auf den Standorten der UWB-Funkeinrichtungen 142 in der Umgebung bestimmen.
  • In Implementierungen kann das Mapping-Modul 136 den UWB-Funkeinrichtungsstandort 142 jeder der UWB-Funkeinrichtungen 120, 122 in der Umgebung 114 bestimmen und bestimmt die relativen Positionen 144 jeder der UWB-Funkeinrichtungen zueinander. Das Mapping-Modul 136 kann UWB-Entfernungsmessdaten 146 wie Time-of-Flight(ToF)-, Angle-of Arrival(AoA)- und/oder Time-Difference-of-Arrival(TDoA)-Daten beziehen, die von den UWB-Funkeinrichtungen 120, 122 über einen Austausch von In-Band-Sitzungen mit der UWB-Funkeinrichtung 132 des Computergeräts 102 empfangen werden. ToF ist eine Zweiwegekommunikation zwischen einem UWB-Tag 116 und einem weiteren Gerät, wohingegen TDoA eine Einwegkommunikation ist, bei welcher der UWB-Tag 116 ein Signal übermittelt, aber nicht auf eine Antwort warten muss, wie zum Beispiel von dem Computergerät 102. Das Mapping-Modul 136 kann auch andere Kommunikationsdaten empfangen und nutzen, die über Bluetooth oder BLE geteilt werden, wie z.B. die zwischen den UWB-Geräten geteilten Daten der relativen Position. Das Mapping-Modul 136 kann dann den Standort 142 und die relative Position 144 jedes der UWB-Tags 116 und der UWB-Funkeinrichtungen in der Umgebung 114 basierend auf den UWB-Entfernungsmessdaten 146 bestimmen.
  • Das Mapping-Modul 136 ist eingerichtet zum Bestimmen der Umgebungsdimensionen 148 und Objektdimensionen 150 der Objekte in der Umgebung 114 basierend auf dem Standort und einer relativen Position jedes getaggten und nicht getaggten Objekts in der Umgebung. Zum Beispiel kann das Mapping-Modul 136 das drahtlose Gerät 104 und zwei der UWB-Funkeinrichtungen 122 der UWB-Tags 116 triangulieren, um eine Länge und eine Breite der Umgebung zu ermitteln. Das Mapping-Modul 136 kann auch eine Anfangshöhe des drahtlosen Geräts 104 und eine darauffolgende Höhe des drahtlosen Geräts in der Umgebung 114 und dann basierend auf der Fläche der Umgebung und einem Höhendelta zwischen der Anfangshöhe und der anschließenden Höhe des drahtlosen Geräts ein Volumen der Umgebung ermitteln.
  • Auch wenn das Mapping-Modul 136 in der Darstellung und Beschreibung von dem Computergerät 102 in der Umgebung 114 implementiert wird, kann jedes andere der intelligenten Geräte in der Umgebung das Mapping-Modul 136 und/oder eine Instanziierung des Mapping-Moduls implementieren. Zum Beispiel enthält das System 100 eine Kameraeinrichtung 152, die eine unabhängige elektronische, Computer- und/oder Kommunikationseinrichtung in der Umgebung 114 sein kann und die das Mapping-Modul 136 implementieren kann. Ähnlich kann ein Steuergerät oder eine Steuerlogik in der Umgebung 114 das Mapping-Modul implementieren, wie auch ein UWB-Tag 116 das Mapping-Modul 136 in der Umgebung implementieren kann.
  • Bei diesem Beispielsystem 100 kann die Kameraeinrichtung 152 als Sicherheitskamera, als Indoor-Umgebungskamera, als Türklingelkamera und dergleichen ausgeführt sein. Im Allgemeinen kann die Kameraeinrichtung 152 mit einer beliebigen Anzahl und Kombination der Komponenten, die im Zusammenhang mit dem Computergerät 102 beschrieben wurden, ausgeführt sein, wobei die Kameraeinrichtung 152 eine integrierte UWB-Funkeinrichtung sowie unabhängige Verarbeitungs-, Speicher- und/oder Logikkomponenten aufweisen kann, die als Rechen- und Kameraeinrichtung arbeiten. Alternativ kann die Kameraeinrichtung 152 als Komponente des Computergeräts 102 implementiert sein, zum Beispiel in einem Mobiltelefon oder in einem drahtlosen Gerät mit einer oder mehreren Kameraeinrichtungen, um die Bilderfassung zu erleichtern.
  • Die Kameraeinrichtung 152, wie zum Beispiel jede Art einer Sicherheitskamera, Indoor-Überwachungskamera, Türklingelkamera oder Kameraeinrichtung des Computergeräts 102, kann verwendet werden, um die Techniken bzw. Verfahren zur Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen noch weiter umzusetzen. Die Kameraeinrichtung 152 kann verwendet werden zur Aufnahme eines Bildes 154 von der Umgebung 114 (oder eines Bereichs der Umgebung), wobei die Kameraeinrichtung ein Objekterkennungsmodul 156 implementiert, das verwendet wird, um die intelligenten Geräte 118, die sonstigen Geräte 124 und/oder die Objekte 126 in der Umgebung auf dem aufgenommenen Bild zu identifizieren. Ähnlich wie das Mapping-Modul 136 kann das Objekterkennungsmodul 156 unabhängige Verarbeitungs-, Speicher- und/oder Logikkomponenten umfassen, die als Rechen- und/oder elektronische Einrichtungen arbeiten, die in die Kameraeinrichtung 152 und/oder in das Computergerät 102 integriert sind. Alternativ oder zusätzlich kann das Objekterkennungsmodul 156 in Software, in Hardware oder als Kombination von Software- und Hardwarekomponenten ausgeführt sein. In diesem Beispiel ist das Objekterkennungsmodul 156 als Softwareanwendung oder -modul ausgeführt, wie zum Beispiel als ausführbare Softwareanweisungen (z.B. computerausführbare Anweisungen), die mit einem Geräteprozessor ausführbar und in einem computerlesbaren Speicher (z.B. einem Speicher des Geräts) gespeichert sind.
  • In Implementierungen kann die Kameraeinrichtung 152 auch verschiedene Sensoren 158 enthalten, wie zum Beispiel einen Infrarot(RI)-Time-of-Flight(ToF)-Sensor, der in Verbindung mit den beschriebenen, UWB nutzenden Verfahren verwendet wird. Ein Vorteil der Nutzung von UWB mit den UWB-Tags 116 gegenüber des üblichen IR-TOF ist, dass UWB immer noch zur Durchführung von Entfernungsmessungen verwendet werden kann, auch wenn es durch Objekte verdeckt wird, zum Beispiel durch eine Wand oder ein Objekt in der Umgebung 114, die IR blockiert, und für Objekte, die gegebenenfalls in der aufgenommenen Umgebungsbildern nicht sichtbar sind. Das IR-TOF der Kameraeinrichtung 152 kann jedoch in Verbindung mit den vorliegenden Verfahren nach wie vor für eine Objekt- und Umgebungsdimensionierung basierend auf den UWB-Tags genutzt werden.
  • In Aspekten der Objekt- und Umgebungsdimensionierung, kann das Objekterkennungsmodul 156 verwendet werden zur Identifizierung der Objekte 126 (unter anderem z.B. der intelligenten Geräte 118 und der sonstigen Geräte 124) in der Umgebung 114 anhand des aufgenommenen Umgebungsbildes 154. Das Mapping-Modul 136 kann dann den Standort und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung basierend auf den UWB-Funkeinrichtungen 120, 122 und der identifizierten Objekte und Geräte in der Umgebung bestimmen. In Implementierungen kann das Mapping-Modul 136 die Objektdimensionen 150 eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position des identifizierten Objekts und der UWB-Entfernungsmessdaten 146, die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangen werden, bestimmen. Zusätzlich kann das Mapping-Modul 136 ein Umgebungs-Mapping bzw. eine Umgebungsabbildung erstellen, wie zum Beispiel eine Standortzuordnungskarte, die im Allgemeinen ein Grundrissplan eines Gebäudes oder einer intelligenten Wohnumgebung ist und die die Standorte der Objekte und/oder der intelligenten Geräte in dem Gebäude enthält. Der Grundrissplan kann in einem dreidimensionalen Koordinatensystem der Umgebung 114 erstellt werden, das Positionen der Wände des Gebäudes enthält, wie anhand des aufgenommen Bildes bestimmt. Ein Beispiel einer solchen Standortzuordnungskarte, die den Standort der Geräte und/oder der Objekte in der Umgebung 114 zeigt, ist in den 2 und 3 gezeigt und wird im Zusammenhang mit diesen Figuren näher erläutert.
  • In Implementierungen kann das Mapping-Modul 136 auch eine Umgebungs-Tiefenkarte 160 erstellen, die die relative Lage der Objekte 126 und Geräte in der Umgebung zeigt. Wie vorliegend beschrieben, kann ein Objekt 126 in der Umgebung jede Art eines intelligenten Geräts, Mediengeräts, Mobilgeräts, drahtlosen und/oder elektronischen Geräts sowie ein nicht kommunikationsfähiges statisches Objekt oder Gerät sein. Die Umgebungs-Tiefenkarte 160 kann erstellt werden, indem räumliche Entfernungen zwischen den durch das Objekterkennungsmodul 156 identifizierten Objekten, die in dem aufgenommenen Umgebungsbild 154 erscheinen, und UWB-Entfernungsmessdaten 146, die von einem oder mehreren der UWB-Tags 116 und/oder UWB-Funkeinrichtungen in der Umgebung empfangen werden, verglichen werden. Wie vorstehend erwähnt, können die UWB-Funkeinrichtungen 120, 122 verwendet werden zur Durchführung von Entfernungsmessungen, wenn sie durch Objekte verdeckt werden, wie zum Beispiel durch eine Wand oder ein Objekt in der Umgebung 114, das IR blockiert, oder für Objekte, die in den aufgenommenen Umgebungsbildern gegebenenfalls nicht sichtbar sind. Jedoch kann das als Sensor 158 der Kameraeinrichtung 152 implementierte IR-TOF nach wie vor in Verbindung mit den vorliegend für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Tags beschriebenen Verfahren genutzt werden. Ein Beispiel einer Umgebungstiefenkarte, die den Standort der intelligenten Geräte 118, der Objekte 126 und/oder der sonstigen Geräte 124 in der Umgebung zeigt, ist in 4 dargestellt und wird im Zusammenhang mit 4 ausführlicher beschrieben.
  • Als Geräteanwendung, die von dem Computergerät 102 implementiert wird, kann das Mapping-Modul 136 eine zugeordnete Anwendungs-Benutzerschnittstelle 162 aufweisen, die für eine Interaktion und Betrachtung durch einen Benutzer erstellt und angezeigt wird, zum Beispiel auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104. Im Allgemeinen ist eine Anwendungs-Benutzerschnittstelle 162 oder jede andere Art von Video, Bild, Grafik und dergleichen digitaler Bildinhalt, der auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104 angezeigt werden kann. Das Mapping-Modul 136 kann die Umgebungs-Tiefenkarte 160 in der Benutzerschnittstelle 162 erstellen und deren Anzeige auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104 für die Betrachtung des Benutzers in der Umgebung initiieren. Ferner kann das Mapping-Modul 136 verwendet werden, um den Standort eines verlegten Objekts 126 in der Umgebung 114 basierend auf den UWB-Entfernungsmessdaten 146 zu ermitteln, die von der UWB-Funkeinrichtung 122 des UWB-Tag 116 empfangen werden, die dem verlegten Objekt zugeordnet ist. Das Mapping-Modul 136 kann dann die Benutzerschnittstelle 162 generieren, die den Standort des verlegten Objekts in der Umgebung zeigt.
  • In 2 ist ein Beispiel 200 eines Umgebungs-Mapping dargestellt, das den Standort von intelligenten Geräten und/oder Objekten in der Umgebung 114 zeigt, wie zum Beispiel eine Standortzuordnungskarte, die durch das von dem Computergerät 102 implementierte Mapping-Modul 136 erstellt wird, wie in 1 dargestellt und im Zusammenhang mit 1 erläutert. In diesem Beispiel 200 der Umgebung 114 ist die Position jedes der Geräte und der anderen Objekte relativ zueinander in der Umgebung 114 gezeigt, wie sie basierend auf den Möglichkeiten einer präzisen Standortpositionierung von UWB mittels der UWB-Tags 116 ermittelt wurde. Die Umgebung 114 enthält Beispiele der intelligenten Geräte 118 (darin enthalten Mediengeräte) wie ein intelligentes Haushaltsgerät 202 und einen Kühlschrank 204, eine Anzeigeeinrichtung 206, einen Smart TV 208 und ein Soundsystem 210, intelligente Lautsprecher 212, 214, ein Kabelmodem 216 und einen Router 218, einen Thermostat 220 und eine intelligente Türklingel 222 sowie einen Garagentoröffner 224. Die Umgebung 114 enthält auch Beispiele von anderen Objekten 126 wie eine Stehlampe 226, ein Garagenlicht 228 und ein Außenlicht 230. Außerdem enthält die Umgebung 114 auch verschiedene Beispiele von Kameraeinrichtungen 152, die in der gesamten Umgebung auf verschiedene Orte verteilt sind.
  • In diesem Beispiel 200 des Umgebungs-Mapping ist die relative Lage der intelligenten Geräte, der Mediengeräte, der Objekte und der anderen Geräte zueinander in der Umgebung 114 ohne Gebäudewände gezeigt, wie beispielsweise in einer Wohnumgebung. In einem Aspekt des Umgebungs-Mapping sollte beachtet werden, dass ein UWB-Tag mehr als einem Objekt und/oder Gerät in der Umgebung zugeordnet und entsprechend gekennzeichnet werden kann, so dass für den Benutzer eine sinnvolle Bezeichnung bzw. Kennung bereitgestellt wird, die die kombinierten Objekte und/oder Geräte darstellt. Zum Beispiel ist der UWB-Tag 232 für eine Zuordnung sowohl zu dem Smart TV 208 als auch zu dem Soundsystem 210 positioniert und kann als „Unterhaltungszentrum“ bezeichnet werden.
  • In einem weiteren Aspekt des Umgebungs-Mapping können zwei oder mehr der UWB-Tags verwendet werden, um sie Objekten zuzuordnen und Objekte zu orten, die in ihrer räumlichen Lage nicht getaggt sind. So hat das Garagenlicht 228 zum Beispiel keinen zugeordneten UWB-Tag. Es können aber zwei UWB-Tags 234, 236 (z.B. in der Garage) verwendet werden, um die relative Position des Garagenlichts 228 in der Umgebung für die räumliche Wahrnehmung zu bestimmen. Die zugeordnete Kameraeinrichtung 152 kann auch verwendet werden, um ein Umgebungsbild 154 des Bereichs (z.B. in der Garage) zu erfassen, wobei das Umgebungsbild weiter verwendet wird, um die relative Position des Garagenlichts 228 in der Umgebung für die räumliche Wahrnehmung zu bestimmen.
  • 3 zeigt ähnlich ein Beispiel 300 eines Umgebungs-Mapping, das die Lage der intelligenten Geräte, Objekte und/oder anderen Geräte in der Umgebung 114 wie durch das von dem Computergerät 102 implementierte Mapping-Modul 136 erstellt und wie in den 1 und 2 dargestellt und im Zusammenhang mit diesen Figuren beschrieben zeigt. In diesem Beispiel 300 einer Gebäudeumgebung, z.B. in einer Implementierung einer intelligenten Wohnumgebung, erstellt das Mapping-Modul 136 die Umgebungsabbildung der intelligenten Geräte 118, der sonstigen Geräte 124 und/oder anderer Objekte 126 in der Umgebung 114 basierend auf den in der Umgebung identifizierten Objekten und/oder intelligenten Geräten, wie von dem Objekterkennungsmodul 156 anhand der aufgenommenen Umgebungsbilder 154 bestimmt. Die verschiedenen Kameraeinrichtungen 152, die an Standorten in der gesamten Umgebung 114 positioniert sind, können verwendet werden, um von verschiedenen Bereichen der Umgebung Umgebungsbilder 154 aufzunehmen.
  • Das Mapping-Modul 136 erstellt die Umgebungsabbildung als Grundrissplan des Gebäudes, in dem die Standorte der Objekte 126, der intelligenten Geräte 118 und/oder der sonstigen Geräte 124 in dem Gebäude enthalten sind, wobei der Grundrissplan Positionen von Gebäudewänden enthält, wie anhand der aufgenommenen Umgebungsbilder 154 bestimmt. Die Umgebungsabbildung zeigt die Position jedes der Geräte und Objekte relativ zueinander sowie die Wände der Umgebung, was einen detaillierten räumlichen Kontext schafft. Zusätzlich zu den intelligenten Geräten 118, den Objekten 126 und den sonstigen Geräten 124, die in der Umgebungsabbildung in 2 gezeigt sind, enthält dieses Beispiel 300 auch weitere Objekte, die anhand der aufgenommenen Umgebungsbilder 154 bestimmt werden. Zum Beispiel enthält die abgebildete Umgebung auch den Standort und die Position einer Couch 302, eines Sessels 304 und eines Schreibtisches 306 in verschiedenen Räumen des Wohnumfelds.
  • Darüber hinaus wurde in der Umgebung ein UWB-fähiges Laptop-Computergerät 308 hinzugefügt, das über eine UWB-Funkeinrichtung mit den UWB-Tags 116 und anderen UWB-fähigen Geräten in der Umgebung kommuniziert. Das Laptop-Computergerät 308 kann als Beispiel der Computergeräts 102 ausgeführt sein, das in 1 gezeigt ist und im Zusammenhang mit 1 beschrieben wurde. Insbesondere kann das Laptop-Computergerät 308 das Mapping-Modul 136 implementieren, um die Abbildung von Objekten und/oder Geräten in der Umgebung 114 basierend auf dem Standort und den relativen Positionen jedes der UWB-Tags zu erleichtern. Die drahtlosen UWB-Kommunikationen zum Abbilden von Objekten und/oder Geräten in der Umgebung 114 sind zwischen UWB-Tags und/oder intelligenten Geräten mit eingebettetem UWB in der Umgebung ähnlich.
  • 4 zeigt ein Beispiel 400 einer Umgebungs-Tiefenkarte 160, die für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen erstellt wurde, wie vorliegend beschrieben. Der eingeschossige Grundrissplan in den Beispielen des in den 2 und 3 dargestellten Umgebungs-Mapping, kann von dem Mapping-Modul 136 auch als mehrstöckiges Gebäude oder Wohnumgebung mit mehreren Etagen erstellt werden. Insbesondere sorgt das System von UWB-Tags 116 und UWB-Funkeinrichtungen für eine Höhenunterscheidung durch die Möglichkeiten einer präzisen Standortpositionierung von UWB für eine 3D-Koordinatenabbildung einer mehrstöckigen Umgebung. In diesem Beispiel 400 wird ein Teil der in 3 gezeigten Umgebungsabbildung neu erstellt und als Umgebungs-Tiefenkarte 160 dargestellt.
  • Der Teil der Umgebung 114, der in der Umgebungs-Tiefenkarte 160 gezeigt ist, zeigt die relative Lage der intelligenten Geräte 118, der Objekte 126 und der sonstigen Geräte 124 zueinander in verschiedenen Räumen der Wohnumgebung. Zum Beispiel enthält ein Wohnbereich 402 eine Kameraeinrichtung 152, den Smart TV 208 und das Soundsystem 210, das Kabelmodem 216, die Stehlampe 226 und die jeweiligen UWB-Tags 116 und/oder UWB-Funkeinrichtungen, die den Geräten und Objekten zugeordnet sind. Ähnlich enthält ein Arbeitsbereich 404 eine Kameraeinrichtung 152, die intelligenten Lautsprecher 214, den Schreibtisch 306, das Laptop-Computergerät 308 und die jeweiligen UWB-Tags 116 und/oder UWB-Funkeinrichtungen, die den Objekten und Geräten zugeordnet sind.
  • Dieses Beispiel 400 der Umgebungs-Tiefenkarte 160 zeigt eine Umgebungsdimensionierung unter Nutzung von vorhandenen UWB-Tags 116 und mit Platzierung von zusätzlichen UWB-Tags in der Umgebung 114. Zum Beispiel können die Dimensionen des Arbeitsbereichs 404 gemessen werden unter Nutzung der Präzisionsgenauigkeit von UWB basierend auf den UWB-Tags 406, 408 in zwei Ecken des Raums zusammen mit dem drahtlosen Gerät 104, das von einer anderen Ecke des Raums bei 410 mit den UWB-Funkeinrichtungen 122 kommuniziert, um die Länge und die Breite des Raums zu bestimmen. Werden mehrere der UWB-Tags 116 in der Umgebung 114 verwendet und/oder wird die Platzierung des drahtlosen Geräts 104 geändert, lassen sich außerdem die Fläche und das Volumen von Bereichen in der Umgebung bestimmen und ebenso Maße und Dimensionen von Objekten in der Umgebung. In Verbindung mit den Umgebungsbildern 154, die von einer oder mehreren Kameraeinrichtungen 152 aufgenommen werden, können Wand- und Bodenflächenbereiche bestimmt werden, um beispielsweise die Quadratmeterzahl für Bodenbeläge oder für das Streichen von Wänden zu ermitteln, und auch für Anwendungen für virtuelles Gestalten und/oder Umgestalten, indem Objekte in einem Sucher des drahtlosen Geräts 104 platziert werden, um zu beurteilen, wie sie in der Umgebung aussehen bzw. wirken.
  • Ferner können AR-Overlays und Verbesserungen für eine ARoptimierte Tiefenkarte als virtuelles Modell der Umgebung 114 erstellt werden, das dann auf einer erweiterten Benutzeroberfläche auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104 dargestellt wird. Die Objekt- und Umgebungsdimensionierung und die Messungen von Objekten 126 können genutzt werden, um Kalibrierungseingaben in die ARoptimierte Tiefenkarte bereitzustellen. In Aspekten der beschriebenen Merkmale bzw. Funktionen kann die Umgebungs-Tiefenkarte 160 in Verbindung mit einem Umgebungsbild 154, das von einer Kameraeinrichtung 152 aufgenommen wurde, auch verwendet werden, um das Auffinden eines verlegten Gegenstands in der Umgebung zu erleichtern, z.B. mit einem AR-geführten Benutzererlebnis zum Auffinden eines fehlenden Gegenstands oder eines verlegten Geräts. Das Mapping-Modul 136 kann dann die Benutzerschnittstelle 162 generieren, die die Lage des verlegten Objekts auf der Umgebungs-Tiefenkarte 160 auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104 zeigt.
  • 5 zeigt Beispiele 500 einer Standortzuordnung von UWB-Tags und Geräten gemäß einer oder mehrerer Implementierungen einer Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen wie vorliegend beschrieben. Das in 3 gezeigte Beispiel der Umgebung 114 wird mit zusätzlichen Beispielmerkmalen bzw. Beispielfunktionen des Mapping-Moduls 136, das in einem Computergerät 102 wie beispielsweise dem drahtlosen Gerät 104 (z.B. ein Mobiltelefon oder ein anderes Gerät) implementiert ist, weiter veranschaulicht. In diesen Beispielen 500 kommuniziert das drahtlose Gerät 104 über die UWB-Funkeinrichtung 132 mit den UWB-Tags 116 und anderen UWB-Funkeinrichtungen in der Umgebung. Ähnlich kann das drahtlose Gerät 104 über eine Bluetooth-Funkeinrichtung und/oder eine WiFi-Funkeinrichtung mit den intelligenten Geräten 118 und/oder den sonstigen Geräten 124 in der Umgebung kommunizieren, zum Beispiel mit der Anzeigeeinrichtung 206, dem Kabelmodem 216, dem Router 218, einer intelligenten Türklingel 222 und dem Laptop-Computergerät 308, um nur einige zu nennen. Obwohl diese Beispiele 500 mit Bezug auf das drahtlose Gerät 104 beschrieben werden, welches das Mapping-Modul 136 implementiert, ist zu beachten, dass das Laptop-Computergerät 308 das Mapping-Modul 136 ebenfalls implementieren und unabhängig oder in Verbindung mit der Instanziierung des Mapping-Moduls, wie von dem drahtlosen Gerät implementiert, arbeiten kann.
  • In einem Beispiel-Benutzerfall kann ein Benutzer das Mapping-Modul 136 als Anwendung auf dem drahtlosen Gerät 104 (z.B. dem Mobilgerät) starten und kann auch die UWB-Tags 116 für die Zuordnung zu den intelligenten Geräten 118, den Objekten 126 und/oder den sonstigen Geräten 124 in der Umgebung 114 platzieren. Es kann ein Betriebsmodus der UWB-Tags 116 aktiviert sowie ein Advertising-Modus, ein Erkennbar-Modus oder ein Modus anderer Art an den intelligenten Geräten 118 und/oder sonstigen Geräten 124 initiiert werden. Die UWB-Tags 116 sowie das drahtlose Gerät 104 können dann nach Bluetooth- oder BLE-Advertising- und/oder anderen identifizierbaren RF-Paketen suchen, die als Mitteilungen von den Geräten angekündigt werden. Das Mapping-Modul 136 kann eine Abfrage der UWB-Tags 116 für einen BLE-MAC-ADDR-Bericht, einen Gerätenamen, RSSIs und Geräte-Identifizierungsinformationen anderer Art initiieren.
  • Ferner können die UWB-Tags 116 eine geordnete Liste von nahegelegenen Geräten 124 und/oder intelligenten Geräten 118 basierend auf RSSI und/oder einer berichteten Sendeleistung erstellen, um zu beurteilen, welches der intelligenten Geräte einem bestimmten UWB-Tag am nächsten gelegen ist. Das von dem drahtlosen Gerät 104 implementierte Mapping-Modul 136 kann auch die UWB-Tag-Berichte mit seiner eigenen Datenbank von Geräte-Identifizierungsinformationen 138 und UWB-Tag-Kennungen 140 vergleichen. Außerdem kann das Mapping-Modul 136 dann den Signalwegverlust von den UWB-Tags und anderen UWB-fähigen Geräten vergleichen, um basierend auf einem ähnlichen Signalwegverlust zu bestimmen, welche der UWB-Tags und intelligenten Geräte nahe beieinander liegen. Insbesondere kann ein Benutzer eine beliebige der durch den UWB-Tag und das Gerät bestimmten Zuordnungen entweder durch einen UWB-Tag selbst oder durch das Mapping-Modul aufheben und kann dann benennen, welcher der UWB-Tags einem bestimmten Gerät oder Objekt zugeordnet wird.
  • In Implementierungen können einige der berichteten BLE MAC ADDRs wegen der BLE-Datenschutzfunktion Zufallsadressen sein und sind von einem UWB-Tag 116 nicht auflösbar ohne einen IdentitätsAuflösungsschlüssel, der ansonsten auf dem drahtlosen Gerät 104 verfügbar ist, vorausgesetzt, das drahtlose Geräte wurde vorher mit Geräten gekoppelt, die eine zufällige Adressierung verwenden. Für diese aufgrund von Zufallsadressen verborgenen BLE MAC ADDRs oder für nichtgekoppelte Geräte, die keine identifizierbaren Informationen senden, kann das drahtlose Gerät 104 die Adresse eindeutig machen und die richtige Adresse an den UWB-Tag 116 übermitteln und die Datenbank für die UWB-Tag-Kennungen 140 aktualisieren. Eine UWB-Tag-Kennung 140 kann von dem Mapping-Modul 136 automatisch generiert werden, oder ein Benutzer des Geräts kann aufgefordert werden, über die Benutzerschnittstelle 162 den generierten UWB-Tag-Kennungen 140 und benannten Zuordnungen zu den Objekten und/oder intelligenten Geräten zuzustimmen oder sie zu ändern. Für eine weitere Disambiguierung der den intelligenten Geräten 118, Objekten 126 und/oder sonstigen Geräten 124 in der Umgebung 114 zugeordneten UWB-Tags 116 kann eine Kameraeinrichtung 152 verwendet werden, um das Umgebungsbild 154 aufzunehmen. Das Objekterkennungsmodul 156 kann dann den Standort der Geräte und Objekte in der Umgebung bestimmen, und die Standortinformationen können von dem Mapping-Modul 136 zum Erstellen der Umgebungsabbildung verwendet werden.
  • Das Mapping-Modul 136 empfängt (über das drahtlose Gerät 104) die über Bluetooth oder BLE angekündigten Kommunikationen 502 von den UWB-Tags 116 und den anderen UWB-Funkeinrichtungen in der Umgebung 114. Das Mapping-Modul 136 kann dann basierend auf RSSI-Messungen der über Bluetooth oder BLE angekündigten Kommunikationen 502 von den UWB-Tags und UWB-Funkeinrichtungen der Geräte einen UWB-Tag 116 mit einem nahegelegenen Gerät korrelieren. Zum Beispiel kann das drahtlose Gerät 104 angekündigte Signale von einem UWB-Tag 504 und der intelligenten Anzeigeeinrichtung 206 empfangen, und das Mapping-Modul 136 vergleicht den Signalwegverlust von den empfangenen Signalen, um basierend auf einem ähnlichen Signalwegverlust festzustellen, dass der UWB-Tag 504 und die intelligente Anzeigeeinrichtung 206 nahe beieinander liegen. Das Mapping-Modul 136 kann dann den UWB-Tag 504 einer nahegelegenen intelligenten Anzeigeeinrichtung 206 zuordnen und kann die Zuordnung beispielsweise über In-Band-UWB-Kommunikationen an den UWB-Tag 504 zurück übermitteln.
  • In einer ähnlichen Implementierung empfängt das Mapping-Modul 136 (über das drahtlose Gerät 104) die über Bluetooth oder BLE angekündigten Kommunikationen 502 von einem UWB-Tag 506, der sich in der Nähe des Objekts, zum Beispiel einer Stehlampe 226, in der Umgebung 114 befindet. Das Mapping-Modul 136 kann die empfangenen Signale und ein aufgenommenes Umgebungsbild 154 nutzen, um zu bestimmen, dass sich der UWB-Tag 506 in der Nähe der Stehlampe 226 befindet, und um den UWB-Tag 506 dem nahegelegenen Objekt zuzuordnen und die Zuordnung beispielsweise über In-Band-UWB-Kommunikationen an den UWB-Tag 506 zurück zu übermitteln. Wie vorangehend bereits erwähnt, kann ein Benutzer des drahtlosen Geräts 104 jegliche von dem UWB-Tag und dem Gerät bestimmte Zuordnungen durch das Mapping-Modul aufheben, und der Benutzer kann eines der UWB-Tags als einem bestimmten Gerät oder einem anderen Objekt zugeordnet benennen.
  • 6 zeigt ein Beispiel eines Cloud-basierten Systems 600, bei welchem Aspekte und Merkmale bzw. Funktionen einer Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen umgesetzt werden können. Das Beispielsystem 600 umfasst das Computergerät 102 und die Kameraeinrichtung 152, wie in 1 gezeigt und mit Bezug auf 1 beschrieben. In diesem Beispielsystem 600 sind das Computergerät 102 und die Kamera 152 ausgebildet für den Zugriff auf ein und die Kommunikation mit einem Server-Computergerät 602 eines Netzwerksystems 604, zum Beispiel über ein Kommunikationsnetzwerk 606. Das Server-Computergerät 602 implementiert eine Instanziierung des Mapping-Moduls 136, um die Standorte 142 jeder der UWB-Funkeinrichtungen 120, 122 in der Umgebung 114 zu bestimmen, die relativen Positionen 144 der jeweiligen UWB-Funkeinrichtungen zueinander zu bestimmen und eine Umgebungsabbildung zu erstellen. Das Mapping-Modul 136 ist auch eingerichtet zum Bestimmen der Umgebungsdimensionen 148 und der Objektdimensionen 150 der Objekte in der Umgebung 114 basierend auf dem Standort und einer relativen Position jedes getaggten Objekts und nicht getaggten Objekts in der Umgebung. Das Server-Computergerät 602 kann auch eine Instanziierung des Objekterkennungsmoduls 156 implementieren, um die Objekte, die intelligenten Geräte und/oder sonstige Geräte in Bereichen der Umgebung aus dem Umgebungsbild 154 zu erkennen, das von den in der Umgebung positionierten Kameraeinrichtungen 152 aufgenommen wurde.
  • Die Kameraeinrichtung 152 kann das Umgebungsbild 154 über das Kommunikationsnetzwerk 606 in das Netzwerksystem 154 hochladen. Ähnlich kann das Computergerät 102 die empfangenen Identifizierungsinformationen 138, die UWB-Tag-Kennungen 140, die UWB-Entfernungsmessdaten 146 und andere Arten von Umgebungsdaten zur Verarbeitung und Auswertung durch das von dem Server-Computergerät 602 implementierte Mapping-Modul 136 in das Netzwerksystem 604 hochladen. Das Hochladen von Daten von der Kameraeinrichtung 152 und/oder von dem Computergerät 102 in das Netzwerksystem kann von den jeweiligen Geräten automatisch gesteuert werden oder kann optional von einem Benutzer der Geräte initiiert werden. Das Netzwerksystem 604 kann die hochgeladenen Umgebungsdaten als Eingaben von dem Computergerät 102 und/oder von der Kameraeinrichtung 152 in das Mapping-Modul 136 empfangen, und zwar wie bei 608 angegeben über das Kommunikationsnetzwerk 606.
  • Jedes der vorliegend beschriebenen Geräte, jede Anwendung, jedes Modul, jeder Server und/oder jeder Dienst kann über das Kommunikationsnetzwerk 606 kommunizieren, beispielsweise für eine Datenkommunikation zwischen dem Computergerät 102 und dem Netzwerksystem 604 und für eine Datenkommunikation zwischen der Kameraeinrichtung 152 und dem Netzwerksystem. Das Kommunikationsnetzwerk 606 kann so ausgeführt sein, dass es ein drahtgebundenes und/oder ein drahtloses Netz umfasst. Das Kommunikationsnetzwerk 606 auch derart ausgeführt sein, dass es jede Art von Netzwerktopologie und/oder Kommunikationsprotokoll verwendet und kann als eine Kombination von zwei oder mehr Netzen, IP-basierte Netze und/oder das Internet eingeschlossen, dargestellt oder anderweitig implementiert sein. Das Kommunikationsnetzwerk 606 kann auch mobile Betreibernetzwerke umfassen, die von einem mobilen Netzwerkbetreiber und/oder anderen Netzwerkbetreibern verwaltet werden, wie zum Beispiel ein Kommunikationsdienstbetreiber, Mobiltelefonbetreiber und/oder Internetdienstbetreiber.
  • In diesem Beispiel des Cloud-basierten Systems 600 ist das Netzwerksystem 604 repräsentativ für jede Anzahl von Cloud-basierten Zugangsstellen, die einen Dienst bereitstellen und/oder von denen Daten und Informationen erhältlich sind, zum Beispiel über das Internet, für einen Online- und/oder netzwerkbasierten Zugang. Der Zugang zu dem Netzwerksystem 604 ist online möglich und umfasst das Server-Computergerät 602, das repräsentativ ist für einen oder mehrere Hardware-Servereinrichtungen (z.B. Computergeräte), die am Netzwerksystem implementiert sein können. Das Server-Computergerät 602 enthält einen Speicher 610 und einen Prozessor 612 und kann eine beliebige Anzahl und beliebige Kombinationen von verschiedenen Komponenten enthalten, wie nachstehend mit Bezug auf das in 11 dargestellte Beispielgerät ausführlicher beschrieben wird.
  • In diesem Beispiel des Cloud-basierten Systems 600 implementiert das Computergerät 602 das Mapping-Modul 136 und/oder das Objekterkennungsmodul 156 zum Beispiel in Software, in Hardware oder als Kombination von Software- und Hardwarekomponenten, die allgemein in 1 gezeigt sind und im Zusammenhang mit 1 beschrieben wurden. In diesem Beispiel sind das Mapping-Modul 136 und das Objekterkennungsmodul 156 als Softwareanwendungen oder Module implementiert, wie zum Beispiel ausführbare Softwareanweisungen (z.B. computerausführbare Anweisungen), die mit einem Prozessorsystem (z.B. dem Prozessor 612) des Server-Computersystems 602 ausführbar sind, um die Verfahren einer Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen durchzuführen. Das Mapping-Modul 136 und das Objekterkennungsmodul 156 können auf einem computerlesbaren Speichermedium gespeichert werden, zum Beispiel in bzw. auf einer geeigneten Speichereinrichtung (z.B. dem Gerätespeicher 610) oder in einem elektronischen Datenspeicher, der in dem Server-Computergerät 602 und/oder in dem Netzwerksystem 604 implementiert ist.
  • Das Netzwerksystem 604 kann mehrere Datenspeicher, Servereinrichtungen und Anwendungen umfassen und kann mit verschiedenen Komponenten ausgeführt sein, wie mit Bezug auf das in 11 gezeigte Beispielgerät noch ausführlicher beschrieben wird. Das Netzwerksystem 604 hat auch einen Datenspeicher 614, der als jede Art eines geeigneten Speichers oder elektronischen Datenspeichers für eine netzwerkbasierte Datenspeicherung konfiguriert sein kann. Der Datenspeicher 614 wird an dem Netzwerksystem 604 verwendet, um jede Art von Umgebungsdaten und Geräteinformationen, wie z.B. in einer Datenbank von Umgebungsgeräten 616, mit zugeordneten Gerätekennungen 618 und Gerätestandorten 620 in der Umgebung zu speichern. Die Gerätestandorte 620 können auch Global-Positioning-System(GPS)-Daten enthalten, die den Standort der Objekte 126, der intelligenten Geräte 118 und/oder der sonstigen Geräte 124 in der Umgebung 114, beispielsweise einer intelligenten Wohnumgebung, anzeigen.
  • Der Datenspeicher 614 kann in dem Netzwerksystem 604 auch verwendet werden, um jede Art von hochgeladenen Umgebungsdaten, wie zum Beispiel die hochgeladenen Umgebungsbilder 154 und/oder die UWB-Funkeinrichtungsstandorte 142 in der Umgebung 114, die relative Position 144 der UWB-Funkeinrichtungen zueinander und die von dem Mapping-Modul 136 erstellte Umgebungs-Tiefenkarte 160, wie mit Bezug auf die 1-5 dargestellt und beschrieben, zu speichern. Die von dem Mapping-Modul 136 und/oder von dem Objekterkennungsmodul 156 ermittelten Umgebungs- und Geräteinformationen können dann als Rückmeldung von dem Netzwerksystem 604 an das Computergerät 102 übermittelt werden, und zwar über das Kommunikationsnetzwerk 606, wie bei 622 angegeben.
  • Beispielverfahren 700, 800, 900 und 100 gemäß Implementierungen für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen werden nachstehend unter Bezugnahme auf die 7-10 näher erläutert. Im Allgemeinen können Dienste, Komponenten, Module, Verfahren und/oder Vorgänge bzw. Abläufe, die vorliegend beschrieben sind, durch die Verwendung von Software, Firmware, Hardware (z.B. feste Logikschaltungen), durch manuelle Verarbeitung oder Kombinationen davon realisiert werden. Einige Vorgänge bzw. Abläufe der Beispielsverfahren können im allgemeinen Kontext von ausführbaren Anweisungen beschrieben sein, die in einem computerlesbaren Speicher gespeichert sind, der entweder ein lokaler Speicher oder Remote-Speicher zu einem Computerverarbeitungssystem ist, und Implementierungen können Softwareanwendungen, Programme, Funktionen und dergleichen umfassen. Alternativ oder zusätzlich kann jede der vorliegend beschriebenen Funktionen zumindest teilweise von einer oder mehreren logischen Hardwarekomponenten wie beispielsweise feldprogrammierbare Gate Arrays (FPGAs), anwendungsspezifische integrierte Schaltungen (ASICs), anwendungsspezifische Standardprodukte (ASSPs), System-on-Chip-Systeme (SoCs), komplexe programmierbare Logikbausteine (CPLDs) und dergleichen ausgeführt werden, ohne Beschränkung hierauf.
  • 7 zeigt Beispielverfahren 700 für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen und wird allgemein mit Bezug auf ein von einem Computergerät implementiertes Mapping-Modul beschrieben. Die Reihenfolge, in der das Verfahren beschrieben ist, stellt keine Einschränkung dar. Vielmehr können die beschriebenen Vorgänge des Verfahrens in beliebiger Anzahl, Kombination und Reihenfolge stattfinden, um ein Verfahren oder ein alternatives Verfahren durchzuführen.
  • Bei 702 kommuniziert ein drahtloses Gerät mit Ultrabreitband(UWB)-Funkeinrichtungen, die in einer Umgebung verortet sind, die Objekte enthält, die getaggte Objekte und nicht getaggte Objekte umfassen. Zum Beispiel ist das drahtlose Gerät 104 (z.B. das Computergerät 102) im Allgemeinen durch eine drahtlose Verbindung mit den UWB-Funkeinrichtungen 122 der UWB-Tags 116 und/oder anderen UWB-fähigen Geräten für eine UWB-Kommunikation in der Umgebung 114 verbunden. Im Allgemeinen enthält die Umgebung 114 das drahtlose Gerät 104, die intelligenten Geräte 118, die UWB-Tags 116 und sonstigen UWB-fähigen Geräte, die mit einer UWB-Funkeinrichtung für eine Kommunikation durch Nutzung von UWB eingerichtet sind, sowie eine beliebige Anzahl von elektronischen Geräten, Computer- und/oder Kommunikationsgeräten 108 anderer Art, die vorliegend beschrieben sind. Die drahtlosen UWB-Kommunikationen in der Umgebung 114 sind zwischen den UWB-Tags und/oder den Geräten mit eingebettetem UWB, wie die intelligenten Geräte 118, in der Umgebung ähnlich. Das drahtlose Gerät 104 kann mit den UWB-Funkeinrichtungen 122 der UWB-Tags 116 sowie mit den UWB-fähigen intelligenten Geräten 118 und sonstigen Geräten 124 in der Umgebung 114 kommunizieren, indem es über Bluetooth oder BLE angekündigte Kommunikationen von den UWB-Funkeinrichtungen, den intelligenten Geräten oder den sonstigen Geräten empfängt.
  • Bei 704 wird basierend auf einer Position einer UWB-Funkeinrichtung, die einem getaggten Objekt zugeordnet ist, ein Standort jedes der getaggten Objekte in der Umgebung bestimmt. Zum Beispiel empfängt das von dem Computergerät 102 implementierte Mapping-Modul 136 angekündigte Signale von den UWB-Funkeinrichtungen 120, 122 der UWB-Tags 116 und der intelligenten Geräte 118, und das Mapping-Modul 136 vergleicht die Signalwegverluste von den empfangenen Signalen, um basierend auf einem ähnlichen Signalverlustweg festzustellen, welche der UWB-Funkeinrichtungen und intelligenten Geräte 118 nahe beieinander liegen. Das Mapping-Modul 136 bestimmt den Standort jedes der getaggten Objekte in der Umgebung 114 basierend auf einer Position einer UWB-Funkeinrichtung, die einem getaggten Objekt zugeordnet ist, z.B. basierend auf UWB-Entfernungsmessdaten und/oder GPS-Daten, die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangen werden.
  • Bei 706 wird der Standort jedes der nicht getaggten Objekte in der Umgebung basierend auf den Positionen der UWB-Funkeinrichtungen bestimmt. Zum Beispiel bestimmt das von dem Computergerät 102 implementierte Mapping-Modul 136 einen Standort jedes der nicht getaggten Objekte basierend auf den UWB-Funkeinrichtungsstandorten 142, zum Beispiel basierend auf den UWB-Entfernungsmessdaten und/oder den GPS-Daten, die von der einen oder den mehreren UWB-Funkeinrichtungen 120 in der Umgebung empfangen werden.
  • Bei 708 werden Dimensionen der Umgebung und der Objekte basierend auf dem Standort und einer relativen Position jedes getaggten Objekts und nicht getaggten Objekts in der Umgebung bestimmt. Zum Beispiel bestimmt das von dem drahtlosen Gerät 104 (z.B. ein Beispiel des Computergeräts 102) implementierte Mapping-Modul 136 die Dimensionen der Umgebung 114 durch Triangulieren des drahtlosen Geräts und zwei UWB-Funkeinrichtungen, wie zum Beispiel die UWB-Funkeinrichtungen 122 von zwei UWB-Tags 116, um eine Länge und eine Breite der Umgebung zu ermitteln. Das Mapping-Modul 136 kann auch ein Anfangshöhe des drahtlosen Geräts 104 und eine anschließende Höhe des drahtlosen Geräts in der Umgebung 114 und dann ein Volumen der Umgebung basierend auf der Fläche der Umgebung und einem Höhendelta zwischen der Anfangshöhe und der anschließenden Höhe des drahtlosen Geräts bestimmen.
  • Bei 710 wird eine Benutzerschnittstelle generiert, die den Standort des einen oder der mehreren Objekte in der Umgebung zeigt, und bei 712 wird die Benutzerschnittstelle auf einem Anzeigebildschirm des drahtlosen Geräts angezeigt. Das von dem drahtlosen Gerät 104 implementierte Mapping-Modul 136 generiert zum Beispiel eine zugeordnete Benutzerschnittstelle bzw. Benutzeroberfläche 162, die für eine Interaktion und Betrachtung durch den Benutzer dargestellt wird, beispielsweise auf dem Anzeigebildschirm 106 des drahtlosen Geräts. Die Benutzerschnittstelle 162 kann generiert werden, um die Dimensionen der Umgebung 114 basierend auf Maßen zu zeigen, die anhand des Standorts und der relativen Position einer oder mehrerer der UWB-Funkeinrichtungen in der Umgebung bestimmt wurden. Im Allgemeinen ist eine Anwendungs-Benutzerschnittstelle 162 oder jede andere Art eines Videos, ein Bildes, einer Grafik und dergleichen digitaler Bildinhalt, der auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104 angezeigt werden kann. Bei einer intelligenten Wohnumgebung kann das Mapping-Modul 136 die Umgebungs-Tiefenkarte 160 in der Benutzerschnittstelle 162 erstellen und auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104 für eine Betrachtung durch den Benutzer in der Umgebung anzeigen, wobei die Standorte der getaggten Objekte und der nicht getaggten Objekte in der Umgebung angegeben werden.
  • 8 zeigt ein(mehrere) Beispielverfahren 800 für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen und wird allgemein mit Bezug auf ein von einem Computergerät implementierten Mapping-Modul beschrieben. Die Reihenfolge, in der das Verfahren beschrieben ist, stellt keine Einschränkung dar. Vielmehr können die beschriebenen Vorgänge des Verfahrens in beliebiger Anzahl, Kombination und Reihenfolge stattfinden, um ein Verfahren oder ein alternatives Verfahren durchzuführen.
  • Bei 802 wird von einer Umgebung, die Ultrabreitband(UWB)-Tags und Objekte enthält, getaggte und nicht getaggte Objekte eingeschlossen, ein Bild aufgenommen. Die Kameraeinrichtung 152 nimmt zum Beispiel ein Bild 154 von der Umgebung 114 (oder einem Bereich der Umgebung) auf, die UWB-Tags 116 und Objekte enthält, getaggte Objekte und nicht getaggte Objekte eingeschlossen. Wie vorliegend beschrieben, kann ein Objekt in der Umgebung jede Art eines intelligenten Geräts, eines Mobilgeräts, eines drahtlosen Geräts, eines elektronischen Geräts oder ein nicht kommunikationsfähiges statisches Objekt oder Gerät sein.
  • Bei 804 werden die Objekte in der Umgebung anhand des aufgenommenen Bildes identifiziert. Zum Beispiel wird das von der Kameraeinrichtung 152 implementierte Objekterkennungsmodul 156 zum Identifizieren der Objekte 126, der intelligenten Geräte 118 und/oder der sonstigen Geräte 124 in der Umgebung anhand des aufgenommenen Bildes genutzt.
  • Bei 806 wird ein Standort jedes der getaggten Objekte in der Umgebung bestimmt, und bei 808 wird ein Standort jedes der nicht getaggten Objekte in der Umgebung bestimmt. Zum Beispiel bestimmt das von dem Computergerät 102 implementierte Mapping-Modul 136 den Standort und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung 114 basierend auf den UWB-Funkeinrichtungen und den identifizierten Objekten und Geräten in der Umgebung. Zusätzlich kann das Mapping-Modul 136 den Standort und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung 114 basierend auf identifizierten Objekten von einem aufgenommenen Umgebungsbild 154 und den UWB-Entfernungsmessdaten 146, die von der einen oder den mehreren UWB-Funkeinrichtungen in der Umgebung empfangen werden, bestimmen.
  • Bei 810 werden die Dimensionen eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position eines identifizierten Objekts und den UWB-Entfernungsmessdaten, die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangen werden, bestimmt. Zum Beispiel bestimmt das von dem Computergerät 102 implementierte Mapping-Modul 136 die Objektdimensionen 150 eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position des identifizierten Objekts und den UWB-Entfernungsmessdaten 146, die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangen werden.
  • Bei 812 wird eine Benutzerschnittstelle bzw. eine Benutzeroberfläche generiert, die den Standort des einen oder der mehreren Objekte in der Umgebung zeigt, und bei 814 wird die Benutzerschnittstelle auf einem Anzeigebildschirm des drahtlosen Geräts angezeigt. Das von dem drahtlosen Gerät 104 (z.B. ein Beispiel des Computergeräts 102) implementierte Mapping-Modul 136 generiert die zugeordnete Anwendungs-Benutzerschnittstelle 162, die für eine Interaktion und eine Betrachtung durch den Benutzer beispielsweise auf dem Anzeigebildschirm 106 des drahtlosen Geräts angezeigt wird. Die Benutzerschnittstelle 162 kann generiert werden, um die Dimensionen der Umgebung 114 basierend auf Maßen zu zeigen, die anhand des Standorts und der relativen Position einer oder mehrerer der UWB-Funkeinrichtungen in der Umgebung ermittelt wurden. Bei einer intelligenten Wohnumgebung kann das Mapping-Modul 136 die Umgebungs-Tiefenkarte 160 in der Benutzerschnittstelle 162 generieren und deren Anzeige auf dem Anzeigebildschirm 106 des drahtlosen Geräts 104 für eine Betrachtung durch den Benutzer in der Umgebung initiieren, wobei die Standorte der getaggten Objekte und der nicht getaggten Objekte in der Umgebung gezeigt werden.
  • 9 zeigt ein oder mehrere Beispielverfahren 900 für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen und wird allgemein mit Bezug auf ein von einem Computergerät implementierten Mapping-Modul beschrieben. Die Reihenfolge, in der das Verfahren beschrieben ist, stellt keine Einschränkung dar. Vielmehr können die beschriebenen Vorgänge des Verfahrens in beliebiger Anzahl, Kombination und Reihenfolge stattfinden, um ein Verfahren oder ein alternatives Verfahren durchzuführen.
  • Bei 902 wird von einer Umgebung, die Ultrabreitband(UWB)-Tags und Objekte enthält, getaggte und nicht getaggte Objekte eingeschlossen, ein Bild aufgenommen. Die Kameraeinrichtung 152 nimmt zum Beispiel ein Bild 154 von der Umgebung 114 (oder einem Bereich der Umgebung) auf, die UWB-Tags 116 und Objekte enthält, die getaggte Objekte und nicht getaggte Objekte umfassen. Wie vorliegend beschrieben, kann ein Objekt in der Umgebung jede Art eines intelligenten Geräts, eines Mobilgeräts, eines drahtlosen Geräts, eines elektronischen Geräts oder ein nicht kommunikationsfähiges statisches Objekt oder Gerät sein.
  • Bei 904 werden die Objekte in der Umgebung anhand des aufgenommenen Bildes identifiziert. Zum Beispiel wird das von der Kameraeinrichtung 152 implementierte Objekterkennungsmodul 156 zum Identifizieren der Objekte 126, der intelligenten Geräte 118 und/oder der sonstigen Geräte 124 in der Umgebung auf dem aufgenommenen Bild genutzt.
  • Bei 906 wird ein Standort jedes der getaggten Objekte in der Umgebung bestimmt, und bei 908 wird ein Standort jedes der nicht getaggten Objekte in der Umgebung bestimmt. Zum Beispiel bestimmt das von dem Computergerät 102 implementierte Mapping-Modul 136 den Standort und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung 114 basierend auf den UWB-Funkeinrichtungen und den identifizierten Objekten in der Umgebung. Zusätzlich kann das Mapping-Modul 136 den Standort und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung 114 basierend auf identifizierten Objekten von einem aufgenommenen Umgebungsbild 154 und den UWB-Entfernungsmessdaten 146, die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangen werden, bestimmen.
  • Bei 910 wird eine Tiefenkarte erstellt, die die relative Lage der Objekte in der Umgebung zeigt. Zum Beispiel erstellt das von dem Computergerät 102 implementierte Mapping-Modul 136 eine Umgebungs-Tiefenkarte 160, die die relative Lage der Objekte 126 (elektronische Geräte und andere intelligente Geräte z.B. eingeschlossen) in der Umgebung zeigt. Die Umgebungs-Tiefenkarte 160 kann erstellt werden, indem räumliche Entfernungen zwischen den von dem Objekterkennungsmodul 156 identifizierten Objekten, die in dem aufgenommenen Umgebungsbild 154 erscheinen, und die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangenen UWB-Entfernungsmessdaten 146 verglichen werden.
  • Bei 912 wird der Standort eines verlegten Gegenstands auf der Tiefenkarte der Umgebung basierend auf UWB-Entfernungsmessdaten bestimmt, die von der dem verlegten Objekt zugeordneten UWB-Funkeinrichtung empfangen werden. Zum Beispiel ermittelt das von dem Computergerät 102 implementierte Mapping-Modul 136 den Standort eines verlegten Objekts 126 in der Umgebung 114 basierend auf den UWB-Entfernungsmessdaten 146, die von der dem verlegten Objekt zugeordneten UWB-Funkeinrichtung empfangen wird.
  • Bei 914 wird der Standort des verlegten Objekts in der Umgebung auf der Tiefenkarte in einer Benutzerschnittstelle auf dem Anzeigebildschirm des drahtlosen Geräts angezeigt. Zum Beispiel generiert das von dem Computergerät 102 implementierte Mapping-Modul 136 die Benutzerschnittstelle 162, die die Umgebungs-Tiefenkarte 160 anzeigt und den Standort des verlegten Objekts in der Umgebung zeigt.
  • 10 zeigt ein oder mehrere Beispielverfahren 1000 für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen. Die Reihenfolge, in der das Verfahren beschrieben ist, stellt keine Einschränkung dar. Vielmehr können die beschriebenen Vorgänge des Verfahrens in beliebiger Anzahl, Kombination und Reihenfolge stattfinden, um ein Verfahren oder ein alternatives Verfahren durchzuführen.
  • Bei 1002 werden Geräte-Identifikationsinformationen, die von Geräten in einer Umgebung gesendet werden, von UWB-Tags gescannt. Zum Beispiel sind ein oder mehrere UWB-Tags 116 für eine Zuordnung zu jeweiligen Geräten 124 in der Umgebung 114 verortet, und jeder UWB-Tag ist mit einem digitalen Etikett 128 gekennzeichnet, das auf eine Zuordnung zu einem der Geräte hinweist. Der eine oder die mehreren UWB-Tags 116 suchen nach den Geräte-Identifikationsinformationen 138, die von den Geräten gesendet werden. In Implementierungen empfangen der eine oder die mehreren UWB-Tags 116 die Geräte-Identifikationsinformationen, die als Bluetooth oder Bluetooth Low Energy (BLE) von den Geräten 124 als Gerätename, Bluetooth MAC ADDR, als Anzeige der Empfangssignalstärke (RSSI) und/oder andere Art von Geräte-Identifikationsinformationen übermittelt werden.
  • Bei 1004 wird ein zu einem UWB-Tag nächstgelegenes Gerät für die Zuordnung des UWB-Tag zu dem nächstgelegenen Gerät bestimmt. Zum Beispiel kann jeder des einen oder der mehreren UWB-Tags 116 ein zu einem UWB-Tag nächstgelegenes Gerät 124 basierend auf einer Anzeige einer Empfangssignalstärke (RSSI) bestimmen, die den von dem nächstgelegenen Gerät empfangenen Geräte-Identifikationsinformationen zugeordnet ist. Bei 1006 wird der UWB-Tag dem nächstgelegenen Gerät zugeordnet. Zum Beispiel kann sich jeder des einen oder der mehreren UWB-Tags 116 selbst dem nächstgelegenen Gerät 124 zuordnen, das basierend auf den empfangenen Geräte-Identifikationsinformationen 138 bestimmt wurde.
  • Bei 1008 werden Standort-Identifikationsinformationen und ein Zuordnungshinweis der UWB-Tag-Zuordnung zu dem nächstgelegenen Gerät an ein Computergerät übermittelt, das ein Mapping-Modul implementiert, das eingerichtet ist zum Ermitteln von Dimensionen der Umgebung basierend auf einem Standort und einer relativen Position jeder UWB-Funkeinrichtung in der Umgebung. Zum Beispiel kann jeder des einen oder der mehreren UWB-Tags 116 seinen Zuordnungshinweis auf die UWB-Tag-Zuordnung zu dem nächstgelegenen Gerät dann an ein Computergerät 102 übermitteln, welches das Mapping-Modul 136 implementiert, das Dimensionen der Umgebung 114 basierend auf einem Standort und einer relativen Position jeder der UWB-Funkeinrichtungen (z.B. der UWB-Funkeinrichtungen 122 der UWB-Tags) in der Umgebung ermittelt.
  • 11 zeigt verschiedene Komponenten eines Beispielgeräts 1100, das Aspekte der Verfahren und Merkmale bzw. Funktionen für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen wie vorliegend beschrieben realisieren kann. Das Beispielgerät 1100 kann als eines der vorangehend mit Bezug auf die 1-10 beschriebenen Geräte ausgeführt sein, zum Beispiel als jede Art eines drahtlosen Geräts, eines Mobilgeräts, eines Mobiltelefons, eines Klapptelefons, eines Clientgeräts, eines Begleitgeräts, eines gekoppelten Geräts, einer Anzeigeeinrichtung, eines Tablet-, Computer-, Kommunikations-, Unterhaltungs-, Gaming-, Medienwiedergabegeräts und/oder ein Computergerät und/oder elektronisches Gerät einer anderen Art. Es können beispielsweise das Computergerät 102, die Kameraeinrichtung 152 und/oder der UWB-Tag 116, die im Zusammenhang mit den vorangehenden 1-10 beschrieben wurden, als Beispielgerät 1100 implementiert sein.
  • Das Beispielgerät 1100 kann mehrere verschiedene Kommunikationseinrichtungen 1102 umfassen, die eine drahtgebundene und/oder drahtlose Kommunikation von Gerätedaten 1104 mit anderen Geräten ermöglichen. Die Gerätedaten 1104 können beliebige Daten und Inhalt der verschiedenen Geräte enthalten, die/der generiert, verarbeitet, ermittelt, empfangen, gespeichert und/oder von einem Computergerät an ein anderes übermittelt werden. Im Allgemeinen können die Gerätedaten 1104 jede Form von Video-, Bild-, Grafik- und/oder elektronischen Daten umfassen, die von Anwendungen erzeugt werden, die auf einem Gerät ausgeführt werden. Die Kommunikationseinrichtungen 1102 können auch Sendeempfänger für Mobilfunkkommunikation und/oder für jede Art von Netzwerkdatenkommunikation umfassen.
  • Das Beispielgerät 1100 auch verschiedene Arten DatenEingabe/Ausgabe(I/O)-Schnittstellen 1106 wie Datennetzwerkschnittstellen umfassen, die eine Verbindung und/oder Kommunikationsverbindungen zwischen den Geräten, Datennetzen und anderen Geräten herstellen. Die I/O-Schnittstellen 1106 können verwendet werden zum Verbinden des Geräts mit jeder Art von Komponenten, Peripheriegeräten und/oder Zubehörgeräten wie ein Computereingabegerät, das in dem Beispielgerät 1100 integriert sein kann. Die I/O-Schnittstellen 1106 können auch Dateneingabe-Ports umfassen, über welche jede Art von Daten, Informationen, Medieninhalt, Kommunikationen, Mitteilungen und/oder andere Eingabe empfangen werden können, wie zum Beispiel Benutzereingaben in das Gerät sowie jede Art von Audi-, Video-, Bild-, Grafikdaten und/oder elektronischen Daten, die von einer Inhalts- und/oder Datenquelle erhalten werden.
  • Das Beispielgerät 1100 hat ein Prozessorsystem 1108 aus einem oder mehreren Prozessoren (z.B. jede Art von Mikroprozessoren, Steuerungen und dergleichen) und ein Prozessor- und Speichersystem, das als System-on-Chip(SoC) ausgeführt ist, welches computerausführbare Anweisungen verarbeitet. Das Prozessorsystem 1108 kann zumindest teilweise in Computerhardware implementiert sein, die Komponenten einer integrierten Schaltung oder eines On-Chip-System, eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate Array (FPGA), einen komplexen programmierbaren Logikbaustein (CPLD) und andere Ausführungen in Silizium und/oder Hardware umfassen kann. Alterativ oder zusätzlich kann das Gerät implementiert werden mit jeder Art oder Kombination von Software, Hardware, Firmware oder einer festen Logikschaltung, die in Verbindung mit Verarbeitungs- und Steuerungsschaltungen implementiert sein kann, die allgemein bei 1110 angegeben sind. Das Beispielgerät 1100 kann auch jeder Art eines Systembusses oder eines anderen Daten- und Befehlsübertragungssystems umfassen, das die verschiedenen Komponenten in dem Gerät verbindet. Ein Systembus kann jede Art oder Kombination verschiedener Busstrukturen und Architekturen sowie Steuer- und Datenleitungen aufweisen.
  • Das Beispielgerät 1100 hat auch einen Speicher und/oder Speichereinrichtungen 1112 (z.B. einen computerlesbaren Speicher), die eine Datenspeicherung ermöglichen, wie zum Beispiel Datenspeichereinrichtungen, die in Hardware ausgeführt sind und auf welche ein Computergerät zugreifen kann und die für eine dauerhafte Speicherung von Daten und ausführbaren Anweisungen (z.B. Softwareanwendungen, Programme, Funktionen und dergleichen) sorgen. Beispiele der Speichereinrichtungen 1112 umfassen flüchtige Speicher und nichtflüchtige Speicher, feste und entfernbare Medien und geeignete Speichergeräte oder elektronische Datenspeicher, die Daten für den Zugriff eines Computergeräts speichern. Die Speichereinrichtungen 1112 können verschiedene Implementierungen eines Direktzugriffsspeichers (RAM), eines Nur-Lese-Speichers (ROM), eines Flashspeichers und anderer Arten von Speichermedien in verschiedenen Speichereinrichtungskonfigurationen umfassen. Das Beispielgerät 1100 kann auch eine Massenspeichereinrichtung aufweisen.
  • Die Speichereinrichtungen 1112 (z.B. als computerlesbarer Speicher) stellen Datenspeichermechanismen bereit, um die Gerätedaten 1104, andere Arten von Informationen und/oder elektronische Daten und verschiedene Geräteanwendungen 1114 (z.B. Softwareanwendungen oder Module) zu speichern. Zum Beispiel kann ein Betriebssystem 1116 als Softwareanweisungen in einer Speichereinrichtung 1112 gespeichert und von dem Prozessorsystem 1108 als Softwareanwendung ausgeführt werden. Die Geräteanwendungen 1114 können auch einen Gerätemanager wie jede Form einer Steuerungsanwendung, Softwareanwendung, eines Signalverarbeitungs- und Steuermoduls, eines gerätespezifischen Codes, einer Hardware-Abstraktionsschicht für ein bestimmtes Gerät usw. umfassen.
  • In diesem Beispiel hat das Gerät 1100 ein Mapping-Modul 1118, das verschiedene Aspekte der beschriebenen Merkmale bzw. Funktionen und Verfahren für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen ausführt. Das Mapping-Modul 1118 kann mit Hardwarekomponenten und/oder in Software als eine der Geräteanwendungen 1114 ausgeführt sein, wenn das Beispielgerät 1100 als Computergerät 102 und/oder als Kameraeinrichtung 152 konfiguriert ist, wie mit Bezug auf die 1-10 beschrieben. Ein Beispiel des Mapping-Moduls 1118 umfasst das Mapping-Modul 136, das von dem Computergerät 102 implementiert wird, zum Beispiel als Softwareanwendung und/oder als Hardwarekomponenten in dem Computergerät. In Implementierungen kann das Mapping-Modul 1118 unabhängige Verarbeitungs-, Speicher- und Logikkomponenten als Computer- und/oder elektronische Einrichtung umfassen, die in das Beispielgerät 1100 integriert ist.
  • Das Beispielgerät 1100 kann auch ein Mikrofon 1120 und/oder eine Kameraeinrichtung 1122 sowie Bewegungssensoren 1124, die als Komponenten eines Trägheitsmesssystems (IMU) implementiert sein können, umfassen. Die Bewegungssensoren 1124 können mit verschiedenen Sensoren implementiert werden, z.B. mit einem Gyroskop, einem Beschleunigungsmesser und/oder anderen Arten von Bewegungssensoren, um die Bewegung eines Geräts zu erfassen. Die Bewegungssensoren 1124 können Sensordatenvektoren mit dreidimensionalen Parametern (z.B. Rotationsvektoren in x-, y- und z-Achsenkoordinaten), die Lage, Position, Beschleunigung, Drehgeschwindigkeit und/oder Orientierung eines Geräts angeben. Das Beispielgerät 1100 kann eine oder mehr Energiequellen 1126 aufweisen, wenn das Gerät beispielsweise als drahtloses und/oder Mobilgerät ausgeführt ist. Die Energiequellen können Lade- und Stromversorgungssysteme umfassen und können als flexible Streifenbatterie, als aufladbare Batterie, als geladener Superkondensator und/oder jede andere Art einer aktiven oder passiven Energiequelle ausgeführt sein.
  • Das Beispielgerät 1100 kann auch ein Audio- und/oder Videoverarbeitungssystem 1128 umfassen, das Audiodaten für ein Audiosystem 1130 und/oder Anzeigedaten für ein Anzeigesystem 1132 generiert. Das Audiosystem und/oder das Anzeigesystem können jede Art von Geräten oder Modulen umfassen, die Audio-, Video-, Anzeige- und/oder Bilddaten erzeugen, verarbeiten, darstellen und/oder auf andere Weise wiedergeben. Anzeigedaten und Audiosignale können über jede Art einer Audio- und/oder Videoverbindung oder eine Datenverbindung an eine Audiokomponente und/oder eine Videokomponente übermittelt werden. In Implementierungen sind das Audiosystem und/oder das Anzeigesystem integrierte Komponenten des Beispielgeräts 1100. Alternativ können das Audiosystem und/oder das Anzeigesystem externe Peripheriekomponenten zu dem Beispielgerät sein.
  • Wenngleich Implementierungen für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen in einer merkmals- und/oder verfahrensspezifischen Sprache beschrieben wurden, sind die anliegenden Ansprüche nicht notwendigerweise auf die beschriebenen spezifischen Merkmale oder Verfahren beschränkt. Vielmehr wurden die speziellen Merkmale und Verfahren als Beispiel-Implementierungen für eine Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen beschrieben, so dass auch andere äquivalente Merkmale und Verfahren in den Schutzrahmen der anliegenden Ansprüche fallen. Ferner wurden auch verschiedene Beispiele beschrieben, die jeweils unabhängig oder in Verbindung mit einem oder mehreren anderen beschriebenen Beispielen ausgeführt werden können. Weitere Aspekte der vorliegend beschriebenen Techniken, Merkmale und/oder Verfahren beziehen sich auf Folgendes:
    • Ein System, umfassend: Objekte in einer Umgebung, wobei die Objekte getaggte Objekte und nicht getaggte Objekte umfassen; Ultrabreitband(UWB)-Funkeinrichtungen, die den jeweiligen getaggten Objekten in der Umgebung zugeordnet sind; ein Mapping-Modul, das zumindest teilweise in Hardware ausgeführt ist und eingerichtet ist, um: einen Standort jedes der getaggten Objekte in der Umgebung basierend auf einer Position der dem getaggten Objekt zugeordneten UWB-Funkeinrichtung zu bestimmen; einen Standort jedes der nicht getaggten Objekte in der Umgebung basierend auf den Positionen der UWB-Funkeinrichtungen zu bestimmen; Dimensionen der Umgebung und der Objekte basierend auf dem Standort und einer relativen Position jedes getaggten und nicht getaggten Objekts in der Umgebung zu ermitteln.
  • Alternativ oder zusätzlich zu dem vorstehend beschriebenen System eines oder eine Kombination der folgenden Merkmale: eine oder mehrere der UWB-Funkeinrichtungen sind UWB-Tags, die für eine Zuordnung zu jeweiligen getaggten Objekten verortet sind. Das System umfasst ferner ein drahtloses Gerät, das konfiguriert ist für die Implementierung des Mapping-Moduls in der Umgebung, wobei das Mapping-Modul eingerichtet ist zum Triangulieren des drahtlosen Geräts und zwei der UWB-Funkeinrichtungen, um eine Länge und eine Breite der Umgebung zu ermitteln. Das Mapping-Modul ist eingerichtet: zum Ermitteln einer Anfangshöhe des drahtlosen Geräts und einer anschließenden Höhe des drahtlosen Geräts; und zum Ermitteln eines Volumens der Umgebung basierend auf einer Fläche der Umgebung und einem Höhendelta zwischen der Anfangshöhe und der anschließenden Höhe des drahtlosen Geräts. Das System umfasst ferner: eine Kameraeinrichtung, konfiguriert ist für die Aufnahme eines Bilds der Umgebung; ein Objekterkennungsmodul, das eingerichtet ist zum Identifizieren der Objekte in der Umgebung anhand des aufgenommenen Bildes; wobei das Mapping-Modul eingerichtet ist zum Bestimmen des Standorts und der relativen Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung basierend auf den UWB-Funkeinrichtungen und den identifizierten Objekten in der Umgebung. Das Mapping-Modul ist ausgebildet zum Ermitteln der Dimensionen eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position des identifizierten Objekts und der von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangenen UWB-Entfernungsmessdaten. Das System umfasst ferner ein drahtloses Gerät, das eingerichtet ist: zum Implementieren des Mapping-Moduls, um eine Benutzerschnittstelle zu generieren, die die Lage eines oder mehrerer Objekte in der Umgebung zeigt; um zum Initiieren der Anzeige der Benutzerschnittstelle auf einem Anzeigebildschirm des drahtlose Geräts. Das Mapping-Modul ist eingerichtet zum Generieren der Benutzerschnittstelle, die die Dimensionen der Umgebung zeigt basierend auf Maßen, die anhand des Standorts und der relativen Position einer oder mehrerer UWB-Funkeinrichtungen in der Umgebung bestimmt wurden. Das Mapping-Modul ist eingerichtet: zum Bestimmen des Standorts eines verlegten Objekts in der Umgebung basierend auf UWB-Entfernungsmessdaten, die von einer dem verlegten Gegenstand zugeordneten UWB-Funkeinrichtung empfangen werden; und zum Generieren der Benutzerschnittstelle, die den Ort des verlegten Objekts in der Umgebung zeigt. Das System umfasst ferner: ein drahtloses Gerät, das eingerichtet ist zum Implementieren des Mapping-Moduls in der Umgebung; eine Kameraeinrichtung, die ausgebildet ist zum Aufnehmen eines Bildes von der Umgebung; ein Objekterkennungsmodul, das eingerichtet ist zum Identifizieren der Objekte in der Umgebung anhand des aufgenommenen Bildes; wobei das Mapping-Modul eingerichtet ist: zum Erstellen einer Tiefenkarte, die die relative Lage eines oder mehrerer Objekte in der Umgebung zeigt, wobei die Tiefenkarte erstellt wird, indem die räumlichen Entfernungen zwischen den auf dem aufgenommenen Bild erscheinenden identifizierten Objekte und UWB-Entfernungsmessdaten, die von einer oder mehreren UWB-Funkeinrichtungen in der Umgebung empfangen werden, verglichen werden; und zum Generieren einer Benutzerschnittstelle für die Anzeige der Tiefenkarte auf einem Anzeigebildschirm des drahtlosen Geräts.
  • Verfahren, umfassend: Kommunizieren zwischen einem drahtlosen Gerät und einer Ultrabreitband(UWB)-Funkeinrichtung, die in einer Umgebung verortet ist, die Objekte enthält, die getaggte Objekte und nicht getaggte Objekte umfasst; Bestimmen eines Standorts jedes der getaggten Objekte in der Umgebung basierend auf einer Position einer UWB-Funkeinrichtung, die einem getaggten Objekt zugeordnet ist; Bestimmen eines Standorts jedes der nicht getaggten Objekte in der Umgebung basierend auf den Positionen der UWB-Funkeinrichtungen; Ermitteln von Dimensionen der Umgebung und der Objekte basierend auf dem Standort und einer relativen Position jedes getaggten Objekts und nicht getaggten Objekts in der Umgebung.
  • Alternativ oder zusätzlich zu dem vorstehend beschriebenen Verfahren eines oder eine Kombination der folgenden Merkmale: die Dimensionen der Umgebung werden durch Triangulation des drahtlosen Geräts und zwei der UWB-Funkeinrichtungen ermittelt, um eine Länge und eine Breite der Umgebung zu bestimmen. Die Dimensionen der Umgebung werden bestimmt durch: das Ermitteln einer Anfangshöhe und einer anschließenden Höhe des drahtlosen Geräts; und das Ermitteln eines Volumens der Umgebung basierend auf einer Fläche der Umgebung und einem Höhendelta zwischen der Anfangshöhe und der anschließenden Höhe des drahtlosen Geräts.
  • Das Verfahren umfasst ferner: Identifizieren der Objekte in der Umgebung anhand des aufgenommenen Bildes; wobei die Lage und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung basierend auf der UWB-Funkeinrichtung und den identifizierten Objekten in der Umgebung bestimmt werden. Das Verfahren umfasst ferner das Ermitteln der Dimensionen eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position des identifizierten Objekts und den UWB-Entfernungsmessdaten, die von der einen oder den mehreren UWB-Funkeinrichtungen in der Umgebung empfangen werden. Das Verfahren umfasst ferner: Generieren einer Benutzerschnittstelle, die die Lage des einen oder der mehreren Objekte in der Umgebung zeigt; und Anzeigen der Benutzerschnittstelle auf einem Anzeigebildschirm des drahtlosen Geräts. Die Benutzerschnittstelle wird generiert, um die Dimensionen der Umgebung basierend auf Maßen darzustellen, die anhand des Standorts und der relativen Position einer oder mehrerer Funkeinrichtungen in der Umgebung bestimmt wurden. Das Verfahren umfasst: Aufnehmen eines Bildes der Umgebung; Identifizieren der Objekte in der Umgebung anhand des aufgenommenen Bildes durch Nutzung einer Objekterkennung; Erstellen einer Tiefenkarte, die die relative Lage eines oder mehrerer Objekte in der Umgebung zeigt, wobei die Tiefenkarte erstellt wird, indem die räumlichen Entfernungen zwischen identifizierten Objekten, die auf dem aufgenommenen Bild erscheinen, und die von der einen oder den mehreren UWB-Funkeinrichtungen in der Umgebung empfangenen UWB-Entfernungsmessdaten verglichen werden; und wobei die Benutzerschnittstelle generiert wird, um die Tiefenkarte auf einem Anzeigebildschirm des drahtlosen Geräts anzuzeigen.
  • System, umfassend: einen oder mehrere Ultrabreitband(UWB)-Tags, die für eine Zuordnung zu jeweiligen Geräten in der Umgebung verortet sind, wobei der eine oder die mehreren UWB-Tags konfiguriert sind: zum Suchen nach Geräte-Identifizierungsinformationen, die von den Geräten gesendet werden; zum Bestimmen eines einem UWB-Tag nächstgelegenen Gerät zur Zuordnung des UWB-Tag zu dem nächstgelegenen Gerät; und zum Übermitteln von Standort-Identifizierungsinformationen und einem Zuordnungshinweis der UWB-Tag-Zuordnung zu dem nächstgelegenen Gerät an ein Computergerät, das ein Mapping-Modul implementiert, das ausgebildet ist zum Ermitteln der Dimensionen der Umgebung basierend auf einem Standort und einer relativen Position jedes UWB-Tag in der Umgebung. Das Mapping-Modul ist ausgebildet zum Ermitteln der Dimensionen jedes der Geräte basierend auf dem Standort und der relativen Position jeder der UWB-Funkeinrichtungen in der Umgebung.

Claims (20)

  1. System, umfassend: Objekte in einer Umgebung, wobei die Objekte getaggte Objekte und nicht getaggte Objekte umfassen; Ultrabreitband(UWB)-Funkeinrichtungen, die den jeweiligen getaggten Objekten in der Umgebung zugeordnet sind; ein Mapping-Modul, das zumindest teilweise in Hardware ausgeführt ist und konfiguriert ist für: das Bestimmen eines Standorts jedes der getaggten Objekte in der Umgebung basierend auf einer Position der einem getaggten Objekt zugeordneten UWB-Funkeinrichtung; das Bestimmen eines Standorts jedes der nicht getaggten Objekte in der Umgebung basierend auf einer Position der einem getaggten Objekt zugeordneten UWB-Funkeinrichtung; das Ermitteln der Dimensionen der Umgebung und der Objekte basierend auf dem Standort und einer relativen Position jedes getaggten Objekts und nicht getaggten Objekts in der Umgebung.
  2. System nach Anspruch 1, wobei eine oder mehrere UWB-Funkeinrichtungen UWB-Tags sind, die für eine Zuordnung zu jeweiligen getaggten Objekten verortet sind.
  3. System nach Anspruch 1 oder 2, ferner umfassend ein drahtloses Gerät, das konfiguriert ist für die Implementierung des Mapping-Moduls in der Umgebung, wobei das Mapping-Modul eingerichtet ist zum Triangulieren des drahtlosen Geräts und zwei der UWB-Funkeinrichtungen, um eine Länge und eine Breite der Umgebung zu bestimmen.
  4. System nach einem der vorhergehenden Ansprüche, wobei das Mapping-Modul eingerichtet ist für: das Bestimmen einer Anfangshöhe des drahtlosen Geräts und einer anschließenden Höhe des drahtlosen Geräts; und das Bestimmen eines Volumens der Umgebung basierend auf einer Fläche der Umgebung und einem Höhendelta zwischen der Anfangshöhe und der anschließenden Höhe des drahtlosen Geräts.
  5. System nach einem der vorhergehenden Ansprüche, ferner umfassend: eine Kameraeinrichtung, die konfiguriert ist für die Aufnahme eines Bildes von der Umgebung; ein Objekterkennungsmodul, das eingerichtet ist zum Identifizieren der Objekte in der Umgebung auf dem aufgenommenen Bild; wobei das Mapping-Modul konfiguriert ist für das Bestimmen des Standorts und der relativen Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung basierend auf den UWB-Funkeinrichtungen und den identifizierten Objekten in der Umgebung.
  6. System nach einem der vorhergehenden Ansprüche, wobei das Mapping-Modul konfiguriert ist für die Bestimmung der Dimensionen eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position des identifizierten Objekts und UWB-Entfernungsmessdaten, die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangen werden.
  7. System nach einem der vorhergehenden Ansprüche, ferner umfassend ein drahtloses Gerät, das konfiguriert ist für: die Implementierung des Mapping-Moduls zum Generieren einer Benutzerschnittstelle, die den Standort eines oder mehrerer der Objekte in der Umgebung zeigt; und die Initiierung der Anzeige der Benutzerschnittstelle auf einem Anzeigebildschirm des drahtlosen Geräts.
  8. System nach einem der vorhergehenden Ansprüche, wobei das Mapping-Modul eingerichtet ist zum Generieren der Benutzerschnittstelle, die die Dimensionen der Umgebung basierend auf Maßen zeigt, die anhand des Standorts und der relativen Position einer oder mehrerer der UWB-Funkeinrichtungen in der Umgebung bestimmt wurden.
  9. System nach einem der vorhergehenden Ansprüche, wobei das Mapping-Modul eingerichtet ist: zum Ermitteln des Standorts eines verlegten Objekts in der Umgebung basierend auf UWB-Entfernungsmessdaten, die von einer dem verlegten Gegenstand zugeordneten UWB-Funkeinrichtung empfangen werden; und zum Generieren der Benutzerschnittstelle, die den Standort des verlegten Objekts in der Umgebung zeigt.
  10. System nach einem der vorhergehenden Ansprüche, ferner umfassend: ein drahtloses Gerät, das für die Implementierung des Mapping-Moduls in der Umgebung konfiguriert ist; eine Kameraeinrichtung, die für die Aufnahme eines Bildes der Umgebung konfiguriert ist; ein Objekterkennungsmodul, das für die Identifizierung der Objekte in der Umgebung auf dem aufgenommenen Bild konfiguriert ist; wobei das Mapping-Modul eingerichtet ist zum: Erstellen einer Tiefenkarte, die die relative Lage eines oder mehrerer der Objekte in der Umgebung zeigt, wobei die Tiefenkarte erstellt wird, indem die räumlichen Entfernungen zwischen den identifizierten Objekten, die auf dem aufgenommenen Bild erscheinen, und von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangene UWB-Entfernungsmessdaten verglichen werden; und zum Generieren einer Benutzerschnittstelle zur Anzeige der Tiefenkarte auf einem Anzeigebildschirm des drahtlosen Geräts.
  11. Verfahren, umfassend: Kommunizieren zwischen einem drahtlosen Gerät und Ultrabreitband(UWB)-Funkeinrichtungen, die in einer Umgebung verortet sind, die Objekte enthält, die getaggte Objekte und nicht getaggte Objekte umfassen; Bestimmen eines Standorts jedes der getaggten Objekte in der Umgebung basierend auf einer Position einer UWB-Funkeinrichtung, die einem getaggten Objekt zugeordnet ist; Bestimmen eines Standorts jedes der nicht getaggten Objekte in der Umgebung basierend auf den Positionen der UWB-Funkeinrichtungen; Ermitteln von Dimensionen der Umgebung und der Objekte basierend auf dem Standort und einer relativen Position jedes getaggten Objekts und nicht getaggten Objekts in der Umgebung.
  12. Verfahren nach Anspruch 11, wobei die Dimensionen der Umgebung durch Triangulieren des drahtlosen Geräts und zwei der UWB-Funkeinrichtungen ermittelt werden, um eine Länge und eine Breite der Umgebung zu bestimmen.
  13. Verfahren nach Anspruch 11 oder 12, wobei die Dimensionen der Umgebung ermittelt werden durch: Bestimmen einer Anfangshöhe des drahtlosen Geräts und einer anschließenden Höhe des drahtlosen Geräts; und Bestimmen eines Volumens der Umgebung basierend auf einer Fläche der Umgebung und einem Höhendelta zwischen der Anfangshöhe und der anschließenden Höhe des drahtlosen Geräts.
  14. Verfahren nach Anspruch 11, 12 oder 13, ferner umfassend: Aufnehmen eines Bildes der Umgebung; Identifizieren der Objekte in der Umgebung auf dem aufgenommenen Bild; wobei der Standort und die relative Position jedes der getaggten Objekte und der nicht getaggten Objekte in der Umgebung basierend auf den UWB-Funkeinrichtungen und den identifizierten Objekten in der Umgebung bestimmt werden.
  15. Verfahren nach einem der Ansprüche 11 bis 14, ferner umfassend: Ermitteln der Dimensionen eines identifizierten Objekts in der Umgebung basierend auf dem Standort und der relativen Position des identifizierten Objekts und UWB-Entfernungsmessdaten, die von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangen werden.
  16. Verfahren nach einem der Ansprüche 11 bis 16, ferner umfassend: Generieren einer Benutzerschnittstelle, die den Standort eines oder mehrerer Objekte in der Umgebung zeigt; Anzeigen der Benutzerschnittstelle auf einem Anzeigebildschirm des drahtlosen Geräts.
  17. Verfahren nach Anspruch 16, wobei die Benutzerschnittstelle generiert wird, um die Dimensionen der Umgebung basierend auf Maßen zu zeigen, die anhand des Standorts und der relativen Position eines oder mehrerer der UWB-Funkeinrichtungen in der Umgebung ermittelt wurden.
  18. Verfahren nach einem der Ansprüche 11 bis 17, ferner umfassend: Aufnehmen eines Bildes von der Umgebung; Identifizieren der Objekte in der Umgebung auf dem aufgenommenen Bild mittels Objekterkennung; Erstellen einer Tiefenkarte, die die relative Lage eines oder mehrerer Objekte in der Umgebung zeigt, wobei die Tiefenkarte erstellt wird, indem räumliche Entfernungen zwischen den identifizierten Objekten, die auf dem aufgenommenen Bild erscheinen, und von einer oder mehreren der UWB-Funkeinrichtungen in der Umgebung empfangene UWB-Entfernungsmessungen verglichen werden; wobei die Benutzerschnittstelle generiert wird, um die Tiefenkarte auf einem Anzeigebildschirm des drahtlosen Geräts anzuzeigen.
  19. System, umfassend: einen oder mehrere Ultrabreitband(UWB)-Tags, die für eine Zuordnung zu jeweiligen Geräten in der Umgebung verortet sind, wobei der eine oder die mehreren UWB-Tags jeweils eingerichtet sind: zum Suchen nach Geräte-Identifizierungsinformationen, die von den Geräten gesendet werden; das Bestimmen eines zu einem UWB-Tag nächstgelegenen Geräts zur Zuordnung des UWB-Tag zu dem nächstgelegenen Gerät; und zum Übermitteln von Standort-Identifizierungsinformationen und eines Zuordnungshinweises der UWB-Tag-Zuordnung zu dem nächstgelegenen Gerät an ein Computergerät, das ein Mapping-Modul implementiert, das eingerichtet ist zum Ermitteln von Dimensionen der Umgebung basierend auf einem Standort und einer relativen Position jedes der UWB-Funkeinrichtungen in der Umgebung.
  20. System nach Anspruch 19, wobei das Mapping-Modul eingerichtet ist zum Ermitteln der Dimensionen jedes der Geräte basierend auf dem Standort und der relativen Position jeder der UWB-Funkeinrichtungen in der Umgebung.
DE102022127765.8A 2021-11-29 2022-10-20 Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen Pending DE102022127765A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/536,499 2021-11-29
US17/536,499 US20230168343A1 (en) 2021-11-29 2021-11-29 Object and Environment Dimensioning Based on UWB Radios

Publications (1)

Publication Number Publication Date
DE102022127765A1 true DE102022127765A1 (de) 2023-06-01

Family

ID=84839414

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022127765.8A Pending DE102022127765A1 (de) 2021-11-29 2022-10-20 Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen

Country Status (4)

Country Link
US (1) US20230168343A1 (de)
CN (1) CN116184311A (de)
DE (1) DE102022127765A1 (de)
GB (1) GB2614411A (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11990012B2 (en) 2021-11-29 2024-05-21 Motorola Mobility Llc Object contextual control based on UWB radios

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10863314B2 (en) * 2018-01-25 2020-12-08 Wiser Systems, Inc. Methods for generating a layout of a particular environment utilizing antennas and a mobile device
US11321929B2 (en) * 2018-05-18 2022-05-03 Purdue Research Foundation System and method for spatially registering multiple augmented reality devices
US10499194B1 (en) * 2018-07-30 2019-12-03 Motorola Mobility Llc Location correlation in a region based on signal strength indications
CA3111893A1 (en) * 2018-09-20 2020-06-25 Bluecats Australia Pty Ltd. Radar for tracking or generating radar images of passive objects
US11026067B2 (en) * 2019-01-11 2021-06-01 Sensormatic Electronics, LLC Power efficient ultra-wideband (UWB) tag for indoor positioning
US11937539B2 (en) * 2019-08-28 2024-03-26 Samsung Electronics Co., Ltd. Sensor fusion for localization and path planning
WO2021202380A1 (en) * 2020-03-30 2021-10-07 Wiser Systems, Inc. Integrated camera and ultra- wideband location devices and related systems
EP4017034A1 (de) * 2020-12-21 2022-06-22 Deutsche Telekom AG 5g-positionierungs-slam-etiketten
CN112911505A (zh) * 2021-01-29 2021-06-04 西安交通大学 一种频率自适应的轮椅室内定位方法
US20220244367A1 (en) * 2021-02-02 2022-08-04 Google Llc Measurements using an ultra-wideband ranging pair
KR102328673B1 (ko) * 2021-03-04 2021-11-18 주식회사 지오플랜 로케이션 기반 스마트홈 제어 방법 및 시스템
EP4307775A1 (de) * 2021-03-19 2024-01-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Betriebsverfahren und -vorrichtung für uwb-etikett sowie uwb-etikett und speichermedium
CN113538410B (zh) * 2021-08-06 2022-05-20 广东工业大学 一种基于3d激光雷达和uwb的室内slam建图方法
US11585917B1 (en) * 2021-08-24 2023-02-21 Google Llc Systems and methods for generating three-dimensional maps of an indoor space

Also Published As

Publication number Publication date
CN116184311A (zh) 2023-05-30
GB2614411A (en) 2023-07-05
GB202216213D0 (en) 2022-12-14
US20230168343A1 (en) 2023-06-01

Similar Documents

Publication Publication Date Title
US20210073432A1 (en) Method and apparatus for interacting with a tag in a wireless communication area
DE102022122084A1 (de) Umgebungs-Mapping basierend auf UWB-Tags
US11893317B2 (en) Method and apparatus for associating digital content with wireless transmission nodes in a wireless communication area
EP3137977A2 (de) Auf erweiterter realität basierte verwaltung einer darstellung einer intelligenten umgebung
JP6948374B2 (ja) Iot対話システム
DE102022134316A1 (de) UWB-Automatisierungserfahrungssteuerung
EP3274735B1 (de) Tracking-system und verfahren zum tracken eines trägers einer mobilen kommunikationseinheit
DE112019001302T5 (de) Gegenstandsortung unter verwendung von richtungsfindungseigenschaften
US20230231591A1 (en) UWB Accessory for A Wireless Device
US11172255B2 (en) Geolocationing system and method for use of same
KR20190059120A (ko) 사물인터넷 기반의 증강현실을 이용한 시설물 점검 시스템
DE102022127765A1 (de) Objekt- und Umgebungsdimensionierung basierend auf UWB-Funkeinrichtungen
DE102017128369A1 (de) Vorrichtung und verfahren zum lokalisieren eines ersten bauelements, lokalisierungsvorrichtung und verfahren zur lokalisierung
DE112021007303T5 (de) Geräte zur gestenerkennung mit ultra-breitband (uwb) transceivern
US20230171298A1 (en) Digital Media Playback Based on UWB Radios
Blankenbach et al. Building information systems based on precise indoor positioning
WO2020168493A1 (zh) 三维场景建模方法、装置、设备及存储介质
US20230217215A1 (en) Environment Dead Zone Determination based on UWB Ranging
DE102022122462A1 (de) Objektverfolgung basierend auf UWB-Tags
DE112018005580T5 (de) Standortkalibrierung auf grundlage von bewegungsweg und kartenobjekten
US11990012B2 (en) Object contextual control based on UWB radios
US12004046B2 (en) Object tracking based on UWB tags
BR102022018305A2 (pt) Mapeamento de ambiente baseado em etiquetas de uwb
GB2612884A (en) Object tracking based on UWB tags
Čilić et al. Distributed Location-Aware IoT Device Control Based on Indoor Positioning

Legal Events

Date Code Title Description
R012 Request for examination validly filed