DE202020105557U1 - Internet of Things device - Google Patents

Internet of Things device Download PDF

Info

Publication number
DE202020105557U1
DE202020105557U1 DE202020105557.7U DE202020105557U DE202020105557U1 DE 202020105557 U1 DE202020105557 U1 DE 202020105557U1 DE 202020105557 U DE202020105557 U DE 202020105557U DE 202020105557 U1 DE202020105557 U1 DE 202020105557U1
Authority
DE
Germany
Prior art keywords
glasses
anchor
module
iot
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202020105557.7U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/CN2020/090695 external-priority patent/WO2021227082A1/en
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Publication of DE202020105557U1 publication Critical patent/DE202020105557U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

Vorrichtung zum Positionieren eines Internet-of-Things-, IoT, Geräts mit einer Augmented-Reality-, AR, Brille, die aufweist:
ein Zugriffsmodul, das derart ausgebildet ist, dass es auf eine Innenraumkarte (10) zugreift;
ein erstes Bestimmungsmodul, das derart ausgebildet ist, dass es eine AR-Position (16) der AR-Brille auf der Innenraumkarte (10) und eine Blickrichtung (18) der AR-Brille auf der Basis von Anfangsinformationen der AR-Brille bestimmt;
ein Empfangsmodul, das derart ausgebildet ist, dass es Nachverfolgungsinformationen bezüglich des zu positionierenden IoT-Geräts aus der AR-Brille empfängt; und
ein zweites Bestimmungsmodul, das derart ausgebildet ist, dass eine IoT-Position des zu positionierenden IoT-Geräts (12) anhand der bestimmten AR-Position und Blickrichtung (18) in Kombination mit den Nachverfolgungsinformationen der AR-Brille bestimmt.

Figure DE202020105557U1_0000
Device for positioning an Internet of Things, IoT, device with augmented reality, AR, glasses, which has:
an access module which is designed such that it accesses an interior card (10);
a first determination module which is designed such that it determines an AR position (16) of the AR glasses on the interior map (10) and a direction of view (18) of the AR glasses on the basis of initial information of the AR glasses;
a receiving module which is designed such that it receives tracking information relating to the IoT device to be positioned from the AR glasses; and
a second determination module which is designed such that an IoT position of the IoT device (12) to be positioned is determined based on the determined AR position and viewing direction (18) in combination with the tracking information of the AR glasses.
Figure DE202020105557U1_0000

Description

Hintergrundbackground

Der vorliegenden Offenbarung liegt die Aufgabe zugrunde, eine Vorrichtung zum Positionieren eines Internet-of-Things- (IoT) Geräts mit einer Augmented-Reality- (AR) Brille bereitzustellen. Ferner liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein System zum Positionieren von IoT-Geräten und ein Smart-Home-System mit einem solchen zur Positionierung vorgesehenen System bereitzustellen.The present disclosure is based on the object of providing a device for positioning an Internet of Things (IoT) device with augmented reality (AR) glasses. Furthermore, the present invention is based on the object of providing a system for positioning IoT devices and a smart home system with such a system provided for positioning.

Immer mehr häusliche Objekte werden heutzutage miteinander und mit dem Internet verbunden. Die Verbindung von IoT-Geräten mit dem Internet erfolgt üblicherweise durch ein Heimnetzwerk-Gateway, das für das Leiten von Mitteilungen zwischen Geräten oder von Geräten zu Geräten außerhalb des Heims (über das Internet) über viele unterschiedlich Typen von Netzwerken, wie z.B. Bluetooth, ZigBee oder WiFi, verantwortlich ist.Nowadays, more and more domestic objects are being connected to each other and to the Internet. IoT devices are typically connected to the Internet through a home network gateway which is used to route messages between devices or from devices to devices outside of the home (via the Internet) over many different types of networks, such as: Bluetooth, ZigBee or WiFi, is responsible.

Vom Standpunkt eines Benutzers aus betrachtet werden IoT-Geräte häufig durch mindestens ein Heimautomatisierungssystem gesteuert, das sowohl innerhalb des Heims (typischerweise über WiFi) oder von außerhalb des Heims (im Wesentlichen über Internet) gesteuert wird. Es kommt nicht selten vor, dass mehrere IoT-Geräte zu unterschiedlichen Heimautomatisierungs-Ökosystemen gehören und Benutzer manchmal zwischen unterschiedlichen Heimautomatisierungsanwendungen hin- und herwechseln müssen oder Überbrückungsanwendungen verwenden, die normalerweise komplex im Aufbau sind und nicht sämtliche Funktionalitäten der ursprünglichen Heimautomatisierungsanwendungen bieten.From a user's point of view, IoT devices are often controlled by at least one home automation system that is controlled both within the home (typically via WiFi) or from outside the home (essentially via the Internet). It is not uncommon for multiple IoT devices to belong to different home automation ecosystems and users sometimes have to switch back and forth between different home automation applications or use bridging applications that are usually complex in structure and do not provide all of the functionality of the original home automation applications.

Ferner wird es mit der steigenden Anzahl von häuslichen IoT-Geräten immer komplizierter, ein einzelnes Gerät von der Heimautomatisierungsanwendung aus zu bedienen.Furthermore, as the number of home IoT devices increases, it is becoming more and more complicated to operate a single device from the home automation application.

Bei einer ersten Lösung, die beim Stand der Technik vorgestellt worden ist, handelt es sich um Sprachsteuerungssysteme zum Steuern der IoT-Geräte.A first solution, which was presented in the prior art, involves voice control systems for controlling the IoT devices.

In jedem Fall ist die Position des IoT-Geräts zum korrekten Ansprechen des IoT-Geräts erforderlich. Eine Positionsanzeige von IoT-Geräten ist heutzutage bis zu einem gewissen Grad in jedem einzelnen Heimautomatisierungssystem vorhanden, sie ist aber immer nur auf Raumkategorisierungen beschränkt. Beispielsweise kann eine verbundene Glühlampe als Teil des Wohnzimmers identifiziert werden, es gibt jedoch keinerlei Informationen darüber, wo genau im Wohnzimmer sich die Lampe befindet. Und wenn es mehrere Lampen gibt, wird es unmöglich, diese zu unterscheiden, es sei denn, der Benutzer hat ihnen zweckmäßigerweise unterschiedliche Bezeichnungen zugeordnet, die sich der Benutzer merken muss und die an alle Benutzer des Heimautomatisierungssystems weitergegeben werden müssen.In any case, the position of the IoT device is necessary for the correct addressing of the IoT device. A position display for IoT devices is now available to a certain extent in every single home automation system, but it is always limited to room categorization. For example, a connected incandescent lamp can be identified as part of the living room, but there is no information whatsoever about exactly where in the living room the lamp is located. And when there are several lamps, it becomes impossible to distinguish them unless the user has conveniently assigned them different names which the user must remember and which must be passed on to all users of the home automation system.

Ferner bieten Heimautomatisierungssysteme üblicherweise nur sehr wenige Informationen über die räumlichen Gegebenheiten des Heims; sie wissen höchstens, wie viele Räume vorhanden sind. Nur ein IoT-Gerät besitzt heutzutage solche Kenntnisse: der verbundene Staubsaugerroboter, der typischerweise das Heim abrastert, um seinen Saugweg besser zu definieren. Obwohl jedoch eine solche Heimkarte oder Innenraumkarte erzeugt wird, wird diese nicht mit anderen Geräten oder mit dem Heimautomatisierungssystem geteilt. In der Zukunft ist ferner vorhersehbar, dass andere IoT-Geräte, wie z.B. eine Videokamera mit ToF- (Time-of-Flight) Sensoren ebenfalls in der Lage sein werden, solche Innenraumkarten zu erstellen oder zumindest Hilfestellung bei der Erstellung zu bietenFurthermore, home automation systems usually offer very little information about the spatial conditions of the home; at most they know how many rooms there are. Only one IoT device has such knowledge these days: the connected vacuum cleaner robot, which typically scans the home to better define its suction path. However, although such a home map or indoor map is created, it is not shared with other devices or with the home automation system. In the future it is also foreseeable that other IoT devices, such as a video camera with ToF (Time-of-Flight) sensors will also be able to create such interior maps or at least provide assistance in creating them

Somit sind für eine bessere Steuerung von IoT-Geräten exakte Positionen der IoT-Geräte erforderlich. Das Positionieren, d.h. die anfängliche Bestimmung der Position eines neu implementierten IoT-Geräts, und das anschließende Lokalisieren von bereits positionierten IoT-Geräten werden für eine effiziente Steuerung von Heimautomatisierungssystemen ausschlaggebend sein.Thus, for better control of IoT devices, exact positions of the IoT devices are required. The positioning, i.e. The initial determination of the location of a newly implemented IoT device and the subsequent location of already positioned IoT devices will be crucial for the efficient control of home automation systems.

Daher liegt der vorliegenden Offenbarung die Aufgabe zugrunde, eine Vorrichtung zum Positionieren von IoT-Geräten bereitzustellen.The present disclosure is therefore based on the object of providing a device for positioning IoT devices.

Überblickoverview

Bei einem Aspekt der vorliegenden Offenbarung ist eine Vorrichtung zum Positionieren eines Internet-of-Things-, IoT, Geräts mit einer AR-Brille vorgesehen, die aufweist:

  • ein Zugriffsmodul, das derart ausgebildet ist, dass es auf eine Innenraumkarte zugreift;
  • ein erstes Bestimmungsmodul, das derart ausgebildet ist, dass es eine AR-Position der AR-Brille auf der Innenraumkarte und eine Blickrichtung der AR-Brille auf der Basis von Anfangsinformationen der AR-Brille bestimmt;
  • ein erstes Empfangsmodul, das derart ausgebildet ist, dass es Nachverfolgungsinformationen bezüglich des zu positionierenden IoT-Geräts aus der AR-Brille empfängt; und
  • ein zweites Bestimmungsmodul, das derart ausgebildet ist, dass eine IoT-Position des zu positionierenden IoT-Geräts anhand der bestimmten AR-Position und der Blickrichtung in Kombination mit den Nachverfolgungsinformationen der AR-Brille bestimmt.
In one aspect of the present disclosure, an apparatus for positioning an Internet-of-Things, IoT, device with AR glasses is provided, which has:
  • an access module which is designed such that it accesses an interior map;
  • a first determination module which is designed such that it determines an AR position of the AR glasses on the interior map and a viewing direction of the AR glasses on the basis of initial information of the AR glasses;
  • a first receiving module which is designed such that it receives tracking information relating to the IoT device to be positioned from the AR glasses; and
  • a second determination module which is designed such that an IoT position of the to positioning IoT device based on the determined AR position and viewing direction in combination with the tracking information of the AR glasses.

Dabei ist die Augmented Reality eine reale Umgebungserfahrung, bei der weitere Informationen mit virtuellen Elementen, wie z.B. Grafiken, Videos, Animationen und dergleichen dargestellt werden. Dabei werden die virtuellen Elemente von der AR-Brille über eine visuelle Wahrnehmung für den Benutzer bereitgestellt.Augmented Reality is a real environment experience in which further information is provided with virtual elements, such as Graphics, videos, animations and the like are displayed. The virtual elements of the AR glasses are made available to the user via visual perception.

Ferner umfassen IoT-Geräte sämtliche Arten von kleinen/persönlichen Geräten, die mit dem Internet verbunden sind. Diese können Heimgeräte, wie z.B. Furthermore, IoT devices include all types of small / personal devices that are connected to the Internet. These can be home devices such as

Glühlampen, Fernseher, Staubsauger und dessen Andockstation, Sound-Geräte, Smart-TVs, Küchengeräte und dergleichen umfassen, sind bei der vorliegenden Offenbarung jedoch nicht eingeschränkt. Die IoT-Geräte können unterschiedliche Funktionalitäten haben, die über die Internetverbindung gesteuert werden können. Üblicherweise läuft eine Softwareanwendung auf einem Endgerät eines Benutzers, die eine Konnektivität der Funktionen der IoT-Geräte bereitstellt.Incandescent lamps, televisions, vacuum cleaners and their docking stations, sound devices, smart TVs, kitchen appliances, and the like, include, but are not limited to, the present disclosure. The IoT devices can have different functionalities that can be controlled via the internet connection. A software application usually runs on a user's terminal device that provides connectivity for the functions of the IoT devices.

Ferner ist die Innenraumkarte eine Karte eines Heims, die die relativen Positionen zwischen Objekten auf einer Innenraumkarte zeigt. Somit wird auf eine Innenraumkarte zugegriffen, die zum Bestimmen der AR-Position und einer Blickrichtung der AR-Brille auf der Innenraumkarte verwendet wird, wobei die AR-Position und Blickrichtung der AR-Brille auf den Anfangsinformationen der AR-Brille basieren. Vorzugsweise weist die AR-Brille mindestens einen Sensor zum Erfassen der Anfangsinformationen auf. Der mindestens eine Sensor kann ein Kompass, ein Gyrometer und/oder ein Beschleunigungsmesser zum Bestimmen einer Bewegung/Drehung der AR-Brille und insbesondere eines Drehwinkels zumindest in der horizontalen Ebene sein. Somit kann mittels des Sensors in der AR-Brille vorzugsweise ein Winkel zwischen einer ersten Blickrichtung und einer zweiten Blickrichtung als Anfangsinformationen zum Bestimmen der AR-Position auf der Innenraumkarte und der Blickrichtung der AR-Brille bestimmt werden.Furthermore, the interior map is a map of a home showing the relative positions between objects on an interior map. An interior map is thus accessed, which is used to determine the AR position and a viewing direction of the AR glasses on the interior map, the AR position and viewing direction of the AR glasses being based on the initial information of the AR glasses. The AR glasses preferably have at least one sensor for capturing the initial information. The at least one sensor can be a compass, a gyrometer and / or an accelerometer for determining a movement / rotation of the AR glasses and in particular an angle of rotation at least in the horizontal plane. Thus, by means of the sensor in the AR glasses, an angle between a first viewing direction and a second viewing direction can preferably be determined as initial information for determining the AR position on the interior map and the viewing direction of the AR glasses.

Zum Bestimmen der IoT-Position und eines IoT-Geräts durch die Vorrichtung empfängt die AR-Brille Nachverfolgungsinformationen bezüglich des zu positionierenden IoT-Geräts. Dabei wird zum Erfassen der Nachverfolgungsinformationen vorzugsweise die AR-Brille von dem Benutzer dadurch auf das IoT-Gerät gerichtet, dass er in die Richtung des zu positionierenden IoT-Geräts schaut. Aus der AR-Position und der Blickrichtung der AR-Brille in Kombination mit den erfassten Nachverfolgungsinformationen bezüglich des zu positionierenden IoT-Geräts, die von der AR-Brille erfasst werden, wird die IoT-Position des zu positionierenden IoT-Geräts bestimmt.To determine the IoT position and an IoT device by the device, the AR glasses receive tracking information relating to the IoT device to be positioned. To acquire the tracking information, the AR glasses are preferably aimed at the IoT device by the user by looking in the direction of the IoT device to be positioned. The IoT position of the IoT device to be positioned is determined from the AR position and the viewing direction of the AR glasses in combination with the recorded tracking information relating to the IoT device to be positioned, which is recorded by the AR glasses.

Somit wird die AR-Brille zum Bestimmen der IoT-Position des IoT-Geräts auf der Innenraumkarte verwendet. Damit jedoch die IoT-Position des IoT-Geräts bestimmt werden kann, müssen zunächst die AR-Position und die Blickrichtung der AR-Brille auf der Innenraumkarte anhand der Anfangsinformationen der AR-Brille bestimmt werden. Somit wird die Positionierung des IoT-Geräts erleichtert, und es ist nicht mehr erforderlich, das IoT-Gerät manuell auf einer Innenraumkarte zu positionieren oder die Position des IoT-Geräts manuell dem IoT-Gerät zuzuordnen. Somit können korrekt positionierte IoT-Geräte bei der Steuerung leichter angesprochen werden. Insbesondere wäre es möglich, das IoT-Gerät direkt auf der Innenraumkarte auf dem Endgerät des Benutzers anzugeben. Somit können zum Beispiel gleiche IoT-Geräte (zwei Glühlampen in einem Raum) leicht voneinander unterschieden werden und von dem Benutzer korrekt angesprochen und gesteuert werden.The AR glasses are thus used to determine the IoT position of the IoT device on the interior map. However, so that the IoT position of the IoT device can be determined, the AR position and the viewing direction of the AR glasses on the interior map must first be determined using the initial information of the AR glasses. This makes it easier to position the IoT device and it is no longer necessary to manually position the IoT device on an interior map or to manually assign the position of the IoT device to the IoT device. This means that correctly positioned IoT devices can be addressed more easily during control. In particular, it would be possible to specify the IoT device directly on the interior map on the user's end device. Thus, for example, the same IoT devices (two light bulbs in one room) can be easily distinguished from one another and correctly addressed and controlled by the user.

Vorzugsweise weist das erste Bestimmungsmodul auf:

  • ein erstes Empfangssubmodul, das derart ausgebildet ist, dass es eine Benutzereingabe auf einem Endgerät empfängt, die die AR-Position der AR-Brille auf der Innenraumkarte und die Blickrichtung angibt.
The first determination module preferably has:
  • a first receiving submodule, which is designed such that it receives a user input on a terminal that indicates the AR position of the AR glasses on the interior map and the viewing direction.

Somit wird durch die Benutzereingabe die AR-Position der AR-Brille auf der Innenraumkarte bereitgestellt. Die Benutzereingabe kann eine Berührungseingabe oder eine andere Klick- oder Markierungseingabe der Position auf dem Endgerät sein. Vorzugsweise wird die AR-Position direkt auf der auf dem Endgerät angezeigten Innenraumkarte angegeben. Ferner kann die aktuelle Blickrichtung durch Zeigen auf ein Objekt im aktuellen Blickfeld des Benutzers oder durch Ziehen auf dem Endgerät ausgehend von der AR-Position der AR-Brille in Richtung der Blickrichtung eingegeben werden. Vorzugsweise wird die Blickrichtung direkt auf der auf dem Endgerät angezeigten Innenraumkarte angegeben. Somit werden durch die Benutzereingabe auf dem Endgerät die AR-Position und Blickrichtung der AR-Brille auf einfache Weise bereitgestellt, die zum Bestimmen der IoT-Position des zu positionierenden IoT-Geräts verwendet werden können. The AR position of the AR glasses on the interior map is thus provided by the user input. The user input can be a touch input or some other click or mark input of the position on the terminal. The AR position is preferably indicated directly on the interior map displayed on the terminal. Furthermore, the current viewing direction can be entered by pointing to an object in the user's current field of vision or by dragging on the terminal, starting from the AR position of the AR glasses in the direction of the viewing direction. The viewing direction is preferably indicated directly on the interior map displayed on the terminal. The AR position and viewing direction of the AR glasses are thus provided in a simple manner through the user input on the terminal, which can be used to determine the IoT position of the IoT device to be positioned.

Vorzugsweise weist das erste Bestimmungsmodul auf:

  • ein zweites Empfangssubmodul, das derart ausgebildet ist, dass es Nachverfolgungsinformationen bezüglich mindestens dreier Anker von der AR-Brille empfängt, wobei die Ankerpositionen der mindestens drei Anker auf der Innenraumkarte bekannt sind;
  • ein erstes Bestimmungssubmodul, das derart ausgebildet ist, dass es Winkel zwischen jeweils zwei der mindestens drei Ankerpunkte anhand der jeweiligen Nachverfolgungsinformationen bestimmt; und
  • ein zweites Bestimmungssubmodul, das derart ausgebildet ist, dass es die AR-Position und Blickrichtung der AR-Brille anhand der Winkel bestimmt.
The first determination module preferably has:
  • a second receiving sub-module which is designed such that it receives tracking information relating to at least three anchors from the AR glasses, the anchor positions the at least three anchors on the interior map are known;
  • a first determination sub-module which is designed such that it determines angles between two of the at least three anchor points on the basis of the respective tracking information; and
  • a second determination sub-module which is designed such that it determines the AR position and viewing direction of the AR glasses on the basis of the angle.

Vorzugsweise werden die Nachverfolgungsinformationen der mindestens drei Anker aus der AR-Brille empfangen, wobei die AR-Brille in derselben Position bleibt. Somit wird die Position der AR-Brille festgelegt, wobei nur die Blickrichtung der AR-Brille verändert wird, um die Nachverfolgungsinformationen der mindestens drei Anker zu empfangen. Dabei können die Anker jeder Punkt in der realen Umgebung des Benutzers sein, wobei die Position der Anker auf der Innenraumkarte bekannt ist. Durch Schauen auf einen dieser Ankerpunkte werden Nachverfolgungsinformationen aus der AR-Brille empfangen. Vorzugsweise werden als von der AR-Brille empfangene Nachverfolgungsinformationen Winkel zwischen den mindestens drei Ankern bestimmt. Somit werden mindestens zwei Winkel bestimmt, d.h. ein erster Winkel zwischen dem ersten und dem zweiten Anker und ein zweiter Winkel zwischen dem zweiten und dem dritten Anker. Vorzugsweise werden diese Winkel durch den Beschleunigungsmesser oder das Gyrometer, die in der AR-Brille implementiert sind, bestimmt. Anhand der bestimmten Winkel können die AR-Position und die Blickrichtung der AR-Brille bestimmt werden.The tracking information of the at least three anchors is preferably received from the AR glasses, the AR glasses remaining in the same position. The position of the AR glasses is thus established, with only the viewing direction of the AR glasses being changed in order to receive the tracking information of the at least three anchors. The anchors can be any point in the user's real environment, the position of the anchors on the interior map being known. By looking at one of these anchor points, tracking information is received from the AR glasses. Angles between the at least three anchors are preferably determined as tracking information received by the AR glasses. Thus, at least two angles are determined, i.e. a first angle between the first and second anchors and a second angle between the second and third anchors. These angles are preferably determined by the accelerometer or the gyrometer implemented in the AR glasses. The AR position and the viewing direction of the AR glasses can be determined on the basis of the specific angles.

Vorzugsweise weist das erste Bestimmungsmodul auf:

  • ein drittes Empfangssubmodul, das derart ausgebildet ist, dass es Nachverfolgungsinformationen bezüglich des ersten Ankers und mindestens eines zweiten Ankers aus der AR-Brille empfängt, wobei sich zumindest der erste Anker bewegt und Ankerpositionen des ersten Ankers und des mindestens eines zweiten Ankers auf der Innenraumkarte bekannt sind;
  • ein drittes Bestimmungssubmodul, das derart ausgebildet ist, dass es einen zweiten Winkel zwischen dem ersten Anker und dem zweiten Anker zu einem zweiten Zeitpunkt bestimmt, wobei sich die Ankerposition zumindest des ersten Ankers zum zweiten Zeitpunkt von der Ankerposition zumindest des ersten Ankers zum ersten Zeitpunkt unterscheidet;
  • ein viertes Bestimmungssubmodul, das derart ausgebildet ist, dass es die AR-Position und Blickrichtung der AR-Brille anhand des ersten Winkels und des zweiten Winkels bestimmt.
The first determination module preferably has:
  • a third receiving sub-module which is designed such that it receives tracking information regarding the first anchor and at least one second anchor from the AR glasses, wherein at least the first anchor moves and anchor positions of the first anchor and the at least one second anchor are known on the interior map are;
  • a third determination sub-module which is designed such that it determines a second angle between the first anchor and the second anchor at a second point in time, the anchor position of at least the first anchor at the second point in time differing from the anchor position of at least the first anchor at the first point in time ;
  • a fourth determination sub-module which is designed such that it determines the AR position and viewing direction of the AR glasses on the basis of the first angle and the second angle.

Somit bewegt sich der erste Anker, wobei die Ankerposition auf der Innenraumkarte bekannt ist. Die Nachverfolgungsinformationen des ersten Ankers können zu einem ersten Zeitpunkt und einem zweiten Zeitpunkt zum Bestimmen eines ersten Winkels und eines zweiten Winkels verwendet werden, wobei anhand der Winkel die AR-Position und Blickrichtung der AR-Brille bestimmt werden können. Somit sind nur zwei Anker erforderlich, wobei sich mindestens ein Anker mit einer bekannten Position auf der Innenraumkarte bewegt.Thus, the first anchor moves, the anchor position on the interior map being known. The tracking information of the first anchor can be used at a first point in time and a second point in time to determine a first angle and a second angle, wherein the AR position and line of sight of the AR glasses can be determined based on the angle. Thus, only two anchors are required, with at least one anchor moving with a known position on the interior map.

Vorzugsweise sind das erste Bestimmungssubmodul und/oder das dritte Bestimmungssubmodul und/oder das vierte Bestimmungssubmodul ferner derart ausgebildet, dass sie die Richtung/das Vorzeichen des Winkels zwischen zwei der Anker bestimmen. Somit werden Anfangsinformationen darüber erfasst, ob der Winkel zwischen zwei der Anker durch eine Drehung der AR-Brille von links nach rechts oder rechts nach links bestimmt wird. Diese zusätzlichen Informationen können zum Bestimmen der Position und Blickrichtung der AR-Brille verwendet werden. Dabei wird vorzugsweise die Richtung (oder mathematisch das Vorzeichen) der Winkel auf der Basis von Sensordaten, wie z.B. Sensordaten des Gyrometers, Beschleunigungsmessers oder Kompasses der AR-Brille, bestimmt.The first determination sub-module and / or the third determination sub-module and / or the fourth determination sub-module are preferably also designed such that they determine the direction / the sign of the angle between two of the anchors. Thus, initial information is recorded about whether the angle between two of the anchors is determined by turning the AR glasses from left to right or right to left. This additional information can be used to determine the position and viewing direction of the AR glasses. The direction (or mathematically the sign) of the angles is preferably determined on the basis of sensor data, e.g. Sensor data of the gyrometer, accelerometer or compass of the AR glasses.

Vorzugsweise weist mindestens ein Anker eine für die AR-Brille erkennbare AR-Markierung zum Identifizieren des Ankers auf. Somit kann eine automatische oder zumindest halbautomatische Erkennung des Ankers vereinfacht werden. Mittels der AR-Markierung wird der Anker eindeutig identifiziert. Daher kann die Position des Ankers auf der Innenraumkarte der automatisch von der AR-Brille erkannten AR-Markierung zugeordnet werden.At least one anchor preferably has an AR marking that can be recognized by the AR glasses for identifying the anchor. Automatic or at least semi-automatic recognition of the anchor can thus be simplified. The anchor is clearly identified by means of the AR marking. Therefore, the position of the anchor on the interior map can be assigned to the AR marking automatically recognized by the AR glasses.

Vorzugsweise wird mindestens ein Anker durch Bilderkennung von der AR-Brille identifiziert. Somit kann die automatische oder zumindest halbautomatische Erkennung der Anker vereinfacht werden. Dabei können Anker einzigartige häusliche Objekte, wie z.B. ein Fernseher, ein Kühlschrank, ein Ofen oder dergleichen, sein. Diese Objekte können von der AR-Brille erkannt und dann als Anker zum Bestimmen der Position und der Blickrichtung der AR-Brille verwendet werden.At least one anchor is preferably identified by image recognition from the AR glasses. The automatic or at least semi-automatic recognition of the anchor can thus be simplified. Anchors can create unique domestic objects such as a television, refrigerator, stove or the like. These objects can be recognized by the AR glasses and then used as anchors to determine the position and the viewing direction of the AR glasses.

Vorzugsweise werden von einem Kompassinformationsmodul Kompassinformationen der AR-Brille bestimmt, und die Innenraumkarte wird entsprechend den Kompassinformationen ausgerichtet. Vorzugsweise weist die AR-Brille einen Kompass zum Erzeugen von Kompassinformationen auf, die für eine Ausrichtung der Innenraumkarte, die üblicherweise keine Kompassinformationen enthält, verwendet werden können. Dann wird die Innenraumkarte entsprechend den Kompassinformationen ausgerichtet und wird die Ausrichtung der Innenraumkarte zur weiteren Verwendung festgelegt. Eine anschließende Bestimmung der Position und der Blickrichtung der AR-Brille kann dann durch korrektes Ausrichten der Innenraumkarte vereinfacht werden. Dadurch kann das Bestimmen der Position und der Blickrichtung der AR-Brille erleichtert werden oder kann die Genauigkeit der Position und Blickrichtung durch die zusätzlichen Kompassinformationen erhöht werden.Compass information of the AR glasses is preferably determined by a compass information module, and the interior map is aligned in accordance with the compass information. The AR glasses preferably have a compass Generating compass information that can be used for an alignment of the interior map, which usually does not contain compass information. Then the interior map is oriented according to the compass information and the orientation of the interior map is determined for further use. A subsequent determination of the position and the viewing direction of the AR glasses can then be simplified by correctly aligning the interior map. As a result, the determination of the position and the viewing direction of the AR glasses can be made easier or the accuracy of the position and viewing direction can be increased by the additional compass information.

Vorzugsweise weist das erste Bestimmungsmodul auf: ein sechstes Bestimmungssubmodul, das derart ausgebildet ist, dass es Winkel zwischen mindestens zwei Ankern und/oder eine Richtung jedes Winkels zwischen jeweils zwei von mindestens zwei Ankern entsprechend den Kompassinformationen bestimmt.The first determination module preferably has: a sixth determination sub-module, which is designed such that it determines angles between at least two anchors and / or a direction of each angle between two of at least two anchors in accordance with the compass information.

Vorzugsweise werden die Anker von einem oder mehreren IoT-Geräten bereitgestellt. Somit werden vorzugsweise die IoT-Geräte mit den AR-Markierungen markiert. Diese AR-Markierungen können insbesondere vom Hersteller der IoT-Geräte bereitgestellt werden, um die Positionierung der IoT-Geräte zu erleichtern. Auf im Wesentlichen gleiche Weise ist die Erscheinung der IoT-Geräte dem Hersteller der IoT-Geräte bekannt, wobei diese Informationen von der Bilderkennung zum automatischen Erkennen der IoT-Geräte durch die AR-Brille verwendet werden können.The anchors are preferably provided by one or more IoT devices. Thus, the IoT devices are preferably marked with the AR markings. These AR markings can in particular be provided by the manufacturer of the IoT devices in order to facilitate the positioning of the IoT devices. In essentially the same way, the appearance of the IoT devices is known to the manufacturer of the IoT devices, whereby this information can be used by the image recognition for the automatic recognition of the IoT devices through the AR glasses.

Vorzugsweise wird die Innenraumkarte von einem Staubsauger und/oder einer Überwachungskamera bereitgestellt. Vorzugsweise ist die Überwachungskamera eine beliebige Kamera, die eine Time-of-Flight-Kamera, eine Stereokamera oder jedes andere optische Gerät, das 3D-Informationen bereitstellt, wie z.B. LIDAR (light detecting and ranging) oder dergleichen, aufweist.The interior map is preferably provided by a vacuum cleaner and / or a surveillance camera. Preferably, the surveillance camera is any camera that can be a time-of-flight camera, a stereo camera or any other optical device that provides 3D information, e.g. LIDAR (light detecting and ranging) or the like.

Vorzugsweise weist das zweite Bestimmungsmodul auf: ein siebtes Bestimmungssubmodul, das derart ausgebildet ist, dass es eine erste Blickrichtung der AR-Brille von einer ersten AR-Position zu dem zu positionierenden IoT-Gerät bestimmt;

  • ein achtes Bestimmungssubmodul, das derart ausgebildet ist, dass es zumindest eine zweite Blickrichtung der AR-Brille von einer zweiten AR-Position zu dem zu positionierenden IoT-Gerät bestimmt;
  • ein neuntes Bestimmungssubmodul, das derart ausgebildet ist, dass es anhand der ersten AR-Position, der ersten Blickrichtung, der zweiten AR-Position und der zweiten Blickrichtung die IoT-Position des zu positionierenden IoT-Geräts auf der Innenraumkarte bestimmt.
The second determination module preferably has: a seventh determination sub-module that is designed such that it determines a first viewing direction of the AR glasses from a first AR position to the IoT device to be positioned;
  • an eighth determination sub-module which is designed in such a way that it determines at least one second viewing direction of the AR glasses from a second AR position to the IoT device to be positioned;
  • a ninth determination sub-module which is designed such that it determines the IoT position of the IoT device to be positioned on the interior map using the first AR position, the first viewing direction, the second AR position and the second viewing direction.

Vorzugsweise wird zusätzlich eine dritte Blickrichtung der AR-Brille von einer dritten AR-Position zu dem zu positionierenden IoT-Gerät verwendet, insbesondere wenn keine Kompassinformationen zur Verfügung stehen. In diesem Fall wird die IoT-Position des zu positionierenden IoT-Geräts analog zu der Implementierung von jeweiligen Modulen bestimmt, die derart ausgebildet sind, dass sie die AR-Position der AR-Brille bestimmen, wie vorstehend und nachstehend beschrieben. Somit wird mittels der AR-Brille mit bekannter AR-Position und Blickrichtung das Positionieren eines IoT-Geräts mit unbekannter Position auf der Innenraumkarte vereinfacht. Diese IoT-Position des IoT-Geräts kann dem IoT-Gerät zugeordnet, zur Steuerung des IoT-Geräts verwendet und/oder gespeichert werden. Vorzugsweise kann beim Bestimmen der IoT-Position des IoT-Geräts dieses IoT-Gerät als Anker zum weiteren Bestimmen einer AR-Position und eines Blickwinkels der AR-Brille verwendet werden.A third viewing direction of the AR glasses from a third AR position to the IoT device to be positioned is preferably also used, in particular if no compass information is available. In this case, the IoT position of the IoT device to be positioned is determined analogously to the implementation of respective modules which are designed such that they determine the AR position of the AR glasses, as described above and below. Positioning an IoT device with an unknown position on the interior map is thus simplified by means of the AR glasses with a known AR position and line of sight. This IoT position of the IoT device can be assigned to the IoT device, used to control the IoT device and / or saved. When determining the IoT position of the IoT device, this IoT device can preferably be used as an anchor for further determining an AR position and a viewing angle of the AR glasses.

Vorzugsweise weist das zweite Bestimmungsmodul ferner auf: ein zehntes Bestimmungssubmodul zum Bestimmen der ersten Blickrichtung und der zweiten Blickrichtung auf der Basis der Kompassinformationen.The second determination module preferably further comprises: a tenth determination sub-module for determining the first viewing direction and the second viewing direction based on the compass information.

Bei einem weiteren Aspekt ist ein Positionierungssystem vorgesehen, das die oben beschriebene Vorrichtung und die mit der Vorrichtung verbundene AR-Brille aufweist. Dabei erfolgt die Verbindung der Vorrichtung und der AR-Brille drahtlos oder über eine Drahtverbindung.In a further aspect, a positioning system is provided that includes the device described above and the AR glasses connected to the device. The device and the AR glasses are connected wirelessly or via a wire connection.

Bei einem weiteren Aspekt ist ein Smart-Home-System vorgesehen, das eine Vielzahl von IoT-Geräten und ein Positionierungssystem wie oben beschrieben aufweist.In a further aspect, a smart home system is provided that has a plurality of IoT devices and a positioning system as described above.

Somit wird durch die vorliegende Vorrichtung das Positionieren eines IoT-Geräts durch Verwendung einer AR-Brille vereinfacht. Dabei werden zunächst die AR-Position und die Blickrichtung der AR-Brille auf einer Innenraumkarte, auf die zugegriffen wird, bestimmt, und diese Informationen werden zum Bestimmen der IoT-Position des zu positionierenden IoT-Geräts verwendet. Somit ist es nicht länger erforderlich, die Position des IoT-Geräts manuell anzugeben. Mittels der bekannten IoT-Position des IoT-Geräts kann die Steuerung der IoT-Geräte innerhalb einer Heimautomatisierungsanwendung leicht kontrolliert werden und wird die Identifizierung der einzelnen IoT-Geräte innerhalb der Heimautomatisierungsanwendung durch die bekannte IoT-Position erleichtert. Somit können selbst dann, wenn gleiche oder im Wesentlichen gleiche IoT-Geräte in nur einem Raum mehr als einmal vorhanden sind, diese IoT-Geräte anhand ihrer exakten Position eindeutig voneinander unterschieden werden.The present device thus simplifies the positioning of an IoT device by using AR glasses. First, the AR position and the direction of view of the AR glasses are determined on an interior map that is being accessed, and this information is used to determine the IoT position of the IoT device to be positioned. It is no longer necessary to manually specify the location of the IoT device. Using the known IoT position of the IoT device, the control of the IoT devices within a home automation application can be easily controlled and the identification of the individual IoT devices within the home automation application is facilitated by the known IoT position. Thus, even if the same or in If essentially the same IoT devices are present more than once in just one room, these IoT devices can be clearly distinguished from one another based on their exact position.

FigurenlisteFigure list

Es wird nun beispielhaft auf die beiliegenden Zeichnungen Bezug genommen, die Ausführungsbeispiele der vorliegenden Anmeldung zeigen. In den Figuren zeigen:

  • 1 ein erstes Beispiel gemäß der vorliegenden Offenbarung,
  • 2 eine beispielhafte Innenraumkarte gemäß der vorliegenden Offenbarung,
  • 3 ein detailliertes Beispiel gemäß der vorliegenden Offenbarung,
  • 4 ein detailliertes Beispiel zum Bestimmen der AR-Position und Blickrichtung der AR-Brille,
  • 5 ein detailliertes Beispiel gemäß der vorliegenden Offenbarung,
  • 6 eine schematische Darstellung zum Bestimmen der AR-Position und Blickrichtung der AR-Brille gemäß der vorliegenden Offenbarung,
  • 7 eine schematische Darstellung zur Berechnung der AR-Position der AR-Brille,
  • 8 ein detailliertes Beispiel gemäß der vorliegenden Offenbarung,
  • 9 ein detailliertes Beispiel gemäß der vorliegenden Offenbarung,
  • 10 eine beispielhafte Darstellung zur Berechnung der IoT-Position des zu positionierenden IoT-Geräts, und
  • 11 eine Datenverarbeitungseinrichtung gemäß der vorliegenden Offenbarung.
Reference will now be made, by way of example, to the accompanying drawings showing embodiments of the present application. In the figures show:
  • 1 a first example according to the present disclosure,
  • 2 an exemplary interior map in accordance with the present disclosure;
  • 3 a detailed example according to the present disclosure,
  • 4th a detailed example for determining the AR position and viewing direction of the AR glasses,
  • 5 a detailed example according to the present disclosure,
  • 6th a schematic representation for determining the AR position and viewing direction of the AR glasses according to the present disclosure,
  • 7th a schematic representation for calculating the AR position of the AR glasses,
  • 8th a detailed example according to the present disclosure,
  • 9 a detailed example according to the present disclosure,
  • 10 an exemplary representation for calculating the IoT position of the IoT device to be positioned, and
  • 11 a data processing device according to the present disclosure.

Detaillierte Beschreibung der AusführungsformenDetailed description of the embodiments

Die vorliegende Anmeldung beschreibt eine Vorrichtung zum Bestimmen der Position eines IoT-Geräts auf einer Innenraumkarte, die im Folgenden als IoT-Position bezeichnet wird. Dabei wird eine AR-Brille zum Positionieren des IoT-Geräts verwendet. Zum Bestimmen der IoT-Position des IoT-Geräts müssen die Position und Blickrichtung der AR-Brille auf der Innenraumkarte bestimmt werden. Dabei wird im Folgenden die Position der AR-Brille als AR-Position bezeichnet.The present application describes a device for determining the position of an IoT device on an interior map, which is referred to below as the IoT position. AR glasses are used to position the IoT device. To determine the IoT position of the IoT device, the position and viewing direction of the AR glasses must be determined on the interior map. The position of the AR glasses is referred to as the AR position in the following.

Einige IoT-Geräte sind heutzutage bereits in Heimautomatisierungssystemen vorhanden, die eine Innenraumkarte zum Durchführen ihrer Aufgaben erzeugen. Diese Karten werden jedoch nicht mit anderen IoT-Geräten geteilt und werden üblicherweise nicht mit dem Heimautomatisierungssystem geteilt. Somit ist derzeit die exakte Position von IoT-Geräten innerhalb des Heimautomatisierungssystems nicht bekannt oder wird nicht zum Steuern der IoT-Geräte verwendet.Some IoT devices are already present in home automation systems today that generate an indoor map to perform their tasks. However, these cards are not shared with other IoT devices and are typically not shared with the home automation system. Thus, the exact position of IoT devices within the home automation system is currently not known or is not used to control the IoT devices.

Eines der IoT-Geräte, das in der Lage ist, eine Innenraumkarte zu erzeugen, ist ein Staubsaugerroboter. In vielen Heimautomatisierungssystemen, die einen Staubsaugerroboter aufweisen, ist der Roboter in der Lage, das Heim (typischerweise mit SLAM-Laser) abzutasten und eine Karte des Heims zu erstellen, um seine Aufgaben zu erfüllen. Ein Beispiel für eine Innenraumkarte 10 ist in 2 gezeigt. Auf der Innenraumkarte 10 sind ein Staubsaugerroboter 12 und eine Andockstation 14 gezeigt. Ferner zeigt die Innenraumkarte beispielhaft die Bewegungsbahn des Staubsaugerroboters 10, die den Staubsaugerroboter um Objekte herumführt, während der gesamte Bereich gereinigt wird. Eine solche Karte wird typischerweise nur von dem Staubsaugerroboter zum Definieren eines optimale Saugwegs im Heim verwendet, wobei Benutzern eine klare Darstellung des Wegs, dem der Staubsauger folgt, geboten wird.One of the IoT devices that is able to generate an interior map is a vacuum cleaner robot. In many home automation systems that include a vacuum cleaner robot, the robot is able to scan the home (typically with a SLAM laser) and map the home to accomplish its tasks. An example of an interior map 10 is in 2 shown. On the interior map 10 are a vacuum cleaner robot 12 and a docking station 14th shown. The interior map also shows the movement path of the vacuum cleaner robot as an example 10 that moves the robot hoover around objects while cleaning the entire area. Such a map is typically only used by the robot vacuum cleaner to define an optimal vacuum path in the home, providing users with a clear representation of the path the vacuum cleaner is following.

Mit der steigenden Anzahl von häuslichen IoT-Geräten wird es vorteilhaft, dass sich sämtliche IoT-Geräte eine solche Karte teilen und jedes von ihnen auf der Karte zu positionieren. Dadurch wird Benutzern ein visueller Zugriff auf ihre IoT-Geräte durch die Heimautomatisierungsanwendung ermöglicht, statt dass sie das IoT-Gerät auf einer Liste von Räumen oder Geräten finden müssen.As the number of domestic IoT devices increases, it becomes advantageous that all IoT devices share such a map and position each of them on the map. This enables users to visually access their IoT devices through the home automation application instead of having to find the IoT device on a list of rooms or devices.

Zum Beispiel enthält das Heim mehrere Glühlampen, einen Satz von Lautsprechern, ein TV-Gerät und einen Staubsauger, die alle über die Heimautomatisierungsanwendung bedient werden können. Das Bedienen von Glühlampen ist üblicherweise ein mühsamer Vorgang, wenn es mehrere Glühlampen in dem Heim gibt, da der Benutzer zunächst in der Anwendung genau identifizieren muss, welche Glühlampe er bedienen möchte.For example, the home contains several light bulbs, a set of speakers, a TV, and a vacuum cleaner, all of which can be operated from the home automation application. Operating incandescent lamps is usually a tedious process when there are several incandescent lamps in the home, since the user must first identify exactly in the application which incandescent lamp he wishes to operate.

Somit wird es durch Verwendung einer Karte, die die exakte Position des IoT-Geräts, wie z.B. einer Glühlampe, angibt, möglich, auf das gewünschte IoT-Gerät zu weisen und dieses anzuklicken, um das IoT-Gerät zu aktivieren, d.h. ei nzuscha lten.Thus, by using a map showing the exact location of the IoT device such as a light bulb, indicates, possible to point to the desired IoT device and to click on it to activate the IoT device, i.e. switch it on.

Mit der vorliegenden Offenbarung wird eine Vorrichtung bereitgestellt, die derart ausgebildet ist, dass sie die IoT-Position von IoT-Geräten mittels einer AR-Brille bestimmt. Zum Bestimmen der IoT-Position der IoT-Geräte auf der Innenraumkarte muss jedoch zunächst eine Bestimmung der AR-Position und Blickrichtung der AR-Brille auf der Innenraumkarte durchgeführt werden. Sobald dies erfolgt ist, kann das rechtzeitige Nachverfolgen der AR-Brille durchgeführt werden, da ein oder mehrere Sensoren in der AR-Brille in der Lage sind, die Bewegung der AR-Brille nachzuverfolgen. Ein solcher Sensor in der AR-Brille kann ein Beschleunigungsmesser, ein Gyrometer, ein Kompass oder eine Videokamera sein. Vorzugsweise sind mehr als ein und stärker bevorzugt sämtliche dieser Sensoren in Kombination in der AR-Brille implementiert.The present disclosure provides a device which is designed such that it determines the IoT position of IoT devices by means of AR glasses. To determine the IoT position of the IoT devices on the interior map, however, the AR position and viewing direction of the AR glasses must first be determined on the interior map. As soon as this has been done, the timely tracking of the AR glasses can be carried out, as one or more sensors in the AR glasses are able to detect the movement of the AR glasses. Track glasses. Such a sensor in the AR glasses can be an accelerometer, a gyrometer, a compass or a video camera. Preferably more than one and more preferably all of these sensors are implemented in combination in the AR glasses.

Eine schematisch in 1 gezeigte mögliche Implementierung umfasst:

  • S01: Zugreifen auf eine Innenraumkarte;
  • S02: Bestimmen einer AR-Position der AR-Brille auf der Innenraumkarte und einer Blickrichtung der AR-Brille auf der Basis von Anfangsinformationen der AR-Brille;
  • S03: Empfangen von Nachverfolgungsinformationen bezüglich des zu positionierenden IoT-Geräts aus der AR-Brille; und
  • S04: Bestimmen der IoT-Position des zu positionierenden IoT-Geräts anhand der bestimmten AR-Position und Blickrichtung in Kombination mit den Nachverfolgungsinformationen der AR-Brille.
A schematic in 1 Possible implementation shown includes:
  • S01 : Accessing an interior map;
  • S02 : Determining an AR position of the AR glasses on the interior map and a viewing direction of the AR glasses on the basis of initial information of the AR glasses;
  • S03 : Receiving tracking information regarding the IoT device to be positioned from the AR glasses; and
  • S04 : Determination of the IoT position of the IoT device to be positioned based on the determined AR position and viewing direction in combination with the tracking information of the AR glasses.

Zum Bestimmen der AR-Position und Blickrichtung der AR-Brille auf der Innenraumkarte kann bei einer ersten Lösung der Benutzer auf einem Endgerät die AR-Position der AR-Brille und die Blickrichtung direkt in die Innenraumkarte eingeben. Dabei empfängt S021 die Vorrichtung die Benutzereingabe auf einem Endgerät, die die AR-Position der AR-Brille auf der Innenraumkarte und die Blickrichtung angibt. Vorzugsweise ist das Endgerät die Vorrichtung gemäß der vorliegenden Erfindung oder ist das Endgerät zum Übertragen der Benutzereingabe in die Vorrichtung drahtlos oder drahtgebunden mit der Vorrichtung verbunden.To determine the AR position and viewing direction of the AR glasses on the interior map, in a first solution, the user can enter the AR position of the AR glasses and the viewing direction directly into the interior map on a terminal. In this case, S021 the device receives the user input on a terminal, which indicates the AR position of the AR glasses on the interior map and the viewing direction. The terminal device is preferably the device according to the present invention or the terminal device for transmitting the user input into the device is connected to the device in a wireless or wired manner.

Wie in 4 gezeigt, die die Innenraumkarte 10 beispielhaft zeigt, ist die AR-Brille in der AR-Position 16, die durch „X“ angegeben ist und in Richtung des Staubsaugerroboters 12 gerichtet ist. Somit kann der Benutzer auf der Innenraumkarte 10 auf seinem Endgerät die AR-Position 16 und auch die Blickrichtung, die von Pfeil 18 angegeben ist, durch eine Benutzereingabe, wie z.B. eine Klick-, Berührungs- und/oder Zieheingabe, angeben. Somit sind die AR-Position und die Blickrichtung der AR-Brille bekannt. Eine Veränderung der AR-Position und Blickrichtung wird von den Sensoren der AR-Brille in Echtzeit nachverfolgt, und eine Veränderung der AR-Position und/oder Blickrichtung der AR-Brille können bestimmt werden. Somit können, sobald die AR-Brille auf der Innenraumkarte in Kombination mit der Blickrichtung lokalisiert worden ist, diese Informationen zum Positionieren eines IoT-Geräts zum Bestimmen der IoT-Position des IoT-Geräts verwendet werden.As in 4th shown showing the interior map 10 shows by way of example, the AR glasses are in the AR position 16 , which is indicated by "X" and in the direction of the vacuum cleaner robot 12 is directed. Thus, the user can on the interior map 10 the AR position on his device 16 and also the direction of view indicated by the arrow 18th is indicated by a user input, such as a click, touch and / or drag input. The AR position and the viewing direction of the AR glasses are therefore known. A change in the AR position and line of sight is tracked in real time by the sensors of the AR glasses, and a change in the AR position and / or line of sight of the AR glasses can be determined. As soon as the AR glasses have been located on the interior map in combination with the viewing direction, this information can be used to position an IoT device to determine the IoT position of the IoT device.

Dabei besteht keine Notwendigkeit, eine absolute Position der AR-Brille zu bestimmen. Eine relative Position relativ zu der Innenraumkarte ist ausreichend.There is no need to determine an absolute position of the AR glasses. A relative position relative to the interior map is sufficient.

Obwohl vorstehend beschrieben worden ist, dass die von einem Staubsaugerroboter erzeugte Innenraumkarte verwendet wird, kann jede andere von jedem anderen Gerät, wie z.B. einer Überwachungskamera oder dergleichen, erzeugte Innenraumkarte verwendet werden.Although it has been described above that the indoor map generated by a robot vacuum cleaner is used, any other map can be used by any other device such as e.g. a surveillance camera or the like, can be used.

Die Vorrichtung gemäß der vorliegenden Erfindung wird entsprechend an das oben Beschriebene angepasst. Dabei stellt die Vorrichtung jeweilige Module zum Bereitstellen der jeweiligen Funktionalitäten bereit.The device according to the present invention is adapted accordingly to what has been described above. The device provides respective modules for providing the respective functionalities.

Eine zweite Lösung zum Bestimmen der AR-Position und Blickrichtung der AR-Brille, wie schematisch in 5 gezeigt, umfasst:

  • S022: Empfangen von Nachverfolgungsinformationen bezüglich mindestens dreier Anker aus der AR-Brille, wobei die Ankerpositionen der mindestens drei Anker auf der Innenraumkarte bekannt sind;
  • S023: Bestimmen der Winkel zwischen jeweils zwei der mindestens drei Anker; und
  • S024: Bestimmen der AR-Position und Blickrichtung anhand der Winkel.
A second solution for determining the AR position and viewing direction of the AR glasses, as shown schematically in 5 shown includes:
  • S022 : Receiving tracking information regarding at least three anchors from the AR glasses, the anchor positions of the at least three anchors on the interior map being known;
  • S023 : Determining the angles between any two of the at least three anchors; and
  • S024 : Determination of the AR position and viewing direction based on the angle.

Somit werden drei Anker zum Bestimmen der AR-Position und der Blickrichtung der AR-Brille verwendet, wobei die Position der Anker auf der Innenraumkarte 10 bekannt ist. Dabei können die drei Anker von IoT-Geräte mit einer bekannten Position bereitgestellt werden. Insbesondere wenn ein Staubsaugerroboter 12 in dem Heimautomatisierungssystem vorhanden ist, kann die Andockstation 14 des Staubsaugerroboters 12 mit bekannter Position auf der Innenraumkarte 10 als Anker verwendet werden; der Staubsaugerroboter 12 selbst mit einer bekannten Position auf der Innenraumkarte 10 kann als weiterer Anker verwendet werden. Somit ist nur ein weiterer Anker mit bekannter Position zum Vereinfachen der Bestimmung der AR-Position und Blickrichtung der AR-Brille erforderlich.Thus, three anchors are used to determine the AR position and the viewing direction of the AR glasses, the position of the anchors on the interior map 10 is known. The three anchors of IoT devices can be provided with a known position. Especially if a vacuum cleaner robot 12 is present in the home automation system, the docking station 14th of the vacuum cleaner robot 12 with a known position on the interior map 10 used as an anchor; the vacuum cleaner robot 12 even with a known position on the interior map 10 can be used as an additional anchor. Thus, only one further anchor with a known position is required to simplify the determination of the AR position and the direction of view of the AR glasses.

Die Situation ist in 6 schematisch mit einem ersten Anker A, einem zweiten Anker B und einem dritten Anker C dargestellt, wobei die Positionen der Anker A, B, C auf der Innenraumkarte 10 bekannt sind. Zum Bestimmen der AR-Position der AR-Brille wird ein erster Winkel θAB zwischen dem Anker A und dem Anker B bestimmt, der mögliche Positionen der AR-Brille auf einem ersten Bogen 20 angibt. Die Bestimmung des Winkels θAB kann durch einen oder mehrere in der AR-Brille implementierte Sensoren erfolgen. Somit richtet der Benutzer zunächst die AR-Brille auf den Anker A, gibt das Objekt des Ankers A zum Identifizieren des Ankers an, damit die Position des Ankers A auf der Innenraumkarte abgerufen werden kann. Dann dreht der Benutzer den Kopf, um die AR-Brille auf den Anker B zu richten, gibt das Objekt des Ankers B an, damit die Position des Ankers B auf der Innenraumkarte abgerufen werden kann. Durch Drehen des Kopfes und Richten der AR-Brille von dem ersten Anker A auf den zweiten Anker B wird die AR-Brille um den Winkel θAB gedreht, der bestimmt wird und zum Bestimmen der AR-Position und des Winkels der AR-Brille verwendet wird. Dabei bleibt der Benutzer vorzugsweise in derselben Position.The situation is in 6th shown schematically with a first anchor A, a second anchor B and a third anchor C, the positions of the anchors A, B, C on the interior map 10 are known. To determine the AR position of the AR glasses, a first angle θ AB is determined between the anchor A and the anchor B, the possible positions of the AR glasses on a first arc 20th indicates. The determination of the angle θ AB can take place by one or more sensors implemented in the AR glasses. Thus, the user first sets up the AR Glasses on anchor A, indicate the object of anchor A to identify the anchor so that the position of anchor A can be called up on the interior map. Then the user turns his head to point the AR glasses at anchor B, indicates the object of anchor B, so that the position of anchor B can be called up on the indoor map. By turning the head and directing the AR glasses from the first anchor A to the second anchor B, the AR glasses are rotated through the angle θ AB , which is determined and used to determine the AR position and the angle of the AR glasses becomes. The user preferably remains in the same position.

Die gleiche Implementierung zum Bestimmen des Winkels θAB wie oben beschrieben wird erneut für die Ankerpunkte B und C zum Bestimmen des jeweiligen Winkels θBC durchgeführt. Der Winkel θBC bildet einen zweiten Bogen 22 einer möglichen Position der AR-Brille, wobei die Schnittstelle I des ersten Bogens 20 und des zweiten Bogens 22 die AR-Position der AR-Brille angibt. Anhand der AR-Position der AR-Brillen kann die Blickrichtung in Richtung einer der Anker A, B oder C bestimmt werden und werden somit die AR-Position und Blickrichtung der AR-Brille vollständig bestimmt.The same implementation for determining the angle θ AB as described above is carried out again for the anchor points B and C for determining the respective angle θ BC . The angle θ BC forms a second arc 22nd a possible position of the AR glasses, the interface I of the first arc 20th and the second arch 22nd indicates the AR position of the AR glasses. Using the AR position of the AR glasses, the viewing direction in the direction of one of the anchors A, B or C can be determined and the AR position and viewing direction of the AR glasses are thus completely determined.

7 zeigt schematisch eine Situation mit nur zwei Ankern zur vereinfachten Darstellung der mathematischen Ableitung zum Bestimmen des ersten Bogens 20. Das Bestimmen des ersten Bogens 20 umfasst:

  1. 1.) Berücksichtigen eines Punkts H in 7 als Punkt auf dem Median des Liniensegments AB (Dies bedeutet, dass das Verbindungsliniensegment HM rechtwinklig zu dem Liniensegment AB ist und das Liniensegment AB in der Mitte schneidet. Somit wird ein gleichschenkliges Dreieck ΔABH erzeugt), auf dem der Winkel 24 (als >AHB bezeichnet - wobei das Liniensegment AH um den Punkt H geschwenkt wird, bis eine Überlappung mit dem Liniensegment HB erfolgt) gleich θAB ist. Dabei wird die Richtung des Winkels von dem Pfeil 24 angegeben und wird hier und im Folgenden entgegen dem Uhrzeigersinn als positive Richtung definiert.
  2. 2.) Das Dreieck ΔHBM mit M in der Mitte von AB wird bestimmt, und der Abstand HM wird berechnet durch H M = 1 2 A B   c o t θ A B 2 .
    Figure DE202020105557U1_0001
  3. 3.) Bei dem Dreieck ΔHOP mit P in der Mitte des Abstands HB und dem Liniensegment OP rechtwinklig zu dem Liniensegment HB ist es möglich, den Abstand HO, der der Radius des ersten Bogens 20 ist, zu berechnen mit cos θ A B 2 = H M H B = H B / 2 H O ,
    Figure DE202020105557U1_0002
    HO = HB / 2 cos θ A B 2 .
    Figure DE202020105557U1_0003
  4. 4.) Der Abstand HM, der durch HO ausgedrückt wird, wird angegeben durch H M = 2 H O   c o s 2 θ A B 2
    Figure DE202020105557U1_0004
    durch Verwenden der Beziehung HM = HB cos θAB aus 7.
  5. 5.) Dann kann der Abstand OM berechnet werden durch O M = H M H O ,
    Figure DE202020105557U1_0005
    wobei das Einsetzen der Formeln für HM und HO ergibt O M = 1 2 A B   c o t θ A B .
    Figure DE202020105557U1_0006
7th shows schematically a situation with only two anchors for a simplified representation of the mathematical derivation for determining the first arc 20th . Determining the first arc 20th includes:
  1. 1.) Consider a point H in 7th as a point on the median of the line segment AB (this means that the connecting line segment HM is perpendicular to the line segment AB and intersects the line segment AB in the middle. Thus, an isosceles triangle ΔABH is created) on which the angle 24 (referred to as> AHB - where line segment AH is panned around point H until it overlaps line segment HB) equals θ AB . The direction of the angle is indicated by the arrow 24 and is defined here and below as a counterclockwise direction as the positive direction.
  2. 2.) The triangle ΔHBM with M in the middle of AB is determined and the distance HM is calculated by H M. = 1 2 A. B. c O t θ A. B. 2 .
    Figure DE202020105557U1_0001
  3. 3.) With the triangle ΔHOP with P in the middle of the distance HB and the line segment OP at right angles to the line segment HB, it is possible to use the distance HO, which is the radius of the first arc 20th is to be calculated with cos θ A. B. 2 = H M. H B. = H B. / 2 H O ,
    Figure DE202020105557U1_0002
    HO = HB / 2 cos θ A. B. 2 .
    Figure DE202020105557U1_0003
  4. 4.) The distance HM expressed by HO is given by H M. = 2 H O c O s 2 θ A. B. 2
    Figure DE202020105557U1_0004
    by using the relationship HM = HB cos θ AB 7th .
  5. 5.) Then the distance OM can be calculated by O M. = H M. - H O ,
    Figure DE202020105557U1_0005
    where inserting the formulas for HM and HO gives O M. = 1 2 A. B. c O t θ A. B. .
    Figure DE202020105557U1_0006

Dabei werden die trigonometrischen Identitäten sin 2θ = 2 sin θ cos θ und cos 2θ = 2 cos2 θ - 1 verwendet.The trigonometric identities sin 2θ = 2 sin θ cos θ and cos 2θ = 2 cos 2 θ - 1 are used.

Somit ist die Position von O aufgrund der Kenntnis der Länge OM und Kenntnis des Punkts M bekannt. Ferner ist der Radius HO für den ersten Bogen 20, der durch die Punkte A, B und H verläuft, ebenfalls bekannt. Somit ist es möglich, die quadratische Gleichung für den ersten Zyklus 20 zu berechnen. Die gleiche Implementierung wird für den Anker B und den Anker C zum Berechnen der quadratischen Gleichung für den zweiten Zyklus 22 verwendet, wie in 6 gezeigt. Somit wird das System der zwei quadratischen Gleichungen für den ersten Bogen 20 und den zweiten Bogen 22 gelöst, wobei zwei Lösungen geboten werden: B und die tatsächliche Position der AR-Brille, angegeben durch die Schnittstelle I des ersten Zyklus 20 und des zweiten Zyklus 22.Thus, from knowing the length OM and knowing the point M, the position of O is known. Furthermore, the radius is HO for the first arc 20th which passes through points A, B and H is also known. Thus it is possible to use the quadratic equation for the first cycle 20th to calculate. The same implementation is used for anchor B and anchor C to compute the quadratic equation for the second cycle 22nd used as in 6th shown. Thus, the system becomes the two quadratic equations for the first arc 20th and the second arch 22nd solved, whereby two solutions are offered: B and the actual position of the AR glasses, indicated by the interface I of the first cycle 20th and the second cycle 22nd .

Wie in 7 gezeigt, gibt es bei Kenntnis nur des Werts von θAB zwei mögliche erste Bögen 20 und 20'. Wenn jedoch die Richtung/das Vorzeichen des Winkels θAB bekannt ist, wird der erste Bogen einzigartig. Wie in 7 angegeben, wird dann, wenn der Winkel mit der Richtung als +θAB bestimmt wird, der Bogen 20 als erster Bogen bestimmt. Wenn der Winkel mit der Richtung als -θAB bestimmt wird, wird der Bogen 20' auf einzigartige Weise mögliche AR-Positionen der AR-Brille angeben. Somit entsteht durch die Richtung des Winkels keine Uneindeutigkeit hinsichtlich des ersten Bogens 20 und auf im Wesentlichen gleiche Weise auch des zweiten Bogens 22. Somit bietet auch die Schnittstelle I eine einzigartige Lösung. Vorzugsweise wird die Richtung der Winkel von einem der Sensoren in der AR-Brille und/oder anhand der Kompassinformationen bestimmt.As in 7th shown, knowing only the value of θ AB there are two possible first arcs 20th and 20 '. However, if the direction / sign of the angle θ AB is known, the first arc becomes unique. As in 7th given, then if the angle with the direction is determined as + θ AB , the arc becomes 20th determined as the first arch. When the angle with the direction is determined as -θ AB , the arc 20 'becomes uniquely possible AR- Specify the positions of the AR glasses. Thus, the direction of the angle does not result in any ambiguity with regard to the first arc 20th and in essentially the same way also of the second sheet 22nd . Interface I therefore also offers a unique solution. The direction of the angles is preferably determined by one of the sensors in the AR glasses and / or on the basis of the compass information.

Selbst wenn jedoch die Richtungen der Winkel zwischen den Ankern nicht bekannt sind, ist es immer noch möglich, eine Lösung für die AR-Position der AR-Brille zu bestimmen. Wenn die AR-Brille nicht an dem Anker B oder zumindest nicht zu nahe positioniert ist und der Winkel >ABC zwischen den Anker größer als 0° und kleiner als 180° ist, ist der Schnittpunkt I der zwei Bögen 20, 22, der weit von dem Anker B entfernt ist, die Position der AR-Brille.However, even if the directions of the angles between the anchors are not known, it is still possible to determine a solution for the AR position of the AR glasses. If the AR glasses are not positioned at anchor B or at least not too close and the angle> ABC between the anchor is greater than 0 ° and less than 180 °, the point of intersection I is the two arcs 20th , 22nd that is far from the anchor B, the position of the AR glasses.

Alternativ muss ein vierter Anker verwendet werden, um eine einzigartige Lösung für die Position der AR-Brille auf der Innenraumkarte bereitzustellen.Alternatively, a fourth anchor must be used to provide a unique solution to the location of the AR glasses on the interior map.

Vorzugsweise kann dann, wenn einer der Anker von dem Staubsaugerroboter 12 bereitgestellt wird, der sich mit bekannter Position bewegt, kann der Staubsaugerroboter 12 zu einem ersten Zeitpunkt als erster Anker und zu einem zweiten Zeitpunkt als zweiter Anker verwendet werden, wie oben beschrieben. Somit ist das Bestimmen der AR-Position und der Blickrichtung der AR-Brille in 8 gezeigt und umfasst:

  • S025: Empfangen von Nachverfolgungsinformationen bezüglich eines ersten Ankers und mindestens eines zweiten Ankers aus der AR-Brille, wobei sich zumindest der erste Anker bewegt und die Ankerpositionen des ersten Ankers und des zweiten Ankers auf der Innenraumkarte bekannt sind;
  • S026: Bestimmen eines ersten Winkels zwischen dem ersten Anker und dem zweiten Anker zu einem ersten Zeitpunkt;
  • S027: Bestimmen eines zweiten Winkels zwischen dem ersten Anker und dem zweiten Anker zu einem zweiten Zeitpunkt, wobei sich die Ankerposition zumindest des ersten Ankers zum zweiten Zeitpunkt von der Ankerposition zumindest des ersten Ankers zum ersten Zeitpunkt unterscheidet; und
  • S028: Bestimmen der AR-Position und Blickrichtung der AR-Brille anhand des ersten Winkels und des zweiten Winkels.
Preferably, if one of the anchors from the vacuum cleaner robot 12 is provided that moves with a known position, the vacuum cleaner robot 12 can be used as a first anchor at a first point in time and as a second anchor at a second point in time, as described above. Thus, the determination of the AR position and the viewing direction of the AR glasses is in 8th shown and includes:
  • S025 : Receiving tracking information relating to a first anchor and at least one second anchor from the AR glasses, wherein at least the first anchor is moving and the anchor positions of the first anchor and the second anchor are known on the interior map;
  • S026 : Determining a first angle between the first anchor and the second anchor at a first point in time;
  • S027 : Determining a second angle between the first anchor and the second anchor at a second point in time, wherein the anchor position of at least the first anchor at the second point in time differs from the anchor position of at least the first anchor at the first point in time; and
  • S028 : Determination of the AR position and viewing direction of the AR glasses based on the first angle and the second angle.

Somit reicht es zum Vereinfachen der Bestimmung der AR-Position und der Blickrichtung der AR-Brille aus, dass sowohl der Staubsaugerroboter 12, der sich bewegt, als auch die Andockstation 14 eine bekannte Position auf der Innenraumkarte haben.In order to simplify the determination of the AR position and the viewing direction of the AR glasses, it is therefore sufficient that both the vacuum cleaner robot 12 that moves as well as the docking station 14th have a known position on the interior map.

Bei einigen Ausführungsformen werden zweckbestimmte AR-Marker an mindestens einem, mehr als einem oder sämtlichen häuslichen IoT-Geräten verwendet. Mithilfe solcher AR-Marker wird es unnötig, dass der Benutzer identifiziert, welche IoT-Geräte er aktuell anschaut, da der AR-Marker diese Informationen bereitstellt und das IoT-Gerät eindeutig identifiziert. Folglich detektiert die AR-Brille die IoT-Geräte einfach nur durch Durchsuchen des Heims und identifiziert sie anhand des AR-Markers. Sobald dies erfolgt ist, kann das Heimautomatisierungssystem die Position der AR-Brille durch mathematisches Berechnen derselben anhand der IoT-Position der IoT-Geräte mit dem AR-Marker und der Blickwinkel zwischen diesen, die von der AR-Brille gemeldet worden sind, bestimmen, wie oben beschrieben. Alternativ kann die IoT-Position eines einzelnen IoT-Geräts auch durch Betrachten desselben aus zwei unterschiedlichen Positionen der AR-Brille, wenn Kompassinformationen zur Verfügung stehen, oder drei unterschiedlichen Positionen der AR-Brille, wenn nur Winkelinformationen (zwischen den unterschiedlichen Betrachtungspositionen) bekannt sind, berechnet werden.In some embodiments, dedicated AR markers are used on at least one, more than one, or all of the home IoT devices. With the help of such AR markers, it becomes unnecessary for the user to identify which IoT devices he is currently looking at, as the AR marker provides this information and uniquely identifies the IoT device. As a result, the AR glasses detect the IoT devices simply by searching the home and identify them using the AR marker. Once this is done, the home automation system can determine the position of the AR glasses by mathematically calculating the same based on the IoT position of the IoT devices with the AR marker and the viewing angles between them that have been reported by the AR glasses, as described above. Alternatively, the IoT position of an individual IoT device can also be determined by viewing it from two different positions of the AR glasses if compass information is available, or three different positions of the AR glasses if only angle information (between the different viewing positions) is known , be calculated.

Der offensichtliche Vorteil dieser Lösung besteht nicht nur darin, dass sie vollautomatisch ist, sondern sie auch für den Benutzer vollständig transparent sein kann, vorausgesetzt, dass genügend (mindestens 3) häusliche IoT-Geräte vorhanden sind, die die AR-Brille erkennen kann und deren Positionen auf der Karte bekannt sind. Es ist für diese Lösung nur erforderlich, AR-Marker an den IoT-Geräten anzubringen. Solche AR-Marker können von dem IoT-Geräte-Hersteller bereitgestellt oder später heruntergeladen werden.The obvious advantage of this solution is not only that it is fully automatic, but it can also be completely transparent to the user, provided that there are enough (at least 3) domestic IoT devices that the AR glasses can detect and their Positions on the map are known. For this solution it is only necessary to attach AR markers to the IoT devices. Such AR markers can be provided by the IoT device manufacturer or downloaded later.

Bei einer weiteren Ausführungsform dieser Offenbarung können die oben genannten Ausführungsformen auch dadurch beim Echtzeit-Nachverfolgen der AR-Brille im Heim verwendet werden, dass bei ihnen immer die Positionierung der AR-Brille im Hintergrund läuft.In a further embodiment of this disclosure, the above-mentioned embodiments can also be used in real-time tracking of the AR glasses in the home in that the positioning of the AR glasses is always running in the background.

Bei einer weiteren Ausführungsform werden mindestens ein, mehr als ein oder sämtliche IoT-Geräte mittels Objekterkennungstechniken identifiziert. Bei einigen IoT-Geräten ist es möglich, Maschinenlerntechniken anzuwenden und die AR-Brillen-Software auf das Erkennen von spezifischen IoT-Geräten einzulernen. Dies bietet den offensichtlichen Vorteil, dass dies eine vollautomatische und vollständig transparente Lösung ist.In a further embodiment, at least one, more than one or all IoT devices are identified by means of object recognition techniques. With some IoT devices, it is possible to use machine learning techniques and train the AR glasses software to recognize specific IoT devices. This has the obvious advantage that this is a fully automated and completely transparent solution.

Bei einigen Ausführungsformen weist die AR-Brille einen Kompass zum Erfassen von Kompassinformationen auf. Dann werden bei einer ersten Realisierung die Kompassinformationen mit der Innenraumkarte verbunden und bieten eine absolute Ausrichtung der Innenraumkarte relativ zu den Kompassinformationen. Zu diesem Zweck werden beim erstmaligen Bestimmen der AR-Position und Blickrichtung der AR-Brille die Kompassinformationen relativ zu dieser Position aufgezeichnet.In some embodiments, the AR glasses have a compass for capturing compass information. In a first implementation, the compass information is then linked to the interior map and provides an absolute alignment of the interior map relative to the compass information. For this purpose, when the AR position and viewing direction of the AR glasses are determined for the first time, the compass information is recorded relative to this position.

Dann können später, wenn die AR-Position und die Blickrichtung der AR-Brille bestimmt worden sind, die Kompassinformationen verwendet und mit der ausgerichteten Karte des Heims synchronisiert werden, um die AR-Brille besser zu positionieren und die Genauigkeit zu erhöhen. Ferner sind dann, wenn Kompassinformationen vorhanden sind, nur zwei Ankerpunkte zum eindeutigen Identifizieren der AR-Position der AR-Brille erforderlich. Die Verwendung eines dritten Ankers kann trotzdem zu einer höheren Genauigkeit führen.Then later, when the AR position and the line of sight of the AR glasses have been determined, the compass information can be used and synchronized with the aligned map of the home in order to better position the AR glasses and increase the accuracy. Furthermore, if compass information is available, only two anchor points are required to uniquely identify the AR position of the AR glasses. Using a third anchor can still lead to higher accuracy.

9 zeigt eine Ausführungsform zum Positionieren des IoT-Geräts, die umfasst:

  • S041: Bestimmen einer ersten Blickrichtung der AR-Brille von einer ersten AR-Position zu dem zu positionierenden IoT-Gerät;
  • S042: Bestimmen einer zweiten Blickrichtung der AR-Brille von einer zweiten AR-Position zu dem zu positionierenden IoT-Gerät; und
  • S043: Bestimmen anhand der ersten AR-Position, der ersten Blickrichtung, der zweiten AR-Position und der zweiten Blickrichtung die IoT-Position des zu positionierenden IoT-Gerätes auf der Innenraumkarte.
9 Figure 3 shows an embodiment for positioning the IoT device comprising:
  • S041 : Determining a first viewing direction of the AR glasses from a first AR position to the IoT device to be positioned;
  • S042 : Determining a second viewing direction of the AR glasses from a second AR position to the IoT device to be positioned; and
  • S043 : Determine the IoT position of the IoT device to be positioned on the interior map based on the first AR position, the first viewing direction, the second AR position and the second viewing direction.

10 zeigt schematisch die Situation für ein zu positionierendes IoT-Gerät 30. Da die AR-Brille eine bekannte AR-Position und Blickrichtung hat, wird aus einer ersten AR-Position 32 mit einem Kompass eine Blickrichtung als Winkel α bestimmt. Danach wird aus einer zweiten AR-Position 34 eine zweite Blickrichtung in Richtung des zu positionierenden IoT-Geräts 30 bestimmt. Somit kann anhand der ersten AR-Position 32, der zweiten AR-Position 34, der ersten Blickrichtung α und der zweiten Blickrichtung β die IoT-Position des IoT-Geräts 30 mit einem Kompass bestimmt werden. Diese Position kann dem IoT-Gerät zugeordnet und zur weiteren Verwendung gespeichert werden. Wenn das IoT-Gerät 30 auf der Innenraumkarte 10 positioniert ist, kann das IoT-Gerät 30 als Anker zum Bestimmen der AR-Position und Blickrichtung der AR-Brille verwendet werden. 10 shows schematically the situation for an IoT device to be positioned 30th . Since the AR glasses have a known AR position and viewing direction, a first AR position becomes 32 with a compass a direction of view determined as angle α. Then a second AR position 34 a second line of sight in the direction of the IoT device to be positioned 30th certainly. Thus, based on the first AR position 32 , the second AR position 34 , the first viewing direction α and the second viewing direction β the IoT position of the IoT device 30th can be determined with a compass. This position can be assigned to the IoT device and saved for further use. When the IoT device 30th on the interior map 10 is positioned, the IoT device can 30th can be used as an anchor to determine the AR position and viewing direction of the AR glasses.

Wenn keine Kompassinformationen zur Verfügung stehen, ist nur der θ-Winkel (der Betrachtungswinkel zwischen den zwei Betrachtungspositionen) bekannt und ist eine dritte Betrachtungs-AR-Position zum Berechnen der tatsächlichen IoT-Position des IoT-Geräts erforderlich. Dies ist der gleiche Prozess, der auch zum oben beschriebenen Berechnen der AR-Position der AR-Brille angewendet wird.If compass information is not available, only the θ angle (the viewing angle between the two viewing positions) is known and a third viewing AR position is required to calculate the actual IoT position of the IoT device. This is the same process that is used to calculate the AR position of the AR glasses described above.

11 zeigt ein Gerät 110, das einen Prozessor 112 aufweist, wobei der Prozessor 112 mit einem Speicher 114 verbunden ist. Der Speicher 114 speichert Anweisungen, mit denen bei Ausführung durch den Prozessor 112 die jeweiligen Module der Vorrichtung implementiert werden. Ferner ist der Prozessor 112 zum Empfangen von Nachverfolgungsinformationen, Blickrichtungen, Kompassinformationen oder dergleichen aus der AR-Brille mit einem Kommunikationsmodule 116 verbunden. Dabei kann die Datenübertragung drahtlos über WLAN, WIFI, GSM, 3G, 4G, 5G, Bluetooth, ZigBee oder jeden anderen Standard erfolgen. 11 shows a device 110 that has a processor 112 having, the processor 112 with a memory 114 connected is. The memory 114 stores instructions to be used when executed by the processor 112 the respective modules of the device are implemented. Further is the processor 112 for receiving tracking information, viewing directions, compass information or the like from the AR glasses with a communication module 116 connected. Data can be transmitted wirelessly via WLAN, WIFI, GSM, 3G, 4G, 5G, Bluetooth, ZigBee or any other standard.

Alternativ sind statt des Kommunikationsmoduls 116 der Prozessor 112 und der Speicher 114 des Geräts 110 in Form eines einzelnen Geräts direkt mit der AR-Brille verbunden.Alternatively, instead of the communication module 116 the processor 112 and the memory 114 of the device 110 connected directly to the AR glasses in the form of a single device.

Vorzugsweise kann der Prozessor ein Universalprozessor, ein ASIC, FPGA oder jede andere Art von Verarbeitungseinheit sein.Preferably the processor can be a general purpose processor, an ASIC, FPGA or any other type of processing unit.

Vorzugsweise ist das Gerät ein Endgerät, wie z.B. ein Smartphone, Tablet, Laptop oder jede andere Art von Gerät. Insbesondere weist das Gerät auch eine Anzeige zum Anzeigen der Innenraumkarte auf. Dann können die IoT-Geräte an ihren jeweiligen Positionen auf der Innenraumkarte angezeigt werden. Durch Zusammenwirken mit der Darstellung der IoT-Geräte auf dem Endgerät werden die jeweiligen häuslichen IoT-Geräte in dem Heimautomatisierungssystem gesteuert.Preferably the device is a terminal, e.g. a smartphone, tablet, laptop or any other type of device. In particular, the device also has a display for displaying the interior map. The IoT devices can then be displayed at their respective positions on the interior map. By interacting with the representation of the IoT devices on the end device, the respective domestic IoT devices are controlled in the home automation system.

Somit werden bei der vorliegenden Offenlegung eine Echtzeitpositionierung und -nachverfolgung einer AR-Brille, die von einem Benutzer getragen wird, auf einer Innenraumkarte ermöglicht. Mittels der AR-Brille können IoT-Geräte positioniert werden. Durch die genaue IoT-Position des IoT-Geräts wird eine Steuerung der IoT-Geräte erleichtert. Insbesondere kann eine Innenraumkarte auf einem Endgerät angezeigt werden, die die IoT-Geräte auf der Innenraumkarte angibt, wobei die IoT-Positionen jedes IoT-Geräts gemäß der vorliegenden Offenbarung bestimmt werden. Dann kann über die Position auf der Innenraumkarte leicht auf die IoT-Geräte zugegriffen werden.Thus, in the present disclosure, real-time positioning and tracking of AR glasses worn by a user on an interior map are made possible. IoT devices can be positioned using the AR glasses. The precise IoT position of the IoT device makes it easier to control the IoT devices. In particular, an indoor map can be displayed on a terminal indicating the IoT devices on the indoor map, wherein the IoT positions of each IoT device are determined according to the present disclosure. The IoT devices can then be easily accessed via the position on the interior map.

Claims (14)

Vorrichtung zum Positionieren eines Internet-of-Things-, IoT, Geräts mit einer Augmented-Reality-, AR, Brille, die aufweist: ein Zugriffsmodul, das derart ausgebildet ist, dass es auf eine Innenraumkarte (10) zugreift; ein erstes Bestimmungsmodul, das derart ausgebildet ist, dass es eine AR-Position (16) der AR-Brille auf der Innenraumkarte (10) und eine Blickrichtung (18) der AR-Brille auf der Basis von Anfangsinformationen der AR-Brille bestimmt; ein Empfangsmodul, das derart ausgebildet ist, dass es Nachverfolgungsinformationen bezüglich des zu positionierenden IoT-Geräts aus der AR-Brille empfängt; und ein zweites Bestimmungsmodul, das derart ausgebildet ist, dass eine IoT-Position des zu positionierenden IoT-Geräts (12) anhand der bestimmten AR-Position und Blickrichtung (18) in Kombination mit den Nachverfolgungsinformationen der AR-Brille bestimmt.Device for positioning an Internet of Things, IoT, device with augmented reality, AR, glasses, comprising: an access module which is designed such that it accesses an interior map (10); a first determination module which is designed in such a way that there is an AR position (16) of the AR glasses on the interior map (10) and a viewing direction (18) determines the AR glasses based on initial information of the AR glasses; a receiving module which is designed such that it receives tracking information relating to the IoT device to be positioned from the AR glasses; and a second determination module which is designed such that an IoT position of the IoT device (12) to be positioned is determined on the basis of the determined AR position and viewing direction (18) in combination with the tracking information from the AR glasses. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Anfangsinformationen der AR-Brille umfassen: ein erstes Empfangssubmodul, das derart ausgebildet ist, dass es eine Benutzereingabe auf einem Endgerät empfängt, die die AR-Position (16) der AR-Brille auf der Innenraumkarte (10) und die Blickrichtung (18) angibt.Device according to Claim 1 , characterized in that the initial information of the AR glasses comprises: a first receiving sub-module which is designed such that it receives a user input on a terminal device, the AR position (16) of the AR glasses on the interior map (10) and indicates the viewing direction (18). Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das erste Bestimmungsmodul aufweist: ein zweites Empfangssubmodul, das derart ausgebildet ist, dass es Nachverfolgungsinformationen bezüglich mindestens dreier Anker aus der AR-Brille empfängt, wobei die Ankerpositionen (A, B, C) der mindestens drei Anker auf der Innenraumkarte (10) bekannt sind; ein erstes Bestimmungssubmodul, das derart ausgebildet ist, dass es Winkel zwischen jeweils zwei der mindestens drei Ankerpunkte aus den jeweiligen Nachverfolgungsinformationen bestimmt; und ein zweites Bestimmungssubmodul, das derart ausgebildet ist, dass es die AR-Position und Blickrichtung der AR-Brille anhand der Winkel bestimmt.Device according to Claim 1 , characterized in that the first determination module comprises: a second receiving sub-module which is designed such that it receives tracking information regarding at least three anchors from the AR glasses, the anchor positions (A, B, C) of the at least three anchors on the interior map (10) are known; a first determination sub-module which is designed such that it determines angles between in each case two of the at least three anchor points from the respective tracking information; and a second determination sub-module which is designed such that it determines the AR position and viewing direction of the AR glasses on the basis of the angles. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das erste Bestimmungsmodul aufweist: ein drittes Empfangssubmodul, das derart ausgebildet ist, dass es Nachverfolgungsinformationen bezüglich des ersten Ankers und mindestens eines zweiten Ankers aus der AR-Brille empfängt, wobei sich zumindest der erste Anker bewegt und Ankerpositionen des ersten Ankers und des mindestens einen zweiten Ankers auf der Innenraumkarte bekannt sind; ein drittes Bestimmungssubmodul, das derart ausgebildet ist, dass es einen ersten Winkel zwischen dem ersten Anker und dem zweiten Anker zu einem ersten Zeitpunkt bestimmt; ein viertes Bestimmungssubmodul, das derart ausgebildet ist, dass es einen zweiten Winkel zwischen dem ersten Anker und dem zweiten Anker zu einem zweiten Zeitpunkt bestimmt, wobei sich die Ankerposition zumindest des ersten Ankers zum zweiten Zeitpunkt von der Ankerposition zumindest des ersten Ankers zum ersten Zeitpunkt unterscheidet; ein fünftes Bestimmungssubmodul, das derart ausgebildet ist, dass es die AR-Position und Blickrichtung der AR-Brille anhand des ersten Winkels und des zweiten Winkels bestimmt.Device according to Claim 1 , characterized in that the first determination module comprises: a third receiving sub-module which is designed such that it receives tracking information regarding the first anchor and at least one second anchor from the AR glasses, wherein at least the first anchor moves and anchor positions of the first anchor and the at least one second anchor is known on the interior map; a third determination sub-module which is designed such that it determines a first angle between the first anchor and the second anchor at a first point in time; a fourth determination sub-module which is designed such that it determines a second angle between the first anchor and the second anchor at a second point in time, the anchor position of at least the first anchor at the second point in time differing from the anchor position of at least the first anchor at the first point in time ; a fifth determination sub-module which is designed such that it determines the AR position and viewing direction of the AR glasses on the basis of the first angle and the second angle. Vorrichtung nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass eines oder mehrere des ersten Bestimmungssubmoduls, des dritten Bestimmungssubmoduls und des vierten Bestimmungssubmoduls ferner derart ausgebildet sind, dass sie die Richtung/das Vorzeichen eines Winkels zwischen zwei der Anker bestimmen.Device according to Claim 3 or 4th , characterized in that one or more of the first determination sub-module, the third determination sub-module and the fourth determination sub-module are further designed such that they determine the direction / the sign of an angle between two of the anchors. Vorrichtung nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass mindestens ein Anker eine für die AR-Brille erkennbare AR-Markierung zum Identifizieren des Ankers aufweist.Device according to one of the Claims 3 to 5 , characterized in that at least one anchor has an AR marking recognizable for the AR glasses for identifying the anchor. Vorrichtung nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass mindestens ein Anker durch Bilderkennung von der AR-Brille erkannt wird.Device according to one of the Claims 3 to 6th , characterized in that at least one anchor is recognized by image recognition from the AR glasses. Vorrichtung nach einem der Ansprüche 1 bis 7, gekennzeichnet durch ein Kompassinformationsmodul, das derart ausgebildet ist, dass es Kompassinformationen der AR-Brille bestimmt, wobei die Innenraumkarte entsprechend den Kompassinformationen ausgerichtet ist.Device according to one of the Claims 1 to 7th , characterized by a compass information module which is designed such that it determines compass information of the AR glasses, wherein the interior map is aligned according to the compass information. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass das erste Bestimmungsmodul aufweist: ein sechstes Bestimmungssubmodul, das derart ausgebildet ist, dass es Winkel zwischen mindestens zwei Ankern und/oder eine Richtung jedes Winkels zwischen jeweils zwei von mindestens zwei Ankern entsprechend den Kompassinformationen bestimmt.Device according to Claim 8 , characterized in that the first determination module has: a sixth determination sub-module which is designed such that it determines angles between at least two anchors and / or a direction of each angle between two of at least two anchors in accordance with the compass information. Vorrichtung nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass die Anker von einem oder mehreren IoT-Geräten bereitgestellt werden.Device according to one of the Claims 3 to 9 , characterized in that the anchors are provided by one or more IoT devices. Vorrichtung nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Innenraumkarte (10) von einem Staubsauger (12) und/oder einer Überwachungskamera bereitgestellt wird.Device according to one of the Claims 1 to 10 , characterized in that the interior card (10) is provided by a vacuum cleaner (12) and / or a surveillance camera. Vorrichtung nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass das zweite Bestimmungsmodul aufweist: ein siebtes Bestimmungssubmodul, das derart ausgebildet ist, dass es eine erste Blickrichtung der AR-Brille von einer ersten AR-Position zu dem zu positionierenden IoT-Gerät bestimmt; ein achtes Bestimmungssubmodul, das derart ausgebildet ist, das es zumindest eine zweite Blickrichtung der AR-Brille von einer zweiten AR-Position zu dem zu positionierenden IoT-Gerät bestimmt; und ein neuntes Bestimmungssubmodul, das derart ausgebildet ist, dass es anhand der ersten AR-Position, der ersten Blickrichtung, der zweiten AR-Position und der zweiten Blickrichtung die IoT-Position des zu positionierenden IoT-Geräts auf der Innenraumkarte bestimmt.Device according to one of the Claims 1 to 11 , characterized in that the second determination module has: a seventh determination sub-module which is designed such that it determines a first viewing direction of the AR glasses from a first AR position to the IoT device to be positioned; an eighth determination sub-module which is designed in such a way that it determines at least one second viewing direction of the AR glasses from a second AR position to the IoT device to be positioned; and a ninth determination sub-module which is designed such that it determines the IoT position of the IoT device to be positioned on the interior map using the first AR position, the first viewing direction, the second AR position and the second viewing direction. Positionierungssystem, das die Vorrichtung nach einem der Ansprüche 1 bis 12 und eine mit der Vorrichtung verbundene AR-Brille aufweist.Positioning system that moves the device according to one of the Claims 1 to 12 and AR glasses connected to the device. Smart-Home-System, das eine Vielzahl von IoT-Geräten und ein Positionierungssystem nach Anspruch 13 aufweist.Smart home system that employs a variety of IoT devices and a positioning system Claim 13 having.
DE202020105557.7U 2020-05-15 2020-09-29 Internet of Things device Active DE202020105557U1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
PCT/CN2020/090695 WO2021227082A1 (en) 2020-05-15 2020-05-15 Method and device for positioning internet of things devices
IBPCT/CN2020/090695 2020-05-15
EP20196664.5 2020-09-17
EP20196664.5A EP3910967B1 (en) 2020-05-15 2020-09-17 Method and device for positioning internet of things devices

Publications (1)

Publication Number Publication Date
DE202020105557U1 true DE202020105557U1 (en) 2020-11-11

Family

ID=73547457

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202020105557.7U Active DE202020105557U1 (en) 2020-05-15 2020-09-29 Internet of Things device

Country Status (1)

Country Link
DE (1) DE202020105557U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4123422A1 (en) * 2021-07-20 2023-01-25 Northwest Instrument Inc. Intelligent interface based on augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4123422A1 (en) * 2021-07-20 2023-01-25 Northwest Instrument Inc. Intelligent interface based on augmented reality

Similar Documents

Publication Publication Date Title
DE112005000929B4 (en) Automatic imaging method and device
DE69817498T2 (en) Hand pointing device
DE60213526T2 (en) Method and system for improving situational awareness of command control units
EP2880853B1 (en) Apparatus and method for determining the distinct location of an image-recording camera
DE112016006262B4 (en) Three-dimensional scanner and processing method for measurement support therefor
DE202011110906U1 (en) Path planning for street level navigation in a three dimensional environment and applications thereof
DE112005001307T5 (en) Built-in navigation device and method for correcting one's own vehicle position
DE202010018459U1 (en) System for displaying transitions between street views
CH695120A5 (en) Apparatus and method for determining the spatial coordinates of at least one Objekpunktes.
DE10025110A1 (en) Method and device for realizing an information and data flow for geodetic devices
EP2573512A2 (en) Method and assembly for determining the position of a measurement point in geometric space
DE112016001829T5 (en) Automatically associate images using visual property references to related applications
EP4051982A1 (en) Method and mobile detection unit for detecting elements of infrastructure of an underground line network
EP2350977B1 (en) Method for combining at least two images to form a panoramic image
DE102006006001B3 (en) Method and arrangement for inserting location-related information into a visual representation or view of a scene
WO2015028294A1 (en) Monitoring installation and method for presenting a monitored area
DE202020105557U1 (en) Internet of Things device
EP3584536B1 (en) Terrestrial observation apparatus with pose determining functionality
DE102006042318B4 (en) Method for operating at least one camera
DE2009200A1 (en) Display device for displaying symbols which can be moved relative to one another
DE102018104056B3 (en) Method for optimized arrangement and alignment of a field device
DE60108918T2 (en) Interactive method and apparatus for video broadcasting of a moving video camera
EP1912431A2 (en) Method and device for actuating a pivotable camera
DE60204692T2 (en) METHOD FOR DISPLAYING MAP INFORMATION ON A PLANE INDICATOR
EP3384242A1 (en) Indoor navigation system and method

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years