DE102019217752B4 - Method, computer program with instructions and device for gathering information about a person - Google Patents
Method, computer program with instructions and device for gathering information about a person Download PDFInfo
- Publication number
- DE102019217752B4 DE102019217752B4 DE102019217752.2A DE102019217752A DE102019217752B4 DE 102019217752 B4 DE102019217752 B4 DE 102019217752B4 DE 102019217752 A DE102019217752 A DE 102019217752A DE 102019217752 B4 DE102019217752 B4 DE 102019217752B4
- Authority
- DE
- Germany
- Prior art keywords
- augmented reality
- person
- reality device
- information
- emission
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zum Erfassen von Informationen zu einer Person (1), mit den Schritten:- Erfassen (10) einer Abstrahlung (3) eines Augmented-Reality-Gerätes (2), das von der Person (1) verwendet wird, wobei die Abstrahlung (3) ein für eine räumliche Orientierung des Augmented-Reality-Gerätes (2) in die Umwelt projiziertes Muster oder Scanlinien umfasst;- Auswerten (11) der erfassten Abstrahlung des Augmented-Reality-Gerätes (2); und- Bestimmen (12) einer Position des Augmented-Reality-Gerätes (2) relativ zu einer Erfassungsvorrichtung (4).Method for acquiring information about a person (1), with the steps:- acquiring (10) a radiation (3) of an augmented reality device (2) that is used by the person (1), the radiation ( 3) includes a pattern or scan lines projected into the environment for a spatial orientation of the augmented reality device (2);- evaluating (11) the detected radiation of the augmented reality device (2); and - determining (12) a position of the augmented reality device (2) relative to a detection device (4).
Description
Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm mit Instruktionen und eine Vorrichtung zum Erfassen von Informationen zu einer Person. Die Erfindung betrifft weiterhin ein Fortbewegungsmittel, eine Infrastruktureinrichtung und ein Augmented-Reality-Gerät, in dem ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung eingesetzt wird.The present invention relates to a method, a computer program with instructions and a device for collecting information about a person. The invention further relates to a means of transportation, an infrastructure facility and an augmented reality device, in which a method according to the invention or a device according to the invention is used.
Bereits seit Jahren lässt sich eine zunehmende Verbreitung digitaler Technologien in der Gesellschaft feststellen. Es steht zu erwarten, dass diese Digitalisierung der Gesellschaft im Alltag deutlich zunehmen wird. Virtual- und Augmented-Reality-Technologien und -Anwendungen stellen eine besondere Ausprägung der Digitalisierung dar. Bei Augmented Reality (AR), auf Deutsch „erweiterte Realität“, handelt es sich um die Anreicherung der realen Welt durch virtuelle Elemente, die im dreidimensionalen Raum ortskorrekt registriert sind und eine Echtzeitinteraktion erlauben. Da sich in der Fachwelt im deutschsprachigen Raum der Ausdruck „Augmented Reality“ gegenüber dem Ausdruck „erweiterte Realität“ durchgesetzt hat, wird im Folgenden ersterer benutzt. Synonym wird auch der Ausdruck „Mixed Reality“ verwendet. Für die Darstellung von AR-Anzeigen können beispielsweise Augmented-Reality-Brillen genutzt werden. Eine Augmented-Reality-Brille wird wie eine normale Brille getragen, weist aber eine oder mehrere Projektionseinheiten oder Anzeigen auf, mit deren Hilfe dem Träger der Brille Informationen vor die Augen oder direkt auf die Netzhaut projiziert werden können. Die Brille ist dabei so gestaltet, dass der Träger auch die Umgebung wahrnehmen kann. Neue Technologien für Augmented-Reality-Brillen, beispielsweise Lichtfeldtechnologie, Fortschritte in der verwendeten Batterietechnik sowie der Einstieg großer Unternehmen in diese lassen eine steigende Akzeptanz dieser Geräte erwarten.An increasing spread of digital technologies in society has been noticeable for years. It can be expected that this digitization of society will increase significantly in everyday life. Virtual and augmented reality technologies and applications represent a special form of digitization. Augmented reality (AR) is the enrichment of the real world with virtual elements that are displayed in three-dimensional space are correctly registered and allow real-time interaction. Since the expression "augmented reality" has prevailed over the expression "extended reality" in the professional world in German-speaking countries, the former is used in the following. The term "mixed reality" is also used synonymously. For example, augmented reality glasses can be used to display AR displays. Augmented reality glasses are worn like normal glasses, but have one or more projection units or displays that can be used to project information in front of the eyes or directly onto the retina of the wearer of the glasses. The glasses are designed in such a way that the wearer can also perceive the surroundings. New technologies for augmented reality glasses, such as light field technology, advances in the battery technology used and the entry of large companies into them mean that increasing acceptance of these devices can be expected.
Alternativ können AR-Anzeigen auch mittels Augmented-Reality-Smartphones oder Augmented-Reality-Tablets generiert werden. Dabei werden virtuelle Elemente auf dem Display des jeweiligen Gerätes zusammen mit der von einer Kamera des jeweiligen Gerätes aufgenommenen Umgebung angezeigt. Auch eine Projektion von Inhalten in die reale Umgebung ist möglich.Alternatively, AR displays can also be generated using augmented reality smartphones or augmented reality tablets. In this case, virtual elements are shown on the display of the respective device together with the surroundings recorded by a camera of the respective device. Content can also be projected into the real environment.
Insgesamt ist absehbar, dass Augmented-Reality-Brillen, Augmented-Reality-Smartphones und andere Augmented-Reality-Geräte bei Endkunden zunehmend stärker im Einsatz sein werden.Overall, it is foreseeable that augmented reality glasses, augmented reality smartphones and other augmented reality devices will be increasingly used by end customers.
Aktuell genutzte Augmented-Reality-Brillen nutzen zur räumlichen Orientierung eine Kombination von Methoden der Computer-Vision und Inertialsensorik.Currently used augmented reality glasses use a combination of computer vision and inertial sensor methods for spatial orientation.
Beispielsweise beschreibt
Bei den auf Computer-Vision basierenden Ansätzen werden neben der Auswertung von Kamerabildern auch aktive Technologien verwendet, bei denen beispielsweise strukturiertes Licht in die Umgebung projiziert wird. Der Trend geht dahin, dass solche Verfahren in allen hochwertigen zukünftigen Augmented-Reality-Brillen genutzt werden.In addition to evaluating camera images, the approaches based on computer vision also use active technologies in which, for example, structured light is projected into the environment. The trend is that such methods will be used in all high-quality future augmented reality glasses.
In diesem Zusammenhang beschreibt
Augmented-Reality-Brillen können genutzt werden, um die Sicherheit von Fußgängern im Straßenverkehr zu erhöhen, indem der Träger der Augmented-Reality-Brille beispielsweise vor einer drohenden Kollision mit einem Fahrzeug gewarnt wird. In diesem Zusammenhang beschreibt
Auch für den Betrieb eines Fortbewegungsmittels ist es zweckmäßig, wenn drohende Kollisionen mit einem Fußgänger frühzeitig erkannt werden und somit vermieden werden können. In diesem Zusammenhang beschreibt
Die Position sowie die Kopforientierung des Fußgängers werden bei einer Ermittlung der Wahrscheinlichkeit für die Kollision zwischen dem Fortbewegungsmittel und dem Fußgänger berücksichtigt.The position and the head orientation of the pedestrian are taken into account when determining the probability of a collision between the means of transportation and the pedestrian.
Automatisch fahrende Fahrzeuge benötigen im besonderen Maße Informationen über ihre Umwelt. Fußgänger müssen insbesondere durch aktive Maßnahmen ausgehend vom Fahrzeug detektiert und erkannt werden. Dazu können z.B. Radarsensoren, Lidarsensoren oder auch eine kamerabasierte Bildauswertung genutzt werden. Ist eine Sensorik jedoch zu langsam oder in die falsche Richtung ausgerichtet, können Personen gegebenenfalls übersehen oder nicht als solche identifiziert werden.Automated vehicles require a great deal of information about their environment. In particular, pedestrians must be detected and recognized by active measures based on the vehicle. Radar sensors, lidar sensors or even a camera-based image evaluation can be used for this purpose. However, if a sensor system is too slow or aligned in the wrong direction, people may be overlooked or not identified as such.
Es ist eine Aufgabe der Erfindung, verbesserte Lösungen für das Erfassen von Informationen zu einer Person bereitzustellen.It is an object of the invention to provide improved solutions for gathering information about an individual.
Diese Aufgabe wird durch Verfahren mit den Merkmalen des Anspruchs 1, durch ein Computerprogramm mit Instruktionen gemäß Anspruch 9, durch eine Vorrichtung mit den Merkmalen des Anspruchs 9, durch ein Fortbewegungsmittel gemäß Anspruch 10, durch eine Infrastruktureinrichtung gemäß Anspruch 11 sowie durch ein Augmented-Reality-Gerät gemäß Anspruch 12 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.This object is achieved by a method having the features of
Gemäß einem ersten Aspekt der Erfindung umfasst ein Verfahren zum Erfassen von Informationen zu einer Person die Schritte:
- - Erfassen einer Abstrahlung eines Augmented-Reality-Gerätes, das von der Person verwendet wird, wobei die Abstrahlung ein für eine räumliche Orientierung des Augmented-Reality-Gerätes in die Umwelt projiziertes Muster oder Scanlinien umfasst;
- - Auswerten der erfassten Abstrahlung des Augmented-Reality-Gerätes; und
- - Bestimmen einer Position des Augmented-Reality-Gerätes relativ zu einer Erfassungsvorrichtung.
- - detecting an emission of an augmented reality device used by the person, the emission comprising a pattern or scan lines projected into the environment for a spatial orientation of the augmented reality device;
- - Evaluating the detected radiation of the augmented reality device; and
- - Determining a position of the augmented reality device relative to a detection device.
Gemäß einem weiteren Aspekt der Erfindung umfasst ein Computerprogramm Instruktionen, die bei Ausführung durch einen Computer den Computer zur Ausführung der folgenden Schritte zum Erfassen von Informationen zu einer Person veranlassen:
- - Erfassen einer Abstrahlung eines Augmented-Reality-Gerätes, das von der Person verwendet wird, wobei die Abstrahlung ein für eine räumliche Orientierung des Augmented-Reality-Gerätes in die Umwelt projiziertes Muster oder Scanlinien umfasst;
- - Auswerten der erfassten Abstrahlung des Augmented-Reality-Gerätes; und
- - Bestimmen einer Position des Augmented-Reality-Gerätes relativ zu einer Erfassungsvorrichtung.
- - detecting an emission of an augmented reality device used by the person, the emission comprising a pattern or scan lines projected into the environment for a spatial orientation of the augmented reality device;
- - Evaluating the detected radiation of the augmented reality device; and
- - Determining a position of the augmented reality device relative to a detection device.
Der Begriff Computer ist dabei breit zu verstehen. Insbesondere umfasst er auch Steuergeräte, Mikrocontroller und andere prozessorbasierte Datenverarbeitungsvorrichtungen.The term computer is to be understood broadly. In particular, it also includes control units, microcontrollers and other processor-based data processing devices.
Das Computerprogramm kann beispielsweise für einen elektronischen Abruf bereitgestellt werden oder auf einem computerlesbaren Speichermedium gespeichert sein.The computer program can be provided for electronic retrieval, for example, or it can be stored on a computer-readable storage medium.
Gemäß einem weiteren Aspekt der Erfindung weist eine Vorrichtung zum Erfassen von Informationen zu einer Person auf:
- - einen Eingang zum Empfangen von Daten zu einer mittels eines Sensors erfassten Abstrahlung eines Augmented-Reality-Gerätes, das von der Person verwendet wird, wobei die Abstrahlung ein für eine räumliche Orientierung des Augmented-Reality-Gerätes in die Umwelt projiziertes Muster oder Scanlinien umfasst; und
- - eine Auswerteeinheit zum Auswerten der erfassten Abstrahlung des Augmented-Reality-Gerätes und zum Bestimmen einer Position des Augmented-Reality-Gerätes relativ zu einer Erfassungsvorrichtung.
- an input for receiving data on a sensor-detected emission of an augmented reality device used by the person, the emission comprising a pattern or scan lines projected into the environment for spatial orientation of the augmented reality device ; and
- - An evaluation unit for evaluating the detected emission of the augmented reality device and for determining a position of the augmented reality device relative to a detection device.
Die erfindungsgemäße Lösung basiert auf der Idee, die zum Zwecke der räumlichen Orientierung von einem Augmented-Reality-Gerät generierte Abstrahlung zu erfassen und auszuwerten. Durch Kenntnis der Parameter, mit denen die aktiven Sensoren des Augmented-Reality-Gerätes Licht oder andere elektromagnetische Signale in die Umgebung strahlen, können Rückschlüsse auf die Position des Augmented-Reality-Gerätes und somit auf die Position des Nutzers des Augmented-Reality-Gerätes gezogen werden. Die Erfassung und Auswertung der Abstrahlung erlaubt es insbesondere, Informationen zu Personen zu erhalten, die noch nicht unmittelbar durch einen Sensor detektiert werden können, z.B., weil sie sich außerhalb eines Erfassungsbereichs des Sensors befinden. Bei üblichen Verfahren für die räumliche Orientierung von Augmented-Reality-Geräten wird mit einem Projektor ein Muster in die Umwelt projiziert oder die Umwelt wird zeilenweise durch einen Laser-Scanner abgetastet. Diese Muster oder Scanlinien können leicht erfasst und ausgewertet werden. Beispielsweise kann bei Kenntnis der Scan-Zeit, z.B. der Anzahl gescannter Zeilen pro Sekunde, und einer kontinuierlichen Beobachtung des Signals ermittelt werden, wo sich der Laser-Scanner und damit das Augmented-Reality-Gerät räumlich relativ zum Beobachter befindet.The solution according to the invention is based on the idea of detecting and evaluating the radiation generated by an augmented reality device for the purpose of spatial orientation. Knowledge of the parameters with which the active sensors of the augmented reality device emit light or other electromagnetic signals into the environment allows conclusions to be drawn about the position of the augmented reality device and thus about the position of the user of the augmented reality device to be pulled. The detection and evaluation of the radiation makes it possible, in particular, to obtain information about people who cannot yet be detected directly by a sensor, e.g. because they are outside the detection range of the sensor. In conventional methods for the spatial orientation of augmented reality devices, a pattern is projected into the environment using a projector, or the environment is scanned line by line by a laser scanner. These patterns or scan lines can be easily detected and evaluated. For example, if the scan time is known, e.g. the number of scanned lines per second, and a continuous observation of the signal, it can be determined where the laser scanner and thus the augmented reality device is spatially located relative to the observer.
Gemäß einem Aspekt der Erfindung wird eine Pose des Augmented-Reality-Gerätes relativ zu der Erfassungsvorrichtung bestimmt. Die Auswertung der Abstrahlung des Augmented-Reality-Gerätes ermöglicht nicht nur eine Bestimmung der Position des Augmented-Reality-Gerätes, sondern auch eine Bestimmung der Orientierung bzw. Lage des Augmented-Reality-Gerätes im Raum. Dies ermöglicht z.B. Rückschlüsse auf die Kopforientierung eines Fußgängers, und damit auch auf eine wahrscheinliche Bewegungsrichtung und einen Sichtbereich des Fußgängers.According to one aspect of the invention, a pose of the augmented reality device is determined relative to the detection device. The evaluation of the emission of the augmented reality device not only enables the position of the augmented reality device to be determined, but also a determination of the orientation or location of the augmented reality device in space. This enables conclusions to be drawn, for example, about the orientation of a pedestrian’s head and thus also about a probable direction of movement and a pedestrian’s field of vision.
Gemäß einem Aspekt der Erfindung wird aus einer zeitlichen Änderung der Position des Augmented-Reality-Gerätes eine Bewegung der Person relativ zu der Erfassungsvorrichtung bestimmt. Auf diese Weise kann beispielsweise eine Bewegungsrichtung eines Fußgängers zuverlässig bestimmt werden.According to one aspect of the invention, a movement of the person relative to the detection device is determined from a change in the position of the augmented reality device over time. In this way, for example, a direction of movement of a pedestrian can be reliably determined.
Gemäß einem Aspekt der Erfindung wird aus den Informationen zu der Person eine Interaktionswahrscheinlichkeit oder eine Kollisionswahrscheinlichkeit ermittelt. Insbesondere aus der Bewegung bzw. der Bewegungsrichtung kann eine zukünftige Trajektorie der Person bestimmt werden. Diese kann dann z.B. genutzt werden, um die Wahrscheinlichkeit für eine Kollision mit einem Fahrzeug zu bestimmen. Ebenso kann die Wahrscheinlichkeit eines gezielten Zugehens einer Person auf ein Fahrzeug bestimmt werden, z.B. die Annäherung der Person an ein Taxi. Des Weiteren ist es möglich, die Wahrscheinlichkeit einer Interaktion zwischen Fahrzeugen oder anderen Objekten und Personen zu bestimmen. z.B. anhand der Auswertung des Sichtbereichs der Person. Die so gewonnenen Informationen können einer dafür vorgesehenen Infrastruktur zur Weiterverarbeitung bereitgestellt werden.According to one aspect of the invention, an interaction probability or a collision probability is determined from the information about the person. A future trajectory of the person can be determined in particular from the movement or the direction of movement. This can then be used, for example, to determine the probability of a collision with a vehicle. The probability of a person purposefully approaching a vehicle can also be determined, e.g. the person approaching a taxi. Furthermore, it is possible to determine the probability of an interaction between vehicles or other objects and people. e.g. based on the evaluation of the person's field of vision. The information obtained in this way can be made available to a dedicated infrastructure for further processing.
Gemäß einem Aspekt der Erfindung wird die Abstrahlung des Augmented-Reality-Gerätes mit einer Kamera der Erfassungsvorrichtung erfasst. Da für die räumliche Orientierung von Augmented-Reality-Geräten üblicherweise Licht abgestrahlt wird, z.B. Infrarotlicht, bietet sich die Verwendung von Kameras für das Erfassen der Abstrahlung an. Diese sind zudem in vielen Geräten ohnehin vorhanden, sodass lediglich eine geeignete Bildauswertung umgesetzt werden muss.According to one aspect of the invention, the emission of the augmented reality device is detected with a camera of the detection device. Since light, e.g. infrared light, is usually emitted for the spatial orientation of augmented reality devices, the use of cameras to record the emission is a good idea. These are also already available in many devices, so that only a suitable image evaluation has to be implemented.
Gemäß einem Aspekt der Erfindung wird die erfasste Abstrahlung des Augmented-Reality-Gerätes mittels photogrammetrischer Maßnahmen ausgewertet. Photogrammetrie ist ein etablierter Ansatz, um aus Bildaufnahmen die räumliche Lage eines Objektes zu bestimmen. Es steht daher eine Vielzahl geeigneter Algorithmen für die Bildauswertung zur Verfügung. According to one aspect of the invention, the detected emission of the augmented reality device is evaluated using photogrammetric measures. Photogrammetry is an established approach to determine the spatial position of an object from image recordings. A large number of suitable algorithms for image evaluation are therefore available.
Besonders vorteilhaft wird ein erfindungsgemäßes Verfahren oder eine erfindungsgemäße Vorrichtung in einem Fortbewegungsmittel, einer Infrastruktureinrichtung oder einem Augmented-Reality-Gerät eingesetzt. Bei dem Fortbewegungsmittel kann es sich insbesondere um ein Kraftfahrzeug handeln, z.B. um einen Personenkraftwagen, ein Nutzfahrzeug oder einen Bus. Bei der Infrastruktureinrichtung kann es sich beispielsweise um eine Bushaltestelle, eine Einrichtung zur Anzeige von Werbung oder Informationen, ein Stadtmöbelstück oder einen sonstigen Infrastrukturgegenstand im öffentlichen Raum handeln. Beispiele für Augmented-Reality-Geräte sind Augmented-Reality-Brillen, Augmented-Reality-Smartphones oder Augmented-Reality-Tablets.A method according to the invention or a device according to the invention is used particularly advantageously in a means of transportation, an infrastructure facility or an augmented reality device. The means of transportation can in particular be a motor vehicle act, for example, a passenger car, a commercial vehicle or a bus. The infrastructure facility can be, for example, a bus stop, a facility for displaying advertising or information, a piece of street furniture or another infrastructure object in public space. Examples of augmented reality devices are augmented reality glasses, augmented reality smartphones or augmented reality tablets.
Weitere Merkmale der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung und den angehängten Ansprüchen in Verbindung mit den Figuren ersichtlich.
-
1 zeugt schematisch ein Verfahren zum Erfassen von Informationen zu einer Person; -
2 zeigt schematisch eine erste Ausführungsform einer Vorrichtung zum Erfassen von Informationen zu einer Person; -
3 zeigt schematisch eine zweite Ausführungsform einer Vorrichtung zum Erfassen von Informationen zu einer Person; -
4 zeigt eine Verkehrssituation mit einem Fortbewegungsmittel und einem Fußgänger; -
5 zeigt schematisch eine Augmented-Reality-Brille; -
6 stellt schematisch ein Kraftfahrzeug dar, in dem eine erfindungsgemäße Lösung realisiert ist; und -
7 stellt schematisch eine Infrastruktureinrichtung dar, in der eine erfindungsgemäße Lösung realisiert ist.
-
1 schematically shows a method for gathering information about a person; -
2 shows schematically a first embodiment of a device for acquiring information about a person; -
3 shows schematically a second embodiment of a device for capturing information about a person; -
4 shows a traffic situation with a means of transport and a pedestrian; -
5 schematically shows augmented reality glasses; -
6 shows schematically a motor vehicle in which a solution according to the invention is implemented; and -
7 schematically represents an infrastructure device in which a solution according to the invention is implemented.
Zum besseren Verständnis der Prinzipien der vorliegenden Erfindung werden nachfolgend Ausführungsformen der Erfindung anhand der Figuren detaillierter erläutert. Es versteht sich, dass sich die Erfindung nicht auf diese Ausführungsformen beschränkt und dass die beschriebenen Merkmale auch kombiniert oder modifiziert werden können, ohne den Schutzbereich der Erfindung zu verlassen, wie er in den angehängten Ansprüchen definiert ist.For a better understanding of the principles of the present invention, embodiments of the invention are explained in more detail below with reference to the figures. It goes without saying that the invention is not limited to these embodiments and that the features described can also be combined or modified without departing from the scope of protection of the invention as defined in the appended claims.
In
Der Sensor 22 und die Auswerteeinheit 23 können von einer Kontrolleinheit 24 gesteuert werden. Über eine Benutzerschnittstelle 27 können gegebenenfalls Einstellungen des Sensors 22, der Auswerteeinheit 23 oder der Kontrolleinheit 24 geändert werden. Die in der Vorrichtung 20 anfallenden Daten können bei Bedarf in einem Speicher 25 abgelegt werden, beispielsweise für eine spätere Auswertung oder für eine Nutzung durch die Komponenten der Vorrichtung 20. Die Auswerteeinheit 23 sowie die Kontrolleinheit 24 können als dedizierte Hardware realisiert sein, beispielsweise als integrierte Schaltungen. Natürlich können sie aber auch teilweise oder vollständig kombiniert oder als Software implementiert werden, die auf einem geeigneten Prozessor läuft, beispielsweise auf einer GPU oder einer CPU. Der Eingang 21 und der Ausgang 26 können als getrennte Schnittstellen oder als eine kombinierte bidirektionale Schnittstelle implementiert sein.The
Der Prozessor 32 kann eine oder mehrere Prozessoreinheiten umfassen, beispielsweise Mikroprozessoren, digitale Signalprozessoren oder Kombinationen daraus.
Die Speicher 25, 31 der beschriebenen Ausführungsformen können sowohl volatile als auch nichtvolatile Speicherbereiche aufweisen und unterschiedlichste Speichergeräte und Speichermedien umfassen, beispielsweise Festplatten, optische Speichermedien oder Halbleiterspeicher.The
Nachfolgend sollen bevorzugte Ausführungsformen der Erfindung anhand von
Mit der Kamera 40 kann auch die Abstrahlung eines anderen Augmented-Reality-Gerätes erfasst werden. Aus dieser kann die Augmented-Reality-Brille dann auf die Anwesenheit, die Position oder die Bewegung einer weiteren Person schließen. Zudem kann eine Interaktionswahrscheinlichkeit bestimmt werden. Der Nutzer der Augmented-Reality-Brille kann dann beispielsweise darüber informiert werden, dass sich eine Person nähert und gegebenenfalls Kontakt aufnehmen möchte.The
Die von der Vorrichtung 20 erfassten Informationen über eine Person können genutzt werden, um eine Kollisionswahrscheinlichkeit zu bestimmen und im Falle einer drohenden Kollision geeignete Maßnahmen zu veranlassen, z.B. die Ausgabe einer Warnung an einen Fahrer des Kraftfahrzeugs oder an die erfasste Person, ein automatisiertes Brems- oder Ausweichmanöver, etc. Daneben können die Informationen aber auch genutzt werden, um eine Wahrscheinlichkeit der Interaktion der Person mit dem Kraftfahrzeug zu bestimmen. Beispielsweise kann es sich bei dem Kraftfahrzeug um ein Taxi handeln. Erscheint nun eine Interaktion der Person mit dem Taxi wahrscheinlich, z.B., weil sich die Person in Richtung des Taxis bewegt oder sich das Taxi zumindest im Sichtbereich der Person befindet, können vorbereitende Maßnahmen für die Interaktion getroffen werden. Mögliche vorbereitende Maßnahmen sind z.B. eine automatisierte Ansprache der Person, das Öffnen einer Tür oder eines Fensters, das Anzeigen nützlicher Informationen auf einer externen Anzeige, etc.The information about a person recorded by the
Die von der Vorrichtung 20 erfassten Informationen über eine Person können genutzt werden, um eine Wahrscheinlichkeit der Interaktion der Person mit der Werbetafel zu bestimmen. Erscheint nun eine Interaktion der Person mit der Werbetafel wahrscheinlich, z.B., weil sich die Person in Richtung der Werbetafel bewegt oder sich die Werbetafel zumindest im Sichtbereich der Person befindet, können vorbereitende Maßnahmen für die Interaktion getroffen werden. Beispielsweise wird eine Helligkeit der Werbetafel erhöht, es wird eine Animation oder ein Werbefilm gestartet oder es erfolgt eine Ansprache der Person, etc.Information about an individual collected by
BezugszeichenlisteReference List
- 11
- Personperson
- 22
- Augmented-Reality-GerätAugmented Reality Device
- 33
- Abstrahlungradiation
- 44
- Erfassungsvorrichtungdetection device
- 55
- Erfassungsbereichdetection range
- 66
- Gebäudebuilding
- 1010
- Erfassen einer Abstrahlung eines Augmented-Reality-GerätesCapturing an emission of an augmented reality device
- 1111
- Auswerten der erfassten AbstrahlungEvaluation of the detected radiation
- 1212
- Bestimmen einer relativen Position des Augmented-Reality-Gerätesdetermining a relative position of the augmented reality device
- 1313
- Bestimmen einer Bewegung eines Nutzers des Augmented-Reality-GerätesDetermining a movement of a user of the augmented reality device
- 1414
- Ermitteln einer Interaktionswahrscheinlichkeit oder einer KollisionswahrscheinlichkeitDetermining an interaction probability or a collision probability
- 2020
- Vorrichtungcontraption
- 2121
- EingangEntry
- 2222
- Sensorsensor
- 2323
- Auswerteeinheitevaluation unit
- 2424
- Kontrolleinheitcontrol unit
- 2525
- SpeicherStorage
- 2626
- AusgangExit
- 2727
- Benutzerschnittstelleuser interface
- 3030
- Vorrichtungcontraption
- 3131
- SpeicherStorage
- 3232
- Prozessorprocessor
- 3333
- EingangEntry
- 3434
- AusgangExit
- 4040
- Kameracamera
- 4141
- Posenbestimmungsvorrichtungpose determination device
- 4242
- Grafikeinheitgraphics unit
- 4343
- Projektionseinheitprojection unit
- 5050
- Fortbewegungsmittelmeans of transportation
- 5151
- Umgebungssensorikenvironmental sensors
- 5252
- Datenübertragungseinheitdata transfer unit
- 5353
- Assistenzsystemassistance system
- 5454
- SpeicherStorage
- 5555
- Netzwerknetwork
- 6060
- Infrastruktureinrichtunginfrastructure facility
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019217752.2A DE102019217752B4 (en) | 2019-11-18 | 2019-11-18 | Method, computer program with instructions and device for gathering information about a person |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019217752.2A DE102019217752B4 (en) | 2019-11-18 | 2019-11-18 | Method, computer program with instructions and device for gathering information about a person |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102019217752A1 DE102019217752A1 (en) | 2021-05-20 |
DE102019217752B4 true DE102019217752B4 (en) | 2022-09-29 |
Family
ID=75684041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019217752.2A Active DE102019217752B4 (en) | 2019-11-18 | 2019-11-18 | Method, computer program with instructions and device for gathering information about a person |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019217752B4 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013209448A1 (en) | 2013-05-22 | 2014-11-27 | Robert Bosch Gmbh | Laser light pattern projector as well as multi-camera system with the laser light pattern viewer |
DE102013212916A1 (en) | 2013-07-03 | 2015-01-08 | Bayerische Motoren Werke Aktiengesellschaft | Display of collision warnings on a head-mounted display |
DE102014009608A1 (en) | 2014-06-27 | 2015-12-31 | Audi Ag | Operation of AR glasses in the motor vehicle |
DE102014215057A1 (en) | 2014-07-31 | 2016-02-04 | Bayerische Motoren Werke Aktiengesellschaft | Determination of a collision probability on the basis of a pedestrian's head orientation |
DE102014217963A1 (en) | 2014-09-09 | 2016-03-10 | Bayerische Motoren Werke Aktiengesellschaft | Determine the pose of a data goggle using passive IR markers |
DE102014225222A1 (en) | 2014-12-09 | 2016-06-09 | Bayerische Motoren Werke Aktiengesellschaft | Determining the position of an HMD relative to the head of the wearer |
DE102017200484A1 (en) | 2017-01-13 | 2018-07-19 | Audi Ag | A system for outputting an output signal to a user |
DE102017211528A1 (en) | 2017-07-06 | 2019-01-10 | Bayerische Motoren Werke Aktiengesellschaft | Means of transport and data glasses for interaction with data glasses |
-
2019
- 2019-11-18 DE DE102019217752.2A patent/DE102019217752B4/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013209448A1 (en) | 2013-05-22 | 2014-11-27 | Robert Bosch Gmbh | Laser light pattern projector as well as multi-camera system with the laser light pattern viewer |
DE102013212916A1 (en) | 2013-07-03 | 2015-01-08 | Bayerische Motoren Werke Aktiengesellschaft | Display of collision warnings on a head-mounted display |
DE102014009608A1 (en) | 2014-06-27 | 2015-12-31 | Audi Ag | Operation of AR glasses in the motor vehicle |
DE102014215057A1 (en) | 2014-07-31 | 2016-02-04 | Bayerische Motoren Werke Aktiengesellschaft | Determination of a collision probability on the basis of a pedestrian's head orientation |
DE102014217963A1 (en) | 2014-09-09 | 2016-03-10 | Bayerische Motoren Werke Aktiengesellschaft | Determine the pose of a data goggle using passive IR markers |
DE102014225222A1 (en) | 2014-12-09 | 2016-06-09 | Bayerische Motoren Werke Aktiengesellschaft | Determining the position of an HMD relative to the head of the wearer |
DE102017200484A1 (en) | 2017-01-13 | 2018-07-19 | Audi Ag | A system for outputting an output signal to a user |
DE102017211528A1 (en) | 2017-07-06 | 2019-01-10 | Bayerische Motoren Werke Aktiengesellschaft | Means of transport and data glasses for interaction with data glasses |
Also Published As
Publication number | Publication date |
---|---|
DE102019217752A1 (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2620929B1 (en) | Method and apparatus for detecting an exceptional traffic situation | |
DE102019208663B4 (en) | Method for supporting a driver with regard to objects and motor vehicle relevant to a traffic situation | |
DE112018003314B4 (en) | Display system, information display system, method for controlling a display system, program and recording medium for a display system and mobile body | |
DE102017115318A1 (en) | Heads-up display for monitoring vehicle perception activity | |
DE102009020328A1 (en) | A method for displaying differently well visible objects from the environment of a vehicle on the display of a display device | |
DE112017007050T5 (en) | Information processing apparatus, information processing method and information processing program | |
EP3055650A1 (en) | Method and device for augmented display | |
DE102013222322A1 (en) | Method and device for providing Augmented Reality | |
DE112019002394T5 (en) | DETECTING ACTIVITY NEAR AUTONOMOUS VEHICLES | |
DE102017111468A1 (en) | A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object | |
DE102018106918A1 (en) | Driver assistance device, driver assistance method and non-volatile storage medium | |
DE102018213230A1 (en) | Method and control device for warning a driver of a motor vehicle and motor vehicle with such a control device | |
DE102012213466A1 (en) | Method and device for monitoring a vehicle occupant | |
DE102016014712B4 (en) | Vehicle and method for outputting information to a vehicle environment | |
DE102018104012A1 (en) | OVERLAYING OF RAIL OBJECTS ON A VEHICLE INDEX RELATED TO HAZARDOUS POTENTIALS | |
DE102012018556B4 (en) | Assistance system to enable an extended foresight for subsequent road users | |
DE102017215163A1 (en) | System of a motor vehicle and an augmented reality goggles and method for determining a pose of augmented reality goggles in the interior of a vehicle | |
DE102018215186A1 (en) | Concept for monitoring and planning a movement of a means of transportation | |
EP2813999B1 (en) | Augmented reality system and method of generating and displaying augmented reality object representations for a vehicle | |
DE102006037600B4 (en) | Method for the resolution-dependent representation of the environment of a motor vehicle | |
EP3765941A1 (en) | Method and device for providing information using an augmented reality device, method and device for providing information for controlling a display of an augmented reality device, method and device for controlling a display of an augmented reality device, and computer-readable storage medium with instructions for carrying out the method | |
DE112019007195T5 (en) | DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM | |
DE112020006319T5 (en) | DRIVING ASSISTANCE DEVICE, DRIVING ASSISTANCE METHOD AND PROGRAM | |
DE102012213132B4 (en) | Method and device for the fusion of camera images of at least two vehicles | |
DE102019217752B4 (en) | Method, computer program with instructions and device for gathering information about a person |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |