DE102019215660A1 - Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position - Google Patents

Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position Download PDF

Info

Publication number
DE102019215660A1
DE102019215660A1 DE102019215660.6A DE102019215660A DE102019215660A1 DE 102019215660 A1 DE102019215660 A1 DE 102019215660A1 DE 102019215660 A DE102019215660 A DE 102019215660A DE 102019215660 A1 DE102019215660 A1 DE 102019215660A1
Authority
DE
Germany
Prior art keywords
data
navigation
motor vehicle
target position
data source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019215660.6A
Other languages
German (de)
Inventor
Christian Weigel
Roland Haberl
Leonie Gauer
Tim Tiemann
Daniel Erb
Miriam Wilmsen
Tobias Schimanski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102019215660.6A priority Critical patent/DE102019215660A1/en
Publication of DE102019215660A1 publication Critical patent/DE102019215660A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3611Destination input or retrieval using character input or menus, e.g. menus of POIs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Führen eines Kraftfahrzeugs (11) und/oder mobilen Endgeräts an eine Zielposition (12), wobei durch Prozessoreinrichtung (10) die Zielposition (12) aus einer Nutzereingabe (15) auf der Grundlage von Geopositionsdaten (26) einer Navigationsdatenquelle (21) ermittelt wird, wobei die Geopositionsdaten (26) vorbestimmte Navigationspunkte (27) in einem Verkehrswegenetz beschreiben. Die Erfindung sieht vor, dass die in der Nutzereingabe (15) angegebene Zielposition (12) von den Navigationspunkten (27) aus der Navigationsdatenquelle (21) verschieden ist und aber die Zielposition (12) mit einem Bezug (29') zu zumindest einem der Navigationspunkte (27) beschreibt und dass durch die Prozessoreinrichtung (10) in Abhängigkeit von zumindest einer vorbestimmten Beschreibungsdatenquelle (33) Beschreibungsdaten (37), die eine jeweilige räumliche Umgebung des jeweiligen Navigationspunktes (27) beschreiben, ermittelt werden und anhand der Beschreibungsdaten (37) Wegbeschreibungsdaten (16) zu der Zielposition (12) ermittelt werden.The invention relates to a method for guiding a motor vehicle (11) and / or mobile terminal to a target position (12), the target position (12) being selected from a user input (15) on the basis of geographic position data (26) by the processor device (10) Navigation data source (21) is determined, the geoposition data (26) describing predetermined navigation points (27) in a traffic route network. The invention provides that the target position (12) specified in the user input (15) is different from the navigation points (27) from the navigation data source (21) and the target position (12) with a reference (29 ') to at least one of the Describes navigation points (27) and that the processor device (10) determines, depending on at least one predetermined description data source (33), description data (37) which describe a respective spatial environment of the respective navigation point (27) and uses the description data (37) Route description data (16) for the target position (12) can be determined.

Description

Die Erfindung betrifft ein Verfahren zum Führen eines Kraftfahrzeugs an ein Navigationsziel oder eine Zielposition, die ein Benutzer mittels einer Nutzereingabe vorgibt. Im Zusammenhang einer sogenannten Anschlussnavigation kann das Verfahren zum Führen eines Kraftfahrzeug und anschließend (z.B. für eine abschließende Navigation in einem Gebäude) zum Führen eines mobilen Endgeräts, wie z.B. eines Smartphones, dienen. Es kann auch eine mobiles Endgerät alleine (z.B. mittels Navigationsanweisungen) geführt werden. Das Verfahren wird durch eine Prozessoreinrichtung durchgeführt, die ebenfalls Bestandteil der Erfindung ist.The invention relates to a method for guiding a motor vehicle to a navigation destination or a destination position which a user specifies by means of a user input. In the context of what is known as follow-up navigation, the method can be used to drive a motor vehicle and then (e.g. for a final navigation in a building) to guide a mobile device, such as a smartphone. A mobile device can also be used alone (e.g. using navigation instructions). The method is carried out by a processor device, which is also part of the invention.

In einem heutigen Kraftfahrzeug kann ein Navigationssystem bereitgestellt sein, in welches ein Benutzer Sprach- und Texteingaben von Navigationszielen eingeben kann. Diese Eingaben beschränken sich allerdings auf einen vorbestimmten Vorrat an Navigationspunkten in einem Verkehrswegenetz. In der Navigationsdatenbank des Navigationssystems sind zu jedem Navigationspunkt dessen Geopositionsdaten hinterlegt, die bei Auswahl eines Navigationspunkts ausgelesen und zum Führen des Kraftfahrzeugs genutzt werden. Hiermit beschränkt sich also die Möglichkeit einer Vorgabe einer Zielposition bei einem heutigen Navigationssystem auf die Auswahl eines solchen vorbekannten Navigationspunkts, das heißt eines auswählbaren Objekts, wie beispielsweise einer bestimmten Adresse (Straße, Hausnummer und Stadt), eines vorbestimmten sogenannten POI (Point of Interest), einer vorgegebenen Favoritenadresse (zum Beispiel „nach Hause“/„zur Arbeit“) und/oder einer Kontaktadresse beispielsweise aus einem digitalen Adressbuch.In today's motor vehicle, a navigation system can be provided into which a user can enter voice and text inputs for navigation destinations. However, these inputs are limited to a predetermined supply of navigation points in a traffic route network. In the navigation database of the navigation system, its geoposition data are stored for each navigation point, which are read out when a navigation point is selected and used to drive the motor vehicle. In this way, the possibility of specifying a target position in a current navigation system is limited to the selection of such a previously known navigation point, i.e. a selectable object, such as a specific address (street, house number and city), a predetermined so-called POI (Point of Interest) , a preset favorite address (for example “home” / “to work”) and / or a contact address, for example from a digital address book.

Die Eingabe kann ein Benutzer dagegen nicht auf eine Zielposition richten, die nicht als Navigationspunkt hinterlegt ist. Somit ist die Genauigkeit einer Eingabe auf das Raster der vorbekannten Navigationspunkte beschränkt.On the other hand, a user cannot direct the input to a target position that is not stored as a navigation point. The accuracy of an input is thus limited to the grid of the previously known navigation points.

Gerade für den Fall, dass ein Benutzer einen solchen Navigationspunkt nicht als Referenz genau kennt, sondern die Zielposition nur anhand von unvollständigem Vorwissen beschreiben kann, beispielsweise mit der Angabe „Fahre mich zu meinem Kollegen, der in dem blauen Haus in der Gartenstraße wohnt“, muss sich ein Benutzer heutzutage auf den nächstmöglichen Navigationspunkt beschränken, der in dem genannten Beispiel also die Gartenstraße selbst wäre, ohne dass er eine Hausnummer nennen könnte.Especially in the event that a user does not exactly know such a navigation point as a reference, but can only describe the target position using incomplete prior knowledge, for example with the information "Drive me to my colleague who lives in the blue house on Gartenstrasse", Nowadays, a user has to limit himself to the next possible navigation point, which in the example mentioned would be Gartenstrasse itself, without being able to name a house number.

Bei einem benutzergeführten Kraftfahrzeug kann dann der Benutzer nach Erreichen des Navigationspunktes (z.B. die Gartenstraße) dann die verbleibende Strecke selbst fahren, bis er die gewünschte Zielposition visuell erkennt und auf sie zufährt. Dies geht bei einem voll-autonomen Fahrzeug nicht, das auch die Reststrecke zwischen dem verfügbaren Navigationspunkt und der Zielposition selbstständig fahren können muss, da von einem Benutzer das Führen über das Lenkrad nicht mehr absolviert werden kann. Gibt ein Benutzer beispielsweise vor: „Fahre mich bis in die Garageneinfahrt der Gartenstraße Nummer 8“, so wäre für ein voll-autonomes Fahrzeug aus einer Navigationsdatenbank als Navigationspunkt zwar die Gartenstraße Nummer 8 verfügbar, sodann wäre aber nach Erreichen dieses Navigationspunkts die eigentliche Zielposition (Garageneinfahrt) nicht verfügbar.In the case of a user-guided motor vehicle, after reaching the navigation point (e.g. the garden road), the user can then drive the remaining distance himself until he visually recognizes the desired target position and drives towards it. This is not possible with a fully autonomous vehicle, which also has to be able to drive the remaining distance between the available navigation point and the target position independently, since a user can no longer navigate using the steering wheel. For example, if a user specifies: "Drive me to the garage entrance of Gartenstrasse number 8", then Gartenstrasse number 8 would be available as a navigation point for a fully autonomous vehicle from a navigation database, but then the actual destination position would be available after reaching this navigation point ( Garage entrance) not available.

Auch eine sogenannte Anschlussnavigation, die ein Benutzer nach Verlassen des Kraftfahrzeugs beispielsweise innerhalb eines Gebäudes durchführen können möchte, lässt sich oftmals mit Navigationspunkten aus einer Navigationsdatenbank nicht durchführen.So-called follow-up navigation, which a user would like to be able to carry out for example within a building after leaving the motor vehicle, often cannot be carried out with navigation points from a navigation database.

Aus der US 7,831,433 B1 ist bekannt, dass ein Navigationssystem Navigationsanweisungen auf der Grundlage von lokalen Gegebenheiten in der Nähe der Zielposition ausgeben kann, beispielsweise die Angabe „hinter der Bäckerei rechts abbiegen“. Dies hilft einem Benutzer aber nicht dabei, die Zielposition selbst mit einem solchen Bezug anzugeben.From the US 7,831,433 B1 it is known that a navigation system can output navigation instructions on the basis of local conditions in the vicinity of the target position, for example the indication “turn right behind the bakery”. However, this does not help a user to specify the target position himself with such a reference.

Aus der US 2018/0066949 A1 ist bekannt, dass eine Eingabeeinrichtung von einem Benutzer eine Nutzereingabe empfangen kann, welche die Zielposition in umgangssprachlicher Weise beschreibt. Diese Beschreibung wird dann auf bekannte Navigationsziele abgebildet. Damit ist es einem Benutzer aber nur möglich, bereits in einer Navigationsdatenbank vorhandene Navigationspunkte zu erreichen.From the US 2018/0066949 A1 it is known that an input device can receive a user input from a user which describes the target position in a colloquial manner. This description is then mapped to known navigation destinations. However, this only enables a user to reach navigation points that are already present in a navigation database.

Aus der US 2019/0130904 A1 ist bekannt, wie eine verteilte Prozessoreinrichtung realisiert werden kann, um eine Eingabeeinrichtung, ein Navigationsgerät und ein mobiles Endgerät miteinander zu verknüpfen.From the US 2019/0130904 A1 it is known how a distributed processor device can be implemented in order to link an input device, a navigation device and a mobile terminal device with one another.

Der Erfindung liegt die Aufgabe zugrunde, ein Kraftfahrzeug automatisiert an eine Zielposition zu führen, die außerhalb eines Rasters von Navigationspunkten, die in einer Navigationsdatenbank gespeichert sind.The invention is based on the object of automatically guiding a motor vehicle to a target position that is outside a grid of navigation points that are stored in a navigation database.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen der Erfindung ergeben sich durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren.The object is achieved by the subjects of the independent claims. Advantageous embodiments of the invention result from the dependent claims, the following description and the figures.

Durch die Erfindung ist ein Verfahren zum Führen eines Kraftfahrzeugs bereitgestellt, um das Kraftfahrzeug an eine Zielposition zu führen. Das Führen kann in der eingangs beschriebenen Weise zusätzlich oder alternativ auch ein mobiles Endgerät betreffen. Der Übersichtlichkeit halber wird im Weiteren nur auf ein Kraftfahrzeug Bezug genommen, aber das Verfahren kann auch für ein mobiles Endgerät ausgelegt werden.The invention provides a method for driving a motor vehicle in order to guide the motor vehicle to a target position. The In the manner described at the beginning, leadership can additionally or alternatively also relate to a mobile terminal. For the sake of clarity, reference is made below only to a motor vehicle, but the method can also be designed for a mobile terminal.

Ein Benutzer kann hierbei die Zielposition mittels einer Benutzereingabe vorgeben. Das Verfahren sieht vor, dass durch eine Prozessoreinrichtung aus einer Eingabeeinrichtung Eingabedaten betreffend die Nutzereingabe empfangen werden. Die Nutzereingabe beschreibt die Zielposition, an welche der Benutzer geführt werden möchte. Durch die Prozessoreinrichtung wird die Zielposition auf der Grundlage von Geopositionsdaten einer Navigationsdatenquelle ermittelt. Allerdings geht das Verfahren hierbei davon aus, dass diese Geopositionsdaten nur vorbestimmte Navigationspunkte in einem Verkehrswegenetz beschreiben, also lediglich in der Genauigkeit des Rasters der Navigationspunkte angegeben sind. Solche Navigationspunkte können beispielsweise Adressen in Straßen des Verkehrswegenetzes und/oder die besagten POI und/oder Navigationsfavoriten (z.B. die Adresse des Eigenheims und/oder des Arbeitsplatzes) sein. Die Ortsauflösung ist also auf die Navigationspunkte der Navigationsdatenquelle beschränkt.A user can specify the target position by means of a user input. The method provides that input data relating to the user input are received by a processor device from an input device. The user input describes the target position to which the user would like to be guided. The target position is determined by the processor device on the basis of geographic position data from a navigation data source. However, the method is based on the assumption that these geopositioning data only describe predetermined navigation points in a traffic route network, that is to say are only given with the accuracy of the grid of the navigation points. Such navigation points can be, for example, addresses in streets of the traffic route network and / or the said POIs and / or navigation favorites (e.g. the address of the home and / or the workplace). The spatial resolution is therefore limited to the navigation points of the navigation data source.

Um nun über die Navigationspunkte hinaus eine genauere oder feinere Angabe der Zielposition zu ermöglichen, ist erfindungsgemäß vorgesehen, dass die in der Nutzereingabe angegebene Zielposition von den Navigationspunkten aus der Navigationsdatenquelle verschieden ist, das heißt zwischen zumindest zwei Navigationspunkten liegt und/oder eine Ortsauflösung größer als diejenige der Navigationspunkte erfordert, und die Eingabedaten die Zielposition dabei aber mit einem Bezug zu zumindest einem der Navigationspunkte beschreiben. Mit anderen Worten wird vorausgesetzt oder angenommen, dass der Benutzer seine Nutzereingabe zwar auf eine Zielposition richtet, die sich nicht auf einen Navigationspunkt beschränkt, er dabei aber zumindest einen der Navigationspunkte, wie sie in der Navigationsdatenquelle verfügbar oder gespeichert sind, mit angibt. In dem oben beschriebenen Beispiel wäre also die Angabe: „Das blaue Haus in der Gartenstraße“ zulässig, weil als Navigationspunkt die Angabe „Gartenstraße“ enthalten ist. Durch die Prozessoreinrichtung wird nun aus der Nutzereingabe die Angabe des zumindest einen darin angegebenen Navigationspunkts als jeweiliger Ankerpunkt extrahiert. Die Prozessoreinrichtung kann hierzu also die Eingabedaten daraufhin untersuchen oder analysieren, welcher Teil der Eingabedaten einen bekannten Navigationspunkt beschreibt. Die in der Nutzereingabe enthaltenen Wörter werden also dahingehend geprüft, ob sie auf einen der Navigationspunkte passen. Dies kann beispielsweise durch einen Datenvergleich (beispielsweise Textvergleich) erreicht werden.In order to enable a more precise or finer specification of the target position beyond the navigation points, it is provided according to the invention that the target position specified in the user input is different from the navigation points from the navigation data source, i.e. lies between at least two navigation points and / or a spatial resolution greater than that requires the navigation points, and the input data describe the target position with a reference to at least one of the navigation points. In other words, it is assumed or assumed that the user directs his user input to a target position that is not limited to a navigation point, but also specifies at least one of the navigation points as they are available or stored in the navigation data source. In the example described above, the specification: “The blue house on Gartenstrasse” would be permissible because the specification “Gartenstrasse” is included as a navigation point. The processor device now extracts the specification of the at least one navigation point specified therein as the respective anchor point from the user input. For this purpose, the processor device can therefore examine or analyze the input data to determine which part of the input data describes a known navigation point. The words contained in the user input are therefore checked to see whether they fit on one of the navigation points. This can be achieved, for example, by a data comparison (for example text comparison).

Zu dem jeweiligen extrahierten Ankerpunkt werden durch die Prozessoreinrichtung die Geopositionsdaten des jeweiligen Ankerpunkts aus der Navigationsdatenquelle ausgelesen. Damit ist in der Prozessoreinrichtung die jeweilige Geoposition des zumindest einen Ankerpunkts verfügbar oder bekannt.For the respective extracted anchor point, the processor device reads the geoposition data of the respective anchor point from the navigation data source. The respective geographic position of the at least one anchor point is thus available or known in the processor device.

Um nun die Zielposition darüber hinaus mit einer größeren Ortsauflösung als die Navigationspunkte und damit die extrahierten Ankerpunkte zu ermitteln, werden durch die Prozessoreinrichtung in Abhängigkeit von zumindest einer weiteren vorbestimmten Beschreibungsdatenquelle Beschreibungsdaten ermittelt, die eine jeweilige räumliche Umgebung des zumindest einen Ankerpunktes beschreiben. Die Prozessoreinrichtung greift also auf zumindest eine Beschreibungsdatenquelle zu, aus welcher sie Beschreibungsdaten empfangen oder erhalten kann, mittels welchen die jeweilige Umgebung des zumindest einen Ankerpunkts beschrieben ist und damit eine Beschreibung mit einer größeren Ortsauflösung als der Ankerpunkt selbst vorhanden ist. Es wird also zusätzlich zu der Navigationsdatenquelle noch zumindest eine Beschreibungsdatenquelle genutzt, die von der Navigationsdatenquelle verschieden ist.In order to determine the target position with a greater spatial resolution than the navigation points and thus the extracted anchor points, the processor device determines description data that describe a respective spatial environment of the at least one anchor point as a function of at least one further predetermined description data source. The processor device thus accesses at least one description data source from which it can receive or receive description data by means of which the respective surroundings of the at least one anchor point are described and thus a description with a greater spatial resolution than the anchor point itself is available. In addition to the navigation data source, at least one description data source that is different from the navigation data source is also used.

Ausgehend von den Geopositionsdaten des jeweiligen Ankerpunktes (in dem obigen Beispiel also die Geopositionsdaten der Gartenstraße) und anhand der Beschreibungsdaten (Beschreibung der räumlichen Umgebung des jeweiligen Ankerpunktes) werden Wegbeschreibungsdaten zu der Zielposition durch die Prozessoreinrichtung ermittelt. In dem genannten Beispiel greift also die Prozessoreinrichtung auf eine Beschreibungsdatenquelle zu, aus welcher Beschreibungsdaten betreffend die Farbe der Häuser in der Gartenstraße extrahiert oder ausgelesen werden können. Hierzu können an die zumindest eine Beschreibungsdatenquelle Anfragedaten übermittelt werden, die eine Charakteristik der jeweiligen Beschreibungsdatenquelle anfordern. Die jeweilige Beschreibungsdatenquelle kann dann mit Charakterisierungsdaten antworten, die beschreiben, welche über Eigenschaften die Beschreibungsdatenquelle Daten bereitstellen kann (z.B. Farberkennung, Plandaten) . Handelt es sich bei der Beschreibungsdatenquelle zum Beispiel um ein Kamerasystem mit einer Objekterkennung, so können die Charakterisierungsdaten angeben, dass Farbbilder der Umgebung daraufhin untersucht werden können, welchen Objekttyp (z.B. die Objekttypen Fahrzeug, Haus, Schranke, Garage) und welche Farbe einzelne Objekte in der Umgebung aufweisen. Eine solche Beschreibungsdatenquelle kann dann von der Prozessoreinrichtung in dem obigen Beispiel genutzt werden, weil sich damit ein blaues Haus erkennen lässt, sobald der Ankerpunkt, d.h. die Gartenstraße, erreicht ist.Based on the geoposition data of the respective anchor point (in the above example the geoposition data of the Gartenstrasse) and on the basis of the description data (description of the spatial surroundings of the respective anchor point), route description data to the target position are determined by the processor device. In the example mentioned, the processor device accesses a description data source from which description data relating to the color of the houses in Gartenstrasse can be extracted or read. For this purpose, query data can be transmitted to the at least one description data source, which request a characteristic of the respective description data source. The respective description data source can then respond with characterization data that describe which properties the description data source can provide data (e.g. color recognition, plan data). If the description data source is, for example, a camera system with object recognition, the characterization data can indicate that color images of the environment can be examined to determine which object type (e.g. the object types vehicle, house, barrier, garage) and which color individual objects are in the environment. Such a description data source can then be used by the processor device in the above example, because a blue house can be recognized with it as soon as the anchor point, i.e. Gartenstrasse, is reached.

Die letztendlich ermittelten Wegbeschreibungsdaten beschreiben die Strecke bis zur Zielposition und/oder enthalten Steueranweisungen zum Steuern des Kraftfahrzeugs zu der Zielposition. Das Kraftfahrzeug wird dann durch die Prozessoreinrichtung anhand der Wegbeschreibungsdaten zu der Zielposition geführt. Handelt es sich bei dem Kraftfahrzeug um ein benutzergelenktes Kraftfahrzeug, so kann das „Führen“ des Kraftfahrzeugs in der Ausgabe von Navigationsanweisungen bestehen. Handelt es sich bei dem Kraftfahrzeug um ein autonomes Fahrzeug mit einem Autopiloten, welcher die Längsführung (Beschleunigen und Bremsen) und die Querführung (Lenken) des Kraftfahrzeugs automatisiert ohne ein Zutun des Benutzers durchführt, so kann das Führen des Kraftfahrzeugs darin bestehen, dass die Prozessoreinrichtung Steuerbefehle zum Fahren des autonomen Fahrzeugs ausgibt.The route description data ultimately determined describe the route to the destination position and / or contain control instructions for steering the motor vehicle to the destination position. The motor vehicle is then guided to the target position by the processor device on the basis of the route description data. If the motor vehicle is a user-steered motor vehicle, the “driving” of the motor vehicle can consist in the output of navigation instructions. If the motor vehicle is an autonomous vehicle with an autopilot, which automatically performs the longitudinal guidance (acceleration and braking) and the lateral guidance (steering) of the motor vehicle without any action on the part of the user, then the guidance of the motor vehicle can consist in that the processor device Issues control commands for driving the autonomous vehicle.

Durch die Erfindung ergibt sich der Vorteil, dass die Prozessoreinrichtung das Kraftfahrzeug nicht nur auf der Grundlage einer Navigationsdatenquelle zu einer Zielposition führt, die einem vorbekannten Navigationspunkt entspricht, sondern zusätzlich zumindest eine Beschreibungsdatenquelle herangezogen oder genutzt wird, um mittels dieser auch zu einer Zielposition zu führen, die von den Navigationspunkten der Navigationsdatenquelle verschieden ist.The invention has the advantage that the processor device not only guides the motor vehicle to a target position on the basis of a navigation data source, which corresponds to a previously known navigation point, but also draws on or uses at least one description data source in order to also lead to a target position by means of it that is different from the navigation items of the navigation data source.

Die Erfindung umfasst auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben.The invention also encompasses embodiments which result in additional advantages.

In einer Ausführungsform beschreiben die Eingabedaten, die der Benutzer als Benutzereingabe eingibt, die Zielposition als eine Relativposition zu einem an dem zumindest einen Ankerpunkt angeordneten Objekt sowie eine sensorisch erfassbare Eigenschaft des Objekts. Das bereits genannte Beispiel vom „blauen Haus in der Gartenstraße“ ist eine solche Zielposition, da die Relativposition („zu dem blauen Haus“, also vor das blaue Haus) zu einem an dem zumindest einen Ankerpunkt („Gartenstraße“) angeordneten Objekt beschrieben ist. Als sensorisch erfassbare Eigenschaft des Objekts ist in diesem Beispiel dessen Farbe („blau“) angegeben. Die zumindest eine Beschreibungsdatenquelle, die durch die Prozessoreinrichtung zum Erreichen dieser Zielposition genutzt wird, weist zumindest einen Umgebungssensor auf, welcher die jeweilige Umgebung des zumindest einen Ankerpunktes erfasst (also sensiert) und Sensordaten als Beschreibungsdaten erzeugt. Die Prozessoreinrichtung nutzt also Sensordaten zumindest eines Umgebungssensors als Beschreibungsdaten, um ausgehend von dem zumindest einen Ankerpunkt die Zielposition zu erkennen. Wird also in dem genannten Beispiel die Gartenstraße erreicht, so wird die eigentliche Zielposition („blaues Haus“) dann sensorisch gesucht oder ermittelt. Das Kraftfahrzeug wird dann durch die Prozessoreinrichtung in Abhängigkeit von den Sensordaten geführt, bis in den Sensordaten die Eigenschaft des Objekts detektiert ist (also beispielsweise das blaue Haus erkannt wird) und daraufhin die Relativposition (in dem Beispiel das blaue Haus in der Gartenstraße) angesteuert wird. Der zumindest eine Umgebungssensor kann hierzu beispielsweise eine Kamera und/oder einen Radar und/oder einen Lidar als jeweiligen Umgebungssensor aufweisen. Mittels eines Radars kann beispielsweise die Position eines metallischen Objekts erkannt werden, um beispielsweise eine Nutzereingabe zuzulassen wie die folgende: „Parke in der Gartenstraße an einer Straßenlaterne“, um beispielsweise eine nächtliche Beleuchtung des Kraftfahrzeugs sicherzustellen. Wird also der zumindest eine Ankerpunkt erreicht, so kann mit dieser Ausführungsform die verbleibende Strecke bis zur Zielposition auf der Grundlage des zumindest einen Umgebungssensors ermittelt und die entsprechenden Wegbeschreibungsdaten erzeugt werden, um die Zielposition anhand der sensorisch erfassbaren Eigenschaften des Objekts zu ermitteln.In one embodiment, the input data that the user enters as user input describe the target position as a relative position to an object arranged at the at least one anchor point and a property of the object that can be detected by sensors. The above-mentioned example of the “blue house in Gartenstrasse” is such a target position, as the relative position (“to the blue house”, i.e. in front of the blue house) to an object located at the at least one anchor point (“Gartenstrasse”) is described . In this example, the color (“blue”) of the object is specified as a property of the object that can be detected by sensors. The at least one description data source that is used by the processor device to reach this target position has at least one environment sensor which detects (i.e. senses) the respective environment of the at least one anchor point and generates sensor data as description data. The processor device therefore uses sensor data from at least one environment sensor as description data in order to identify the target position based on the at least one anchor point. If Gartenstrasse is reached in the example mentioned, the actual target position (“blue house”) is then searched for or determined using sensors. The motor vehicle is then guided by the processor device depending on the sensor data until the property of the object is detected in the sensor data (e.g. the blue house is recognized) and the relative position (in the example the blue house in Gartenstrasse) is then controlled . For this purpose, the at least one environment sensor can have, for example, a camera and / or a radar and / or a lidar as the respective environment sensor. Using a radar, for example, the position of a metallic object can be detected, for example to allow user input such as the following: “Park in Gartenstrasse at a street lamp”, for example to ensure that the motor vehicle is illuminated at night. If the at least one anchor point is reached, then with this embodiment the remaining distance to the target position can be determined on the basis of the at least one environmental sensor and the corresponding route description data can be generated in order to determine the target position based on the sensor-detectable properties of the object.

In einer Ausführungsform beschreiben die Eingabedaten des Nutzers als Zielposition eine Relativposition zu einem an dem Ankerpunkt angeordneten mobilen Ziel. Ein solches mobiles Ziel kann beispielsweise ein anderes Kraftfahrzeug sein. Die Prozessoreinrichtung fragt aus einer Detektionsdatenquelle als Beschreibungsdaten eine aktuelle Geoposition des mobilen Ziels ab. Die Detektionsdatenquelle erkennt also die aktuelle Geoposition des mobilen Ziels. Beispielsweise kann so eine Nutzereingabe zum Definieren einer Zielposition genutzt werden, die ein Stauende beschreibt („Fahre an der letzten Ausfahrt vor dem Stauende der Autobahn A8 von der Autobahn ab“). Als Ankerpunkt kann hier die Angabe „Autobahn A8“ genutzt werden. Als Detektionsdatenquelle kann beispielsweise ein Datenserver für Verkehrsdaten genutzt werden.In one embodiment, the input data of the user describe, as the target position, a relative position to a mobile target arranged at the anchor point. Such a mobile destination can be another motor vehicle, for example. The processor device queries a current geoposition of the mobile target from a detection data source as description data. The detection data source thus recognizes the current geoposition of the mobile target. For example, a user input can be used to define a target position that describes the end of a traffic jam (“Leave the highway at the last exit before the end of the traffic jam on the A8”). The indication “Autobahn A8” can be used here as an anchor point. For example, a data server for traffic data can be used as a detection data source.

In einer Ausführungsform wird als mobiles Ziel ein mobiles Endgerät mit einem Empfänger für ein Positionssignal eines GNSS (Global Navigation Satellite System, globales Navigationssatellitensystem) angegeben. Mit anderen Worten kann sich das mobile Ziel in Form eines mobilen Endgeräts selbst orten, also selbst seine Geopositionsdaten bestimmen, indem es das Positionssignal eines GNSS, beispielsweise des GPS (Global Positioning System) in an sich bekannter Weise nutzt. Als Detektionsdatenquelle kann die Prozessoreinrichtung ein Funkmodul nutzen, welches aus dem mobilen Endgerät dessen Geopositionsdaten abfragt. Ein solches mobiles Endgerät kann in einem anderen Kraftfahrzeug angeordnet sein, sodass die Relativposition zu diesem anderen Kraftfahrzeug genutzt werden kann. Somit kann beispielsweise folgende Nutzereingabe ermöglicht werden: „Parke hier auf dem Parkplatz hinter dem Kraftfahrzeug von Klaus“, wobei als Ankerpunkt die Ortsangabe „hier auf dem Parkplatz“ genutzt werden kann und die Geopositionsdaten aus dem Kraftfahrzeug der Person „Klaus“ abgefragt werden können. Hierzu kann beispielsweise in einer Kontaktdatenbank eine Funkkennung des Kraftfahrzeugs der Person ermittelt werden und über das Funkmodul mittels der Funkkennung die Geopositionsdaten des mobilen Endgeräts in dem Kraftfahrzeug abgefragt werden. Das mobile Endgerät und das Funkmodul können beispielsweise auf dem Standard 5G (Mobilfunk) und/oder einem WLAN-Standard (Wireless Local Area Network) kommunizieren. Eine andere Bezeichnung für einen Mobilfunkstandard für die lokale Kommunikation ist auch Car-2-X.In one embodiment, a mobile terminal with a receiver for a position signal from a GNSS (Global Navigation Satellite System) is specified as the mobile target. In other words, the mobile target can locate itself in the form of a mobile terminal, i.e. determine its geoposition data itself by using the position signal of a GNSS, for example the GPS (Global Positioning System) in a manner known per se. As a detection data source, the processor device can use a radio module which queries the mobile terminal's geolocation data. Such a mobile terminal can be arranged in another motor vehicle, so that the position relative to this other motor vehicle can be used. Thus, for example, the following user input can be made possible: "Park here in the parking lot behind Klaus' motor vehicle", using as an anchor point the location information "here in the parking lot" can be used and the geoposition data from the vehicle of the person "Klaus" can be queried. For this purpose, for example, a radio identifier of the person's motor vehicle can be determined in a contact database and the geolocation data of the mobile terminal in the motor vehicle can be queried via the radio module by means of the radio identifier. The mobile terminal and the radio module can communicate, for example, on the 5G standard (cellular radio) and / or a WLAN standard (wireless local area network). Another name for a mobile radio standard for local communication is Car-2-X.

In einer Ausführungsform geben die Eingabedaten des Nutzers die Zielposition als Ort in einem von dem Verkehrswegenetz unerschlossenen Gelände. Mit anderen Worten reichen also die Straßen des Verkehrswegenetzes und beispielsweise Hausnummern nicht bis zu dem Ort auf dem Gelände. Die zumindest eine Beschreibungsdatenquelle umfasst eine Plandatenquelle für Plandaten eines Campusplans des Geländes. Solche Plandaten beschreiben also die örtlichen Gegebenheiten und/oder Objekte auf dem Gelände. Beispielsweise kann als Gelände das Grundstück eines Krankenhauses vorgesehen sein und der Campusplan kann einzelne Stationen des Krankenhauses (beispielsweise Unfallchirurgie und/oder Notaufnahme) beschreiben. Die Prozessoreinrichtung kann anhand der Plandaten den Ort in dem Gelände lokalisieren. Erreicht also das Kraftfahrzeug die Adresse des Geländes als Ankerpunkt, so kann das Kraftfahrzeug nun auf das Gelände geführt werden und mittels der Plandaten des Campusplans bis zu einer Zielposition eines Orts auf dem Gelände geführt werden. In dem Beispiel des Krankenhauses kann beispielsweise folgende Nutzereingabe ermöglicht werden: „Fahre zur Notaufnahme des Krankenhauses“.In one embodiment, the input data of the user give the target position as a location in a terrain that is not open to the traffic route network. In other words, the streets of the traffic route network and, for example, house numbers do not extend to the location on the site. The at least one description data source comprises a plan data source for plan data of a campus plan of the site. Such plan data therefore describe the local conditions and / or objects on the site. For example, the premises of a hospital can be provided as the site and the campus map can describe individual wards of the hospital (for example trauma surgery and / or emergency room). The processor device can use the plan data to localize the location in the area. If the motor vehicle reaches the address of the site as an anchor point, the motor vehicle can now be guided onto the site and guided to a target position of a location on the site using the plan data of the campus map. In the example of the hospital, the following user input can be made possible: “Drive to the hospital emergency room”.

Die Plandatenquelle kann hierbei beispielsweise ein Server des Internets sein, welcher die Plandaten bereitstellt. In einer Ausführungsform umfasst die Plandatenquelle ein Leitsystem des Geländes selbst, also einen Computer oder Prozessor, welcher auf der Grundlage von Sensoren und/oder Sendern den Verkehr auf dem Gelände koordiniert. Zusätzlich oder alternativ dazu umfasst die Plandatenquelle in einer Ausführungsform zumindest einen auf dem Gelände bereitgestellten ortsfesten Signalgeber. Der ortsfeste Signalgeber kann z.B. als QR-Tag, Funkbake, Lichtsignalgeber und/oder akustischer Signalgeber ausgestaltet sein. Ein QR-Tag ist ein Hinweisgeber oder Hinweisschild mit einem QR-Code (QR - Quick Response). Ein solcher QR-Tag kann eine Ortsbeschreibung des jeweils durch den QR-Tag gekennzeichneten Orts angeben. Somit kann durch die Prozessoreinrichtung das Kraftfahrzeug an einen Ort geführt werden, der durch den QR-Tag identifiziert ist. Somit kann die Prozessoreinrichtung anhand des QR-Tags prüfen, ob die Zielposition erreicht ist, wenn nämlich die Ortsangabe in dem QR-Tag mit der Zielposition übereinstimmt (beispielsweise die Angabe „Notaufnahme“ auf dem Gelände eines Krankenhauses). Zusätzlich oder alternativ dazu umfasst in einer Ausführungsform die Plandatenquelle zumindest eine Funkbake. Eine solche Funkbake kann ebenfalls zumindest einen Ort und/oder eine Geländebeschreibung des Geländes umfassen. Somit ist eine funkbasierte Ermittlung der Plandaten ermöglicht, was zur Unabhängigkeit von optischen Verhältnissen führt. Ein Lichtsignalgeber kann z.B. mittels zumindest einer Leuchtdiode ein in der Leuchtintensität und/oder Leuchtfarbe moduliertes Licht aussenden, beispielsweise von einer Deckenleuchte aus. Ein Lichtsensor kann dann in Abhängigkeit von dem modulierten Licht ein elektrisches Datensignal erzeugen.The plan data source can be, for example, an Internet server that provides the plan data. In one embodiment, the plan data source comprises a control system of the site itself, that is to say a computer or processor which coordinates the traffic on the site on the basis of sensors and / or transmitters. Additionally or alternatively, the plan data source in one embodiment comprises at least one stationary signal transmitter provided on the site. The stationary signal transmitter can be designed, for example, as a QR tag, radio beacon, light signal transmitter and / or acoustic signal transmitter. A QR tag is a whistleblower or information sign with a QR code (QR - Quick Response). Such a QR tag can provide a description of the location of the location identified by the QR tag. The processor device can thus guide the motor vehicle to a location that is identified by the QR tag. The processor device can thus use the QR tag to check whether the target position has been reached, namely if the location information in the QR tag matches the target position (for example the information “emergency room” on the premises of a hospital). Additionally or alternatively, in one embodiment the plan data source comprises at least one radio beacon. Such a radio beacon can also include at least one location and / or a description of the terrain. This enables a radio-based determination of the plan data, which leads to independence from optical conditions. A light signal transmitter can, for example, emit a light with a modulated light intensity and / or light color by means of at least one light emitting diode, for example from a ceiling light. A light sensor can then generate an electrical data signal as a function of the modulated light.

In einer Ausführungsform wird als Navigationsdatenquelle zusätzlich oder alternativ zu einer Navigationsdatenbank selbst auch ein Empfänger für ein Positionssignal eines GNSS bereitgestellt. Der Empfänger ist dabei in dem Kraftfahrzeug selbst angeordnet, sodass also die aktuelle Geoposition des Kraftfahrzeugs selbst ermittelt wird. Als Ankerpunkt wird somit aus dieser Navigationsdatenquelle die aktuelle Geoposition des Kraftfahrzeugs ermittelt. Somit kann als Ankerpunkt oder Ausgangspunkt die Geoposition des Kraftfahrzeugs selbst genutzt werden.In one embodiment, a receiver for a position signal of a GNSS is also provided as a navigation data source in addition or as an alternative to a navigation database itself. The receiver is arranged in the motor vehicle itself, so that the current geoposition of the motor vehicle itself is determined. The current geoposition of the motor vehicle is thus determined from this navigation data source as the anchor point. The geoposition of the motor vehicle itself can thus be used as an anchor point or starting point.

In einer Ausführungsform weist zudem die Eingabeeinrichtung, über welche der Nutzer seine Nutzereingabe tätigt, zum einen Gestenerkenner und/oder einen Blickrichtungserkenner auf und zum anderen weist sie eine Spracheingabeeinrichtung auf. Der Gestenerkenner kann eine Gestalt oder Haltung einer Hand und/oder eines Arms des Benutzers in an sich bekannter Weise erkennen und beschreiben. Ein Blickrichtungserkenner kann in an sich bekannter Weise einen Blickrichtungsvektor einer Blickrichtung des Nutzers ermitteln. Die Spracheingabeeinrichtung kann eine Texteingabe von Sprache und/oder die Eingabe von gesprochener Sprache in an sich bekannter Weise vorsehen. Die Benutzereingabe umfasst entsprechend eine Kombination aus einerseits einer Geste und/oder Blickrichtung und andererseits einer von der Spracheingabeeinrichtung erfassten Auslösephrase. Die Auslösephrase kennzeichnet die aktuelle Geste und/oder Blickrichtung als Ortsangabe. Der Benutzer kann also eine Geste ausführen und/oder seine Blickrichtung ausrichten und mittels der Spracheingabeeinrichtung eine Auslösephrase eingeben. Zeigt der Nutzer beispielsweise mittels einer Geste auf ein Umgebungsobjekt in der Umgebung des Kraftfahrzeugs und gibt als Auslösephrase das Wort „dort“ oder „dorthin“, so wird diese Geste als Ortsangabe interpretiert. Als Navigationspunkt aus der Navigationsdatenquelle wird durch die Prozessoreinrichtung in der beschriebenen Weise die aktuelle Geoposition des Kraftfahrzeugs ermittelt und als Eingabedaten werden durch die Eingabeeinrichtung anhand der erkannten Geste und/oder Blickrichtung einerseits und der Auslösephrase andererseits eine Relativlage eines Schnittpunkts eines durch die Geste und/oder Blickrichtung definierten Strahls mit dem besagten Umgebungsobjekt ermittelt. Die Eingabedaten geben also den Strahlenverlauf des Strahls und/oder seinen Berührungspunkt mit dem Umgebungsobjekt an. Da als Navigationspunkt oder Ankerpunkt die aktuelle Geoposition des Fahrzeugs selbst ermittelt wird, kann also ausgehend von dem Kraftfahrzeug und der Relativlage dieses Schnittpunkts bezüglich des Kraftfahrzeugs als Zielposition das Umgebungsobjekt identifiziert werden. Somit kann als gültige Nutzereingabe ermöglicht werden, dass der Nutzer die Nutzereingabe tätigt: „Fahre mich dorthin“, wobei „dorthin“ eine Auslösephrase ist, die der Benutzer mit einer Geste und/oder Blickrichtung begleiten kann, woraufhin als Zielposition ausgehend von der aktuellen Geoposition des Kraftfahrzeugs der besagte Schnittpunkt eines durch die Geste und/oder Blickrichtung definierten Strahls mit einem Umgebungsobjekt ermittelt wird. Das Kraftfahrzeug wird somit zu dem Umgebungsobjekt geführt.In one embodiment, the input device via which the user makes his / her user input also has a gesture recognizer and / or a line of sight recognizer and, on the other hand, it has a voice input device. The gesture recognizer can recognize and describe a shape or posture of a hand and / or an arm of the user in a manner known per se. A viewing direction detector can determine a viewing direction vector of a viewing direction of the user in a manner known per se. The voice input device can provide text input of language and / or input of spoken language in a manner known per se. The user input accordingly comprises a combination of, on the one hand, a gesture and / or gaze direction and, on the other hand, a trigger phrase recorded by the voice input device. The trigger phrase identifies the current gesture and / or viewing direction as a location. The user can therefore perform a gesture and / or align his line of sight and enter a trigger phrase by means of the voice input device. For example, if the user points to an environmental object in the vicinity of the motor vehicle by means of a gesture and gives the word “there” or “there” as the trigger phrase, this gesture is interpreted as a location. As a navigation point from the navigation data source, the processor device determines the current geoposition of the motor vehicle in the manner described and, as input data, the input device uses the recognized gesture and / or viewing direction on the one hand and the trigger phrase on the other hand to provide a relative position of an intersection of a beam defined by the gesture and / or viewing direction with the said surrounding object determined. The input data therefore indicate the course of the ray and / or its point of contact with the surrounding object. Since the current geoposition of the vehicle itself is determined as the navigation point or anchor point, the surrounding object can therefore be identified as the target position based on the motor vehicle and the relative position of this intersection with respect to the motor vehicle. Thus, as a valid user input, it can be made possible that the user makes the user input: “Drive me there”, where “there” is a trigger phrase that the user can accompany with a gesture and / or line of sight, whereupon the target position based on the current geoposition of the motor vehicle, said intersection point of a beam defined by the gesture and / or viewing direction with an object in the surroundings is determined. The motor vehicle is thus guided to the surrounding object.

Wie bereits ausgeführt, ist das Verfahren besonders vorteilhaft, wenn das Kraftfahrzeug ein autonomes Fahrzeug ist. In diesem Zusammenhang sieht eine Ausführungsform vor, dass die Prozessoreinrichtung des Kraftfahrzeugs mittels von durch eine autonome Fahrfunktion erzeugten Fahrbefehlen, welche die Prozessoreinrichtung an einen Fahrprozessor des Kraftfahrzeugs ausgibt, zu der Zielposition geführt wird. Dieser Fahrprozessor kann ein Mikroprozessor eines Autopiloten des Kraftfahrzeugs sein.As already stated, the method is particularly advantageous when the motor vehicle is an autonomous vehicle. In this context, one embodiment provides that the processor device of the motor vehicle is guided to the target position by means of driving commands generated by an autonomous driving function, which the processor device outputs to a driving processor of the motor vehicle. This driving processor can be a microprocessor of an autopilot of the motor vehicle.

Wie bereits ausgeführt, kann es sich bei der zumindest einen Navigationsdatenquelle um eine Navigationsdatenbank handeln, die als Speicher in dem Kraftfahrzeug und/oder zusätzlich oder alternativ dazu durch einen Server des Internets realisiert sein kann. Zusätzlich oder alternativ dazu kann als Navigationsdatenquelle ein in dem Kraftfahrzeug angeordneter Empfänger für ein Positionssignal eines GNSS vorgesehen sein, also beispielsweise ein GPS-Empfänger. Mit einem solchen Empfänger kann als Ankerpunkt die aktuelle Geoposition des Kraftfahrzeugs genutzt werden.As already stated, the at least one navigation data source can be a navigation database which can be implemented as a memory in the motor vehicle and / or additionally or alternatively to this by a server on the Internet. In addition or as an alternative to this, a receiver arranged in the motor vehicle for a position signal from a GNSS can be provided as the navigation data source, for example a GPS receiver. With such a receiver, the current geoposition of the motor vehicle can be used as an anchor point.

Um das erfindungsgemäße Verfahren für ein Kraftfahrzeug durchführen zu können, sieht die Erfindung auch die beschriebene Prozessoreinrichtung zum Führen eines Kraftfahrzeugs an eine Zielposition vor. Die Prozessoreinrichtung ist dazu eingerichtet, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller aufweisen. Die Prozessoreinrichtung kann als ein Gerät des Kraftfahrzeugs selbst ausgestaltet sein oder als verteilte Einrichtung teilweise im Kraftfahrzeug und teilweise in einem Server des Internets realisiert sein. Als Server kann ein Computer oder ein Verbund aus mehreren Computern vorgesehen sein. Die Prozessoreinrichtung kann auch vollständig als Server des Internets ausgestaltet sein. Eine Kommunikation zwischen dem Kraftfahrzeug und einem solchen Server kann beispielsweise auf der Grundlage einer Funkverbindung (Mobilfunk und/oder WLAN) realisiert sein. Es kann auch eine Internetverbindung zwischen Kraftfahrzeug und Server vorgesehen sein. Die Prozessoreinrichtung kann einen Datenspeicheraufweisen, in welchem Programminstruktionen gespeichert sein können, die bei Ausführung durch die Prozessoreinrichtung diese veranlassen, die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.In order to be able to carry out the method according to the invention for a motor vehicle, the invention also provides the described processor device for guiding a motor vehicle to a target position. The processor device is set up to carry out an embodiment of the method according to the invention. For this purpose, the processor device can have at least one microprocessor and / or at least one microcontroller. The processor device can be designed as a device of the motor vehicle itself or it can be implemented as a distributed device partly in the motor vehicle and partly in a server on the Internet. A computer or a network of several computers can be provided as the server. The processor device can also be designed entirely as a server for the Internet. Communication between the motor vehicle and such a server can be implemented, for example, on the basis of a radio connection (cellular radio and / or WLAN). An Internet connection between the motor vehicle and the server can also be provided. The processor device can have a data memory in which program instructions can be stored which, when executed by the processor device, cause the processor device to carry out the embodiment of the method according to the invention.

Wird die Prozessoreinrichtung in einem Kraftfahrzeug bereitgestellt, so ergibt sich ein Kraftfahrzeug, das ebenfalls Bestandteil der Erfindung ist. Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet.If the processor device is provided in a motor vehicle, the result is a motor vehicle which is also part of the invention. The motor vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger vehicle or truck, or as a passenger bus or motorcycle.

Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen.The invention also includes the combinations of the features of the described embodiments.

Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt die einzige Figur:

  • Fig. eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Prozessoreinrichtung, die eine Ausführungsform des erfindungsgemäßen Verfahrens durchführt.
Exemplary embodiments of the invention are described below. The only figure shows:
  • 1 shows a schematic representation of an embodiment of the processor device according to the invention which carries out an embodiment of the method according to the invention.

Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention which are to be considered independently of one another and which also further develop the invention in each case independently of one another. Therefore, the disclosure is also intended to include combinations of the features of the embodiments other than those illustrated. Furthermore, the described embodiments can also be supplemented by further features of the invention already described.

In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.In the figures, the same reference symbols denote functionally identical elements.

Die einzige Fig. zeigt eine Prozessoreinrichtung 10, die beispielsweise in einem Kraftfahrzeug 11 angeordnet sein kann. Bei dem Kraftfahrzeug 11 kann es sich um einen Kraftwagen, insbesondere einen Personenkraftwagen oder Lastkraftwagen, handeln. Durch die Prozessoreinrichtung 10 kann das Kraftfahrzeug 11 zu einer Zielposition 12 geführt werden, die ein Benutzer (nicht dargestellt) der Prozessoreinrichtung 10 über eine Eingabeeinrichtung 13 vorgeben kann. Die Prozessoreinrichtung 10 kann auch außerhalb des Kraftfahrzeugs 11 bereitgestellt sein und mit dem Kraftfahrzeug 11 über eine Funkverbindung gekoppelt sein. Da sich dieselbe Funktionalität wie mit der dargestellten Prozessoreinrichtung 10 innerhalb des Kraftfahrzeugs 11 realisieren lässt, beschränkt sich die folgende Beschreibung auf den in der Figur dargestellten Fall der im Kraftfahrzeug 11 angeordneten Prozessoreinrichtung 10.The single figure shows a processor device 10 for example in a motor vehicle 11 can be arranged. In the motor vehicle 11 it can be a motor vehicle, in particular a passenger car or truck. By the processor device 10 can the motor vehicle 11 to a target position 12th are performed by a user (not shown) of the processor device 10 via an input device 13th can pretend. The processor facility 10 can also be used outside the vehicle 11 be provided and with the motor vehicle 11 be coupled via a radio link. Since the same functionality as with the illustrated processor device 10 inside the motor vehicle 11 can be realized, the following description is limited to the case shown in the figure in the motor vehicle 11 arranged processor device 10 .

Aus der Eingabeeinrichtung 13 kann die Prozessoreinrichtung 10 Eingabedaten 14 empfangen, die eine Nutzereingabe 15 beschreiben, die der Benutzer an der Eingabeeinrichtung 13 getätigt hat. Die Nutzereingabe kann auf gesprochener Sprache, einem eingegebenen Text und/oder einer Geste basieren. Anhand der Eingabedaten 14 kann die Prozessoreinrichtung 10 Wegbeschreibungsdaten 16 ermitteln, welche eine Wegstrecke 17 von einer aktuellen Geoposition 18 des Kraftfahrzeugs 11 hin zu der Zielposition 12 beschreiben. Anhand der Wegbeschreibungsdaten 16 kann die Prozessoreinrichtung 10 dann Fahrbefehle 19 erzeugen, die von einem Steuergerät 20 des Kraftfahrzeugs 11 umgesetzt oder realisiert werden können. Ein solches Steuergerät 20 kann beispielsweise ein Autopilot für eine autonome Fahrfunktion des Kraftfahrzeugs 11 sein, also ein Fahrprozessor 20', sodass auf Grundlage der Nutzereingabe 15 das Kraftfahrzeug 11 autonom oder automatisiert zu der Zielposition 12 geführt oder gefahren wird. Alternativ dazu kann das Steuergerät 20 ein Navigationsgerät sein, welches anhand der Fahrbefehle 19 dem Benutzer Navigationsanweisungen zum Führen des Kraftfahrzeugs 11 hin zur Zielposition 12 ausgibt.From the input device 13th can the processor device 10 Input data 14th that receive user input 15th describe the user at the input device 13th has made. The user input can be based on spoken language, an entered text and / or a gesture. Based on the input data 14th can the processor device 10 Route description data 16 determine which one distance 17th from a current geoposition 18th of the motor vehicle 11 towards the target position 12th describe. Using the route description data 16 can the processor device 10 then move commands 19th generate that from a control unit 20th of the motor vehicle 11 implemented or realized. Such a control unit 20th can for example be an autopilot for an autonomous driving function of the motor vehicle 11 be, so a driving processor 20 ' so that based on user input 15th the car 11 autonomously or automatically to the target position 12th is guided or driven. Alternatively, the control unit 20th be a navigation device, which based on the driving commands 19th navigation instructions to the user for driving the motor vehicle 11 towards the target position 12th issues.

Um die Wegbeschreibungsdaten 16 zu erzeugen, kann die Prozessoreinrichtung 10 eine herkömmliche Navigationsdatenquelle 21 nutzen, die eine Navigationsdatenbank 22 und einen Empfänger 23 für ein Positionssignal 24 eines GNSS 25, beispielsweise des GPS, umfassen kann. Anhand des Positionssignals 24 kann in an sich bekannter Weise der Empfänger 23 die aktuelle Geoposition 18 ermitteln und durch Geopositionsdaten 26 beschreiben. In der Navigationsdatenbank 22 können weitere Geopositionsdaten 26 für vorgegebene Navigationspunkte 27 vorgegeben sein, beispielsweise Geopositionsdaten 26 für Straßen, einzelne Grundstücke (Hausnummern) und/oder POIs.To the directions data 16 can be generated by the processor device 10 a traditional navigation data source 21 take advantage of a navigation database 22nd and a receiver 23 for a position signal 24 of a GNSS 25th , for example the GPS, may include. Based on the position signal 24 The recipient can do this in a manner known per se 23 the current geoposition 18th determine and through geolocation data 26th describe. In the navigation database 22nd can get more geolocation data 26th for given navigation points 27 be given, for example geolocation data 26th for streets, individual properties (house numbers) and / or POIs.

Bei der Prozessoreinrichtung 10 ist es allerdings ermöglicht, dass die Nutzereingabe 15 eine Zielposition 12 beschreibt, die nicht mit einem in der Navigationsdatenbank 22 oder allgemein mit einem durch die Navigationsdatenquelle 21 ermittelbaren oder beschreibbaren Navigationspunkt 27 zusammenfällt.At the processor facility 10 however, it allows user input 15th a target position 12th describes not having one in the navigation database 22nd or generally with one through the navigation data source 21 identifiable or writable navigation point 27 coincides.

Vielmehr kann die Nutzereingabe die Zielposition unter Bezug auf zumindest einen Navigationspunkt und zusätzlichen Angaben beschreiben. Entsprechend können also die Eingabedaten 14 zum einen eine Angabe 28 betreffend zumindest einen Navigationspunkt 27 und zum anderen eine Zusatzbeschreibung 29 bezüglich des zumindest einen Navigationspunkts 27 aus der Angabe 28. So kann ein Benutzer beispielsweise in der bereits beschriebenen Weise angeben, dass er in der Gartenstraße (Navigationspunkt 27) zu dem blauen Haus (kein definierter Navigationspunkt 27, sondern zusätzliche Zielbeschreibung als Zusatzbeschreibung 29) gefahren werden möchte.Rather, the user input can describe the target position with reference to at least one navigation point and additional information. The input data 14th on the one hand, an indication 28 concerning at least one navigation point 27 and on the other hand an additional description 29 with regard to the at least one navigation point 27 from the specification 28 . For example, a user can indicate in the manner already described that he is in Gartenstrasse (navigation point 27 ) to the blue house (no defined navigation point 27 , but an additional target description as an additional description 29 ) wants to be driven.

Die Prozessoreinrichtung 10 kann die Eingabedaten 14 zunächst mittels einer Analysefunktion 30 semantisch analysieren, das heißt die einzelnen Worte oder Bestandteile der Eingabedaten 14 zerlegen oder einteilen. Hierdurch werden aus den Eingabedaten 14 die Angabe 28 zu dem zumindest einen bekannten Navigationspunkt 27 und zum anderen die Zusatzbeschreibung 29 erkannt. Die Prozessoreinrichtung 10 kann dann durch einen Datenzugriff 31 aus der Navigationsdatenquelle 21 zu der Angabe 28 die Geopositionsdaten auslesen. Damit bildet der in der Angabe 28 angegebenen zumindest einen Navigationspunkt 27 einen jeweiligen bekannten Ankerpunkt 32. Die Zusatzbeschreibung 29 kann dahingehend analysiert oder untersucht werden, welche Eigenschaften der Zielposition 12 beschrieben werden, sodass sich ein Bezug oder eine Relation 29' in Bezug zu dem angegebenen angegeben Ankerpunkt 32 ergibt. Beispielsweise kann hierzu eine Zuordnungstabelle (Look-up-Tabelle) genutzt werden. Kommt beispielsweise in der Zusatzbeschreibung 29 das Wort „blau“ vor, so muss zum Auffinden der Zielposition 12 eine Farberkennung vorliegen. Kommt in der Zusatzbeschreibung 29 das Wort „Notaufnahme“ vor, so muss zum Auffinden der Zielposition 12 eine Information über einen bestimmten Ort (beispielsweise die Notaufnahme) auf einem Gelände vorliegen.The processor facility 10 can input data 14th initially by means of an analysis function 30th semantically analyze, that is, the individual words or components of the input data 14th disassemble or divide. This results in the input data 14th the information 28 to the at least one known navigation point 27 and on the other hand the additional description 29 recognized. The processor facility 10 can then through a data access 31 from the navigation data source 21 to the indication 28 read out the geolocation data. This forms the in the specification 28 specified at least one navigation point 27 a respective known anchor point 32 . The additional description 29 can be analyzed or examined as to which properties of the target position 12th be described so that there is a reference or a relation 29 ' in relation to the specified specified anchor point 32 results. For example, an assignment table (look-up table) can be used for this purpose. For example, comes in the additional description 29 the word "blue" in front of it, you have to find the target position 12th there is a color recognition. Comes in the additional description 29 the word "emergency room" in front of it, it must be used to find the target position 12th information about a specific location (for example the emergency room) is available on a site.

Die Steuereinrichtung 10 kann mittels eines Abgleichs A auf zumindest eine zusätzliche Beschreibungsdatenquelle 33 zugreifen, also Anfragedaten an die zumindest eine Beschreibungsdatenquelle 33 stellen. Bei einer Beschreibungsdatenquelle 33 kann es sich beispielsweise jeweils um einen Server des Internets oder ein Steuergerät für einen Sensor handeln, um nur Beispiele zu nennen. Anhand des Abgleichs A kann durch die Prozessoreinrichtung 10 erkannt werden, welche Beschreibungsdatenquelle 33 geeignet ist, um die Relation 29' in Wegbeschreibungsdaten 16 umzuwandeln. Eine Beschreibungsdatenquelle 33 kann allgemein eine räumliche Relation zu den Navigationspunkten 27 beschreiben (Beispiele für räumliche Relation: vor, hinter, zwischen), Bestandteile der Umgebung eines Navigationspunkts 27 beschreiben, beispielsweise Plandaten 34 eines Geländes eines Navigationspunkts 27 und/oder sie kann Sensordaten 35 erzeugen, welche Charakteristiken von Objekten an einem Navigationspunkt 27 beschreiben können (beispielsweise die Farbe eines Hauses). Sie kann eine Detektionsdatenquelle 36 enthalten, die Geopositionsdaten aus einem mobilen Ziel abfragen kann, beispielsweise einem Smartphone oder einem anderen Kraftfahrzeug, oder einen Prozessor, der Navigationspunkte 27 kombinieren kann, also beispielsweise eine Zielposition 12 in der Mitte zwischen zwei angegebenen Navigationspunkten („führ mich zu einem Parkplatz in der Mitte zwischen dem Stadtpark und der Kirche“) ermitteln kann.The control device 10 can by means of a comparison A to at least one additional description data source 33 access, i.e. request data to the at least one description data source 33 put. For a description data source 33 it can, for example, be an Internet server or a control device for a sensor, to name just a few examples. On the basis of the comparison A, the processor device 10 can be recognized which description data source 33 is suitable to the relation 29 ' in route description data 16 to convert. A description data source 33 can generally be a spatial Relation to the navigation points 27 Describe (examples of spatial relation: in front of, behind, between), components of the surroundings of a navigation point 27 describe, for example plan data 34 of a terrain of a navigation point 27 and / or it can be sensor data 35 generate which characteristics of objects at a navigation point 27 describe (for example the color of a house). It can be a detection data source 36 that can query geolocation data from a mobile target, such as a smartphone or other motor vehicle, or a processor that can use navigation points 27 can combine, for example a target position 12th in the middle between two specified navigation points ("lead me to a parking lot in the middle between the city park and the church").

Anhand des Abgleichs A kann die Prozessoreinrichtung 10 aus der zumindest einen Beschreibungsdatenquelle 33 Beschreibungsdaten 37 erhalten, die beispielsweise die besagten Plandaten 34 für ein Gelände an einem Navigationspunkt 27 sein können. Eine weitere Möglichkeit kann darin bestehen, dass durch eine Beschreibungsdatenquelle 33 zumindest ein Umgebungssensor 38 bereitgestellt wird, welcher die besagten Sensordaten 35 erzeugen kann, beispielsweise Umgebungsbilder einer Umgebung des Kraftfahrzeugs 11.On the basis of the comparison A, the processor device 10 from the at least one description data source 33 Description data 37 receive, for example, the said plan data 34 for a terrain at a navigation point 27 could be. Another possibility can be that through a description data source 33 at least one environmental sensor 38 is provided, which said sensor data 35 can generate, for example, images of the surroundings of the surroundings of the motor vehicle 11 .

Die Prozessoreinrichtung 10 kann nun anhand des zumindest einen ermittelten Ankerpunkts 32 und der zu diesem zumindest einen Ankerpunkt angegebenen Relation 29' zum einen eine Grobnavigation 40 bereitstellen, welche von der aktuellen Geoposition 18 in Richtung zu der Zielposition 12 führen kann und hierbei die Geopositionsdaten 26 aus der Navigationsdatenquelle 21 nutzen kann. Nähert sich dann das Kraftfahrzeug 10 dem zumindest einen Ankerpunkt 32, also einem jeweils bekannten Navigationspunkt 27, so kann auf die Beschreibungsdaten 37 zurückgegriffen werden, also auf die zumindest eine Beschreibungsdatenquelle 33, wobei in der Figur hier als Beispiel die Plandaten 34 und die Sensordaten 35 genutzt werden. Dies kann dann für eine Feinnavigation 41 genutzt werden, die auf den Wegbeschreibungsdaten 16 basiert. Die Feinnavigation 41 kann dann zu einer Zielposition 12 führen, die nicht mit den Geopositionsdaten eines Navigationspunkts 27 übereinstimmt, sondern in Relation 29' zu diesen steht, beispielsweise „hinter dem roten Pkw auf dem Parkplatz“, wobei der Parkplatz als Navigationspunkt 27 genutzt wird und dann in Relation 29' dazu ein Pkw gesucht wird, hinter welchem das Kraftfahrzeug 11 geparkt wird.The processor facility 10 can now based on the at least one determined anchor point 32 and the relation specified for this at least one anchor point 29 ' on the one hand a rough navigation 40 provide which of the current geoposition 18th towards the target position 12th can lead and here the geolocation data 26th from the navigation data source 21 can use. Then the motor vehicle approaches 10 at least one anchor point 32 , i.e. a known navigation point 27 so can refer to the description data 37 can be used, i.e. the at least one description data source 33 , with the plan data in the figure here as an example 34 and the sensor data 35 be used. This can then be used for detailed navigation 41 are used on the route description data 16 based. The detailed navigation 41 can then go to a target position 12th that do not match the geolocation data of a navigation point 27 matches, but in relation 29 ' to these is written, for example, "behind the red car in the parking lot", with the parking lot as a navigation point 27 is used and then in relation 29 ' to this end, a car is sought, behind which the motor vehicle 11 is parked.

Somit beschränken sich Sprach- und Texteingaben von Navigationszielen (im und außerhalb des Fahrzeugs) nicht mehr auf aus Listen auswählbare Objekte mit klar hinterlegten Geopositionsdaten (inklusive Adressen, Pointsof-Interest, nach Hause/zur Arbeit, Navigation zu Kontakt-Adresse).This means that voice and text input of navigation destinations (inside and outside the vehicle) is no longer limited to objects that can be selected from lists with clearly stored geoposition data (including addresses, points of interest, home / to work, navigation to contact addresses).

Die Beschreibung von Navigationszielen braucht nicht umfassend zu sein oder in der Genauigkeit beschränkt zu sein oder muss nicht die Kenntnis der hinterlegten Daten voraussetzen und entspricht stattdessen dem menschlichen Verständnis des Raumes. Grade mit Hinblick auf unvollständiges Vorwissen („mein Kollege wohnt im blauen Haus in der Gartenstraße“) oder auf voll-autonome Fahrzeuge, bei denen die letzten Meter nach Erreichen des Ziels (z.B. bis in die Garageneinfahrt) nicht per Lenkrad absolviert werden können, reicht die Zielangabe aus, wenn sie eine Relations (z.B. relative Lage) oder eine Objekteigenschaft (z.B. Farbe) im Bereich eines verzeichneten Ankerpunkts beschreibt. Auch die (Anschluss-)Navigation z.B. innerhalb von Gebäuden benötigt eine neue Semantik.The description of navigation destinations does not need to be comprehensive or limited in accuracy or does not need to require knowledge of the stored data and instead corresponds to the human understanding of the space. Especially with regard to incomplete previous knowledge ("my colleague lives in the blue house on Gartenstrasse") or fully autonomous vehicles, where the last few meters after reaching the destination (e.g. to the garage entrance) cannot be completed by steering wheel the target information if it describes a relation (e.g. relative position) or an object property (e.g. color) in the area of a recorded anchor point. The (connection) navigation, e.g. within buildings, also requires new semantics.

Gemäß menschlicher Sprache und Raumverständnis werden Navigationsziele (Zielpositionen):

  1. a) in räumlicher Relation und/oder
  2. b) als Detaillierung/Bestandteil und/oder
  3. c) als Kombination zu/von einem oder mehreren
    • 1) hinterlegten Geopositionsdaten im oben genannten Sinne
    • 2) hinterlegten Daten erweiterter Referenzsysteme (Campuspläne etc.)
    • 3) mobilen Zielen (z.B. sich ändernder Handy-Standort, „Stauende“ usw.)
    • 4) ausgesprochenen/angezeigten Punkten („hier“, „dort“ per Fingerzeig) definiert.
According to human language and understanding of space, navigation targets (target positions) are:
  1. a) in spatial relation and / or
  2. b) as detailing / component and / or
  3. c) as a combination of one or more
    • 1) stored geoposition data in the above sense
    • 2) stored data of extended reference systems (campus plans etc.)
    • 3) mobile destinations (e.g. changing cell phone location, "end of traffic jams", etc.)
    • 4) defined / indicated points ("here", "there" by pointing a finger).

Zur Übersetzung des semantisch geäußerten Ziels in eine anfahrbare/betretbare Position können unter anderen folgende Quellen einzeln oder in Kombination herangezogen werden:

  • • Navigationskarten oder Gebäude-/Anlagenpläne im engeren Sinn
  • • Mit zusätzlichen Detaillierungsmerkmalen angereicherte Karten (z.B. Satellitenbilder, HD-Maps)
  • • Mobile Sensorik (Fahrzeug, Smart-Device)
  • • Lokale Ortungs- oder Führungsinfrastruktur (Beacons, QR-Tags, Leitsysteme)
  • • Von einem Zielumfeld z.B. über Internet zur Verfügung gestellte Detailinformationen:
    • Folgende Beispiele dienen zur Veranschaulichung der Möglichkeiten: Haustür, Eingang, Ausfahrt, Parkplatz, Garage, Drive-In, Süd (Nord-/Ost-)seite, Innenhof, Kreuzung x-Straße mit y-Straße, Bushaltestelle, Parkbucht, Lobby/Hintereingang, nächstmögliche Parkgelegenheit, „An der großen Eiche/Bismarcksäule“, „zweites Haus hinter/vor/neben der Tankstelle“, Schrebergarten-Parzelle M65, relativ zu anderen Fahrzeugen: „Wo kann ich parken?“ - „Stell dich hinter das rote Auto dort.“, Geoposition von einem anderen mobilen Endgerät.
To translate the semantically expressed goal into a position that can be approached / entered, the following sources, among others, can be used individually or in combination:
  • • Navigation maps or building / system plans in the narrower sense
  • • Maps enriched with additional detailing features (e.g. satellite images, HD maps)
  • • Mobile sensors (vehicle, smart device)
  • • Local location or management infrastructure (beacons, QR tags, control systems)
  • • Detailed information provided by a target environment, e.g. via the Internet:
    • The following examples serve to illustrate the possibilities: front door, entrance, exit, parking lot, garage, drive-in, south (north / east) side, inner courtyard, intersection of x-street with y-street, bus stop, parking bay, Lobby / back entrance, next possible parking space, “At the large oak / Bismarck column”, “Second house behind / in front of / next to the gas station”, allotment parcel M65, relative to other vehicles: “Where can I park?” - “Stand behind the red car there. ”, geolocation from another mobile device.

Man erhält eine zielgenauere Umsetzung des Navigationswunsches des Benutzers. Unten dargestellt ist ein mögliches Schema des Verfahrens. Der vom Benutzern geäußerte Navigationswunsch wird in „Ankerpunkt“ und „Relationsanteil“ differenziert. Der Ankerpunkt wird in einem Verzeichnis (z.B. klassische Karte) nachgeschlagen. Die Relation wird dann in Abhängigkeit des Ankerpunktes hinsichtlich Verfügbarkeit/Auflösbarkeit überprüft und entsprechende weitere Inputquellen (Detailverzeichnis, Sensorik) werden herangezogen. Zuletzt wird die erkannte Relation interpretiert und zur Fein-Navi auf ein konventionelles (z.B. GPS Position, HD-Karte) oder zweckspezifisches (z.B. Indoor, Höhenebenen) Raumbeschreibungs- bzw. Wegfindungssystem übersetzt.A more targeted implementation of the user's navigation request is obtained. One possible scheme of the process is shown below. The navigation request expressed by the user is differentiated into “anchor point” and “relational part”. The anchor point is looked up in a directory (e.g. classic map). The relation is then checked depending on the anchor point with regard to availability / resolvability and corresponding additional input sources (detailed directory, sensors) are used. Finally, the recognized relation is interpreted and translated into a fine navigation system on a conventional (e.g. GPS position, HD map) or purpose-specific (e.g. indoor, altitude level) room description or path-finding system.

Insgesamt zeigen die Beispiele, wie durch die Erfindung ein Verfahren zur semantischen Definition von Navigationszielen (Zielpositionen) bereitgestellt werden kann.Overall, the examples show how the invention can provide a method for the semantic definition of navigation destinations (destination positions).

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 7831433 B1 [0007]US 7831433 B1 [0007]
  • US 2018/0066949 A1 [0008]US 2018/0066949 A1 [0008]
  • US 2019/0130904 A1 [0009]US 2019/0130904 A1 [0009]

Claims (10)

Verfahren zum Führen eines Kraftfahrzeugs (11) und/oder eines mobilen Endgeräts an eine Zielposition (12), wobei - durch eine Prozessoreinrichtung (10) aus einer Eingabeeinrichtung (13) Eingabedaten (14) einer Nutzereingabe (15), welche die Zielposition (12) beschreibt, empfangen werden und - durch die Prozessoreinrichtung (10) die Zielposition (12) auf der Grundlage von Geopositionsdaten (26) einer Navigationsdatenquelle (21) ermittelt wird, wobei die Geopositionsdaten (26) vorbestimmte Navigationspunkte (27) in einem Verkehrswegenetz und/oder eine aktuelle Geoposition (18) des Kraftfahrzeugs (11) und/oder mobilen Endgeräts beschreiben, dadurch gekennzeichnet, dass die in der Nutzereingabe angegebene Zielposition (12) von den Navigationspunkten (27) aus der Navigationsdatenquelle (21) verschieden ist und die Eingabedaten (14) die Zielposition (12) mit einem Bezug (29') zu zumindest einem der Navigationspunkte (27) beschreiben, und durch die Prozessoreinrichtung (10): - aus der Nutzereingabe (15) eine Angabe (28) des zumindest einen darin angegebenen Navigationspunkts (27) als jeweiligen Ankerpunkt (32) extrahiert wird und - zu dem jeweiligen extrahierten Ankerpunkt (32) dessen Geopositionsdaten (26) aus der Navigationsdatenquelle (21) ausgelesen werden und - in Abhängigkeit von zumindest einer vorbestimmten Beschreibungsdatenquelle (33) Beschreibungsdaten (37), die eine jeweilige räumliche Umgebung des zumindest einen Ankerpunktes (27) beschreiben, ermittelt werden und - ausgehend von den Geopositionsdaten (26) des jeweiligen Ankerpunktes (32) und anhand der Beschreibungsdaten (37) Wegbeschreibungsdaten (16) zu der Zielposition (12) ermittelt werden und - das Kraftfahrzeug (11) und/oder das mobile Endgerät anhand der Wegbeschreibungsdaten (16) zu der Zielposition (12) geführt wird. A method for guiding a motor vehicle (11) and / or a mobile terminal device to a target position (12), wherein - by a processor device (10) from an input device (13) input data (14) of a user input (15) which define the target position (12 ) describes, are received and - the target position (12) is determined by the processor device (10) on the basis of geographic position data (26) from a navigation data source (21), the geographic position data (26) predetermined navigation points (27) in a traffic route network and / or describe a current geoposition (18) of the motor vehicle (11) and / or mobile terminal, characterized in that the target position (12) specified in the user input is different from the navigation points (27) from the navigation data source (21) and the input data ( 14) describe the target position (12) with a reference (29 ') to at least one of the navigation points (27), and by the processor device (10): - from the user input (15) an indication (28) of the at least one navigation point (27) specified therein is extracted as the respective anchor point (32) and - for the respective extracted anchor point (32) whose geographic position data (26) are read from the navigation data source (21) and - Depending on at least one predetermined description data source (33), description data (37) which describe a respective spatial environment of the at least one anchor point (27) are determined and - based on the geoposition data (26) of the respective anchor point (32) and based on the Description data (37), route description data (16) for the target position (12) are determined and - the motor vehicle (11) and / or the mobile terminal is guided to the target position (12) on the basis of the route description data (16). Verfahren nach Anspruch 1, wobei die Eingabedaten (14) die Zielposition (12) als eine Relativposition zu einem an dem zumindest einen Ankerpunkt (32) angeordneten Objekt beschreiben und eine sensorisch erfassbare Eigenschaft des Objekts angeben und die zumindest eine Beschreibungsdatenquelle (33) zumindest einen Umgebungssensor (38) aufweist, welcher die jeweilige Umgebung des zumindest einen Ankerpunktes (32) erfasst und Sensordaten (35) als Beschreibungsdaten (37) erzeugt und das Kraftfahrzeug (11) und/oder das mobile Endgerät durch die Prozessoreinrichtung (10) in Abhängigkeit von den Sensordaten (35) geführt wird, bis in den Sensordaten (35) die Eigenschaft des Objekts detektiert wird und daraufhin die Relativposition angesteuert wird.Procedure according to Claim 1 , the input data (14) describing the target position (12) as a relative position to an object arranged at the at least one anchor point (32) and specifying a sensor-detectable property of the object and the at least one description data source (33) at least one environment sensor (38) which detects the respective surroundings of the at least one anchor point (32) and generates sensor data (35) as description data (37) and the motor vehicle (11) and / or the mobile terminal through the processor device (10) depending on the sensor data (35 ) is performed until the property of the object is detected in the sensor data (35) and the relative position is then controlled. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Eingabedaten (14) als Zielposition (12) eine Relativposition zu einem an dem Ankerpunkt (32) angeordneten mobilen Ziel beschreiben und die Prozessoreinrichtung (10) aus einer Detektionsdatenquelle (36) als Beschreibungsdaten (37) eine aktuelle Geoposition des mobilen Ziels abfragt.Method according to one of the preceding claims, wherein the input data (14) describe as the target position (12) a relative position to a mobile target arranged at the anchor point (32) and the processor device (10) from a detection data source (36) as description data (37) queries the current geolocation of the mobile target. Verfahren nach Anspruch 3, wobei als mobiles Ziel ein mobiles Endgerät mit einem Empfänger für ein Positionssignal eines GNSS, Globales Navigationssatellitensystem, angegeben ist und als Detektionsdatenquelle (36) ein Funkmodul vorgesehen ist, welches aus dem den Empfänger aufweisenden mobilen Endgerät dessen Geopositionsdaten abfragt.Procedure according to Claim 3 , wherein a mobile terminal with a receiver for a position signal of a GNSS, Global Navigation Satellite System, is specified as the mobile target and a radio module is provided as the detection data source (36) which queries the geolocation data of the mobile terminal having the receiver. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Eingabedaten (14) die Zielposition (12) als Ort in einem von dem Verkehrswegenetzt unerschlossenen Gelände angeben und die zumindest eine Beschreibungsdatenquelle (33) eine Plandatenquelle für Plandaten (34) eines Campusplans des Geländes umfasst und die Prozessoreinrichtung (10) anhand der Plandaten (34) den Ort in dem Gelände lokalisiert.Method according to one of the preceding claims, wherein the input data (14) specify the target position (12) as a location in a terrain that is undeveloped by the traffic network, and the at least one description data source (33) comprises a plan data source for plan data (34) of a campus map of the site and the The processor device (10) uses the plan data (34) to localize the location in the site. Verfahren nach Anspruch 5, wobei die Plandatenquelle ein Leitsystem des Geländes und/oder zumindest einen auf dem Gelände bereitgestellten ortsfesten Signalgeber umfasst.Procedure according to Claim 5 , wherein the plan data source comprises a control system of the site and / or at least one stationary signal transmitter provided on the site. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Eingabeeinrichtung (13) zum einen einen Gestenerkenner und/oder einen Blickrichtungserkenner und zum anderen eine Spracheingabeneinrichtung aufweist und die Nutzereingabe (15) eine Kombination aus einerseits einer Geste und/oder einer Blickrichtung und andererseits einer von der Spracheingabeeinrichtung erfassten Auslösephrase, welche die aktuelle Geste und/oder Blickrichtung als Ortsangabe kennzeichnet, enthalten und als Ankerpunkt (32) aus der Navigationsdatenquelle (21) die aktuelle Geoposition (18) des Kraftfahrzeugs (11) und/oder mobilen Endgeräts ermittelt wird und als Eingabedaten (14) eine Relativlage eines Schnittpunkts eines durch die Geste und/oder Blickrichtung definierten Strahls mit einem Umgebungsobjekt einer Umgebung des Kraftfahrzeugs (11) und/oder mobilen Endgeräts ermittelt wird.Method according to one of the preceding claims, wherein the input device (13) has on the one hand a gesture recognizer and / or a viewing direction recognizer and on the other hand a speech input device and the user input (15) has a combination of a gesture and / or a viewing direction on the one hand and one of the on the other hand Voice input device recorded trigger phrase, which identifies the current gesture and / or viewing direction as location information, and the current geoposition (18) of the motor vehicle (11) and / or mobile terminal is determined as an anchor point (32) from the navigation data source (21) and as input data (14) a relative position of a point of intersection of a beam defined by the gesture and / or viewing direction with an object surrounding the surroundings of the motor vehicle (11) and / or mobile terminal is determined. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Kraftfahrzeug (11) ein autonomes Fahrzeug ist und das Kraftfahrzeug (11) mittels von durch eine autonome Fahrfunktion erzeugten Fahrbefehlen (19), welche die Prozessoreinrichtung (10) an einen Fahrprozessor (20') des Kraftfahrzeugs (11) ausgibt, zu der Zielposition geführt wird.Method according to one of the preceding claims, wherein the motor vehicle (11) is an autonomous vehicle and the motor vehicle (11) by means of driving commands (19) generated by an autonomous driving function, which the processor device (10) transmits to a driving processor (20 ') of the motor vehicle (11) outputs, is guided to the target position. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Navigationsdatenquelle (21) eine Navigationsdatenbank (22) und/oder ein in dem Kraftfahrzeug (11) und/oder dem mobilen Endgerät angeordneter Empfänger (23) für ein Positionssignal (24) eines GNSS (25) vorgesehen ist.Method according to one of the preceding claims, wherein the navigation data source (21) a navigation database (22) and / or a receiver (23) arranged in the motor vehicle (11) and / or the mobile terminal device for a position signal (24) of a GNSS (25) is provided. Prozessoreinrichtung (10) zum Führen eines Kraftfahrzeugs (11) und/oder mobilen Endgeräts an eine Zielposition (12), wobei die Prozessoreinrichtung (10) dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Processor device (10) for guiding a motor vehicle (11) and / or mobile terminal to a target position (12), the processor device (10) being set up to carry out a method according to one of the preceding claims.
DE102019215660.6A 2019-10-11 2019-10-11 Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position Pending DE102019215660A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019215660.6A DE102019215660A1 (en) 2019-10-11 2019-10-11 Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019215660.6A DE102019215660A1 (en) 2019-10-11 2019-10-11 Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position

Publications (1)

Publication Number Publication Date
DE102019215660A1 true DE102019215660A1 (en) 2021-04-15

Family

ID=75155434

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019215660.6A Pending DE102019215660A1 (en) 2019-10-11 2019-10-11 Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position

Country Status (1)

Country Link
DE (1) DE102019215660A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3855161T2 (en) * 1987-12-05 1996-08-29 Aisin Aw Co NAVIGATION UNIT
US20070156331A1 (en) * 2003-12-26 2007-07-05 Tomohiro Terada Navigation device
US20140229110A1 (en) * 2012-03-26 2014-08-14 Navteq B.V. Reverse Natural Guidance
DE102014225383A1 (en) * 2014-12-10 2016-06-16 Robert Bosch Gmbh Method for operating a motor vehicle, motor vehicle
DE112014006669T5 (en) * 2014-05-15 2017-02-16 Mitsubishi Electric Corporation Route guidance controller, route guidance control method and navigation system
US20180066949A1 (en) * 2016-09-06 2018-03-08 Microsoft Technology Licensing, Llc Translation of verbal directions into a list of maneuvers

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3855161T2 (en) * 1987-12-05 1996-08-29 Aisin Aw Co NAVIGATION UNIT
US20070156331A1 (en) * 2003-12-26 2007-07-05 Tomohiro Terada Navigation device
US20140229110A1 (en) * 2012-03-26 2014-08-14 Navteq B.V. Reverse Natural Guidance
DE112014006669T5 (en) * 2014-05-15 2017-02-16 Mitsubishi Electric Corporation Route guidance controller, route guidance control method and navigation system
DE102014225383A1 (en) * 2014-12-10 2016-06-16 Robert Bosch Gmbh Method for operating a motor vehicle, motor vehicle
US20180066949A1 (en) * 2016-09-06 2018-03-08 Microsoft Technology Licensing, Llc Translation of verbal directions into a list of maneuvers

Similar Documents

Publication Publication Date Title
EP2769373B1 (en) Acquisition of data from image data-based map services by an assistance system
US10928828B2 (en) Detecting unfamiliar signs
DE102014002150B3 (en) Method for determining the absolute position of a mobile unit and mobile unit
EP3577420B1 (en) Method and device for updating a digital map
EP3483026A1 (en) Method and device for quickly halting an autonomously moving railway vehicle
EP3022528B1 (en) Method for operating a navigation system, navigation system and motor vehicle
DE102019201893A1 (en) System and method for distributed parking area map generation and parking area service using in-vehicle sensors
DE102012215223A1 (en) A method and system for providing navigation guidance using landmarks
WO2002010687A1 (en) Route calculation method
WO2018141447A1 (en) Method for localising a more highly automated, e.g. highly automated vehicle (hav) in a digital localisation map
DE102011084217A1 (en) Communication system of a motor vehicle
DE102020102669A1 (en) SYSTEMS AND METHODS FOR PROVIDING NAVIGATION ASSISTANCE FOR A DELIVERY ROBOT
DE102017210221B4 (en) Method for longitudinal and lateral guidance of a motor vehicle
DE102021206075A1 (en) Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles
DE112016005798T5 (en) VEHICLE INTERNAL SYSTEM AND METHOD FOR PROVIDING INFORMATION RELATING TO POINTS OF INTEREST
DE102017215956A1 (en) A method of outputting information about an object in an environment of a vehicle, system and automobile
DE102019215660A1 (en) Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position
DE102018117830A1 (en) Digital environment map with sensor ranges
WO2019233827A1 (en) Method for operating a sound output device of a motor vehicle, voice-analysis and control device, motor vehicle and motor-vehicle-external server device
DE102015217659B4 (en) Method and device for extended driver information
WO2017108290A1 (en) Method for optically guiding a user of an access device of a motor vehicle
DE102022202165A1 (en) Method for providing lane localization for a motor vehicle in an area of an infrastructure facility
DE102018210528A1 (en) Method for operating a dialogue system
DE102020110891A1 (en) Method and system for generating navigation data and motor vehicle
DE102019208712A1 (en) Method for displaying an identified vehicle in an environment and a mobile device for this purpose

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE