DE102019215660A1 - Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position - Google Patents
Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position Download PDFInfo
- Publication number
- DE102019215660A1 DE102019215660A1 DE102019215660.6A DE102019215660A DE102019215660A1 DE 102019215660 A1 DE102019215660 A1 DE 102019215660A1 DE 102019215660 A DE102019215660 A DE 102019215660A DE 102019215660 A1 DE102019215660 A1 DE 102019215660A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- navigation
- motor vehicle
- target position
- data source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 208000033748 Device issues Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3611—Destination input or retrieval using character input or menus, e.g. menus of POIs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3623—Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Navigation (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Führen eines Kraftfahrzeugs (11) und/oder mobilen Endgeräts an eine Zielposition (12), wobei durch Prozessoreinrichtung (10) die Zielposition (12) aus einer Nutzereingabe (15) auf der Grundlage von Geopositionsdaten (26) einer Navigationsdatenquelle (21) ermittelt wird, wobei die Geopositionsdaten (26) vorbestimmte Navigationspunkte (27) in einem Verkehrswegenetz beschreiben. Die Erfindung sieht vor, dass die in der Nutzereingabe (15) angegebene Zielposition (12) von den Navigationspunkten (27) aus der Navigationsdatenquelle (21) verschieden ist und aber die Zielposition (12) mit einem Bezug (29') zu zumindest einem der Navigationspunkte (27) beschreibt und dass durch die Prozessoreinrichtung (10) in Abhängigkeit von zumindest einer vorbestimmten Beschreibungsdatenquelle (33) Beschreibungsdaten (37), die eine jeweilige räumliche Umgebung des jeweiligen Navigationspunktes (27) beschreiben, ermittelt werden und anhand der Beschreibungsdaten (37) Wegbeschreibungsdaten (16) zu der Zielposition (12) ermittelt werden.The invention relates to a method for guiding a motor vehicle (11) and / or mobile terminal to a target position (12), the target position (12) being selected from a user input (15) on the basis of geographic position data (26) by the processor device (10) Navigation data source (21) is determined, the geoposition data (26) describing predetermined navigation points (27) in a traffic route network. The invention provides that the target position (12) specified in the user input (15) is different from the navigation points (27) from the navigation data source (21) and the target position (12) with a reference (29 ') to at least one of the Describes navigation points (27) and that the processor device (10) determines, depending on at least one predetermined description data source (33), description data (37) which describe a respective spatial environment of the respective navigation point (27) and uses the description data (37) Route description data (16) for the target position (12) can be determined.
Description
Die Erfindung betrifft ein Verfahren zum Führen eines Kraftfahrzeugs an ein Navigationsziel oder eine Zielposition, die ein Benutzer mittels einer Nutzereingabe vorgibt. Im Zusammenhang einer sogenannten Anschlussnavigation kann das Verfahren zum Führen eines Kraftfahrzeug und anschließend (z.B. für eine abschließende Navigation in einem Gebäude) zum Führen eines mobilen Endgeräts, wie z.B. eines Smartphones, dienen. Es kann auch eine mobiles Endgerät alleine (z.B. mittels Navigationsanweisungen) geführt werden. Das Verfahren wird durch eine Prozessoreinrichtung durchgeführt, die ebenfalls Bestandteil der Erfindung ist.The invention relates to a method for guiding a motor vehicle to a navigation destination or a destination position which a user specifies by means of a user input. In the context of what is known as follow-up navigation, the method can be used to drive a motor vehicle and then (e.g. for a final navigation in a building) to guide a mobile device, such as a smartphone. A mobile device can also be used alone (e.g. using navigation instructions). The method is carried out by a processor device, which is also part of the invention.
In einem heutigen Kraftfahrzeug kann ein Navigationssystem bereitgestellt sein, in welches ein Benutzer Sprach- und Texteingaben von Navigationszielen eingeben kann. Diese Eingaben beschränken sich allerdings auf einen vorbestimmten Vorrat an Navigationspunkten in einem Verkehrswegenetz. In der Navigationsdatenbank des Navigationssystems sind zu jedem Navigationspunkt dessen Geopositionsdaten hinterlegt, die bei Auswahl eines Navigationspunkts ausgelesen und zum Führen des Kraftfahrzeugs genutzt werden. Hiermit beschränkt sich also die Möglichkeit einer Vorgabe einer Zielposition bei einem heutigen Navigationssystem auf die Auswahl eines solchen vorbekannten Navigationspunkts, das heißt eines auswählbaren Objekts, wie beispielsweise einer bestimmten Adresse (Straße, Hausnummer und Stadt), eines vorbestimmten sogenannten POI (Point of Interest), einer vorgegebenen Favoritenadresse (zum Beispiel „nach Hause“/„zur Arbeit“) und/oder einer Kontaktadresse beispielsweise aus einem digitalen Adressbuch.In today's motor vehicle, a navigation system can be provided into which a user can enter voice and text inputs for navigation destinations. However, these inputs are limited to a predetermined supply of navigation points in a traffic route network. In the navigation database of the navigation system, its geoposition data are stored for each navigation point, which are read out when a navigation point is selected and used to drive the motor vehicle. In this way, the possibility of specifying a target position in a current navigation system is limited to the selection of such a previously known navigation point, i.e. a selectable object, such as a specific address (street, house number and city), a predetermined so-called POI (Point of Interest) , a preset favorite address (for example “home” / “to work”) and / or a contact address, for example from a digital address book.
Die Eingabe kann ein Benutzer dagegen nicht auf eine Zielposition richten, die nicht als Navigationspunkt hinterlegt ist. Somit ist die Genauigkeit einer Eingabe auf das Raster der vorbekannten Navigationspunkte beschränkt.On the other hand, a user cannot direct the input to a target position that is not stored as a navigation point. The accuracy of an input is thus limited to the grid of the previously known navigation points.
Gerade für den Fall, dass ein Benutzer einen solchen Navigationspunkt nicht als Referenz genau kennt, sondern die Zielposition nur anhand von unvollständigem Vorwissen beschreiben kann, beispielsweise mit der Angabe „Fahre mich zu meinem Kollegen, der in dem blauen Haus in der Gartenstraße wohnt“, muss sich ein Benutzer heutzutage auf den nächstmöglichen Navigationspunkt beschränken, der in dem genannten Beispiel also die Gartenstraße selbst wäre, ohne dass er eine Hausnummer nennen könnte.Especially in the event that a user does not exactly know such a navigation point as a reference, but can only describe the target position using incomplete prior knowledge, for example with the information "Drive me to my colleague who lives in the blue house on Gartenstrasse", Nowadays, a user has to limit himself to the next possible navigation point, which in the example mentioned would be Gartenstrasse itself, without being able to name a house number.
Bei einem benutzergeführten Kraftfahrzeug kann dann der Benutzer nach Erreichen des Navigationspunktes (z.B. die Gartenstraße) dann die verbleibende Strecke selbst fahren, bis er die gewünschte Zielposition visuell erkennt und auf sie zufährt. Dies geht bei einem voll-autonomen Fahrzeug nicht, das auch die Reststrecke zwischen dem verfügbaren Navigationspunkt und der Zielposition selbstständig fahren können muss, da von einem Benutzer das Führen über das Lenkrad nicht mehr absolviert werden kann. Gibt ein Benutzer beispielsweise vor: „Fahre mich bis in die Garageneinfahrt der Gartenstraße Nummer 8“, so wäre für ein voll-autonomes Fahrzeug aus einer Navigationsdatenbank als Navigationspunkt zwar die Gartenstraße Nummer 8 verfügbar, sodann wäre aber nach Erreichen dieses Navigationspunkts die eigentliche Zielposition (Garageneinfahrt) nicht verfügbar.In the case of a user-guided motor vehicle, after reaching the navigation point (e.g. the garden road), the user can then drive the remaining distance himself until he visually recognizes the desired target position and drives towards it. This is not possible with a fully autonomous vehicle, which also has to be able to drive the remaining distance between the available navigation point and the target position independently, since a user can no longer navigate using the steering wheel. For example, if a user specifies: "Drive me to the garage entrance of Gartenstrasse number 8", then Gartenstrasse number 8 would be available as a navigation point for a fully autonomous vehicle from a navigation database, but then the actual destination position would be available after reaching this navigation point ( Garage entrance) not available.
Auch eine sogenannte Anschlussnavigation, die ein Benutzer nach Verlassen des Kraftfahrzeugs beispielsweise innerhalb eines Gebäudes durchführen können möchte, lässt sich oftmals mit Navigationspunkten aus einer Navigationsdatenbank nicht durchführen.So-called follow-up navigation, which a user would like to be able to carry out for example within a building after leaving the motor vehicle, often cannot be carried out with navigation points from a navigation database.
Aus der
Aus der
Aus der
Der Erfindung liegt die Aufgabe zugrunde, ein Kraftfahrzeug automatisiert an eine Zielposition zu führen, die außerhalb eines Rasters von Navigationspunkten, die in einer Navigationsdatenbank gespeichert sind.The invention is based on the object of automatically guiding a motor vehicle to a target position that is outside a grid of navigation points that are stored in a navigation database.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen der Erfindung ergeben sich durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren.The object is achieved by the subjects of the independent claims. Advantageous embodiments of the invention result from the dependent claims, the following description and the figures.
Durch die Erfindung ist ein Verfahren zum Führen eines Kraftfahrzeugs bereitgestellt, um das Kraftfahrzeug an eine Zielposition zu führen. Das Führen kann in der eingangs beschriebenen Weise zusätzlich oder alternativ auch ein mobiles Endgerät betreffen. Der Übersichtlichkeit halber wird im Weiteren nur auf ein Kraftfahrzeug Bezug genommen, aber das Verfahren kann auch für ein mobiles Endgerät ausgelegt werden.The invention provides a method for driving a motor vehicle in order to guide the motor vehicle to a target position. The In the manner described at the beginning, leadership can additionally or alternatively also relate to a mobile terminal. For the sake of clarity, reference is made below only to a motor vehicle, but the method can also be designed for a mobile terminal.
Ein Benutzer kann hierbei die Zielposition mittels einer Benutzereingabe vorgeben. Das Verfahren sieht vor, dass durch eine Prozessoreinrichtung aus einer Eingabeeinrichtung Eingabedaten betreffend die Nutzereingabe empfangen werden. Die Nutzereingabe beschreibt die Zielposition, an welche der Benutzer geführt werden möchte. Durch die Prozessoreinrichtung wird die Zielposition auf der Grundlage von Geopositionsdaten einer Navigationsdatenquelle ermittelt. Allerdings geht das Verfahren hierbei davon aus, dass diese Geopositionsdaten nur vorbestimmte Navigationspunkte in einem Verkehrswegenetz beschreiben, also lediglich in der Genauigkeit des Rasters der Navigationspunkte angegeben sind. Solche Navigationspunkte können beispielsweise Adressen in Straßen des Verkehrswegenetzes und/oder die besagten POI und/oder Navigationsfavoriten (z.B. die Adresse des Eigenheims und/oder des Arbeitsplatzes) sein. Die Ortsauflösung ist also auf die Navigationspunkte der Navigationsdatenquelle beschränkt.A user can specify the target position by means of a user input. The method provides that input data relating to the user input are received by a processor device from an input device. The user input describes the target position to which the user would like to be guided. The target position is determined by the processor device on the basis of geographic position data from a navigation data source. However, the method is based on the assumption that these geopositioning data only describe predetermined navigation points in a traffic route network, that is to say are only given with the accuracy of the grid of the navigation points. Such navigation points can be, for example, addresses in streets of the traffic route network and / or the said POIs and / or navigation favorites (e.g. the address of the home and / or the workplace). The spatial resolution is therefore limited to the navigation points of the navigation data source.
Um nun über die Navigationspunkte hinaus eine genauere oder feinere Angabe der Zielposition zu ermöglichen, ist erfindungsgemäß vorgesehen, dass die in der Nutzereingabe angegebene Zielposition von den Navigationspunkten aus der Navigationsdatenquelle verschieden ist, das heißt zwischen zumindest zwei Navigationspunkten liegt und/oder eine Ortsauflösung größer als diejenige der Navigationspunkte erfordert, und die Eingabedaten die Zielposition dabei aber mit einem Bezug zu zumindest einem der Navigationspunkte beschreiben. Mit anderen Worten wird vorausgesetzt oder angenommen, dass der Benutzer seine Nutzereingabe zwar auf eine Zielposition richtet, die sich nicht auf einen Navigationspunkt beschränkt, er dabei aber zumindest einen der Navigationspunkte, wie sie in der Navigationsdatenquelle verfügbar oder gespeichert sind, mit angibt. In dem oben beschriebenen Beispiel wäre also die Angabe: „Das blaue Haus in der Gartenstraße“ zulässig, weil als Navigationspunkt die Angabe „Gartenstraße“ enthalten ist. Durch die Prozessoreinrichtung wird nun aus der Nutzereingabe die Angabe des zumindest einen darin angegebenen Navigationspunkts als jeweiliger Ankerpunkt extrahiert. Die Prozessoreinrichtung kann hierzu also die Eingabedaten daraufhin untersuchen oder analysieren, welcher Teil der Eingabedaten einen bekannten Navigationspunkt beschreibt. Die in der Nutzereingabe enthaltenen Wörter werden also dahingehend geprüft, ob sie auf einen der Navigationspunkte passen. Dies kann beispielsweise durch einen Datenvergleich (beispielsweise Textvergleich) erreicht werden.In order to enable a more precise or finer specification of the target position beyond the navigation points, it is provided according to the invention that the target position specified in the user input is different from the navigation points from the navigation data source, i.e. lies between at least two navigation points and / or a spatial resolution greater than that requires the navigation points, and the input data describe the target position with a reference to at least one of the navigation points. In other words, it is assumed or assumed that the user directs his user input to a target position that is not limited to a navigation point, but also specifies at least one of the navigation points as they are available or stored in the navigation data source. In the example described above, the specification: “The blue house on Gartenstrasse” would be permissible because the specification “Gartenstrasse” is included as a navigation point. The processor device now extracts the specification of the at least one navigation point specified therein as the respective anchor point from the user input. For this purpose, the processor device can therefore examine or analyze the input data to determine which part of the input data describes a known navigation point. The words contained in the user input are therefore checked to see whether they fit on one of the navigation points. This can be achieved, for example, by a data comparison (for example text comparison).
Zu dem jeweiligen extrahierten Ankerpunkt werden durch die Prozessoreinrichtung die Geopositionsdaten des jeweiligen Ankerpunkts aus der Navigationsdatenquelle ausgelesen. Damit ist in der Prozessoreinrichtung die jeweilige Geoposition des zumindest einen Ankerpunkts verfügbar oder bekannt.For the respective extracted anchor point, the processor device reads the geoposition data of the respective anchor point from the navigation data source. The respective geographic position of the at least one anchor point is thus available or known in the processor device.
Um nun die Zielposition darüber hinaus mit einer größeren Ortsauflösung als die Navigationspunkte und damit die extrahierten Ankerpunkte zu ermitteln, werden durch die Prozessoreinrichtung in Abhängigkeit von zumindest einer weiteren vorbestimmten Beschreibungsdatenquelle Beschreibungsdaten ermittelt, die eine jeweilige räumliche Umgebung des zumindest einen Ankerpunktes beschreiben. Die Prozessoreinrichtung greift also auf zumindest eine Beschreibungsdatenquelle zu, aus welcher sie Beschreibungsdaten empfangen oder erhalten kann, mittels welchen die jeweilige Umgebung des zumindest einen Ankerpunkts beschrieben ist und damit eine Beschreibung mit einer größeren Ortsauflösung als der Ankerpunkt selbst vorhanden ist. Es wird also zusätzlich zu der Navigationsdatenquelle noch zumindest eine Beschreibungsdatenquelle genutzt, die von der Navigationsdatenquelle verschieden ist.In order to determine the target position with a greater spatial resolution than the navigation points and thus the extracted anchor points, the processor device determines description data that describe a respective spatial environment of the at least one anchor point as a function of at least one further predetermined description data source. The processor device thus accesses at least one description data source from which it can receive or receive description data by means of which the respective surroundings of the at least one anchor point are described and thus a description with a greater spatial resolution than the anchor point itself is available. In addition to the navigation data source, at least one description data source that is different from the navigation data source is also used.
Ausgehend von den Geopositionsdaten des jeweiligen Ankerpunktes (in dem obigen Beispiel also die Geopositionsdaten der Gartenstraße) und anhand der Beschreibungsdaten (Beschreibung der räumlichen Umgebung des jeweiligen Ankerpunktes) werden Wegbeschreibungsdaten zu der Zielposition durch die Prozessoreinrichtung ermittelt. In dem genannten Beispiel greift also die Prozessoreinrichtung auf eine Beschreibungsdatenquelle zu, aus welcher Beschreibungsdaten betreffend die Farbe der Häuser in der Gartenstraße extrahiert oder ausgelesen werden können. Hierzu können an die zumindest eine Beschreibungsdatenquelle Anfragedaten übermittelt werden, die eine Charakteristik der jeweiligen Beschreibungsdatenquelle anfordern. Die jeweilige Beschreibungsdatenquelle kann dann mit Charakterisierungsdaten antworten, die beschreiben, welche über Eigenschaften die Beschreibungsdatenquelle Daten bereitstellen kann (z.B. Farberkennung, Plandaten) . Handelt es sich bei der Beschreibungsdatenquelle zum Beispiel um ein Kamerasystem mit einer Objekterkennung, so können die Charakterisierungsdaten angeben, dass Farbbilder der Umgebung daraufhin untersucht werden können, welchen Objekttyp (z.B. die Objekttypen Fahrzeug, Haus, Schranke, Garage) und welche Farbe einzelne Objekte in der Umgebung aufweisen. Eine solche Beschreibungsdatenquelle kann dann von der Prozessoreinrichtung in dem obigen Beispiel genutzt werden, weil sich damit ein blaues Haus erkennen lässt, sobald der Ankerpunkt, d.h. die Gartenstraße, erreicht ist.Based on the geoposition data of the respective anchor point (in the above example the geoposition data of the Gartenstrasse) and on the basis of the description data (description of the spatial surroundings of the respective anchor point), route description data to the target position are determined by the processor device. In the example mentioned, the processor device accesses a description data source from which description data relating to the color of the houses in Gartenstrasse can be extracted or read. For this purpose, query data can be transmitted to the at least one description data source, which request a characteristic of the respective description data source. The respective description data source can then respond with characterization data that describe which properties the description data source can provide data (e.g. color recognition, plan data). If the description data source is, for example, a camera system with object recognition, the characterization data can indicate that color images of the environment can be examined to determine which object type (e.g. the object types vehicle, house, barrier, garage) and which color individual objects are in the environment. Such a description data source can then be used by the processor device in the above example, because a blue house can be recognized with it as soon as the anchor point, i.e. Gartenstrasse, is reached.
Die letztendlich ermittelten Wegbeschreibungsdaten beschreiben die Strecke bis zur Zielposition und/oder enthalten Steueranweisungen zum Steuern des Kraftfahrzeugs zu der Zielposition. Das Kraftfahrzeug wird dann durch die Prozessoreinrichtung anhand der Wegbeschreibungsdaten zu der Zielposition geführt. Handelt es sich bei dem Kraftfahrzeug um ein benutzergelenktes Kraftfahrzeug, so kann das „Führen“ des Kraftfahrzeugs in der Ausgabe von Navigationsanweisungen bestehen. Handelt es sich bei dem Kraftfahrzeug um ein autonomes Fahrzeug mit einem Autopiloten, welcher die Längsführung (Beschleunigen und Bremsen) und die Querführung (Lenken) des Kraftfahrzeugs automatisiert ohne ein Zutun des Benutzers durchführt, so kann das Führen des Kraftfahrzeugs darin bestehen, dass die Prozessoreinrichtung Steuerbefehle zum Fahren des autonomen Fahrzeugs ausgibt.The route description data ultimately determined describe the route to the destination position and / or contain control instructions for steering the motor vehicle to the destination position. The motor vehicle is then guided to the target position by the processor device on the basis of the route description data. If the motor vehicle is a user-steered motor vehicle, the “driving” of the motor vehicle can consist in the output of navigation instructions. If the motor vehicle is an autonomous vehicle with an autopilot, which automatically performs the longitudinal guidance (acceleration and braking) and the lateral guidance (steering) of the motor vehicle without any action on the part of the user, then the guidance of the motor vehicle can consist in that the processor device Issues control commands for driving the autonomous vehicle.
Durch die Erfindung ergibt sich der Vorteil, dass die Prozessoreinrichtung das Kraftfahrzeug nicht nur auf der Grundlage einer Navigationsdatenquelle zu einer Zielposition führt, die einem vorbekannten Navigationspunkt entspricht, sondern zusätzlich zumindest eine Beschreibungsdatenquelle herangezogen oder genutzt wird, um mittels dieser auch zu einer Zielposition zu führen, die von den Navigationspunkten der Navigationsdatenquelle verschieden ist.The invention has the advantage that the processor device not only guides the motor vehicle to a target position on the basis of a navigation data source, which corresponds to a previously known navigation point, but also draws on or uses at least one description data source in order to also lead to a target position by means of it that is different from the navigation items of the navigation data source.
Die Erfindung umfasst auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben.The invention also encompasses embodiments which result in additional advantages.
In einer Ausführungsform beschreiben die Eingabedaten, die der Benutzer als Benutzereingabe eingibt, die Zielposition als eine Relativposition zu einem an dem zumindest einen Ankerpunkt angeordneten Objekt sowie eine sensorisch erfassbare Eigenschaft des Objekts. Das bereits genannte Beispiel vom „blauen Haus in der Gartenstraße“ ist eine solche Zielposition, da die Relativposition („zu dem blauen Haus“, also vor das blaue Haus) zu einem an dem zumindest einen Ankerpunkt („Gartenstraße“) angeordneten Objekt beschrieben ist. Als sensorisch erfassbare Eigenschaft des Objekts ist in diesem Beispiel dessen Farbe („blau“) angegeben. Die zumindest eine Beschreibungsdatenquelle, die durch die Prozessoreinrichtung zum Erreichen dieser Zielposition genutzt wird, weist zumindest einen Umgebungssensor auf, welcher die jeweilige Umgebung des zumindest einen Ankerpunktes erfasst (also sensiert) und Sensordaten als Beschreibungsdaten erzeugt. Die Prozessoreinrichtung nutzt also Sensordaten zumindest eines Umgebungssensors als Beschreibungsdaten, um ausgehend von dem zumindest einen Ankerpunkt die Zielposition zu erkennen. Wird also in dem genannten Beispiel die Gartenstraße erreicht, so wird die eigentliche Zielposition („blaues Haus“) dann sensorisch gesucht oder ermittelt. Das Kraftfahrzeug wird dann durch die Prozessoreinrichtung in Abhängigkeit von den Sensordaten geführt, bis in den Sensordaten die Eigenschaft des Objekts detektiert ist (also beispielsweise das blaue Haus erkannt wird) und daraufhin die Relativposition (in dem Beispiel das blaue Haus in der Gartenstraße) angesteuert wird. Der zumindest eine Umgebungssensor kann hierzu beispielsweise eine Kamera und/oder einen Radar und/oder einen Lidar als jeweiligen Umgebungssensor aufweisen. Mittels eines Radars kann beispielsweise die Position eines metallischen Objekts erkannt werden, um beispielsweise eine Nutzereingabe zuzulassen wie die folgende: „Parke in der Gartenstraße an einer Straßenlaterne“, um beispielsweise eine nächtliche Beleuchtung des Kraftfahrzeugs sicherzustellen. Wird also der zumindest eine Ankerpunkt erreicht, so kann mit dieser Ausführungsform die verbleibende Strecke bis zur Zielposition auf der Grundlage des zumindest einen Umgebungssensors ermittelt und die entsprechenden Wegbeschreibungsdaten erzeugt werden, um die Zielposition anhand der sensorisch erfassbaren Eigenschaften des Objekts zu ermitteln.In one embodiment, the input data that the user enters as user input describe the target position as a relative position to an object arranged at the at least one anchor point and a property of the object that can be detected by sensors. The above-mentioned example of the “blue house in Gartenstrasse” is such a target position, as the relative position (“to the blue house”, i.e. in front of the blue house) to an object located at the at least one anchor point (“Gartenstrasse”) is described . In this example, the color (“blue”) of the object is specified as a property of the object that can be detected by sensors. The at least one description data source that is used by the processor device to reach this target position has at least one environment sensor which detects (i.e. senses) the respective environment of the at least one anchor point and generates sensor data as description data. The processor device therefore uses sensor data from at least one environment sensor as description data in order to identify the target position based on the at least one anchor point. If Gartenstrasse is reached in the example mentioned, the actual target position (“blue house”) is then searched for or determined using sensors. The motor vehicle is then guided by the processor device depending on the sensor data until the property of the object is detected in the sensor data (e.g. the blue house is recognized) and the relative position (in the example the blue house in Gartenstrasse) is then controlled . For this purpose, the at least one environment sensor can have, for example, a camera and / or a radar and / or a lidar as the respective environment sensor. Using a radar, for example, the position of a metallic object can be detected, for example to allow user input such as the following: “Park in Gartenstrasse at a street lamp”, for example to ensure that the motor vehicle is illuminated at night. If the at least one anchor point is reached, then with this embodiment the remaining distance to the target position can be determined on the basis of the at least one environmental sensor and the corresponding route description data can be generated in order to determine the target position based on the sensor-detectable properties of the object.
In einer Ausführungsform beschreiben die Eingabedaten des Nutzers als Zielposition eine Relativposition zu einem an dem Ankerpunkt angeordneten mobilen Ziel. Ein solches mobiles Ziel kann beispielsweise ein anderes Kraftfahrzeug sein. Die Prozessoreinrichtung fragt aus einer Detektionsdatenquelle als Beschreibungsdaten eine aktuelle Geoposition des mobilen Ziels ab. Die Detektionsdatenquelle erkennt also die aktuelle Geoposition des mobilen Ziels. Beispielsweise kann so eine Nutzereingabe zum Definieren einer Zielposition genutzt werden, die ein Stauende beschreibt („Fahre an der letzten Ausfahrt vor dem Stauende der Autobahn A8 von der Autobahn ab“). Als Ankerpunkt kann hier die Angabe „Autobahn A8“ genutzt werden. Als Detektionsdatenquelle kann beispielsweise ein Datenserver für Verkehrsdaten genutzt werden.In one embodiment, the input data of the user describe, as the target position, a relative position to a mobile target arranged at the anchor point. Such a mobile destination can be another motor vehicle, for example. The processor device queries a current geoposition of the mobile target from a detection data source as description data. The detection data source thus recognizes the current geoposition of the mobile target. For example, a user input can be used to define a target position that describes the end of a traffic jam (“Leave the highway at the last exit before the end of the traffic jam on the A8”). The indication “Autobahn A8” can be used here as an anchor point. For example, a data server for traffic data can be used as a detection data source.
In einer Ausführungsform wird als mobiles Ziel ein mobiles Endgerät mit einem Empfänger für ein Positionssignal eines GNSS (Global Navigation Satellite System, globales Navigationssatellitensystem) angegeben. Mit anderen Worten kann sich das mobile Ziel in Form eines mobilen Endgeräts selbst orten, also selbst seine Geopositionsdaten bestimmen, indem es das Positionssignal eines GNSS, beispielsweise des GPS (Global Positioning System) in an sich bekannter Weise nutzt. Als Detektionsdatenquelle kann die Prozessoreinrichtung ein Funkmodul nutzen, welches aus dem mobilen Endgerät dessen Geopositionsdaten abfragt. Ein solches mobiles Endgerät kann in einem anderen Kraftfahrzeug angeordnet sein, sodass die Relativposition zu diesem anderen Kraftfahrzeug genutzt werden kann. Somit kann beispielsweise folgende Nutzereingabe ermöglicht werden: „Parke hier auf dem Parkplatz hinter dem Kraftfahrzeug von Klaus“, wobei als Ankerpunkt die Ortsangabe „hier auf dem Parkplatz“ genutzt werden kann und die Geopositionsdaten aus dem Kraftfahrzeug der Person „Klaus“ abgefragt werden können. Hierzu kann beispielsweise in einer Kontaktdatenbank eine Funkkennung des Kraftfahrzeugs der Person ermittelt werden und über das Funkmodul mittels der Funkkennung die Geopositionsdaten des mobilen Endgeräts in dem Kraftfahrzeug abgefragt werden. Das mobile Endgerät und das Funkmodul können beispielsweise auf dem Standard 5G (Mobilfunk) und/oder einem WLAN-Standard (Wireless Local Area Network) kommunizieren. Eine andere Bezeichnung für einen Mobilfunkstandard für die lokale Kommunikation ist auch Car-2-X.In one embodiment, a mobile terminal with a receiver for a position signal from a GNSS (Global Navigation Satellite System) is specified as the mobile target. In other words, the mobile target can locate itself in the form of a mobile terminal, i.e. determine its geoposition data itself by using the position signal of a GNSS, for example the GPS (Global Positioning System) in a manner known per se. As a detection data source, the processor device can use a radio module which queries the mobile terminal's geolocation data. Such a mobile terminal can be arranged in another motor vehicle, so that the position relative to this other motor vehicle can be used. Thus, for example, the following user input can be made possible: "Park here in the parking lot behind Klaus' motor vehicle", using as an anchor point the location information "here in the parking lot" can be used and the geoposition data from the vehicle of the person "Klaus" can be queried. For this purpose, for example, a radio identifier of the person's motor vehicle can be determined in a contact database and the geolocation data of the mobile terminal in the motor vehicle can be queried via the radio module by means of the radio identifier. The mobile terminal and the radio module can communicate, for example, on the 5G standard (cellular radio) and / or a WLAN standard (wireless local area network). Another name for a mobile radio standard for local communication is Car-2-X.
In einer Ausführungsform geben die Eingabedaten des Nutzers die Zielposition als Ort in einem von dem Verkehrswegenetz unerschlossenen Gelände. Mit anderen Worten reichen also die Straßen des Verkehrswegenetzes und beispielsweise Hausnummern nicht bis zu dem Ort auf dem Gelände. Die zumindest eine Beschreibungsdatenquelle umfasst eine Plandatenquelle für Plandaten eines Campusplans des Geländes. Solche Plandaten beschreiben also die örtlichen Gegebenheiten und/oder Objekte auf dem Gelände. Beispielsweise kann als Gelände das Grundstück eines Krankenhauses vorgesehen sein und der Campusplan kann einzelne Stationen des Krankenhauses (beispielsweise Unfallchirurgie und/oder Notaufnahme) beschreiben. Die Prozessoreinrichtung kann anhand der Plandaten den Ort in dem Gelände lokalisieren. Erreicht also das Kraftfahrzeug die Adresse des Geländes als Ankerpunkt, so kann das Kraftfahrzeug nun auf das Gelände geführt werden und mittels der Plandaten des Campusplans bis zu einer Zielposition eines Orts auf dem Gelände geführt werden. In dem Beispiel des Krankenhauses kann beispielsweise folgende Nutzereingabe ermöglicht werden: „Fahre zur Notaufnahme des Krankenhauses“.In one embodiment, the input data of the user give the target position as a location in a terrain that is not open to the traffic route network. In other words, the streets of the traffic route network and, for example, house numbers do not extend to the location on the site. The at least one description data source comprises a plan data source for plan data of a campus plan of the site. Such plan data therefore describe the local conditions and / or objects on the site. For example, the premises of a hospital can be provided as the site and the campus map can describe individual wards of the hospital (for example trauma surgery and / or emergency room). The processor device can use the plan data to localize the location in the area. If the motor vehicle reaches the address of the site as an anchor point, the motor vehicle can now be guided onto the site and guided to a target position of a location on the site using the plan data of the campus map. In the example of the hospital, the following user input can be made possible: “Drive to the hospital emergency room”.
Die Plandatenquelle kann hierbei beispielsweise ein Server des Internets sein, welcher die Plandaten bereitstellt. In einer Ausführungsform umfasst die Plandatenquelle ein Leitsystem des Geländes selbst, also einen Computer oder Prozessor, welcher auf der Grundlage von Sensoren und/oder Sendern den Verkehr auf dem Gelände koordiniert. Zusätzlich oder alternativ dazu umfasst die Plandatenquelle in einer Ausführungsform zumindest einen auf dem Gelände bereitgestellten ortsfesten Signalgeber. Der ortsfeste Signalgeber kann z.B. als QR-Tag, Funkbake, Lichtsignalgeber und/oder akustischer Signalgeber ausgestaltet sein. Ein QR-Tag ist ein Hinweisgeber oder Hinweisschild mit einem QR-Code (QR - Quick Response). Ein solcher QR-Tag kann eine Ortsbeschreibung des jeweils durch den QR-Tag gekennzeichneten Orts angeben. Somit kann durch die Prozessoreinrichtung das Kraftfahrzeug an einen Ort geführt werden, der durch den QR-Tag identifiziert ist. Somit kann die Prozessoreinrichtung anhand des QR-Tags prüfen, ob die Zielposition erreicht ist, wenn nämlich die Ortsangabe in dem QR-Tag mit der Zielposition übereinstimmt (beispielsweise die Angabe „Notaufnahme“ auf dem Gelände eines Krankenhauses). Zusätzlich oder alternativ dazu umfasst in einer Ausführungsform die Plandatenquelle zumindest eine Funkbake. Eine solche Funkbake kann ebenfalls zumindest einen Ort und/oder eine Geländebeschreibung des Geländes umfassen. Somit ist eine funkbasierte Ermittlung der Plandaten ermöglicht, was zur Unabhängigkeit von optischen Verhältnissen führt. Ein Lichtsignalgeber kann z.B. mittels zumindest einer Leuchtdiode ein in der Leuchtintensität und/oder Leuchtfarbe moduliertes Licht aussenden, beispielsweise von einer Deckenleuchte aus. Ein Lichtsensor kann dann in Abhängigkeit von dem modulierten Licht ein elektrisches Datensignal erzeugen.The plan data source can be, for example, an Internet server that provides the plan data. In one embodiment, the plan data source comprises a control system of the site itself, that is to say a computer or processor which coordinates the traffic on the site on the basis of sensors and / or transmitters. Additionally or alternatively, the plan data source in one embodiment comprises at least one stationary signal transmitter provided on the site. The stationary signal transmitter can be designed, for example, as a QR tag, radio beacon, light signal transmitter and / or acoustic signal transmitter. A QR tag is a whistleblower or information sign with a QR code (QR - Quick Response). Such a QR tag can provide a description of the location of the location identified by the QR tag. The processor device can thus guide the motor vehicle to a location that is identified by the QR tag. The processor device can thus use the QR tag to check whether the target position has been reached, namely if the location information in the QR tag matches the target position (for example the information “emergency room” on the premises of a hospital). Additionally or alternatively, in one embodiment the plan data source comprises at least one radio beacon. Such a radio beacon can also include at least one location and / or a description of the terrain. This enables a radio-based determination of the plan data, which leads to independence from optical conditions. A light signal transmitter can, for example, emit a light with a modulated light intensity and / or light color by means of at least one light emitting diode, for example from a ceiling light. A light sensor can then generate an electrical data signal as a function of the modulated light.
In einer Ausführungsform wird als Navigationsdatenquelle zusätzlich oder alternativ zu einer Navigationsdatenbank selbst auch ein Empfänger für ein Positionssignal eines GNSS bereitgestellt. Der Empfänger ist dabei in dem Kraftfahrzeug selbst angeordnet, sodass also die aktuelle Geoposition des Kraftfahrzeugs selbst ermittelt wird. Als Ankerpunkt wird somit aus dieser Navigationsdatenquelle die aktuelle Geoposition des Kraftfahrzeugs ermittelt. Somit kann als Ankerpunkt oder Ausgangspunkt die Geoposition des Kraftfahrzeugs selbst genutzt werden.In one embodiment, a receiver for a position signal of a GNSS is also provided as a navigation data source in addition or as an alternative to a navigation database itself. The receiver is arranged in the motor vehicle itself, so that the current geoposition of the motor vehicle itself is determined. The current geoposition of the motor vehicle is thus determined from this navigation data source as the anchor point. The geoposition of the motor vehicle itself can thus be used as an anchor point or starting point.
In einer Ausführungsform weist zudem die Eingabeeinrichtung, über welche der Nutzer seine Nutzereingabe tätigt, zum einen Gestenerkenner und/oder einen Blickrichtungserkenner auf und zum anderen weist sie eine Spracheingabeeinrichtung auf. Der Gestenerkenner kann eine Gestalt oder Haltung einer Hand und/oder eines Arms des Benutzers in an sich bekannter Weise erkennen und beschreiben. Ein Blickrichtungserkenner kann in an sich bekannter Weise einen Blickrichtungsvektor einer Blickrichtung des Nutzers ermitteln. Die Spracheingabeeinrichtung kann eine Texteingabe von Sprache und/oder die Eingabe von gesprochener Sprache in an sich bekannter Weise vorsehen. Die Benutzereingabe umfasst entsprechend eine Kombination aus einerseits einer Geste und/oder Blickrichtung und andererseits einer von der Spracheingabeeinrichtung erfassten Auslösephrase. Die Auslösephrase kennzeichnet die aktuelle Geste und/oder Blickrichtung als Ortsangabe. Der Benutzer kann also eine Geste ausführen und/oder seine Blickrichtung ausrichten und mittels der Spracheingabeeinrichtung eine Auslösephrase eingeben. Zeigt der Nutzer beispielsweise mittels einer Geste auf ein Umgebungsobjekt in der Umgebung des Kraftfahrzeugs und gibt als Auslösephrase das Wort „dort“ oder „dorthin“, so wird diese Geste als Ortsangabe interpretiert. Als Navigationspunkt aus der Navigationsdatenquelle wird durch die Prozessoreinrichtung in der beschriebenen Weise die aktuelle Geoposition des Kraftfahrzeugs ermittelt und als Eingabedaten werden durch die Eingabeeinrichtung anhand der erkannten Geste und/oder Blickrichtung einerseits und der Auslösephrase andererseits eine Relativlage eines Schnittpunkts eines durch die Geste und/oder Blickrichtung definierten Strahls mit dem besagten Umgebungsobjekt ermittelt. Die Eingabedaten geben also den Strahlenverlauf des Strahls und/oder seinen Berührungspunkt mit dem Umgebungsobjekt an. Da als Navigationspunkt oder Ankerpunkt die aktuelle Geoposition des Fahrzeugs selbst ermittelt wird, kann also ausgehend von dem Kraftfahrzeug und der Relativlage dieses Schnittpunkts bezüglich des Kraftfahrzeugs als Zielposition das Umgebungsobjekt identifiziert werden. Somit kann als gültige Nutzereingabe ermöglicht werden, dass der Nutzer die Nutzereingabe tätigt: „Fahre mich dorthin“, wobei „dorthin“ eine Auslösephrase ist, die der Benutzer mit einer Geste und/oder Blickrichtung begleiten kann, woraufhin als Zielposition ausgehend von der aktuellen Geoposition des Kraftfahrzeugs der besagte Schnittpunkt eines durch die Geste und/oder Blickrichtung definierten Strahls mit einem Umgebungsobjekt ermittelt wird. Das Kraftfahrzeug wird somit zu dem Umgebungsobjekt geführt.In one embodiment, the input device via which the user makes his / her user input also has a gesture recognizer and / or a line of sight recognizer and, on the other hand, it has a voice input device. The gesture recognizer can recognize and describe a shape or posture of a hand and / or an arm of the user in a manner known per se. A viewing direction detector can determine a viewing direction vector of a viewing direction of the user in a manner known per se. The voice input device can provide text input of language and / or input of spoken language in a manner known per se. The user input accordingly comprises a combination of, on the one hand, a gesture and / or gaze direction and, on the other hand, a trigger phrase recorded by the voice input device. The trigger phrase identifies the current gesture and / or viewing direction as a location. The user can therefore perform a gesture and / or align his line of sight and enter a trigger phrase by means of the voice input device. For example, if the user points to an environmental object in the vicinity of the motor vehicle by means of a gesture and gives the word “there” or “there” as the trigger phrase, this gesture is interpreted as a location. As a navigation point from the navigation data source, the processor device determines the current geoposition of the motor vehicle in the manner described and, as input data, the input device uses the recognized gesture and / or viewing direction on the one hand and the trigger phrase on the other hand to provide a relative position of an intersection of a beam defined by the gesture and / or viewing direction with the said surrounding object determined. The input data therefore indicate the course of the ray and / or its point of contact with the surrounding object. Since the current geoposition of the vehicle itself is determined as the navigation point or anchor point, the surrounding object can therefore be identified as the target position based on the motor vehicle and the relative position of this intersection with respect to the motor vehicle. Thus, as a valid user input, it can be made possible that the user makes the user input: “Drive me there”, where “there” is a trigger phrase that the user can accompany with a gesture and / or line of sight, whereupon the target position based on the current geoposition of the motor vehicle, said intersection point of a beam defined by the gesture and / or viewing direction with an object in the surroundings is determined. The motor vehicle is thus guided to the surrounding object.
Wie bereits ausgeführt, ist das Verfahren besonders vorteilhaft, wenn das Kraftfahrzeug ein autonomes Fahrzeug ist. In diesem Zusammenhang sieht eine Ausführungsform vor, dass die Prozessoreinrichtung des Kraftfahrzeugs mittels von durch eine autonome Fahrfunktion erzeugten Fahrbefehlen, welche die Prozessoreinrichtung an einen Fahrprozessor des Kraftfahrzeugs ausgibt, zu der Zielposition geführt wird. Dieser Fahrprozessor kann ein Mikroprozessor eines Autopiloten des Kraftfahrzeugs sein.As already stated, the method is particularly advantageous when the motor vehicle is an autonomous vehicle. In this context, one embodiment provides that the processor device of the motor vehicle is guided to the target position by means of driving commands generated by an autonomous driving function, which the processor device outputs to a driving processor of the motor vehicle. This driving processor can be a microprocessor of an autopilot of the motor vehicle.
Wie bereits ausgeführt, kann es sich bei der zumindest einen Navigationsdatenquelle um eine Navigationsdatenbank handeln, die als Speicher in dem Kraftfahrzeug und/oder zusätzlich oder alternativ dazu durch einen Server des Internets realisiert sein kann. Zusätzlich oder alternativ dazu kann als Navigationsdatenquelle ein in dem Kraftfahrzeug angeordneter Empfänger für ein Positionssignal eines GNSS vorgesehen sein, also beispielsweise ein GPS-Empfänger. Mit einem solchen Empfänger kann als Ankerpunkt die aktuelle Geoposition des Kraftfahrzeugs genutzt werden.As already stated, the at least one navigation data source can be a navigation database which can be implemented as a memory in the motor vehicle and / or additionally or alternatively to this by a server on the Internet. In addition or as an alternative to this, a receiver arranged in the motor vehicle for a position signal from a GNSS can be provided as the navigation data source, for example a GPS receiver. With such a receiver, the current geoposition of the motor vehicle can be used as an anchor point.
Um das erfindungsgemäße Verfahren für ein Kraftfahrzeug durchführen zu können, sieht die Erfindung auch die beschriebene Prozessoreinrichtung zum Führen eines Kraftfahrzeugs an eine Zielposition vor. Die Prozessoreinrichtung ist dazu eingerichtet, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller aufweisen. Die Prozessoreinrichtung kann als ein Gerät des Kraftfahrzeugs selbst ausgestaltet sein oder als verteilte Einrichtung teilweise im Kraftfahrzeug und teilweise in einem Server des Internets realisiert sein. Als Server kann ein Computer oder ein Verbund aus mehreren Computern vorgesehen sein. Die Prozessoreinrichtung kann auch vollständig als Server des Internets ausgestaltet sein. Eine Kommunikation zwischen dem Kraftfahrzeug und einem solchen Server kann beispielsweise auf der Grundlage einer Funkverbindung (Mobilfunk und/oder WLAN) realisiert sein. Es kann auch eine Internetverbindung zwischen Kraftfahrzeug und Server vorgesehen sein. Die Prozessoreinrichtung kann einen Datenspeicheraufweisen, in welchem Programminstruktionen gespeichert sein können, die bei Ausführung durch die Prozessoreinrichtung diese veranlassen, die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.In order to be able to carry out the method according to the invention for a motor vehicle, the invention also provides the described processor device for guiding a motor vehicle to a target position. The processor device is set up to carry out an embodiment of the method according to the invention. For this purpose, the processor device can have at least one microprocessor and / or at least one microcontroller. The processor device can be designed as a device of the motor vehicle itself or it can be implemented as a distributed device partly in the motor vehicle and partly in a server on the Internet. A computer or a network of several computers can be provided as the server. The processor device can also be designed entirely as a server for the Internet. Communication between the motor vehicle and such a server can be implemented, for example, on the basis of a radio connection (cellular radio and / or WLAN). An Internet connection between the motor vehicle and the server can also be provided. The processor device can have a data memory in which program instructions can be stored which, when executed by the processor device, cause the processor device to carry out the embodiment of the method according to the invention.
Wird die Prozessoreinrichtung in einem Kraftfahrzeug bereitgestellt, so ergibt sich ein Kraftfahrzeug, das ebenfalls Bestandteil der Erfindung ist. Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet.If the processor device is provided in a motor vehicle, the result is a motor vehicle which is also part of the invention. The motor vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger vehicle or truck, or as a passenger bus or motorcycle.
Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen.The invention also includes the combinations of the features of the described embodiments.
Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt die einzige Figur:
- Fig. eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Prozessoreinrichtung, die eine Ausführungsform des erfindungsgemäßen Verfahrens durchführt.
- 1 shows a schematic representation of an embodiment of the processor device according to the invention which carries out an embodiment of the method according to the invention.
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention which are to be considered independently of one another and which also further develop the invention in each case independently of one another. Therefore, the disclosure is also intended to include combinations of the features of the embodiments other than those illustrated. Furthermore, the described embodiments can also be supplemented by further features of the invention already described.
In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.In the figures, the same reference symbols denote functionally identical elements.
Die einzige Fig. zeigt eine Prozessoreinrichtung
Aus der Eingabeeinrichtung
Um die Wegbeschreibungsdaten
Bei der Prozessoreinrichtung
Vielmehr kann die Nutzereingabe die Zielposition unter Bezug auf zumindest einen Navigationspunkt und zusätzlichen Angaben beschreiben. Entsprechend können also die Eingabedaten
Die Prozessoreinrichtung
Die Steuereinrichtung
Anhand des Abgleichs A kann die Prozessoreinrichtung
Die Prozessoreinrichtung
Somit beschränken sich Sprach- und Texteingaben von Navigationszielen (im und außerhalb des Fahrzeugs) nicht mehr auf aus Listen auswählbare Objekte mit klar hinterlegten Geopositionsdaten (inklusive Adressen, Pointsof-Interest, nach Hause/zur Arbeit, Navigation zu Kontakt-Adresse).This means that voice and text input of navigation destinations (inside and outside the vehicle) is no longer limited to objects that can be selected from lists with clearly stored geoposition data (including addresses, points of interest, home / to work, navigation to contact addresses).
Die Beschreibung von Navigationszielen braucht nicht umfassend zu sein oder in der Genauigkeit beschränkt zu sein oder muss nicht die Kenntnis der hinterlegten Daten voraussetzen und entspricht stattdessen dem menschlichen Verständnis des Raumes. Grade mit Hinblick auf unvollständiges Vorwissen („mein Kollege wohnt im blauen Haus in der Gartenstraße“) oder auf voll-autonome Fahrzeuge, bei denen die letzten Meter nach Erreichen des Ziels (z.B. bis in die Garageneinfahrt) nicht per Lenkrad absolviert werden können, reicht die Zielangabe aus, wenn sie eine Relations (z.B. relative Lage) oder eine Objekteigenschaft (z.B. Farbe) im Bereich eines verzeichneten Ankerpunkts beschreibt. Auch die (Anschluss-)Navigation z.B. innerhalb von Gebäuden benötigt eine neue Semantik.The description of navigation destinations does not need to be comprehensive or limited in accuracy or does not need to require knowledge of the stored data and instead corresponds to the human understanding of the space. Especially with regard to incomplete previous knowledge ("my colleague lives in the blue house on Gartenstrasse") or fully autonomous vehicles, where the last few meters after reaching the destination (e.g. to the garage entrance) cannot be completed by steering wheel the target information if it describes a relation (e.g. relative position) or an object property (e.g. color) in the area of a recorded anchor point. The (connection) navigation, e.g. within buildings, also requires new semantics.
Gemäß menschlicher Sprache und Raumverständnis werden Navigationsziele (Zielpositionen):
- a) in räumlicher Relation und/oder
- b) als Detaillierung/Bestandteil und/oder
- c) als Kombination zu/von einem oder mehreren
- 1) hinterlegten Geopositionsdaten im oben genannten Sinne
- 2) hinterlegten Daten erweiterter Referenzsysteme (Campuspläne etc.)
- 3) mobilen Zielen (z.B. sich ändernder Handy-Standort, „Stauende“ usw.)
- 4) ausgesprochenen/angezeigten Punkten („hier“, „dort“ per Fingerzeig) definiert.
- a) in spatial relation and / or
- b) as detailing / component and / or
- c) as a combination of one or more
- 1) stored geoposition data in the above sense
- 2) stored data of extended reference systems (campus plans etc.)
- 3) mobile destinations (e.g. changing cell phone location, "end of traffic jams", etc.)
- 4) defined / indicated points ("here", "there" by pointing a finger).
Zur Übersetzung des semantisch geäußerten Ziels in eine anfahrbare/betretbare Position können unter anderen folgende Quellen einzeln oder in Kombination herangezogen werden:
- • Navigationskarten oder Gebäude-/Anlagenpläne im engeren Sinn
- • Mit zusätzlichen Detaillierungsmerkmalen angereicherte Karten (z.B. Satellitenbilder, HD-Maps)
- • Mobile Sensorik (Fahrzeug, Smart-Device)
- • Lokale Ortungs- oder Führungsinfrastruktur (Beacons, QR-Tags, Leitsysteme)
- • Von einem Zielumfeld z.B. über Internet zur Verfügung gestellte Detailinformationen:
- Folgende Beispiele dienen zur Veranschaulichung der Möglichkeiten: Haustür, Eingang, Ausfahrt, Parkplatz, Garage, Drive-In, Süd (Nord-/Ost-)seite, Innenhof, Kreuzung x-Straße mit y-Straße, Bushaltestelle, Parkbucht, Lobby/Hintereingang, nächstmögliche Parkgelegenheit, „An der großen Eiche/Bismarcksäule“, „zweites Haus hinter/vor/neben der Tankstelle“, Schrebergarten-Parzelle M65, relativ zu anderen Fahrzeugen: „Wo kann ich parken?“ - „Stell dich hinter das rote Auto dort.“, Geoposition von einem anderen mobilen Endgerät.
- • Navigation maps or building / system plans in the narrower sense
- • Maps enriched with additional detailing features (e.g. satellite images, HD maps)
- • Mobile sensors (vehicle, smart device)
- • Local location or management infrastructure (beacons, QR tags, control systems)
- • Detailed information provided by a target environment, e.g. via the Internet:
- The following examples serve to illustrate the possibilities: front door, entrance, exit, parking lot, garage, drive-in, south (north / east) side, inner courtyard, intersection of x-street with y-street, bus stop, parking bay, Lobby / back entrance, next possible parking space, “At the large oak / Bismarck column”, “Second house behind / in front of / next to the gas station”, allotment parcel M65, relative to other vehicles: “Where can I park?” - “Stand behind the red car there. ”, geolocation from another mobile device.
Man erhält eine zielgenauere Umsetzung des Navigationswunsches des Benutzers. Unten dargestellt ist ein mögliches Schema des Verfahrens. Der vom Benutzern geäußerte Navigationswunsch wird in „Ankerpunkt“ und „Relationsanteil“ differenziert. Der Ankerpunkt wird in einem Verzeichnis (z.B. klassische Karte) nachgeschlagen. Die Relation wird dann in Abhängigkeit des Ankerpunktes hinsichtlich Verfügbarkeit/Auflösbarkeit überprüft und entsprechende weitere Inputquellen (Detailverzeichnis, Sensorik) werden herangezogen. Zuletzt wird die erkannte Relation interpretiert und zur Fein-Navi auf ein konventionelles (z.B. GPS Position, HD-Karte) oder zweckspezifisches (z.B. Indoor, Höhenebenen) Raumbeschreibungs- bzw. Wegfindungssystem übersetzt.A more targeted implementation of the user's navigation request is obtained. One possible scheme of the process is shown below. The navigation request expressed by the user is differentiated into “anchor point” and “relational part”. The anchor point is looked up in a directory (e.g. classic map). The relation is then checked depending on the anchor point with regard to availability / resolvability and corresponding additional input sources (detailed directory, sensors) are used. Finally, the recognized relation is interpreted and translated into a fine navigation system on a conventional (e.g. GPS position, HD map) or purpose-specific (e.g. indoor, altitude level) room description or path-finding system.
Insgesamt zeigen die Beispiele, wie durch die Erfindung ein Verfahren zur semantischen Definition von Navigationszielen (Zielpositionen) bereitgestellt werden kann.Overall, the examples show how the invention can provide a method for the semantic definition of navigation destinations (destination positions).
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 7831433 B1 [0007]US 7831433 B1 [0007]
- US 2018/0066949 A1 [0008]US 2018/0066949 A1 [0008]
- US 2019/0130904 A1 [0009]US 2019/0130904 A1 [0009]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019215660.6A DE102019215660A1 (en) | 2019-10-11 | 2019-10-11 | Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019215660.6A DE102019215660A1 (en) | 2019-10-11 | 2019-10-11 | Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019215660A1 true DE102019215660A1 (en) | 2021-04-15 |
Family
ID=75155434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019215660.6A Pending DE102019215660A1 (en) | 2019-10-11 | 2019-10-11 | Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019215660A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3855161T2 (en) * | 1987-12-05 | 1996-08-29 | Aisin Aw Co | NAVIGATION UNIT |
US20070156331A1 (en) * | 2003-12-26 | 2007-07-05 | Tomohiro Terada | Navigation device |
US20140229110A1 (en) * | 2012-03-26 | 2014-08-14 | Navteq B.V. | Reverse Natural Guidance |
DE102014225383A1 (en) * | 2014-12-10 | 2016-06-16 | Robert Bosch Gmbh | Method for operating a motor vehicle, motor vehicle |
DE112014006669T5 (en) * | 2014-05-15 | 2017-02-16 | Mitsubishi Electric Corporation | Route guidance controller, route guidance control method and navigation system |
US20180066949A1 (en) * | 2016-09-06 | 2018-03-08 | Microsoft Technology Licensing, Llc | Translation of verbal directions into a list of maneuvers |
-
2019
- 2019-10-11 DE DE102019215660.6A patent/DE102019215660A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3855161T2 (en) * | 1987-12-05 | 1996-08-29 | Aisin Aw Co | NAVIGATION UNIT |
US20070156331A1 (en) * | 2003-12-26 | 2007-07-05 | Tomohiro Terada | Navigation device |
US20140229110A1 (en) * | 2012-03-26 | 2014-08-14 | Navteq B.V. | Reverse Natural Guidance |
DE112014006669T5 (en) * | 2014-05-15 | 2017-02-16 | Mitsubishi Electric Corporation | Route guidance controller, route guidance control method and navigation system |
DE102014225383A1 (en) * | 2014-12-10 | 2016-06-16 | Robert Bosch Gmbh | Method for operating a motor vehicle, motor vehicle |
US20180066949A1 (en) * | 2016-09-06 | 2018-03-08 | Microsoft Technology Licensing, Llc | Translation of verbal directions into a list of maneuvers |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2769373B1 (en) | Acquisition of data from image data-based map services by an assistance system | |
US10928828B2 (en) | Detecting unfamiliar signs | |
DE102014002150B3 (en) | Method for determining the absolute position of a mobile unit and mobile unit | |
EP3577420B1 (en) | Method and device for updating a digital map | |
EP3483026A1 (en) | Method and device for quickly halting an autonomously moving railway vehicle | |
EP3022528B1 (en) | Method for operating a navigation system, navigation system and motor vehicle | |
DE102019201893A1 (en) | System and method for distributed parking area map generation and parking area service using in-vehicle sensors | |
DE102012215223A1 (en) | A method and system for providing navigation guidance using landmarks | |
WO2002010687A1 (en) | Route calculation method | |
WO2018141447A1 (en) | Method for localising a more highly automated, e.g. highly automated vehicle (hav) in a digital localisation map | |
DE102011084217A1 (en) | Communication system of a motor vehicle | |
DE102020102669A1 (en) | SYSTEMS AND METHODS FOR PROVIDING NAVIGATION ASSISTANCE FOR A DELIVERY ROBOT | |
DE102017210221B4 (en) | Method for longitudinal and lateral guidance of a motor vehicle | |
DE102021206075A1 (en) | Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles | |
DE112016005798T5 (en) | VEHICLE INTERNAL SYSTEM AND METHOD FOR PROVIDING INFORMATION RELATING TO POINTS OF INTEREST | |
DE102017215956A1 (en) | A method of outputting information about an object in an environment of a vehicle, system and automobile | |
DE102019215660A1 (en) | Method and processor device for guiding a motor vehicle and / or mobile terminal to a target position | |
DE102018117830A1 (en) | Digital environment map with sensor ranges | |
WO2019233827A1 (en) | Method for operating a sound output device of a motor vehicle, voice-analysis and control device, motor vehicle and motor-vehicle-external server device | |
DE102015217659B4 (en) | Method and device for extended driver information | |
WO2017108290A1 (en) | Method for optically guiding a user of an access device of a motor vehicle | |
DE102022202165A1 (en) | Method for providing lane localization for a motor vehicle in an area of an infrastructure facility | |
DE102018210528A1 (en) | Method for operating a dialogue system | |
DE102020110891A1 (en) | Method and system for generating navigation data and motor vehicle | |
DE102019208712A1 (en) | Method for displaying an identified vehicle in an environment and a mobile device for this purpose |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE |