WO2021004809A1 - Verfahren und system zum bereitstellen eines navigationshinweises für eine route von einem aktuellen standort einer mobilen einheit zu einer zielposition - Google Patents

Verfahren und system zum bereitstellen eines navigationshinweises für eine route von einem aktuellen standort einer mobilen einheit zu einer zielposition Download PDF

Info

Publication number
WO2021004809A1
WO2021004809A1 PCT/EP2020/067961 EP2020067961W WO2021004809A1 WO 2021004809 A1 WO2021004809 A1 WO 2021004809A1 EP 2020067961 W EP2020067961 W EP 2020067961W WO 2021004809 A1 WO2021004809 A1 WO 2021004809A1
Authority
WO
WIPO (PCT)
Prior art keywords
location
environment data
data
unit
target position
Prior art date
Application number
PCT/EP2020/067961
Other languages
English (en)
French (fr)
Inventor
Kai-Christen ROSE
Florian Klanten
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to US17/625,289 priority Critical patent/US20220260382A1/en
Priority to CN202080049733.8A priority patent/CN114072634A/zh
Publication of WO2021004809A1 publication Critical patent/WO2021004809A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3438Rendez-vous, i.e. searching a destination where several users can meet, and the routes to this destination for these users; Ride sharing, i.e. searching a route such that at least two users can share a vehicle for at least part of the route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]

Definitions

  • the present invention relates to a method and a system for providing a navigation instruction for a route from a current location of a mobile unit to a target position.
  • An important area of application for mobile devices is the navigation to specific destinations, especially in unknown surroundings or if the destination is not specifically known to the user.
  • Modern traffic concepts for example, provide that autonomous vehicles are requested and provided when required. In this case, the user does not know the exact appearance of the vehicle, its precise position or the way to get there.
  • the autonomous vehicle does not know the exact position of the user either. In large cities in particular, this results in new and very flexible boarding situations, for example when the vehicle provided can only stop at a parking lot for a short time or when the
  • Satellite-based methods are also used to determine position, which, however, often do not work with sufficient accuracy in cities with densely built-up areas.
  • WO 2014/170758 A2 describes a visual positioning system in which a plan of an interior space is recorded and paths through this interior space are determined. Interior views with reference to objects are generated for the paths. There can be views
  • GPS data can be improved by comparing images captured by the user with the interior views.
  • a message from a mobile device with a kinetic user parameter is received by a server and made available for a vehicle.
  • a method for identifying a passenger and an assigned vehicle is known from US Pat. No. 10,139,237 B2, in which a code is provided which is communicated by means of a light signal and provides information about the position of the vehicle.
  • US 2017/0178269 A1 describes a displayed identification for a ride-sharing service that is output on an LED display of the target vehicle.
  • WO 2018/035848 A1 describes a method for helping a user to find a vehicle, in which a vehicle provides information about its position, for example images of its surroundings. The vehicle can also send a key to the user.
  • the present invention is based on the object of providing a method and a system of the type mentioned at the outset which enable navigation instructions to be provided with particularly efficient use of existing resources.
  • location-environment data are recorded in a first detection area by means of the mobile unit.
  • Reference environmental data are recorded in a second detection area. Based on the location environment data and the reference environment data, at least one
  • the common environmental characteristic determined.
  • the common environmental feature is arranged both in the first detection area and in the second detection area.
  • a relative arrangement of the mobile unit relative to the target position is determined and the navigation instruction is generated and output on the basis of the relative arrangement.
  • the method advantageously uses data that can typically already be recorded by widely used units. For example, the sensors of a vehicle as well as sensors integrated in a mobile phone or other mobile device are used for
  • Environmental perception is used to record the data required for the procedure.
  • the navigation instruction generated in the process is transmitted in particular to the mobile unit and output by it.
  • the output takes place in particular visually, acoustically and / or haptically perceptible for a user.
  • the navigation instruction is output in such a way that the user receives information about a route from the current location to the
  • the navigation instruction can relate to the entire route or a route section, in particular a section starting at the current location.
  • the output can include, for example, a map representation of a route and possibly features of the surroundings; it can also be output by means of an output unit in the manner of augmented reality, in particular with a view of the route that is superimposed on a view of the surroundings is shown.
  • the location and reference environmental data are each recorded from a “perspective” with a starting position and a detection angle.
  • the respective detection area is defined in particular by the starting position, the detection angle and a detection range.
  • the detection range can depend, for example, on whether and how strongly detected signals are attenuated by influences in the environment, such as air, moisture or obscuring objects.
  • the method makes particular use of the fact that the location environment data and the reference environment data are recorded in such a way that the respective recording areas overlap one another. In this overlap area, the common environmental feature is determined and used to determine the relative arrangement of the mobile unit relative to the
  • the common environmental feature can in principle be any feature that can be detected by means of suitable sensors and detectable on the basis of the environmental data, in particular a physical object to which a certain shape, color, position or another attribute can be assigned.
  • Environmental features can be features of vegetation or buildings, for example.
  • the common environmental feature can be a course, a marking or another feature of a road or another include passable path.
  • Further examples of potential environmental features are traffic signs or signal systems, in particular in a certain state, or other road users. That is to say, the arrangement of the common environmental feature can be static relative to an earth coordinate system or can be variable over time.
  • a position, orientation or pose of an object can be determined as an environmental feature on the basis of the location and reference environmental data.
  • the common environmental feature is different depending on its position and orientation relative to the location of the mobile unit and the target position
  • the actual perspective and thus also the position is taken into account when recording the reference environmental data and the relative arrangement is determined in such a way that it also defines the arrangement of the mobile unit relative to the target position or to the respective position of the Collection of reference environmental data concerns. It is therefore compared how the environment with the common environmental feature is presented from the perspective of the mobile unit at the current location and how it is presented from the target position. The relative arrangement is determined by a comparison.
  • known methods only
  • Environmental features are mapped and the orientation takes place only relative to the positions of the individual environmental features.
  • the mobile unit is located to the left of a certain house front, while the
  • Target position is to the right of it; furthermore, for example, a distance or an angle can be determined. Using this information about the arrangement of the mobile unit and the target position relative to one another, the navigation instruction is then generated.
  • the reference environmental data are acquired from the target position.
  • the relative arrangement of the mobile unit relative to the target position can thereby advantageously be determined in a particularly simple manner.
  • a direct comparison can be made as to the way in which the perspective of the location-environment data, which is recorded from the current location of the mobile unit, differs from the perspective of the reference-environment data, which is recorded from the target position.
  • the reference environmental data can alternatively or additionally be acquired from positions other than the target position, for example by other acquisition units that are arranged in the vicinity. Such a case is conceivable, for example, if at the target position itself there is no adequate possibility of acquiring the reference environment data while in the relevant environment
  • Registration units are available. For example, a large number of video cameras and / or other sensors can be present in one area, for example permanently installed detection devices or other mobile units with suitable ones
  • Detection devices Such areas can include city centers, airports, amusement parks, company premises, certain buildings, parking lots, parking garages or traffic routes in which cameras or other suitable sensors are arranged or in which there are other vehicles that are equipped with cameras or other sensors and on their For example, data can be accessed using a Car2Car or other network.
  • the arrangement of the target position relative to that device is recorded by means of which the reference environmental data are recorded in order to be able to determine the relative arrangement of the mobile unit relative to the target position.
  • the mobile unit can be, for example, a mobile phone or another mobile user device that is carried by a user.
  • the navigation instruction can be output in such a way that it can be grasped by the user and enables him to navigate to the target position. For example, there is a vehicle at the target position.
  • the mobile unit can also be designed as another movable unit, for example a vehicle, which in particular is at least partially controlled automatically.
  • the navigation instruction can be output in such a way that, for example, a control signal is generated such that the vehicle is navigated to the target position, for example a waiting user; the vehicle is in particular controlled automatically using the control signal or, for example, driving instructions are output for a human driver.
  • the mobile unit is a mobile user device of a user, which includes a camera, and there is also a camera at the target position vehicle equipped with a camera.
  • the mobile user device can, for example, a
  • a unit worn on the body of a user can be used, for example glasses with an integrated camera, a body cam or another device with a camera and / or other sensors and possibly one
  • Output device for outputting information to the user.
  • devices that support a blind or visually impaired user to move around safely.
  • the location and environment data include image data.
  • the reference environment data can include image data.
  • the environmental data can advantageously be evaluated particularly efficiently.
  • the location and reference environmental data are recorded in a manner known per se, for example by means of an image or video acquisition unit; alternatively or additionally, further sensors can be used which record environmental data by means of other physical modes of action, e.g. by means of radar, lidar, ultrasound, infrared or ultraviolet light.
  • inputs of a user can be evaluated and / or environmental data can be acquired from an external device, for example from a server or from an external acquisition unit, by means of a data connection.
  • the location and environment data include an initial position estimate and / or an alignment.
  • the reference environment data can be an initial position estimate and / or a
  • the initial position estimate and / or alignment can be recorded, for example, using signals from a satellite navigation system such as GPS, a compass and / or gyrometer.
  • a satellite navigation system such as GPS, a compass and / or gyrometer.
  • an acquisition request is generated and output based on the initial position estimate and / or alignment.
  • the output can be for a Users can be detected visually, acoustically or haptically, or using a control signal to control a detection unit.
  • the acquisition request includes, for example, information about a specific direction along which the location and / or reference environmental data are to be acquired. For example, a user is requested to capture the location-environment data by aligning a camera of the mobile unit in such a way that it contains a specific one
  • a camera for capturing the reference environmental data can be automatically aimed at a specific environmental feature. This ensures, for example, that the first and second detection areas overlap sufficiently and that the common environmental feature is optimally detected.
  • the acquisition request can cause the location / environment data to be recorded within a certain angle, for example by requesting a user to rotate around the longitudinal axis of the body with the camera held in front of the body, or by holding a camera in this way
  • request signals for the location environment data and / or the reference environment data are generated in a direct temporal context and the location environment data and / or the reference environment data are recorded as a function of the request signals.
  • Ambient data can thereby advantageously be recorded in a particularly targeted manner.
  • the request signals are generated in particular in such a way that the immediate temporal relationship for the acquisition of the location and reference environment data is ensured, that is to say that the location and reference environment data are coordinated
  • Points in time are recorded.
  • the location and reference environmental data are recorded simultaneously or with a specific maximum time offset.
  • the request signals are generated, for example, in order to start the method according to the invention and to initiate the acquisition of the location and reference environmental data for this purpose.
  • the request signals are formed, in particular, in such a way that the acquisition of the location and reference environmental data is triggered, with the relative times of acquisition being determined by the request signals.
  • Request signals are generated so that parameters for the detection of the location and Reference environmental data are included, for example to what extent the environmental data are recorded or how the respective detection area is formed, for example by defining a specific direction, range, a detection angle or a
  • the request signals are generated in particular by a unit at the target position, for example a vehicle located there, which initiates the acquisition of the reference environment data by the unit at the target position itself and the acquisition of the location environment data by the mobile unit. Furthermore, the mobile unit can be requested to transmit the recorded location and environment data to the unit at the target position.
  • the request signals are designed in such a way that the reference environment data are recorded in such a way that the second detection area is formed as a function of the recorded location environment data. Conversely, they can be designed in such a way that the first detection area is formed as a function of the recorded reference environmental data. For example, a particularly concise
  • Environmental feature can be determined, which is particularly suitable for orientation.
  • the first and / or second detection area can then be designed in such a way, for example by a specific alignment of a detection unit or the selection of a specific sensor, that the concise environmental feature is particularly clearly included in the environmental data.
  • This can be done in a specific way by parameters of an automatic acquisition of the environmental data or by a request to a user to acquire the environmental data. For example, an output with an orientation instruction is generated, the user being requested to point a camera of the mobile unit at a specific building, or a camera of a vehicle is set in such a way that the specific building is recorded.
  • the location environment data and the reference environment data are recorded at a short time interval, in particular with a time interval of at most 2 hours, preferably at most 30 minutes, more preferably at most 2 minutes, more preferably at most 30 seconds This advantageously achieves a particularly close temporal relationship between the location and reference environment data.
  • particularly current environmental data can be used, for example to identify short-term influences of moving objects as well as changing ones
  • moving objects can also be used as environmental features for orientation, even if they are only briefly in a certain position.
  • environmental features can be displayed very differently, depending on the weather, the time of day and the day of the week they are recorded, whether a certain event is taking place in an area and whether it is temporary
  • the location environment data and / or the reference environment data are recorded within an area of a specific spatial environment around the location or the target position, in particular in a radius of at most 1 km, preferably at most 500 m, more preferably at most 100 m. This advantageously ensures that the surrounding data is recorded in a relevant geographical area.
  • environmental data is provided that is recorded during a movement towards a specific position. For example, while a vehicle is approaching a parking position, it can record reference environment data so that these encompass a larger environment around the parking position.
  • the reference environment can then be formed in such a way that it includes currently detectable environment data at a point in time as well as environment data previously recorded in the spatial environment.
  • the parking position is the target position and in the method a user with the mobile unit is navigating from his current location to the target position or the Parking position of the vehicle supported. Because the reference environment data relate to a larger environment, the navigation can be improved and in particular also made possible if there are no common ones at a current point in time
  • Environmental features can be detected by the mobile unit and from the parking position.
  • the reference environmental data are recorded at the target position and also stored in a memory unit at the target position, in particular in a vehicle located there.
  • the location and environment data are recorded by the mobile unit at the current location, optionally preprocessed and transmitted to the target position, in particular to the vehicle.
  • a local network can be used, for example using Bluetooth, WLAN or another short-range wireless connection between a vehicle at the target position and the mobile unit.
  • the further processing in particular the determination of the common environmental feature and the navigation instruction, also takes place at the target position. This advantageously ensures improved data protection and increased data security, since external devices cannot access the reference environmental data recorded at the target position.
  • the location and environment data and the reference environment data are transmitted to a central processing unit, the navigation information being generated by the central processing unit.
  • the central processing unit is in particular an external unit, for example an external server. This advantageously enables processing with greater computing capacities and storage of the data, in particular temporary storage, for example in order to be able to provide further environmental data from further units or further instances of the method for carrying out the method. In particular, additional measures are provided to ensure data protection and data security.
  • intermediate environmental data are recorded at an intermediate position in a third detection area, the relative arrangement of the mobile unit relative to the target position also being determined relative to the intermediate position.
  • the first and third detection areas overlap and the common environmental feature is determined in the overlapping partial area. This advantageously enables the mobile unit to “query” the target position when the first and second detection areas do not overlap, that is to say if no common environmental features are detected from the current location and from the target position.
  • an initial location estimation is carried out for the mobile unit, for example by a user input or a position determination using methods known per se. Then, in this example, it is determined that no common
  • Environmental features can be detected, for example because obstacles prevent the first and second detection areas from overlapping.
  • An intermediate position is determined at which, in particular, a suitable unit for acquiring the intermediate environmental data is located.
  • the intermediate environmental data recorded at the intermediate positions can be transmitted to a central processing unit, which processes the environmental data and
  • the intermediate environmental data are transmitted to a vehicle at the target position, the detection at the intermediate position in this case serving as an extension of the detection possibilities of the vehicle at the target position. Furthermore, the detection at the intermediate position in this case serving as an extension of the detection possibilities of the vehicle at the target position. Furthermore, the detection at the intermediate position in this case serving as an extension of the detection possibilities of the vehicle at the target position.
  • Navigation instructions for a route from the current location of the mobile unit to the intermediate position are generated, the generation being carried out here at the intermediate position or by a unit located there.
  • a Car2Car or Car2lnfrastructure network is set up or used in order to ensure the transmission of the intermediate environment data or further data for providing the navigation information.
  • an obstacle on a route from the current location to the target position is determined based on the location and / or reference environmental data, and a warning is generated and output.
  • obstacles that are relevant for a user walking on foot are determined, for example steps, inclines, objects protruding in the way or other road users with whom there is a risk of collision.
  • the obstacle is determined and the information is formed in such a way that a user is warned who cannot perceive the obstacle himself, for example because of impaired vision.
  • a visually perceptible sign is output at the target position, the sign is detected on the basis of the location-environment data and the navigation instruction is generated on the basis of the sign.
  • an active light signal can be generated, for example by a projection onto surrounding surfaces or the emission of light in the direction of the current location, for example by means of light pulses of a specific color, intensity, frequency or with a specific one
  • Pulse pattern In particular, a frequency range of light that is imperceptible to the human eye, such as infrared, is used.
  • the information sign is detected in particular by the mobile unit on the basis of the recorded location and environment data and the mobile unit generates the navigation information.
  • the mobile unit receives information about the indicator, in particular so that it can
  • the mobile unit receives information about which indicator symbol can be used to identify a vehicle at the target position.
  • calendar data of a user are recorded, which in particular are stored in the mobile unit, and an initial position estimate for the current location of the mobile unit is generated on the basis of the calendar data.
  • the calendar data include location information and time information, in particular for appointments, which are used to determine the position at which the mobile unit is at a point in time. For example, it can be determined that, following the end of an appointment, a user is in a building in the exit area of the building, for example to wait for a requested vehicle.
  • the system according to the invention for providing a navigation instruction for a route from a current location of a mobile unit to a target position comprises a mobile detection unit which is set up to store location-environment data in a first
  • Detecting the detection area a reference detection unit which is configured to detect reference environmental data in a second detection area, and a
  • Computing unit which is set up to determine at least one common environmental feature based on the location environment data and the reference environment data.
  • the common environmental feature is arranged both in the first detection area and in the second detection area.
  • the computing unit is also set up to determine a relative arrangement of the mobile unit relative to the target position and to generate and output the navigation instruction based on the relative arrangement.
  • the system according to the invention is designed in particular to implement the method according to the invention described above. The system thus has the same advantages as the method according to the invention.
  • the system includes, in particular, a vehicle located at the target position, in which in particular the reference acquisition unit is integrated.
  • the mobile unit can be a mobile device carried by a user, for example a mobile phone, in which in particular the mobile detection unit is integrated.
  • the system comprises an output unit which is set up to output the navigation instructions in a visually, acoustically and / or tactilely perceptible manner.
  • the output unit is in particular integrated in the mobile unit, for example with a display, a loudspeaker or a vibration unit.
  • the output can be output for example by means of a mobile phone, a device arranged on the body of the user, a walking aid or a white cane with a corresponding output unit.
  • FIG 1 shows an embodiment of the system according to the invention
  • Figures 2 to 6 show exemplary situations for the application of the invention
  • a vehicle 1 comprises a computing unit 5 to which a reference acquisition unit 4 and an interface 6 are coupled.
  • the reference detection unit 4 comprises a camera which is formed in a manner known per se and has a first detection area 4a.
  • the reference detection unit 4 alternatively or additionally comprises further sensors, for example one
  • Stereo camera a time-of-flight camera, a lidar, radar or ultrasonic sensor or an infrared camera.
  • a mobile unit 2 designed as a mobile phone 2 in the exemplary embodiment, likewise comprises a computing unit 8 with which a mobile detection unit 7 and a
  • the mobile detection unit 7 of the mobile phone 2 is also designed as a camera, which has a second detection area 7a.
  • the mobile acquisition unit 7 can alternatively or additionally comprise further sensors.
  • a user carries the mobile phone 2 with him. He maintains that the first detection area 4a of the reference detection unit 4 and the second detection area 7a of the mobile detection unit 7 overlap and both have a common environmental feature 3 in which
  • Embodiment include a tree 3.
  • Computing unit 8 of mobile phone 2 can be used to establish a direct connection, a method known per se being used for establishing a data connection, such as WLAN or Bluetooth.
  • the vehicle 1 and / or the mobile phone 2 also has a connection to a further network, in particular to an external unit or an external server, or the connection between the
  • Interface 6 and the computing unit 8 is established indirectly via a further network.
  • the user starts the method to support a navigation from his current location to the vehicle 1 parked at a target position.
  • the reference detection unit 4 of the vehicle 1 and the mobile detection unit 7 of the cell phone 2 detect in the
  • the location and environment data recorded by the mobile phone 2 are transmitted directly to the vehicle 1 via the interface 6, with a preprocessing step optionally being carried out, in particular in order to reduce the amount of data to be transmitted.
  • the computing unit 5 of the vehicle 1 uses the reference and location environment data to carry out a processing step for determining common
  • the tree 3 is identified as a common environmental feature 3. Using the reference and location environment data, it is determined which pose, that is to say which position and orientation, the mobile unit 2 at the location and the vehicle 1 at the target position assume relative to the tree 3 and relative to one another. A distance and an angle relative to the tree 3 are determined. Furthermore, the Orientation of the respective detection unit 4, 7 relative to the tree 3 is determined, which allows the orientation of the vehicle 1 and the mobile phone 2 to be determined if the orientation of the respective detection units 4, 7 relative to the vehicle 1 or the mobile phone 2 is assumed to be known. This information is also used to determine the relative arrangement of the vehicle 1, mobile phone 2 and tree 3 to one another.
  • the common environmental feature 3 is designed differently.
  • further route-relevant information is determined on the basis of the reference and location environment data, with suitable routes being identified, in particular in the vicinity of the current location.
  • an initial position estimate for the current location and / or the target position is recorded, using methods known per se for determining the position, such as GPS. Based on this initial position estimate, map data and other information can be recorded and used as route-relevant information.
  • a navigation instruction is now generated, transmitted to the mobile phone 2 and output by means of the display unit 9.
  • the navigation instruction is generated in such a way that the user with the mobile phone 2 is supported in orientation and movement towards the vehicle 1.
  • the navigation instruction can be formed so that it is a
  • Navigation instruction comprise one or more movement instructions, such as one
  • a warning is also output when an obstacle has been detected on the way from the location to the target position.
  • the display unit 9 of the mobile phone 2 outputs a message that allows the user to align the mobile
  • Detection unit 7 of the mobile phone 2 is requested, for example, to pivot the mobile detection unit and to find common environmental features or to detect them better; In particular, this changes the detection area 7a of the mobile detection unit 7.
  • the reference acquisition unit 4 of the vehicle 1 can likewise be aligned or adjusted in such a way that its acquisition area 4a is changed or a parameter of the acquisition is set.
  • the navigation instruction is alternatively or additionally acoustically perceptible through a voice output and / or more haptically perceptible by means of a vibration.
  • FIGS. 2 to 6 exemplary embodiments of the method according to the invention are explained using various situations. This is based on the exemplary embodiment of the system according to the invention explained above, which is further specified by the description of the method. The method is carried out essentially as described above with reference to FIG. Therefore, not all process steps are repeated in the following, but mainly different or new features are explained. In FIGS. 2 to 6, comparable devices and objects are provided with the same reference symbols.
  • a vehicle 21 is at a target position and a user with a mobile phone 22 is at a current location.
  • the vehicle 21 comprises a detection unit 24 with two cameras, by means of which reference environmental data can be recorded in a first detection area 24a.
  • the mobile phone 22 also includes a camera (not shown), by means of which location and environment data can be recorded in a second detection area 27a.
  • the first 24a and second detection area 27a overlap and there is a tree 23 in the overlapping area
  • the detection unit 24 and / or the mobile unit 22 can have a different number of cameras and / or other sensors.
  • request signals are first generated, on the basis of which the acquisition unit 24a of the vehicle 21 acquires reference environmental data and the camera of the mobile phone 22 acquires location and environmental data. This ensures that the environmental data is recorded as simultaneously as possible.
  • a time delay of at most 2 hours, preferably at most 30 minutes, more preferably at most 2 minutes, more preferably at most 30 s between the acquisition of the reference environment data and the acquisition of the location environment data is permitted.
  • the location-environment data recorded by the mobile phone 22 are transmitted to the vehicle 21 and, taking into account the reference environment data, the tree 23 is determined as a common environmental feature. Furthermore, it is determined that the current location of the mobile phone 22, as shown in FIG. 2, is between the vehicle 21 and the tree 23 and that the camera of the mobile phone 22 is directed in a direction opposite to the vehicle 21. It is assumed that the user of the mobile phone 2 is also oriented in the same direction, for example with his line of sight, and that this direction, as understood by the user, is a “straight ahead” direction.
  • a navigation instruction is generated and output by means of a display of the mobile phone 22, whereby the user is requested to turn and in the direction of the
  • the navigation instruction is also output acoustically by means of a voice output as well as haptically perceptible via vibrations in accordance with a specific defined signal code.
  • a voice output is output that the user should rotate around his axis until a vibration is output.
  • a variable acoustically or haptically perceptible signal is output in such a way that it outputs the distance to the entry of the vehicle 21, for example by changing a pitch, volume, frequency and / or intensity of the signal.
  • the user points the mobile phone 22 with the camera at the vehicle 21.
  • Steps 30 are arranged between the user and the vehicle 21. These are detected in the detection area 27a of the camera of the mobile phone and identified as an obstacle on the way from the current location of the user to the vehicle 21.
  • the method is essentially carried out as described above, the stages 30 being determined as a common environmental feature and being used to determine the relative arrangement of the user and the vehicle 21, insofar as they are also supported by the
  • Detection unit 24 of vehicle 21 can be detected.
  • a warning notice is also generated and output, by means of which the user is informed of the position of the steps 30.
  • an alternative route for example barrier-free access, to the target position is determined and output by the user on the basis of the location and / or reference environmental data and possibly available relevant map data, with steps 30 being bypassed as an obstacle.
  • the vehicle 21 is at the target position in an area which is not visible to the user with the mobile phone 22 and which is hidden behind a corner of a house. It is also assumed that there is no environmental data in
  • a data connection 40 is established from the vehicle 21 to a further vehicle 41, for example by means of Bluetooth, WLAN or Car2Car technology, the further vehicle 41 including a further reference acquisition unit 44. It becomes of it
  • the navigation instruction is first generated in such a way that the user is guided to an intermediate position, in particular the location of the further vehicle 41, before he is guided from there to the target position of the vehicle 21. Furthermore, the user can be guided in the direction of the intermediate positions until he is in an area in which the environmental data can be recorded in such a way that features common to both the mobile phone 22 and the vehicle 21 with his
  • Detection unit 24 can be detected.
  • the further reference environment data recorded by the further vehicle 41 are fused with the reference environment data recorded by the vehicle 21 in order to virtually enlarge the available detection area for the reference environment data with the aid of an external detection unit.
  • the navigation instruction can then be formed and output in such a way that a reference to a route to the vehicle 21 at the target position is output to the user without first heading to an intermediate position.
  • other external detection units can be used, for example traffic monitoring devices, safety cameras, suitable ones
  • Mobile devices or other units which can be connected to the vehicle 21 for data purposes, for example by means of a Car2Infrastructure or Car2X technology or another network.
  • Acquisition unit is available, but only other acquisition units are used to acquire the reference environmental data. This can be used in particular in areas that are comprehensively monitored by sensors, in particular video cameras, for example at airports, private or company premises, amusement parks and / or in appropriately equipped vehicle parking facilities.
  • the method can also be used to transmit a location estimate to the mobile unit 22 as an alternative or in addition to the navigation instruction.
  • an initial position estimate for the current location of the mobile phone 22 and / or the target position with the vehicle 21 is generated, for example by means of GPS or by input from a user.
  • suitable further vehicles 41 or other devices for acquiring environmental data are determined, a data connection 40 is established and the required data are acquired and transmitted.
  • initial position estimates for the mobile unit 22 and the target position that is to say for example the vehicle 22, are recorded and the relative arrangement is optimized on the basis of this using the method according to the invention.
  • a temporary barrier 50 between the mobile phone 22 of the user and the detection unit 24 of the vehicle 21, in this case a market stall 50 which is only arranged at this position at certain times.
  • a temporary barrier 50 can also be, for example, a delivery vehicle or another road user.
  • it is recorded on the basis of the recorded location and reference environment data that the location of the mobile phone 22 is on a different side of the market stand 50 than the vehicle 21.
  • a route is determined and output using the recorded environment data and any map data that may be available, on which the user and bypassing the market stall 50 arrives at the vehicle 21.
  • the user with the mobile phone 22 and the vehicle 21 are in front of a building front 60, on which signs with letter combinations are arranged.
  • a building front 60 on which signs with letter combinations are arranged.
  • Lettering, logos, labels or advertisements can be provided. These can be identified based on the recorded location and reference environmental data and sent to
  • the representations of the signs can be formed flexibly, for example by means of a display area or a dynamic advertising area.
  • display devices in the vicinity of the vehicle 21 can furthermore be controlled in such a way that certain in a parking garage, for example
  • Environment features are output to facilitate the search for specific destinations.
  • the vehicle 21 or another device transmits a light signal at the target position.
  • the light signal is located on the basis of the acquired location and environment data and used to determine the arrangement relative to the target position. In particular, information about the light signal is sent to the
  • Mobile phone 22 which enables the identification of the light signal;
  • the light signal is formed with a specific color, duration or as a specific sequence of longer and shorter signals and can thus be assigned to a specific target position.
  • the mobile phone 22 then receives information about the in particular
  • Light signal to identify it and differentiate it from other signals.
  • symbols can be displayed on a screen or a specific color and / or graphic display can be output on a surface.
  • a light signal can also be generated in the infrared range, in which case a suitable detection unit must then be used, while the light signal can be emitted very discretely.
  • a display can be provided at the target position, for example in vehicle 21, which is activated to output a light signal, for example a character string, a graphic object or a symbol.
  • the mobile unit 22 can then receive information about which light signal is to be navigated to.
  • the vehicle 1, 21 is located at the target position. This generally does not have to be the case, so that a navigation to the vehicle 1, 21 can always be understood as a navigation to the destination position.
  • the mobile unit 2, 22 does not necessarily have to be a mobile phone 2, 22, but the method according to the invention can in principle be carried out with any mobile units.
  • Computing unit mobile phone

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

Bei dem Verfahren zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit (2) zu einer Zielposition werden mittels der mobilen Einheit (2) Standort-Umgebungsdaten in einem ersten Erfassungsbereich (4a) erfasst. Referenz-Umgebungsdaten werden in einem zweiten Erfassungsbereich (7a) erfasst. Anhand der Standort-Umgebungsdaten und der Referenz-Umgebungsdaten wird zumindest ein gemeinsames Umgebungsmerkmal (3) bestimmt, wobei das gemeinsame Umgebungsmerkmal (3) sowohl im ersten Erfassungsbereich (4a) als auch im zweien Erfassungsbereich (7a) angeordnet ist. Es wird eine relative Anordnung der mobilen Einheit (2) relativ zu der Zielposition bestimmt und der Navigationshinweis wird anhand der relativen Anordnung erzeugt und ausgegeben. Das System zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit (2) zu einer Zielposition umfasst eine mobile Erfassungseinheit (7), eine Referenz-Erfassungseinheit (4) und eine Recheneinheit (5).

Description

Beschreibung
Verfahren und System zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit zu einer Zielposition
Die vorliegende Erfindung betrifft ein Verfahren und ein System zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit zu einer Zielposition.
Ein wichtiges Anwendungsgebiet für mobile Geräte, ist die Navigation zu bestimmten Zielorten, insbesondere in unbekannten Umgebungen oder wenn der Zielort dem Nutzer nicht konkret bekannt ist. Moderne Verkehrskonzepte sehen beispielsweise vor, dass autonome Fahrzeuge bei Bedarf angefordert und bereitgestellt werden. Der Nutzer kennt in diesem Fall weder das genaue Aussehen des Fahrzeugs noch dessen präzise Position oder den Weg dorthin.
Umgekehrt kennt auch das autonome Fahrzeug die genaue Position des Nutzers nicht. Gerade in Großstädten ergeben sich daraus neue und sehr flexible Einsteigesituationen, etwa wenn das bereitgestellte Fahrzeug nur kurzfristig an einem Parkplatz halten kann oder wenn die
Sichtbarkeit des Fahrzeugs durch zeitlich veränderliche Gegebenheiten eingeschränkt ist.
Ferner besteht ein Bedarf, Menschen mit beispielsweise eingeschränktem Sehvermögen, einer Orientierungsschwäche oder in einer ungewohnten Umgebung das Auffinden einer Zielposition und insbesondere eines bereitgestellten Fahrzeugs zu erleichtern.
Bekannte Systeme nutzen beispielsweise spezielle Vorrichtungen, die ein Zielfahrzeug mitführt und durch deren Ortung die Navigation ermöglicht wird. Ferner werden satellitenbasierte Verfahren zur Positionsbestimmung genutzt, die jedoch in Städten mit dichter Bebauung oft nicht ausreichend genau arbeiten.
In der WO 2014/170758 A2 wird ein visuelles Positionierungssystem beschrieben, bei dem ein Plan eines Innenraums erfasst und Pfade durch diesen Innenraum bestimmt werden. Für die Pfade werden Innenansichten mit Bezug zu Objekten erzeugt. Es können Ansichten
ausgegeben werden, um einem Nutzer die Orientierung zu ermöglichen. Durch einen Abgleich von durch den Nutzer erfassten Bildern mit den Innenansichten können GPS-Daten verbessert werden. Bei dem in der DE 10 2018 118 029 A1 vorgeschlagenen Verfahren zur
Verkehrsteilnehmerklassifizierung sowie zum Messen und Melden von Positions- und kinematischen Parametern über ein digitales Telekommunikationsnetz wird von einem Server eine Meldung eines Mobilgeräts mit einem kinetischen Benutzerparameter empfangen und für ein Fahrzeug bereitgestellt.
Aus der US 10,139,237 B2 ist ein Verfahren zum Identifizieren eine Passagiers und eines zugeordneten Fahrzeugs bekannt, bei dem ein Code bereitgestellt wird, der mittels eines Lichtsignals und kommuniziert wird und Aufschluss über die Position des Fahrzeugs gibt.
Die US 2017/0178269 A1 beschreibt eine angezeigte Identifikation für einen Mitfahrdienst, die auf einem LED-Display des Zielfahrzeugs ausgegeben wird.
In der WO 2018/035848 A1 wird ein Verfahren zum Unterstützen eines Nutzers beim Auffinden eines Fahrzeugs beschrieben, bei dem ein Fahrzeug Informationen über seine Position bereitstellt, beispielsweise Bilder seiner Umgebung. Das Fahrzeug kann ferner einen Schlüssel an den Nutzer senden.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und ein System der eingangs genannten Art bereitzustellen, die eine Bereitstellung von Navigationshinweisen unter besonders effizienter Ausnutzung bestehender Ressourcen ermöglichen.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 und ein System mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
Bei dem erfindungsgemäßen Verfahren zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit zu einer Zielposition werden mittels der mobilen Einheit Standort-Umgebungsdaten in einem ersten Erfassungsbereich erfasst. Es werden Referenz-Umgebungsdaten in einem zweiten Erfassungsbereich erfasst. Anhand der Standort-Umgebungsdaten und der Referenz-Umgebungsdaten wird zumindest ein
gemeinsames Umgebungsmerkmal bestimmt. Dabei ist das gemeinsame Umgebungsmerkmal sowohl im ersten Erfassungsbereich als auch im zweien Erfassungsbereich angeordnet. Eine relative Anordnung der mobilen Einheit relativ zu der Zielposition wird bestimmt und anhand der relativen Anordnung wird der Navigationshinweis erzeugt und ausgegeben. Das Verfahren nutzt vorteilhafterweise Daten, die typischerweise bereits durch weit verbreitete Einheiten erfasst werden können. Beispielsweise werden die Sensorik eines Fahrzeugs sowie in einem Mobiltelefon oder einem anderen Mobilgerät integrierte Sensoren zur
Umgebungswahrnehmung genutzt, um die für das Verfahren erforderlichen Daten zu erfassen.
Der bei dem Verfahren erzeugte Navigationshinweis wird insbesondere an die mobile Einheit übertragen und von dieser ausgegeben. Die Ausgabe erfolgt insbesondere visuell, akustisch und/oder haptisch wahrnehmbar für einen Nutzer. Der Navigationshinweis wird so ausgegeben, dass der Nutzer eine Information über eine Route von dem aktuellen Standort zu der
Zielposition erfassen kann. Der Navigationshinweis kann dabei die gesamte Route oder einen Routenabschnitt betreffen, insbesondere einen Abschnitt beginnend beim aktuellen Standort. Die Ausgabe kann beispielsweise eine Kartendarstellung einer Route und gegebenenfalls von Merkmalen der Umgebung umfassen, sie kann ferner mittels einer Ausgabeeinheit nach Art der erweiterten Realität („ augmented reality“ ) ausgegeben werden, insbesondere mit einer Ansicht der Route, die überlagernd zu einer Ansicht der Umgebung dargestellt wird.
Bei dem Verfahren werden die Standort- und Referenz-Umgebungsdaten jeweils aus einer „Perspektive“ mit einer Ausgangsposition und mit einem Erfassungswinkel erfasst. Der jeweilige Erfassungsbereich wird insbesondere durch die Ausgangsposition, den Erfassungswinkel und eine Erfassungsreichweite definiert. Die Erfassungsreichweite kann beispielsweise davon abhängen, ob und wie stark detektierte Signale durch Einflüsse in der Umgebung, etwa Luft, Nässe oder verdeckende Objekte, gedämpft werden.
Das Verfahren nutzt insbesondere aus, dass die Standort-Umgebungsdaten und die Referenz- Umgebungsdaten so erfasst werden, dass die jeweiligen Erfassungsbereiche einander überlappen. In diesem Überlappungsbereich wird das gemeinsame Umgebungsmerkmal bestimmt und dazu genutzt, die relative Anordnung der mobilen Einheit relativ zu der
Zielposition und dem gemeinsamen Umgebungsmerkmal zu bestimmen.
Das gemeinsame Umgebungsmerkmal kann prinzipiell jedes mittels geeigneter Sensoren erfassbare und anhand der Umgebungsdaten detektierbare Merkmal sein, insbesondere ein physisches Objekt, dem eine bestimmte Form, Farbe, Position oder ein anderes Attribut zugeordnet werden kann. Umgebungsmerkmale können beispielsweise Merkmale einer Vegetation oder einer Bebauung sein. Ferner kann das gemeinsame Umgebungsmerkmal einen Verlauf, eine Markierung oder ein anderes Merkmal einer Straße oder eines anderen befahrbaren Weges umfassen. Weitere Beispiele für potentielle Umgebungsmerkmale sind Verkehrszeichen oder Signalanlagen, insbesondere in einem bestimmten Zustand, oder andere Verkehrsteilnehmer. Das heißt, die Anordnung des gemeinsamen Umgebungsmerkmals kann relativ zu einem Erd-Koordinatensystem statisch oder mit der Zeit veränderlich sein.
Bei dem Verfahren kann anhand der Standort- und Referenz-Umgebungsdaten insbesondere eine Position, Ausrichtung oder Pose eines Objekts als Umgebungsmerkmal bestimmt werden. Dabei wird das gemeinsame Umgebungsmerkmal je nach seiner Position und Ausrichtung relativ zum Standort der mobilen Einheit und zu der Zielposition aus unterschiedlichen
Perspektiven erfasst. Anhand dieser unterschiedlichen Perspektiven in den Standort- Umgebungsdaten und Referenz-Umgebungsdaten wird anschließend insbesondere die relative Anordnung der mobilen Einheit zu der Zielposition bestimmt.
Anders als bei bekannten Verfahren wird hier insbesondere die tatsächliche Perspektive und damit auch die Position bei der Erfassung der Referenz-Umgebungsdaten berücksichtigt und die relative Anordnung wird so bestimmt, dass sie auch die Anordnung der mobilen Einheit relativ zu der Zielposition beziehungsweise zu der jeweiligen Position der Erfassung der Referenz-Umgebungsdaten betrifft. Es wird also verglichen, wie sich die Umgebung mit dem gemeinsamen Umgebungsmerkmal aus der Perspektive der mobilen Einheit am aktuellen Standort darstellt und wie sie sich von der Zielposition aus darstellt. Durch einen Vergleich wird die relative Anordnung bestimmt. Hingegen werden bei bekannten Verfahren lediglich
Umgebungsmerkmale kartiert und die Orientierung erfolgt lediglich relativ zu den Positionen der einzelnen Umgebungsmerkmale.
Beispielsweise wird anhand der Standort- und Referenz-Umgebungsdaten bestimmt, dass sich die mobile Einheit links neben einer bestimmten Häuserfront befindet, während sich die
Zielposition rechts davon befindet; ferner kann beispielsweise ein Abstand oder ein Winkel bestimmt werden. Anhand dieser Informationen über die Anordnung der mobilen Einheit und der Zielposition relativ zueinander wird dann der Navigationshinweis erzeugt.
Bei einer Ausbildung des erfindungsgemäßen Verfahrens werden die Referenz- Umgebungsdaten von der Zielposition aus erfasst. Die Bestimmung der relativen Anordnung der mobilen Einheit relativ zu der Zielposition kann dadurch vorteilhafterweise besonders einfach erfolgen. ln diesem Fall kann direkt verglichen werden, in welcher Weise sich die Perspektive der Standort-Umgebungsdaten, die vom aktuellen Standort der mobilen Einheit aus erfasst werden, von der Perspektive der Referenz-Umgebungsdaten, die von der Zielposition aus erfasst werden, unterscheiden.
Bei einer weiteren Ausbildung können die Referenz-Umgebungsdaten alternativ oder zusätzlich von anderen Positionen als der Zielposition aus erfasst werden, beispielsweise durch andere Erfassungseinheiten, die in der Umgebung angeordnet sind. Ein solcher Fall ist etwa dann denkbar, wenn an der Zielposition selbst keine zureichende Möglichkeit der Erfassung der Referenz-Umgebungsdaten zur Verfügung steht, während in der relevanten Umgebung
Erfassungseinheiten vorhanden sind. Beispielsweise kann in einem Bereich eine Vielzahl von Videokameras und/oder anderem Sensoren vorhanden sein, beispielsweise fest installierte Erfassungseinrichtungen oder andere mobile Einheiten mit geeigneten
Erfassungseinrichtungen. Solche Bereiche können etwa Innenstädte, Flughäfen, Freizeitparks, Firmengelände, bestimmte Gebäude, Parkplätze, Parkhäuser oder Verkehrswege umfassen, in denen Kameras oder andere geeignete Sensoren angeordnet sind oder in denen sich weitere Fahrzeuge befinden, die mit Kameras oder anderen Sensoren ausgestattet sind und auf deren Daten zum Beispiel mittels eines Car2Car- oder eines anderen Netzwerks zugegriffen werden kann. In diesem Fall wird insbesondere die Anordnung der Zielposition relativ zu derjenigen Einrichtung erfasst, mittels welcher die Referenz-Umgebungsdaten erfasst werden, um die relative Anordnung der mobilen Einheit relativ zur Zielposition bestimmen zu können.
Die mobile Einheit kann beispielsweise ein Mobiltelefon oder ein anderes mobiles Nutzergerät sein, welches von einem Nutzer mitgeführt wird. In diesem Fall kann der Navigationshinweis so ausgegeben werden, dass er für den Nutzer erfassbar ist und ihm die Navigation zu der Zielposition ermöglicht. Zum Beispiel befindet sich an der Zielposition ein Fahrzeug.
Die mobile Einheit kann ferner als eine andere bewegbare Einheit ausgebildet sein, etwa ein Fahrzeug, das insbesondere zumindest teilweise automatisch gesteuert wird. In diesem Fall kann der Navigationshinweis so ausgegeben werden, dass etwa ein Steuersignal so erzeugt wird, dass das Fahrzeug zu der Zielposition, etwa einem wartenden Nutzer, navigiert wird; das Fahrzeug wird dabei insbesondere automatisch anhand des Steuerungssignals gesteuert oder es werden beispielsweise Fahranweisungen für einen menschlichen Fahrer ausgegeben.
Bei einer Ausbildung des Verfahrens ist die mobile Einheit ein mobiles Nutzergerät eines Nutzers, welches eine Kamera umfasst, und an der Zielposition befindet sich ein ebenfalls mit einer Kamera versehenes Fahrzeug. Das mobile Nutzergerät kann beispielsweise ein
Mobiltelefon, eine Smartwatch, ein Tablet-Computer oder ein Gerät für„virtual rea!it ‘ oder „augmented reality 1 sein. Ferner kann eine am Körper eines Nutzers getragene Einheit verwendet werden, etwa eine Brille mit integrierter Kamera, eine Bodycam oder eine andere Vorrichtung mit einer Kamera und/oder anderen Sensoren sowie gegebenenfalls einer
Ausgabeeinrichtung zur Ausgabe von Informationen an den Nutzer. Denkbar sind
beispielsweise Vorrichtungen, die einen blinden oder in seiner Sehfähigkeit eingeschränkten Nutzer bei der sicheren Bewegung unterstützen.
Bei einer Ausbildung des erfindungsgemäßen Verfahrens umfassen die Standort- Umgebungsdaten Bilddaten. Insbesondere können die Referenz-Umgebungsdaten Bilddaten umfassen. Dadurch können die Umgebungsdaten vorteilhafterweise besonders effizient ausgewertet werden.
Die Standort- und Referenz-Umgebungsdaten werden auf an sich bekannte Weise erfasst, beispielsweise mittels einer Bild- oder Video Erfassungseinheit, alternativ oder zusätzlich können weitere Sensoren verwendet werden, welche Umgebungsdaten mittels anderer physikalischer Wirkungsweisen erfassen, etwa mittels Radar, Lidar, Ultraschall, infrarotem oder ultraviolettem Licht. Zudem können Eingaben eines Nutzers ausgewertet werden und/oder es können mittels einer datentechnischen Verbindung Umgebungsdaten von einer externen Einrichtung erfasst werden, etwa von einem Server oder von einer externen Erfassungseinheit.
Bei einer weiteren Ausbildung des erfindungsgemäßen Verfahrens umfassen die Standort- Umgebungsdaten eine initiale Positionsschätzung und/oder eine Ausrichtung. Analog dazu können die Referenz-Umgebungsdaten eine initiale Positionsschätzung und/oder eine
Ausrichtung umfassen. Dadurch kann bei der Auswertung der Standort- und Referenz- Umgebungsdaten vorteilhafterweise berücksichtigt werden, wo der erste und/oder zweite Erfassungsbereich etwa positioniert ist.
Die initiale Positionsschätzung und/oder Ausrichtung kann beispielsweise anhand von Signalen eines Satellitennavigationssystems wie GPS, eines Kompasses und/oder Gyrometers erfasst werden.
Bei einer Ausbildung wird anhand der initialen Positionsschätzung und/oder Ausrichtung eine Erfassungsaufforderung erzeugt und ausgegeben. Die Ausgabe kann beispielsweise für einen Nutzer visuell, akustisch oder haptisch erfassbar erfolgen oder anhand eines Steuersignals zur Ansteuerung einer Erfassungseinheit.
Die Erfassungsaufforderung umfasst beispielsweise eine Information über eine bestimmte Richtung, entlang derer die Standort- und/oder Referenz-Umgebungsdaten erfasst werden sollen. Beispielsweise wird ein Nutzer aufgefordert, durch Ausrichten einer Kamera der mobilen Einheit die Standort-Umgebungsdaten so zu erfassen, dass diese einen bestimmtes
Umgebungsmerkmal, etwa ein besonders prominentes Bauwerk, Verkehrszeichen,
Vegetationselement oder eine bestimmte Straßenmarkierungen umfasst. Umgekehrt kann beispielsweise eine Kamera zum Erfassen der Referenz-Umgebungsdaten automatisch auf ein bestimmtes Umgebungsmerkmal gerichtet werden. So wird zum Beispiel sichergestellt, dass sich der erste und zweite Erfassungsbereich ausreichend überlappen und das gemeinsame Umgebungsmerkmal optimal erfasst wird. Zum Beispiel kann die Erfassungsaufforderung veranlassen, dass die Standort-Umgebungsdaten innerhalb eines bestimmten Winkels erfasst werden, etwa indem ein Nutzer aufgefordert wird, sich mit vor den Körper gehaltener Kamera um seine Körperlängsachse zu drehen, oder indem eine Halterung einer Kamera so
angesteuert wird, dass diese in einem bestimmten Wnkel geschwenkt wird.
Bei einer Weiterbildung des erfindungsgemäßen Verfahrens werden Anforderungssignale für die Standort-Umgebungsdaten und/oder die Referenz-Umgebungsdaten in einem unmittelbaren zeitlichen Zusammenhang erzeugt und die Standort-Umgebungsdaten und/oder die Referenz- Umgebungsdaten werden in Abhängigkeit von den Anforderungssignalen erfasst. Die
Umgebungsdaten können dadurch vorteilhafterweise besonders gezielt erfasst werden.
Die Anforderungssignale werden insbesondere so erzeugt, dass der unmittelbare zeitliche Zusammenhang für die Erfassung der Standort- und Referenz-Umgebungsdaten sichergestellt wird, das heißt, dass die Standort- und Referenz-Umgebungsdaten zu koordinierten
Zeitpunkten erfasst werden. Insbesondere werden die Standort- und Referenz- Umgebungsdaten gleichzeitig oder mit einem bestimmten maximalen zeitlichen Versatz erfasst.
Die Anforderungssignale werden zum Beispiel erzeugt, um das erfindungsgemäße Verfahren zu starten und hierfür die Erfassung der Standort- und Referenz-Umgebungsdaten zu initiieren. Die Anforderungssignale werden insbesondere so gebildet, dass die Erfassung der Standort- und Referenz-Umgebungsdaten ausgelöst wird, wobei insbesondere die relativen Zeitpunkte der Erfassung durch die Anforderungssignale festgelegt werden. Ferner können die
Anforderungssignale so erzeugt werden, dass Parameter für die Erfassung der Standort- und Referenz-Umgebungsdaten umfasst sind, etwa in welchem Umfang die Umgebungsdaten erfasst werden oder wie der jeweilige Erfassungsbereich ausgebildet wird, beispielsweise durch Festlegen einer bestimmten Richtung, Reichweite, eines Erfassungswinkels oder eines
Sensortyps.
Die Anforderungssignale werden dabei insbesondere durch eine Einheit an der Zielposition erzeugt, etwa ein dort befindliches Fahrzeug, wobei hierdurch die Erfassung der Referenz- Umgebungsdaten durch die Einheit an der Zielposition selbst sowie die Erfassung der Standort- Umgebungsdaten durch die mobile Einheit initiiert wird. Ferner kann dabei die mobile Einheit aufgefordert werden, die erfassten Standort-Umgebungsdaten an die Einheit an der Zielposition zu übertragen.
Bei einer Ausbildung sind die Anforderungssignale so ausgebildet, dass die Referenz- Umgebungsdaten so erfasst werden, dass der zweite Erfassungsbereich in Abhängigkeit von den erfassen Standort-Umgebungsdaten gebildet wird. Umgekehrt können Sie so gebildet sein, dass der erste Erfassungsbereich in Abhängigkeit von den erfassten Referenz- Umgebungsdaten gebildet wird. Beispielsweise kann ein besonders prägnantes
Umgebungsmerkmal bestimmt werden, welches sich besonders gut zum Orientierung eignet. Der erste und/oder zweite Erfassungsbereich kann dann so ausgebildet werden, etwa durch eine bestimmte Ausrichtung einer Erfassungseinheit oder die Wahl eines bestimmten Sensors, dass das prägnante Umgebungsmerkmal besonders deutlich von den Umgebungsdaten umfasst ist. Dies kann durch Parameter einer automatischen Erfassung der Umgebungsdaten oder durch eine Aufforderung an einen Nutzer zum Erfassen der Umgebungsdaten in einer spezifischen Weise erfolgen. Zum Beispiel wird eine Ausgabe mit einem Orientierungshinweis erzeugt, wobei der Nutzer dazu aufgefordert wird, eine Kamera der mobilen Einheit auf einen bestimmtes Gebäude zu richten, oder eine Kamera eines Fahrzeugs wird so eingestellt, dass das bestimmte Gebäude erfasst wird.
Bei einer weiteren Ausbildung des erfindungsgemäßen Verfahrens werden die Standort- Umgebungsdaten und die Referenz-Umgebungsdaten in einem geringen zeitlichen Abstand erfasst, insbesondere mit einem zeitlichen Abstand von höchstens 2 h, bevorzugt höchstens 30 min, weiter bevorzugt höchstens 2 min, weiter bevorzugt höchstens 30 s. Hierdurch wird vorteilhafterweise ein besonders enger zeitlicher Zusammenhang zwischen den Standort- und Referenz-Umgebungsdaten erreicht. Bei dem Verfahren können besonders aktuelle Umgebungsdaten verwendet werden, um beispielsweise kurzfristige Einflüsse beweglicher Objekte sowie sich ändernde
Lichtverhältnisse, Verkehrssituationen und Wetterbedingungen berücksichtigen zu können. Bei dem Verfahren können auch bewegliche Objekte als Umgebungsmerkmale zur Orientierung genutzt werden, selbst wenn sie sich lediglich kurzzeitig an einer bestimmten Position befinden. Bei der Navigation anhand des gemeinsamen Umgebungsmerkmals ist von Bedeutung, dass die Umgebungsdaten unter vergleichbaren Bedingungen erfasst wurden. Beispielsweise können sich Umgebungsmerkmale sehr unterschiedlich darstellen, je nachdem, bei welchem Wetter, zu welcher Tageszeit und an welchem Wochentag sie erfasst werden, ob eine bestimmte Veranstaltung in einem Bereich stattfindet und ob gegebenenfalls temporäre
Umgebungsmerkmale wie etwa Marktstände, Absperrungen, Schilder oder Menschengruppen vorhanden sind, ob Berufsverkehr herrscht oder wie ein Verkehrsfluss geregelt wird, was beispielsweise zu einem Rückstau führen kann. Zur Auswertung ist daher die Kenntnis der zeitlichen Relationen der Standort- und Referenz-Umgebungsdaten notwendig. Besonders wenn die Standort- und Referenz-Umgebungsdaten praktisch gleichzeitig erfasst werden, kann die relative Anordnung auch anhand beweglicher Umgebungsmerkmale bestimmt werden. Solche beweglichen Umgebungsmerkmale können etwa Verkehrsteilnehmer sein, analog dazu können jedoch auch veränderliche Zustände von Umgebungsmerkmalen genutzt werden, beispielsweise mittels einer Anzeigevorrichtung angezeigte Objekte, Zustände einer
Lichtsignalanlage oder ähnliche Umgebungsmerkmale.
Bei einer Weiterbildung des erfindungsgemäßen Verfahrens werden die Standort- Umgebungsdaten und/oder die Referenz-Umgebungsdaten innerhalb eines Bereichs einer bestimmten räumlichen Umgebung um den Standort oder die Zielposition erfasst, insbesondere in einem Radius von höchstes 1 km, bevorzugt höchstens 500 m, weiter bevorzugt höchstens 100 m. Dadurch wird vorteilhafterweise sichergestellt, dass die Umgebungsdaten in einem relevanten geografischen Bereich erfasst werden.
Insbesondere werden dabei Umgebungsdaten bereitgestellt, die während einer Bewegung zu einer bestimmten Position hin erfasst werden. Beispielsweise kann ein Fahrzeug, während es eine Parkposition anfährt, Referenz-Umgebungsdaten erfassen, sodass diese eine größere Umgebung um die Parkposition herum umfassen. Die Referenz-Umgebung können dann so gebildet werden, dass sie zu einem Zeitpunkt aktuell erfassbare Umgebungsdaten sowie in der räumlichen Umgebung zuvor erfasste Umgebungsdaten umfassen. Insbesondere ist die Parkposition die Zielposition und bei dem Verfahren wird ein Nutzer mit der mobilen Einheit bei der Navigation von seinem aktuellen Standort zu der Zielposition beziehungsweise der Parkposition des Fahrzeugs unterstützt. Dadurch, dass die Referenz-Umgebungsdaten eine größere Umgebung betreffen, kann die Navigation verbessert und insbesondere auch dann ermöglicht werden, wenn zu einem aktuellen Zeitpunkt keine gemeinsamen
Umgebungsmerkmale durch die mobile Einheit und aus der Parkposition heraus erfassbar sind.
Bei einer Ausbildung des Verfahrens werden die Referenz-Umgebungsdaten an der Zielposition erfasst und ebenfalls an der Zielposition in einer Speichereinheit gespeichert, insbesondere in einem dort befindlichen Fahrzeug. Die Standort-Umgebungsdaten werden durch die mobile Einheit am aktuellen Standort erfasst, optional vorverarbeitet und an die Zielposition übertragen, insbesondere an das Fahrzeug. Dabei kann ein lokales Netzwerk genutzt werden, etwa mittels Bluetooth, WLAN oder eine andere kurzreichweitige drahtlose Verbindung zwischen einem Fahrzeug an der Zielposition und der mobilen Einheit. Bei dieser Ausbildung erfolgt keine Übertragung der Referenz-Umgebungsdaten von der Zielposition zu einer anderen Einheit; beispielsweise verbleiben die Referenz-Umgebungsdaten in dem an der Zielposition
befindlichen Fahrzeug. In diesem Fall erfolgt auch die weitere Verarbeitung, insbesondere die Bestimmung des gemeinsamen Umgebungsmerkmals und des Navigationshinweises, an der Zielposition. Dadurch wird vorteilhafterweise ein verbesserter Datenschutz und eine erhöhte Datensicherheit gewährleistet, da externe Einrichtungen nicht auf die an der Zielposition erfassten Referenz-Umgebungsdaten zugreifen können.
Bei einer weiteren Ausbildung des erfindungsgemäßen Verfahrens werden die Standort- Umgebungsdaten und die Referenz-Umgebungsdaten an eine zentrale Recheneinheit übertragen, wobei der Navigationshinweis durch die zentrale Recheneinheit erzeugt wird. Die zentrale Recheneinheit ist insbesondere eine externe Einheit, etwa ein externer Server. Dies ermöglicht vorteilhafterweise eine Verarbeitung mit größeren Rechenkapazitäten sowie eine Speicherung der Daten, insbesondere eine temporäre Speicherung, etwa um zur Ausführung des Verfahrens weitere Umgebungsdaten von weiteren Einheiten oder weiteren Instanzen des Verfahrens bereitstellen zu können. Dabei sind insbesondere zusätzliche Maßnahmen zur Gewährleistung des Datenschutzes und der Datensicherheit vorgesehen.
Bei einer Weiterbildung des erfindungsgemäßen Verfahrens werden an einer Zwischenposition Zwischen-Umgebungsdaten in einem dritten Erfassungsbereich erfasst, wobei die relative Anordnung der mobilen Einheit relativ zu der Zielposition ferner relativ zu der Zwischenposition bestimmt wird. Insbesondere überlappen sich dabei der erste und dritte Erfassungsbereich und das gemeinsame Umgebungsmerkmal wird in dem überlappenden Teilbereich bestimmt. Dies ermöglicht vorteilhafterweise ein„Durchfragen“ der mobilen Einheit der Zielposition, wenn sich der erste und zweite Erfassungsbereich nicht überlappen, das heißt, wenn keine gemeinsamen Umgebungsmerkmale vom aktuellen Standort und von der Zielposition aus erfasst werden.
Zum Beispiel wird eine initiale Standortschätzung, etwa durch eine Nutzereingabe oder eine Positionsbestimmung mittels an sich bekannter Verfahren, für die mobile Einheit durchgeführt. Anschließend wird bei diesem Beispiel bestimmt, dass keine gemeinsamen
Umgebungsmerkmale erfasst werden können, etwa weil Hindernisse ein Überlappen des ersten und zweiten Erfassungsbereichs verhindern. Es wird eine Zwischenposition bestimmt, bei der sich insbesondere eine geeignete Einheit zur Erfassung der Zwischen-Umgebungsdaten befindet.
Die an der Zwischenpositionen erfassten Zwischen-Umgebungsdaten können an eine zentrale Recheneinheit übertragen werden, die die Verarbeitung der Umgebungsdaten und
insbesondere das Bestimmen der gemeinsamen Umgebungsmerkmale durchführt.
Beispielsweise werden die Zwischen-Umgebungsdaten an ein Fahrzeug an der Zielposition übertragen, wobei die Erfassung an der Zwischenpositionen in diesem Fall als Erweiterung der Erfassungsmöglichkeiten des Fahrzeugs an der Zielposition dient. Ferner kann der
Navigationshinweis für eine Route von dem aktuellen Standort der mobilen Einheit zu der Zwischenpositionen erzeugt werden, wobei die Erzeugung hier eine an der Zwischenpositionen beziehungsweise durch eine dort befindliche Einheit durchgeführt wird. Insbesondere wird ein Car2Car- oder Car2lnfrastructure-Netzwerk aufgebaut oder genutzt, um die Übertragung der Zwischen-Umgebungsdaten oder weiterer Daten zum Bereitstellen des Navigationshinweises zu gewährleisten.
Bei einer weiteren Ausbildung wird anhand der Standort- und/oder Referenz-Umgebungsdaten ein Hindernis auf einer Route vom aktuellen Standort zu der Zielposition bestimmt und ein Warnhinweis wird erzeugt und ausgegeben. Insbesondere werden dabei Hindernisse bestimmt, die für einen zu Fuß gehenden Benutzer relevant sind, beispielsweise Stufen, Steigungen, in den Weg ragende Objekte oder weitere Verkehrsteilnehmer, mit denen eine Kollisionsgefahr besteht. Das Hindernis wird insbesondere so bestimmt und der Hinweis wird so gebildet, dass ein Nutzer gewarnt wird, der das Hindernis selbst nicht wahrnehmen kann, etwa wegen einer eingeschränkten Sehfähigkeit.
Bei einer Weiterbildung wird an der Zielposition ein visuell wahrnehmbares Hinweiszeichen ausgegeben, das Hinweiszeichen wird anhand der Standort-Umgebungsdaten detektiert und der Navigationshinweis anhand des Hinweiszeichens erzeugt. Dies erleichtert die Navigation, da eine Einrichtung an der Zielposition auf sich aufmerksam machen kann. Beispielsweise kann ein aktives Lichtsignal erzeugt werden, etwa durch eine Projektion auf umgebende Flächen oder das Aussenden von Licht in Richtung des aktuellen Standorts, beispielsweise mittels Lichtpulsen einer bestimmten Farbe, Intensität, Frequenz oder mit einem bestimmten
Pulsmuster. Dabei wird insbesondere ein für das menschliche Auge nicht wahrnehmbarer Frequenzbereich des Lichts, etwa Infrarot, verwendet. Das Hinweiszeichen wird insbesondere durch die mobile Einheit anhand der erfassten Standort-Umgebungsdaten detektiert und die mobile Einheit erzeugt den Navigationshinweis. Insbesondere empfängt die mobile Einheit dabei eine Information über das Hinweiszeichen, insbesondere so, dass sie das
Hinweiszeichen erkennen kann. Beispielsweise empfängt die mobile Einheit eine Information darüber, mittels welches Hinweiszeichens ein an der Zielposition befindliches Fahrzeug zu erkennen ist.
Bei einer weiteren Ausbildung werden Kalenderdaten eines Nutzers erfasst, die insbesondere bei der mobilen Einheit gespeichert sind, und eine initiale Positionsschätzung für den aktuellen Standort der mobilen Einheit wird anhand der Kalenderdaten erzeugt. Beispielsweise umfassen die Kalenderdaten Ortsinformationen und Zeitinformationen, insbesondere für Termine, anhand derer bestimmt wird, an welcher Position sich die mobile Einheit zu einem Zeitpunkt befindet. Zum Beispiel kann bestimmt werden, dass sich ein Nutzer im Anschluss an das Ende eines Termins in einem Gebäude im Ausgangsbereich des Gebäudes befindet, um beispielsweise auf ein angefordertes Fahrzeug zu warten.
Das erfindungsgemäße System zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit zu einer Zielposition umfasst eine mobile Erfassungseinheit, die dazu eingerichtet ist, Standort-Umgebungsdaten in einem ersten
Erfassungsbereich zu erfassen, eine Referenz-Erfassungseinheit, die dazu eingerichtet ist, Referenz-Umgebungsdaten in einem zweiten Erfassungsbereich zu erfassen, und eine
Recheneinheit, die dazu eingerichtet ist, anhand der Standort-Umgebungsdaten und der Referenz-Umgebungsdaten zumindest ein gemeinsames Umgebungsmerkmal zu bestimmen. Dabei ist das gemeinsame Umgebungsmerkmal sowohl im ersten Erfassungsbereich als auch im zweiten Erfassungsbereich angeordnet. Dabei ist die Recheneinheit ferner dazu eingerichtet, eine relative Anordnung der mobilen Einheit relativ zu der Zielposition zu bestimmen und anhand der relativen Anordnung den Navigationshinweis zu erzeugen und auszugeben. Das erfindungsgemäße System ist insbesondere ausgebildet, das vorstehend beschriebene erfindungsgemäße Verfahren zu implementieren. Das System weist somit dieselben Vorteile auf wie das erfindungsgemäße Verfahren.
Das System umfasst insbesondere ein an der Zielposition befindliches Fahrzeug, indem insbesondere die Referenz-Erfassungseinheit integriert ist. Die mobile Einheit kann ein von einem Nutzer mitgeführtes Mobilgerät sein, etwa ein Mobiltelefon, in dem insbesondere die mobile Erfassungseinheit integriert ist.
Bei einer weiteren Ausbildung umfasst das System eine Ausgabeeinheit, die dazu eingerichtet ist, den Navigationshinweise visuell, akustisch und/oder taktil wahrnehmbar auszugeben. Die Ausgabeeinheit ist dabei insbesondere in der mobilen Einheit integriert, etwa mit einem Display, einem Lautsprecher oder einer Vibrationseinheit. Die Ausgabe kann beispielsweise mittels eines Mobiltelefons, einer am Körper des Nutzers angeordneten Einrichtung, an einer Gehhilfe oder einem Blindenstock mit einer entsprechenden Ausgabeeinheit ausgegeben werden.
Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
Figur 1 zeigt ein Ausführungsbeispiel des erfindungsgemäßen Systems und
Figuren 2 bis 6 zeigen beispielhafte Situationen für die Anwendung des erfindungsgemäßen
Verfahrens.
Mit Bezug zu Figur 1 wird ein Ausführungsbeispiel des erfindungsgemäßen Systems erläutert.
Einen Fahrzeug 1 umfasst eine Recheneinheit 5, mit der eine Referenz-Erfassungseinheit 4 und eine Schnittstelle 6 gekoppelt sind. Die Referenz-Erfassungseinheit 4 umfasst bei dem Ausführungsbeispiel eine Kamera, die auf an sich bekannte Weise gebildet ist und einen ersten Erfassungsbereich 4a aufweist. Bei weiteren Ausführungsbeispielen umfasst die Referenz- Erfassungseinheit 4 alternativ oder zusätzlich weitere Sensoren, beispielsweise eine
Stereokamera, eine Time-of-Flight- Kamera, einen Lidar-, Radar- oder Ultraschallsensor oder eine Infrarotkamera.
Eine mobile Einheit 2, bei dem Ausführungsbeispiel ausgebildet als Mobiltelefon 2, umfasst ebenfalls eine Recheneinheit 8, mit der eine mobile Erfassungseinheit 7 und eine
Anzeigeeinheit 9 gekoppelt sind. Die mobile Erfassungseinheit 7 des Mobiltelefons 2 ist ebenfalls als Kamera ausgebildet, die einen zweiten Erfassungsbereich 7a aufweist. Analog zu der Referenz-Erfassungseinheit 4 kann auch die mobile Erfassungseinheit 7 alternativ oder zusätzlich weitere Sensoren umfassen. Bei dem Ausführungsbeispiel führt ein Nutzer das Mobiltelefon 2 mit sich. Er hält es so, dass der erste Erfassungsbereich 4a der Referenz- Erfassungseinheit 4 und der zweite Erfassungsbereich 7a der mobilen Erfassungseinheit 7 sich überschneiden und beide ein gemeinsames Umgebungsmerkmal 3, bei dem
Ausführungsbeispiel einen Baum 3, umfassen.
Bei dem Ausführungsbeispiel ist zwischen der Schnittstelle 6 des Fahrzeugs 1 und der
Recheneinheit 8 des Mobiltelefons 2 eine direkte Verbindung herstellbar, wobei eine an sich bekanntes Verfahren zum Herstellen einer datentechnischen Verbindung genutzt wird, etwa WLAN oder Bluetooth. Bei weiteren Ausführungsbeispielen verfügt das Fahrzeug 1 und/oder das Mobiltelefon 2 ferner über eine Verbindung zu einem weiteren Netzwerk, insbesondere zu einer externen Einheit oder einem externen Server, oder die Verbindung zwischen der
Schnittstelle 6 und der Recheneinheit 8 wird indirekt über ein weiteres Netzwerk hergestellt.
Mit Bezug zu Figur 1 wird ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens erläutert. Dabei wird von dem oben erläuterten Ausführungsbeispiel des erfindungsgemäßen Systems ausgegangen, welches durch die Beschreibung des Verfahrens weiter spezifiziert wird.
Der Nutzer startet das Verfahren zur Unterstützung einer Navigation von seinem aktuellen Standort zu dem an einer Zielposition geparkten Fahrzeug 1. Die Referenz-Erfassungseinheit 4 des Fahrzeugs 1 und die mobile Erfassungseinheit 7 des Mobiltelefons 2 erfassen im
Wesentlichen gleichzeitig in den jeweiligen Erfassungsbereichen 4a, 7a Referenz- Umgebungsdaten beziehungsweise Standort-Umgebungsdaten. Die von dem Mobiltelefon 2 erfassten Standort-Umgebungsdaten werden bei dem Ausführungsbeispiel direkt über die Schnittstelle 6 an das Fahrzeug 1 übertragen, wobei optional ein Vorverarbeitungsschritt durchgeführt wird, insbesondere um die Menge der zu übertragenden Daten zu reduzieren.
Die Recheneinheit 5 des Fahrzeugs 1 führt anhand der Referenz- und Standort- Umgebungsdaten einen Verarbeitungsschritt zum Bestimmen gemeinsamer
Umgebungsmerkmale durch. Dabei wird der Baum 3 als gemeinsames Umgebungsmerkmal 3 identifiziert. Anhand der Referenz- und Standort-Umgebungsdaten wird bestimmt, welche Pose, das heißt welche Position und Ausrichtung, die mobile Einheit 2 an dem Standort und das Fahrzeug 1 an der Zielposition relativ zu dem Baum 3 und relativ zueinander einnehmen. Dabei werden ein Abstand und ein Winkel gegenüber dem Baum 3 bestimmt. Ferner wird die Ausrichtung der jeweiligen Erfassungseinheit 4, 7 relativ zu dem Baum 3 bestimmt, was bei einer als bekannt vorausgesetzten Ausrichtung der jeweiligen Erfassungseinheiten 4, 7 relativ zum Fahrzeug 1 beziehungsweise zum Mobiltelefon 2 das Bestimmen der Ausrichtung des Fahrzeugs 1 und des Mobiltelefons 2 erlaubt. Anhand dieser Informationen wird ferner die relative Anordnung des Fahrzeugs 1 , Mobiltelefons 2 und Baums 3 zueinander bestimmt.
Bei weiteren Ausführungsbeispielen ist das gemeinsame Umgebungsmerkmal 3 anders ausgebildet. Zum Beispiel kann ein Gebäudefassade, ein Lastwagen oder ein anderer
Verkehrsteilnehmer, eine Verkehrsbeschilderung, eine Infrastruktureinrichtung oder ein anderes Umgebungsmerkmal genutzt werden. Ferner können Kombinationen verschiedener
Umgebungsmerkmale oder Typen von Umgebungsmerkmalen als das gemeinsame
Umgebungsmerkmal aufgefasst werden.
Bei dem Ausführungsbeispiel werden ferner weitere routenrelevante Informationen anhand der Referenz- und Standort-Umgebungsdaten bestimmt, wobei geeignete Wege identifiziert werden, insbesondere in der Umgebung des aktuellen Standorts. Dabei werden auch
Hindernisse bestimmt, die insbesondere beim Gehen entlang der identifizierten Wege relevant sind. Bei einem weiteren Ausführungsbeispiel wird eine initiale Positionsschätzung für den aktuellen Standort und/oder die Zielposition erfasst, wobei an sich bekannte Verfahren zur Positionsbestimmung genutzt werden, etwa GPS. Anhand dieser initialen Positionsschätzung können Kartendaten und weitere Informationen erfasst und als routenrelevante Informationen genutzt werden.
Anhand der relativen Anordnung und gegebenenfalls weiterer routenrelevanter Informationen wird nun ein Navigationshinweis erzeugt, an das Mobiltelefon 2 übertragen und mittels der Anzeigeeinheit 9 ausgegeben. Der Navigationshinweis wird je nach den zur Verfügung stehenden Informationen und der jeweiligen Verkehrssituation so erzeugt, dass der Benutzer mit dem Mobiltelefon 2 bei einer Orientierung und einer Bewegung zum Fahrzeug 1 hin unterstützt wird. Der Navigationshinweis kann so gebildet sein, dass er eine
Richtungsanweisung umfasst, durch die beispielsweise die Richtung hin zum Fahrzeug 1 an der Zielposition oder zu einem begehbaren Weg angezeigt wird. Ferner kann der
Navigationshinweis eine oder mehrere Bewegungsanweisungen umfassen, etwa eine
Aufforderung zur Bewegung in eine bestimmte Richtung, zu einer Rotation, zum Abbiegen oder zum Ändern der Blickrichtung. Bei dem Ausführungsbeispiel wird ferner ein Warnhinweis ausgegeben, wenn ein Hindernis auf dem Weg von dem Standort zu der Zielposition erfasst wurde.
Bei einem weiteren Ausführungsbeispiel wird durch die Anzeigeeinheit 9 des Mobiltelefons 2 einen Hinweis ausgegeben, durch den der Nutzer zum Ausrichten der mobilen
Erfassungseinheit 7 des Mobiltelefons 2 aufgefordert wird, etwa um ein Schwenken der mobilen Erfassungseinheit durchzuführen und gemeinsame Umgebungsmerkmale zu finden oder besser zu erfassen; insbesondere wird hierdurch der Erfassungsbereich 7a der mobilen Erfassungseinheit 7 verändert. Ebenso kann die Referenz-Erfassungseinheit 4 des Fahrzeugs 1 so ausgerichtet oder eingestellt werden, dass ihr Erfassungsbereich 4a verändert oder ein Parameter der Erfassung eingestellt wird.
Bei weiteren Ausführungsbeispielen wird der Navigationshinweis alternativ oder zusätzlich akustisch wahrnehmbar durch eine Sprachausgabe und/oder haptisch wahrnehmbarer mittels einer Vibration ausgegeben.
Mit Bezug zu den Figuren 2 bis 6 werden Ausführungsbeispiele des erfindungsgemäßen Verfahrens anhand verschiedener Situationen erläutert. Dabei wird von dem oben erläuterten Ausführungsbeispiel des erfindungsgemäßen Systems ausgegangen, welches durch die Beschreibung des Verfahrens weiter spezifiziert wird. Das Verfahren wird im Wesentlichen wie oben mit Bezug zu Figur 1 beschrieben durchgeführt. Daher werden nachfolgend nicht sämtliche Verfahrensschritte wiederholt, sondern vor allem abweichende oder neue Merkmale erläutert. In den Figuren 2 bis 6 sind vergleichbare Einrichtungen und Objekte mit den gleichen Bezugszeichen versehen.
Bei dem in Figur 2 gezeigten Fall befindet sich ein Fahrzeug 21 an einer Zielposition und ein Nutzer mit einem Mobiltelefon 22 an einem aktuellen Standort. Das Fahrzeug 21 umfasst eine Erfassungseinheit 24 mit zwei Kameras, mittels derer in einem ersten Erfassungsbereich 24a Referenz-Umgebungsdaten erfassbar sind. Auch das Mobiltelefon 22 umfasst eine Kamera (nicht dargestellt), mittels derer in einem zweiten Erfassungsbereich 27a Standort- Umgebungsdaten erfassbar sind. Der erste 24a und zweite Erfassungsbereich 27a überlappen sich und in dem überlappenden Bereich befindet sich ein Baum 23. Bei weiteren
Ausführungsbeispielen können die Erfassungseinheit 24 und/oder die mobile Einheit 22 eine abweichende Anzahl Kameras und/oder andere Sensoren aufweisen. Bei der Durchführung des Ausführungsbeispiels des Verfahrens werden zunächst Anforderungssignale erzeugt, anhand derer die Erfassungseinheit 24a des Fahrzeugs 21 Referenz-Umgebungsdaten und die Kamera des Mobiltelefons 22 Standort-Umgebungsdaten erfassen. Dabei wird sichergestellt, dass die Umgebungsdaten möglichst gleichzeitig erfasst werden. Bei einem weiteren Ausführungsbeispiel wird eine zeitliche Verzögerung von höchstens 2 h, bevorzugt höchstens 30 min, weiter bevorzugt höchstens 2 min, weiter bevorzugt höchstens 30 s zwischen der Erfassung der Referenz-Umgebungsdaten und der Erfassung der Standort-Umgebungsdaten zugelassen.
Die von dem Mobiltelefon 22 erfassten Standort-Umgebungsdaten werden an das Fahrzeug 21 übertragen und unter zusätzlicher Berücksichtigung der Referenz-Umgebungsdaten wird der Baum 23 als gemeinsames Umgebungsmerkmal bestimmt. Ferner wird bestimmt, dass sich der aktuelle Standort des Mobiltelefons 22, wie in Figur 2 gezeigt, zwischen dem Fahrzeug 21 und dem Baum 23 befindet und dass die Kamera des Mobiltelefons 22 in eine dem Fahrzeug 21 entgegengesetzte Richtung gerichtet ist. Es wird davon ausgegangen, dass auch der Nutzer des Mobiltelefons 2 in die gleiche Richtung ausgerichtet ist, etwa mit seiner Blickrichtung, und dass diese Richtung nach dem Verständnis des Nutzers eine„Geradeaus“-Richtung nach vorne ist.
Es wird ein Navigationshinweis erzeugt und mittels eines Displays des Mobiltelefons 22 ausgegeben, wobei der Nutzer aufgefordert wird, sich zu drehen und in Richtung des
Fahrzeugs zu gehen. Der Navigationshinweis wird bei dem Ausführungsbeispiel ferner akustisch mittels einer Sprachausgabe sowie haptisch wahrnehmbar über Vibrationen gemäß einem bestimmten festgelegten Signalcode ausgegeben. Zum Beispiel wird eine akustische Anweisung ausgegeben, dass sich der Nutzer um seine Achse drehen soll, bis zur Ausgabe einer Vibration. Einem weiteren Beispiel wird ein veränderliches akustisch oder haptisch wahrnehmbarer Signal so ausgegeben, dass es die Entfernung zum Einstieg des Fahrzeugs 21 ausgibt, etwa durch eine Änderung einer Tonhöhe, Lautstärke, Frequenz und/oder Intensität des Signals.
Bei dem in Figur 3 gezeigten Fall richtet der Nutzer das Mobiltelefon 22 mit der Kamera auf das Fahrzeug 21. Zwischen dem Nutzer und dem Fahrzeug 21 sind Stufen 30 angeordnet. Diese werden im Erfassungsbereich 27a der Kamera des Mobiltelefons detektiert und als Hindernis auf dem Weg von dem aktuellen Standort des Nutzers zu dem Fahrzeug 21 identifiziert. Das Verfahren wird im Wesentlichen wie oben beschrieben durchgeführt, wobei die Stufen 30 als gemeinsames Umgebungsmerkmal bestimmt und zum Bestimmen der relativen Anordnung des Nutzers und des Fahrzeugs 21 genutzt werden, soweit sie auch von der
Erfassungseinheit 24 des Fahrzeugs 21 erfasst werden. Zusätzlich zu dem Navigationshinweis wird auch ein Warnhinweis erzeugt und ausgegeben, durch den der Nutzer auf die Position der Stufen 30 hingewiesen wird. Ein Nutzer mit eingeschränkter Sehfähigkeit oder
Einschränkungen seiner Beweglichkeit kann dann auf das Vorhandensein der Stufen 30 reagieren. Bei weiteren Ausführungsbeispielen wird anhand der Standort- und/oder Referenz- Umgebungsdaten sowie gegebenenfalls verfügbare relevante Kartendaten ein alternativer Weg, beispielsweise ein barrierefreier Zugang, von dem Nutzer zu der Zielposition bestimmt und ausgegeben, wobei die Stufen 30 als Hindernis umgangen werden.
Bei dem in Figur 4 gezeigten Fall befindet sich das Fahrzeug 21 an der Zielposition in einem für den Nutzer mit dem Mobiltelefon 22 nicht einsehbaren Bereich, der hinter einer Häuserecke verborgen ist. Außerdem wird davon ausgegangen, dass keine Umgebungsdaten in
überlappenden Bereichen erfasst werden können. Bei diesem Ausführungsbeispiel wird eine datentechnische Verbindung 40 von dem Fahrzeug 21 zu einem weiteren Fahrzeug 41 aufgebaut, etwa mittels Bluetooth, WLAN oder einer Car2Car-Technik, wobei das weitere Fahrzeug 41 eine weitere Referenz-Erfassungseinheit 44 umfasst. Es wird davon
ausgegangen, dass mittels der Referenz-Erfassungseinheit 44 des weiteren Fahrzeugs 41 Daten in einem Erfassungsbereich erfasst werden können, der mit dem Erfassungsbereich 27a der Kamera des Mobiltelefons 22 überlappt, sodass gemeinsame Umgebungsmerkmale bestimmt werden können.
Bei diesem Ausführungsbeispiel wird der Navigationshinweis zunächst so erzeugt, dass der Nutzer zu einer Zwischenposition, insbesondere dem Standort des weiteren Fahrzeugs 41 , geführt wird, ehe er von dort aus zur Zielposition des Fahrzeugs 21 geführt wird. Ferner kann der Nutzer so lange in Richtung der Zwischenpositionen geführt werden, bis er sich in einem Bereich befindet, in dem die Umgebungsdaten so erfasst werden können, dass gemeinsame Merkmale sowohl von dem Mobiltelefon 22 als auch von dem Fahrzeug 21 mit seiner
Erfassungseinheit 24 erfasst werden können.
Bei einem weiteren Ausführungsbeispiel werden die von dem weiteren Fahrzeug 41 erfassten weiteren Referenz-Umgebungsdaten mit den vom Fahrzeug 21 erfassten Referenz- Umgebungsdaten fusioniert, um so den verfügbaren Erfassungsbereich für die Referenz- Umgebungsdaten virtuell durch Zuhilfenahme einer externen Erfassungseinheit zu vergrößern. Der Navigationshinweis kann dann so gebildet und ausgegeben werden, dass dem Nutzer ein Hinweis auf eine Route direkt zu dem Fahrzeug 21 an der Zielposition ausgegeben wird, ohne erst eine Zwischenposition anzusteuern.
Bei einem weiteren Ausführungsbeispiel können andere externe Erfassungseinheiten genutzt werden, etwa Verkehrsüberwachungseinrichtungen, Sicherheitskameras, geeignete
Mobilgeräte oder andere Einheiten, die beispielsweise mittels einer Car2lnfrastructure- oder Car2X-Technik oder eines anderen Netzwerks datentechnisch mit dem Fahrzeug 21 verbunden werden können.
Bei weiteren Ausführungsbeispielen ist vorgesehen, dass an der Zielposition keine
Erfassungseinheit zur Verfügung steht, sondern zur Erfassung der Referenz-Umgebungsdaten ausschließlich andere Erfassungseinheiten verwendet werden. Dies kann insbesondere in umfassend von Sensoren, insbesondere Videokameras, überwachten Bereichen genutzt werden, etwa bei Flughäfen, privaten oder Unternehmensräumen, Freizeitparks und/oder in entsprechend ausgerüsteten Fahrzeug-Parkanlagen. Das Verfahren kann dabei auch genutzt werden, um alternativ oder zusätzlich zu dem Navigationshinweis eine Standortschätzung an die mobile Einheit 22 zu übertragen.
Insbesondere wird eine initiale Positionsschätzung für den aktuellen Standort des Mobiltelefons 22 und/oder die Zielposition mit dem Fahrzeug 21 erzeugt, etwa mittels GPS oder durch eine Eingabe eines Nutzers. Anhand dieser Information werden geeignete weitere Fahrzeuge 41 oder andere Einrichtungen zur Erfassung von Umgebungsdaten bestimmt, datentechnische Verbindung 40 wird aufgebaut und die benötigten Daten werden erfasst und übertragen.
Bei einem weiteren Ausführungsbeispiel werden initiale Positionsschätzungen für die mobile Einheit 22 und die Zielposition, also etwa das Fahrzeug 22, erfasst und die relative Anordnung wird ausgehend hiervon mittels des erfindungsgemäßen Verfahrens optimiert.
Bei dem in Figur 5 gezeigten Fall befindet sich zwischen dem Mobiltelefon 22 des Nutzers und der Erfassungseinheit 24 des Fahrzeugs 21 eine temporäre Barriere 50, in diesem Fall ein Marktstand 50, der lediglich zu bestimmten Zeitpunkten an dieser Position angeordnet ist. Eine temporäre Barriere 50 kann bei anderen Ausführungsbeispielen auch beispielsweise ein Lieferfahrzeug oder ein anderer Verkehrsteilnehmer sein. Bei dem Ausführungsbeispiel wird anhand der erfassten Standort- und Referenz- Umgebungsdaten erfasst, dass sich der Standort des Mobiltelefons 22 auf einer anderen Seite des Marktstandes 50 befindet als das Fahrzeug 21. Anhand der erfassten Umgebungsdaten sowie gegebenenfalls vorhandener Kartendaten wird eine Route bestimmt und ausgegeben, auf der der Nutzer und Umgehung des Marktstandes 50 zu dem Fahrzeug 21 gelangt.
Bei dem in Figur 6 gezeigten Fall befinden sich der Nutzer mit dem Mobiltelefon 22 und das Fahrzeug 21 vor einer Gebäudefront 60, an welcher Schilder mit Buchstabenkombinationen angeordnet sind. Alternativ oder zusätzlich können beispielsweise praktisch beliebige
Schriftzüge, Logos, Beschriftungen oder Werbedarstellungen vorgesehen sein. Diese können anhand der erfassten Standort- und Referenz-Umgebungsdaten identifiziert und zum
Bestimmen der relativen Anordnung genutzt werden. Die Darstellungen der Schilder können flexibel gebildet werden, zum Beispiel mittels einer Displayfläche oder einer dynamischen Werbefläche. Bei dem Verfahren können ferner Anzeigevorrichtungen in der Umgebung des Fahrzeugs 21 so angesteuert werden, dass etwa in einem Parkhaus bestimmte
Umgebungsmerkmale ausgegeben werden, um die Suche nach spezifischen Zielorten zu erleichtern.
Bei einem weiteren Ausführungsbeispiel sendet das Fahrzeug 21 oder eine andere Einrichtung an der Zielposition ein Lichtsignal aus. Anhand der erfassten Standort-Umgebungsdaten wird das Lichtsignal geortet und dazu genutzt, die Anordnung relativ zu der Zielposition zu bestimmen. Dabei wird insbesondere eine Information über das Lichtsignal an das
Mobiltelefon 22 übertragen, welche das Identifizieren des Lichtsignals ermöglicht; zum Beispiel wird das Lichtsignal mit einer bestimmten Farbe, Dauer oder als eine bestimmte Abfolge von längeren und kürzeren Signalen gebildet und kann so einer bestimmten Zielposition zugeordnet werden. Das Mobiltelefon 22 empfängt dann insbesondere eine Information über das
Lichtsignal, um dieses identifizieren und von anderen Signalen unterscheiden zu können.
Analog dazu können Symbole auf einem Bildschirm dargestellt werden oder auf einer Fläche kann eine bestimmte Farbe und/oder grafische Darstellung ausgegeben werden. Ein Lichtsignal kann ferner im Infrarotbereich erzeugt werden, wobei dann eine geeignete Erfassungseinheit verwendet werden muss, während das Lichtsignal sehr diskret abgegeben werden kann.
Zum Beispiel kann an der Zielposition, etwa im Fahrzeug 21 , ein Display vorgesehen sein, das zur Ausgabe eines Lichtsignals angesteuert wird, etwa einer Zeichenfolge, einem grafischen Objekt oder einem Symbol. Die mobilen Einheit 22 kann dann eine Information darüber empfangen, zu welchem Lichtsignal navigiert werden soll. In der vorstehenden Beschreibung wird überwiegend davon ausgegangen, dass sich an der Zielposition das Fahrzeug 1 , 21 befindet. Dies muss im Allgemeinen nicht der Fall sein, sodass eine Navigation zu dem Fahrzeug 1 , 21 stets als Navigation zu der Zielposition verstanden werden kann. Analog hierzu muss auch die mobile Einheit 2, 22 nicht zwangsläufig ein Mobiltelefon 2, 22 sein, sondern das erfindungsgemäße Verfahren kann prinzipiell mit beliebigen mobilen Einheiten durchgeführt werden.
Bezugszeichenliste
Fahrzeug
mobile Einheit; Mobiltelefon
Umgebungsmerkmal; Baum
Referenz-Erfassungseinheit
a erster Erfassungsbereich (Fahrzeug)
Recheneinheit (Fahrzeug)
Schnittstelle
mobile Erfassungseinheit
a zweiter Erfassungsbereich (Mobiltelefon)
Recheneinheit (Mobiltelefon)
Anzeigeeinheit (Mobiltelefon)
1 Fahrzeug
2 Mobiltelefon
3 Baum
4 Erfassungseinheit (Fahrzeug)
4a erster Erfassungsbereich (Fahrzeug)
7a zweiter Erfassungsbereich (Mobiltelefon)
0 Hindernis; Stufe
0 datentechnische Verbindung
1 weiteres Fahrzeug
4 Referenz-Erfassungseinheit (Fahrzeug)
0 temporäre Barriere; Marktstand
0 Gebäudefront

Claims

Patentansprüche
1. Verfahren zum Bereitstellen eines Navigationshinweises für eine Route von einem
aktuellen Standort einer mobilen Einheit (2) zu einer Zielposition; bei dem
mittels der mobilen Einheit (2) Standort-Umgebungsdaten in einem ersten Erfassungsbereich (4a) erfasst werden;
Referenz-Umgebungsdaten in einem zweiten Erfassungsbereich (7a) erfasst werden;
anhand der Standort-Umgebungsdaten und der Referenz-Umgebungsdaten zumindest ein gemeinsames Umgebungsmerkmal (3) bestimmt wird; wobei
das gemeinsame Umgebungsmerkmal (3) sowohl im ersten Erfassungsbereich (4a) als auch im zweien Erfassungsbereich (7a) angeordnet ist;
eine relative Anordnung der mobilen Einheit (2) relativ zu der Zielposition bestimmt wird; und
anhand der relativen Anordnung der Navigationshinweis erzeugt und ausgegeben wird.
2. Verfahren gemäß Anspruch 1 ,
dadurch gekennzeichnet, dass
die Referenz-Umgebungsdaten von der Zielposition aus erfasst werden.
3. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Standort-Umgebungsdaten Bilddaten umfassen.
4. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Standort-Umgebungsdaten eine initiale Positionsschätzung und/oder eine Ausrichtung umfassen.
5. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
Anforderungssignale für die Standort-Umgebungsdaten und die Referenz- Umgebungsdaten in einem unmittelbaren zeitlichen Zusammenhang erzeugt werden; und die Standort-Umgebungsdaten und die Referenz-Umgebungsdaten in Abhängigkeit von den Anforderungssignalen erfasst werden.
6. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Standort-Umgebungsdaten und die Referenz-Umgebungsdaten in einem geringen zeitlichen Abstand erfasst werden, insbesondere mit einem zeitlichen Abstand von höchstens 2 h, bevorzugt höchstens 30 min, weiter bevorzugt höchstens 2 min, weiter bevorzugt höchstens 30 s.
7. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Standort-Umgebungsdaten und/oder die Referenz-Umgebungsdaten innerhalb eines Bereichs einer bestimmten räumlichen Umgebung um den Standort oder die Zielposition erfasst werden, insbesondere in einem Radius von höchstes 1 km, bevorzugt höchstens 500 m, weiter bevorzugt höchstens 100 m.
8. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Standort-Umgebungsdaten und die Referenz-Umgebungsdaten an eine zentrale Recheneinheit übertragen werden; wobei
der Navigationshinweis durch die zentrale Recheneinheit erzeugt wird.
9. Verfahren gemäß einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
an einer Zwischenposition Zwischen-Umgebungsdaten in einem dritten Erfassungsbereich erfasst werden; wobei
die relative Anordnung der mobilen Einheit (2) relativ zu der Zielposition ferner relativ zu der Zwischenposition bestimmt wird.
10. System zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit (2) zu einer Zielposition; umfassend
eine mobile Erfassungseinheit (7), die dazu eingerichtet ist, Standort- Umgebungsdaten in einem ersten Erfassungsbereich (7a) zu erfassen;
eine Referenz-Erfassungseinheit (4), die dazu eingerichtet ist, Referenz- Umgebungsdaten in einem zweiten Erfassungsbereich (4a) zu erfassen; und
eine Recheneinheit (5), die dazu eingerichtet ist, anhand der Standort- Umgebungsdaten und der Referenz-Umgebungsdaten zumindest ein gemeinsames Umgebungsmerkmal (3) zu bestimmen; wobei
das gemeinsame Umgebungsmerkmal (3) sowohl im ersten Erfassungsbereich (4a) als auch im zweien Erfassungsbereich (7a) angeordnet ist; wobei
die Recheneinheit (5) ferner dazu eingerichtet ist, eine relative Anordnung zu bestimmen; und
anhand der relativen Anordnung den Navigationshinweis zu erzeugen und auszugeben.
PCT/EP2020/067961 2019-07-08 2020-06-25 Verfahren und system zum bereitstellen eines navigationshinweises für eine route von einem aktuellen standort einer mobilen einheit zu einer zielposition WO2021004809A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/625,289 US20220260382A1 (en) 2019-07-08 2020-06-25 Method and System for Providing a Navigational Instruction for a Route From a Current Location of a Mobile Unit to a Target Position
CN202080049733.8A CN114072634A (zh) 2019-07-08 2020-06-25 用于为从移动单元的当前停靠点到目标位置的路线提供导航提示的方法和系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019210015.5 2019-07-08
DE102019210015.5A DE102019210015B3 (de) 2019-07-08 2019-07-08 Verfahren und System zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit zu einer Zielposition

Publications (1)

Publication Number Publication Date
WO2021004809A1 true WO2021004809A1 (de) 2021-01-14

Family

ID=71170615

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/067961 WO2021004809A1 (de) 2019-07-08 2020-06-25 Verfahren und system zum bereitstellen eines navigationshinweises für eine route von einem aktuellen standort einer mobilen einheit zu einer zielposition

Country Status (4)

Country Link
US (1) US20220260382A1 (de)
CN (1) CN114072634A (de)
DE (1) DE102019210015B3 (de)
WO (1) WO2021004809A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014170758A2 (en) 2013-04-14 2014-10-23 Morato Pablo Garcia Visual positioning system
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
US20170178269A1 (en) 2015-12-17 2017-06-22 Counterfy Llc Displayed identifier for a ridesharing service
WO2018035848A1 (en) 2016-08-26 2018-03-01 Nokia Technologies Oy A method, apparatus and computer program product for assisting a user in locating a vehicle
US10139237B2 (en) 2015-09-01 2018-11-27 Chris Outwater Method for remotely identifying one of a passenger and an assigned vehicle to the other
US20180365893A1 (en) * 2017-06-16 2018-12-20 Daqri, Llc Augmented reality transportation notification system
DE102018118029A1 (de) 2017-07-26 2019-01-31 GM Global Technology Operations LLC Systeme und verfahren zur verkehrsteilnehmerklassifizierung, positions- und kinematischen parametermessung und -meldung über ein digitales telekommunikationsnetz

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL238473A0 (en) * 2015-04-26 2015-11-30 Parkam Israel Ltd A method and system for discovering and mapping parking areas
WO2018182722A1 (en) * 2017-03-31 2018-10-04 Airbus Group Hq, Inc. Vehicular monitoring systems and methods for sensing external objects
US11677930B2 (en) * 2018-12-20 2023-06-13 Here Global B.V. Method, apparatus, and system for aligning a vehicle-mounted device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014170758A2 (en) 2013-04-14 2014-10-23 Morato Pablo Garcia Visual positioning system
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
US10139237B2 (en) 2015-09-01 2018-11-27 Chris Outwater Method for remotely identifying one of a passenger and an assigned vehicle to the other
US20170178269A1 (en) 2015-12-17 2017-06-22 Counterfy Llc Displayed identifier for a ridesharing service
WO2018035848A1 (en) 2016-08-26 2018-03-01 Nokia Technologies Oy A method, apparatus and computer program product for assisting a user in locating a vehicle
US20180365893A1 (en) * 2017-06-16 2018-12-20 Daqri, Llc Augmented reality transportation notification system
DE102018118029A1 (de) 2017-07-26 2019-01-31 GM Global Technology Operations LLC Systeme und verfahren zur verkehrsteilnehmerklassifizierung, positions- und kinematischen parametermessung und -meldung über ein digitales telekommunikationsnetz

Also Published As

Publication number Publication date
DE102019210015B3 (de) 2020-10-01
CN114072634A (zh) 2022-02-18
US20220260382A1 (en) 2022-08-18

Similar Documents

Publication Publication Date Title
EP3164858B1 (de) Verfahren zur parkplatzvermittlung und freier-parkplatz-assistenzsystem
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
DE112020000110T5 (de) Nutzung von in fahrzeugen erfassten fahrgastaufmerksamkeitsdaten fürlokalisierungs- und standortbezogene dienste
DE102021100584A1 (de) Erfassung und klassifizierung von sirenensignalen und lokalisierung von sirenensignalquellen
DE102016106513B4 (de) Verfahren zur Erfassung von geparkten Fahrzeugen
DE102012216994A1 (de) Verfahren zur Parkplatzvermittlung und Freier-Parkplatz-Assistenzsystem
EP3360122A1 (de) Verfahren zur erfassung von geparkten fahrzeugen und zur abrechnung von parkgebühren
DE102018005869A1 (de) System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
DE202008003979U1 (de) Messsystem für die Verkehrsstromanalyse
EP3151213B1 (de) Fahrzeugvorrichtung sowie verfahren zur aufzeichnung eines umgebungsbereichs eines kraftfahrzeugs
DE102008028374A1 (de) Verfahren zur kombinierten Ausgabe eines Bildes und einer Lokalinformation, sowie Kraftfahrzeug hierfür
DE102018217425A1 (de) Fahrerassistenzsystem für ein Fahrzeug
WO2012034637A1 (de) Verfahren und vorrichtung zur detektion von fahrbahnmarkierungen in einem bild
DE102012005471A1 (de) Verkehrsinformationssystem
DE102020134835A1 (de) Langzeit-objektverfolgung zur unterstützung autonomer fahrzeugnavigation
DE102017209240A1 (de) Verfahren zur Ansteuerung wenigstens einer Vorrichtung von einem Kraftfahrzeug
DE102015220613A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Aufstellortes für ein Warndreieck im Straßenverkehrsraum sowie Verfahren und Vorrichtung zum Unterstützen eines Insassen eines Fahrzeugs beim Aufstellen eines Warndreiecks
DE102016119729A1 (de) Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem
AT522549B1 (de) Verfahren zum Leiten von Verkehrsteilnehmern
DE102022103428A1 (de) Methoden zum auffinden von und zugang zu fahrzeugen
EP2729924A1 (de) Verfahren zum bereitstellen von fahrwegdaten in einem kraftfahrzeug, sowie bodenfeste vorrichtung
DE102019210015B3 (de) Verfahren und System zum Bereitstellen eines Navigationshinweises für eine Route von einem aktuellen Standort einer mobilen Einheit zu einer Zielposition
EP2213980B1 (de) Verfahren zum Betrieb einer Navigationseinrichtung eines Kraftfahrzeugs sowie Kraftfahrzeug hierfür
EP3008636B1 (de) Verfahren und system zum auffinden einer oder mehrerer personen durch ein fahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20734937

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20734937

Country of ref document: EP

Kind code of ref document: A1