WO2016000894A1 - Ortspositionsabhängige darstellung von fahrzeugumfelddaten auf einer mobilen einheit - Google Patents

Ortspositionsabhängige darstellung von fahrzeugumfelddaten auf einer mobilen einheit Download PDF

Info

Publication number
WO2016000894A1
WO2016000894A1 PCT/EP2015/062216 EP2015062216W WO2016000894A1 WO 2016000894 A1 WO2016000894 A1 WO 2016000894A1 EP 2015062216 W EP2015062216 W EP 2015062216W WO 2016000894 A1 WO2016000894 A1 WO 2016000894A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile unit
vehicle
environment
determined
environment data
Prior art date
Application number
PCT/EP2015/062216
Other languages
English (en)
French (fr)
Inventor
Michael Burkhart
Thomas RÖSCH
Original Assignee
Zf Friedrichshafen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag filed Critical Zf Friedrichshafen Ag
Priority to JP2016575752A priority Critical patent/JP2017522665A/ja
Priority to CN201580035474.2A priority patent/CN106662871B/zh
Priority to US15/322,004 priority patent/US11112788B2/en
Priority to EP15729103.0A priority patent/EP3164771A1/de
Publication of WO2016000894A1 publication Critical patent/WO2016000894A1/de

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras

Definitions

  • the invention relates to a method in which environmental data of a vehicle are determined by means of an environment sensor. These are transmitted to a mobile unit and displayed there.
  • the invention further relates to a
  • Driver assistance system for monitoring a vehicle environment and a mobile unit for monitoring a vehicle environment.
  • a method for monitoring a vehicle environment is also known from DE 10 2012 200 721 A1. Here is at least a section of the
  • the prior art reproduction of the environment data on the mobile unit may be disadvantageous to a user of the mobile unit due to the large amount of displayed information. It can be difficult for him to separate important from unimportant environmental data.
  • the object of the invention is therefore to display the environment data indicated to a user of such a mobile unit in a situation-appropriate manner.
  • a method for monitoring a vehicle environment is proposed, environment data of a vehicle being determined by means of an environmental sensor system.
  • the determined environment data are transmitted to a mobile unit and displayed there. It is provided that a spatial position of the mobile unit is determined with respect to the vehicle.
  • the environment data, which were determined by means of the environmental sensor, are then displayed as a function of the respectively determined spatial position of the mobile unit.
  • the mobile unit For a user of the mobile unit only those environment data are displayed, which he needs at the respective location position.
  • environment data in particular images or videos, which in any case are visible to the user from the current location position, can be hidden from the display on the mobile unit.
  • the representation, in particular the preparation of the environment data on the mobile unit, depending on the location position can be done differently.
  • a color rendering, a shape rendering or a perspective rendering can be adapted to the respective spatial position of the mobile unit. The information density which the operator of the mobile unit receives based on the environmental data presented there can thereby be significantly reduced.
  • the environment sensor system can in particular be a camera and / or video system.
  • the environment sensor system can alternatively or additionally
  • Radar sensors ultrasonic sensors, infrared light sensors, etc. have.
  • the data generated by these sensors form the environmental data that is used to monitor the vehicle environment. Accordingly, the environment data can in particular images or videos and / or distances to obstacles and / or positions of obstacles with respect to the vehicle and / or
  • the basic idea of the invention is to display only those data on the mobile unit which are relevant for the respective location position of the mobile unit or to design the representation of the surrounding data according to the respective spatial position.
  • the vehicle environment is divided into a plurality of discrete sectors.
  • the mobile unit it is determined within which sector the mobile unit is located.
  • the environment data is then displayed on the mobile unit depending on the detected sector. Basically, the determination of the location position
  • Location sensor be provided. Dividing the vehicle environment into several discrete sectors reduces the number of possible ones
  • such environment data are displayed which essentially lie in a region of the non-visible area of the mobile location
  • Vehicle environment may therefore be, for example, a blind spot of the vehicle environment. So this is an area of the vehicle environment, which is visually non-visible by an operator of the mobile unit at the current location position of his mobile unit. This can be, for example, a vehicle side remote from the current position. The mobile unit can then represent a picture or video signal especially from this remote vehicle side.
  • the displayed environment data therefore only contain information that the operator can not recognize himself from his position in space.
  • the environment sensor system therefore preferably has at least one camera which records camera images of the vehicle surroundings. This may in particular include the entire vehicle environment. Accordingly, the environment sensor system can also have a plurality of such cameras, which are arranged distributed on the vehicle.
  • the environment data displayed on the mobile unit in this case are camera images of the non-visible area of the vehicle environment from the determined location position. These are, in particular, live camera images, that is to say a respective current camera image of the respective area of the camera Vehicle environment.
  • the determination of the spatial position of the mobile unit can be carried out, for example, by evaluating the environmental data of the environmental sensor system, such as, for example, from camera images of the environmental sensor system.
  • the determination of the spatial position by facial recognition of the operator of the mobile unit and by subsequent assignment of the detected facial positions on the
  • the respective spatial position or the respective sector within which the mobile unit is located can be determined simply and accurately.
  • a plurality of respective transmitters emitting an electromagnetic field can be arranged stationarily on an outer region of the vehicle. The transmitters may then be evenly or non-uniformly distributed on the exterior of the vehicle.
  • the mobile unit then has at least one receiver that detects the field strength of the electromagnetic field. The location of the mobile unit with respect to the
  • Vehicle or the sector within which the mobile unit is located is determined by the detected by the receiver field strengths of
  • the mobile unit is additionally designed to remotely control the vehicle.
  • the vehicle can then be ranked particularly easily for an operator of the mobile unit.
  • the invention is therefore particularly well suited to facilitate maneuvering of the vehicle.
  • the remote control may relate in particular to an acceleration and / or deceleration and / or steering of the vehicle.
  • the remote control can also be based on a default simple or complex maneuver of the
  • Vehicle relate. These are then communicated to the vehicle by the mobile unit, whereupon the vehicle carries out the driving maneuvers independently.
  • a parking operation or a coupling process can be automated.
  • the invention also relates to a computer program product for
  • the invention also relates to a driver assistance system for monitoring a vehicle environment.
  • the driver assistance system is designed in particular for carrying out the method explained above.
  • the driver assistance system is designed to determine environment data of a vehicle and to transmit the environment data to a mobile unit as well as the environment data on the mobile unit
  • driver assistance system is executed to a
  • the invention relates to a mobile unit for monitoring a vehicle environment.
  • This is designed to obtain environmental data of a vehicle, in particular of an environment sensor system of the vehicle, and it is designed to represent the environment data depending on a location position of the mobile unit with respect to the vehicle.
  • the mobile unit is a mobile unit portable by a person.
  • the mobile unit is in particular a mobile telephone, such as a smartphone, or it is, for example, a tablet PC, a laptop, a handheld, etc.
  • the transmitter (s) radiating an electromagnetic field are, in particular, a Bluetooth Transmitter, a WLAN transmitter, an NFC transmitter, an RFID transmitter, etc., so in the IT industry commercially common transmitter.
  • RFID Radio Frequency Identification
  • Wireless Wireless Local Area Network
  • NFC Near Field Communication
  • BLE Bluetooth Low Energy
  • the receiver detecting the electromagnetic field is one that can detect the Bluetooth field, the NFC field, the WLAN field, the RFID field, etc., or can detect its field strength.
  • the above types of transmitters have been found to be particularly suitable for the present application.
  • each transmitter is designed to be at the broadcast of the
  • Electromagnetic field in particular continuously in operation, an individual identifier, for example, an individual string to emit.
  • each of the electromagnetic fields can be assigned exactly the transmitter underlying the field. The receiver is then executed to this
  • the field strength detected by the receiver of each of the electromagnetic fields is its associated one
  • Determining the location of the mobile unit will be significantly refined.
  • the figure shows a schematic representation of a plan view of a vehicle and a mobile unit.
  • the vehicle is designed Mogliedrig.
  • this is a towing vehicle 1 with trailers 2 coupled thereto.
  • Trailer 2 can be omitted.
  • the vehicle is provided with an environment sensor system by means of which environment data of the vehicle is determined.
  • the environment sensor system is a plurality of cameras 3, which are arranged distributed on an outer area of the vehicle.
  • the cameras 3 are in particular distributed so that the entire environment of the vehicle of the
  • the environment sensor system can have additional sensors for determining environmental data of the vehicle.
  • the environment sensor system can also have one or more ultrasonic sensors, radar sensors, laser sensors, infrared light sensors, etc. Part or all of the thus determined
  • a portable mobile unit 4 This is in particular a mobile phone or a tablet PC.
  • the mobile unit is operated by an operator 5. This may be, for example, a driver or passenger of the vehicle.
  • the operator 5 is located with the mobile unit 4 in the illustrated example outside the vehicle on the driver side, at the height of the first trailer 2.
  • the mobile unit 4 is designed in particular to remotely control the vehicle. The operator 5 can therefore maneuver the vehicle from the outboard position in which he is currently located,
  • Passenger side is at the height of the first trailer 2, do not see.
  • the location of the mobile unit 4 with respect to the vehicle is therefore determined. Depending on this determined
  • the environment data which are detected by the environment sensors (here: the cameras 3) are displayed on the mobile unit 4. According to the figure, this takes place in the illustrated embodiment in that the image captured by the passenger-side camera 3 is displayed on the mobile unit 4. As a result, the obstacle 6 is displayed on the mobile unit 4
  • environment data can be displayed on the mobile unit 4 to the operator 5 depending on the environment sensor used, such as a radar image, an ultrasound image, an infrared image, etc.
  • the representation may also differ from a pictorial representation of the vehicle environment.
  • a distance between the vehicle and the obstacle 6 can be displayed.
  • the preparation of the data colors, shapes,
  • the determination of the spatial position of the mobile unit 4 with respect to the vehicle can, as shown by way of example in the figure, take place by means of a special positioning sensor system.
  • the location position can also be arbitrarily different.
  • transmitters 7 of the position sensor system are fixedly arranged on the outer region of the vehicle and emit an electromagnetic field X in each case.
  • the transmitters 7 are arranged in particular in the region of edges of the vehicle, in particular in the region of vertical edges.
  • the mobile unit 4 has a receiver 8 as part of the location sensor system, which in each case detects a field strength of the electromagnetic fields X in the area of the mobile unit 4.
  • the field strength of the electromagnetic fields X decreases with increasing distance to the respective transmitter 7.
  • the spatial position at which the receiver 8 or the mobile unit 4 is located are determined. This can be done for example by trigonometric calculations or empirical experiments or by maps.
  • the transmitters 7 emit an individual identifier with the respective electromagnetic field X. Accordingly, based on each electromagnetic field X of the respective field emitting transmitter 7 can be identified.
  • Receiver 8 recognizes next to the field strength then the associated individual
  • Vehicle can be accurately determined.
  • the vehicle surroundings are subdivided into a plurality of discrete sectors A to H.
  • the exact location of the mobile unit 4 or the receiver 8 is not determined, but only in which sector A to H the mobile unit 4
  • corresponding environment data are accordingly adapted to the respective sector A to H, within which the mobile unit 4 is located.
  • the mobile unit 4 is located within the sector F.
  • the image of the passenger-side camera 3 is displayed on the mobile unit 4.
  • the sector H (rear of the vehicle) would not be visible to the operator 5 and would therefore be displayed on the mobile unit 4. If the operator 5 were with the mobile unit 4 in the area of the sector A, the image of the cameras 3 on the driver side and on the front side on the mobile unit 4 would be displayed. The same applies to the others Sectors A to H. Of course, a smaller or higher number of sectors A to H may be provided.
  • a driver's seat is designated by the reference numeral 9. Accordingly, the driver side is on the left side of the vehicle and the passenger side is on the right side of the vehicle.
  • the front of the vehicle is in sector D and the rear of the vehicle is in sector H.
  • the receiver 8 can be replaced by a transmitter 7 emitting an electromagnetic field.
  • the transmitters 7 shown in the figure are to be replaced by corresponding receivers 8. This also makes it possible to carry out a location determination of the mobile unit 4.
  • sensors 7 and receivers are shown in the figure by boxes.
  • the transmitter 7 and / or receiver 8 may also be arranged at other suitable locations of the vehicle.
  • the transmitters 7 are in each case in particular BLE tags. Accordingly, the receiver 8 serves to detect a field strength of the BLE tags.
  • the transmitter 7 are coupled in particular to the power supply to the respective electrical system of the vehicle. Alternatively, they may each be battery-powered or have an electric generator for their own generation of the electrical energy required for operation (energy harvesting).

Abstract

Die Erfindung betrifft ein Verfahren zur Überwachung eines Fahrzeugumfeldes, wobei Umfelddaten eines Fahrzeugs (1, 2) mittels einer Umfeldsensorik (3) ermittelt werden, die ermittelten Umfelddaten an eine mobile Einheit (4) übertragen werden und dort dargestellt werden. Dabei wird eine Ortsposition der mobilen Einheit (4) bezüglich des Fahrzeugs (1, 2) wird, und die Umfelddaten werden abhängig von der ermittelten Ortsposition der mobilen Einheit (4) auf der mobilen Einheit (4) dargestellt. Die Erfindung betrifft auch ein entsprechend ausgeführtes Computerprogrammprodukt, ein Fahrassistenzsystem und eine mobile Einheit (4).

Description

Ortspositionsabhängige Darstellung von Fahrzeugumfelddaten
auf einer mobilen Einheit
Die Erfindung betrifft ein Verfahren, bei welchem Umfelddaten eines Fahrzeugs mittels einer Umfeldsensorik ermittelt werden. Diese werden an eine mobile Einheit übertragen und dort dargestellt. Die Erfindung betrifft des Weiteren ein
Computerprogrammprodukt zur Durchführung des Verfahrens sowie ein
Fahrassistenzsystem zur Überwachung eines Fahrzeugumfeldes und eine mobiles Einheit zur Überwachung eines Fahrzeugumfeldes.
Aus der DE 10 2008 034 606 A1 ist ein Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit bekannt. Hieraus ist bekannt, dass eine Perspektive, in welcher eine virtuelle Fahrbahnebene wiedergegeben ist, abhängig von einer erkannten Fahrabsicht eines Fahrers verändert wird.
Auch aus der DE 10 2012 200 721 A1 ist ein Verfahren zum Überwachen eines Fahrzeugumfeldes bekannt. Hierbei wird zumindest ein Ausschnitt des
Fahrzeugumfeldes auf einer Anzeigevorrichtung einer mobilen Einheit angezeigt, wobei der angezeigte Ausschnitt durch eine Ausrichtung der mobilen Einheit bestimmt wird.
Die aus dem Stand der Technik bekannte Wiedergabe der Umfelddaten auf der mobilen Einheit kann durch die Vielzahl an angezeigten Informationen nachteilig für einen Benutzer der mobilen Einheit sein. Es kann für ihn schwer sein, wichtige von unwichtigen Umfelddaten zu trennen.
Aufgabe der Erfindung ist es daher, die einem Benutzer einer solchen mobilen Einheit aufgezeigten Umfelddaten situationsgerechter anzuzeigen.
Diese Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. Bevorzugte Ausführungsformen hiervon sind den jeweiligen Unteransprüchen entnehmbar. Demnach wird ein Verfahren zur Überwachung eines Fahrzeugumfeldes vorgeschlagen, wobei Umfelddaten eines Fahrzeugs mittels einer Umfeldsensorik ermittelt werden. Die ermittelten Umfelddaten werden an eine mobile Einheit übertragen und dort dargestellt. Dabei ist vorgesehen, dass eine Ortsposition der mobilen Einheit bezüglich des Fahrzeugs ermittelt wird. Die Umfelddaten, welche mittels der Umfeldsensorik ermittelt wurden, werden dann abhängig von der jeweils ermittelten Ortsposition der mobilen Einheit dargestellt.
Somit werden für einen Benutzer der mobilen Einheit nur diejenigen Umfelddaten dargestellt, welche er an der jeweiligen Ortsposition benötigt. Beispielsweise können solche Umfelddaten, insbesondere Bilder oder Videos, welche ohnehin für den Benutzer von der derzeitigen Ortsposition sichtbar sind, von der Darstellung auf der mobilen Einheit ausgeblendet werden. Des Weiteren kann die Darstellung, insbesondere die Aufbereitung der Umfelddaten auf der mobilen Einheit, abhängig von der Ortsposition unterschiedlich erfolgen. Somit kann beispielsweise eine Farbwiedergabe, eine Formwiedergabe oder eine perspektivische Wiedergabe abhängig an die jeweilige Ortsposition der mobilen Einheit angepasst sein. Die Informationsdichte, welche der Bediener der mobilen Einheit anhand der dort dargestellten Umfelddaten erhält, kann dadurch deutlich reduziert werden.
Bei der Umfeldsensorik kann es sich insbesondere um ein Kamera- und/oder Videosystem handeln. Die Umfeldsensorik kann alternativ oder zusätzlich
Radarsensoren, Ultraschallsensoren, Infrarotlichtsensoren etc. aufweisen. Die von diesen Sensoren erzeugten Daten bilden die Umfelddaten, welche zur Überwachung des Fahrzeugumfelds genutzt werden. Dementsprechend können die Umfelddaten insbesondere Bilder beziehungsweise Videos und/oder Abstände zu Hindernissen und/oder Positionen von Hindernissen bezüglich des Fahrzeugs und/oder
Geschwindigkeiten von Hindernissen bezüglich des Fahrzeugs etc. sein.
Grundgedanke der Erfindung ist es, lediglich diejenigen Daten auf der mobilen Einheit darzustellen, welche für die jeweilige Ortsposition der mobilen Einheit relevant sind beziehungsweise die Darstellung der Umfelddaten passend zur jeweiligen Ortsposition zu gestalten. Vorzugsweise ist das Fahrzeugumfeld in mehrere diskrete Sektoren unterteilt.
Hierbei wird ermittelt, innerhalb welches Sektors sich die mobile Einheit befindet. Die Umfelddaten werden dann abhängig von dem ermittelten Sektor auf der mobilen Einheit dargestellt. Grundsätzlich kann die Ermittlung der Ortsposition
beziehungsweise desjenigen Sektors, in dem sich die mobile Einheit gerade befindet, mittels der Umfeldsensorik ermittelt werden. Alternativ kann eine spezielle
Ortungssensorik vorgesehen sein. Durch die Aufteilung des Fahrzeugumfelds in mehrere diskrete Sektoren reduziert sich die Anzahl der möglichen
Darstellungsvarianten auf der mobilen Einheit. Hierdurch kann Rechenkapazität und/oder Speicherkapazität eingespart werden.
Vorzugsweise ist vorgesehen, dass abhängig von der ermittelten Ortsposition der mobilen Einheit solche Umfelddaten dargestellt werden, die sich im Wesentlichen in einem von der ermittelten Ortsposition aus nicht-einsehbaren Bereich des
Fahrzeugumfeldes befinden. Bei dem nicht-einsehbaren Bereich des
Fahrzeugumfeldes kann es sich daher beispielsweise um einen toten Winkel des Fahrzeugumfeldes handeln. Dies ist also ein Bereich des Fahrzeugumfeldes, welcher von einem Bediener der mobilen Einheit an der momentanen Ortsposition seiner mobilen Einheit visuell nicht-einsehbar ist. Dies kann beispielsweise eine zu der momentanen Ortsposition abgelegene Fahrzeugseite sein. Die mobile Einheit kann dann speziell von dieser abgelegenen Fahrzeugseite ein Bild beziehungsweise Videosignal darstellen. Die angezeigten Umfelddaten enthalten daher nur diejenigen Informationen, welche der Bediener von seiner Ortsposition nicht selbst erkennen kann.
Vorzugsweise verfügt die Umfeldsensorik daher über zumindest eine Kamera, welche Kamerabilder des Fahrzeugumfeldes aufnimmt. Dies kann insbesondere das gesamte Fahrzeugumfeld umfassen. Dementsprechend kann die Umfeldsensorik auch mehrere solcher Kameras aufweisen, welche an dem Fahrzeug verteilt angeordnet sind. Die auf der mobilen Einheit dargestellten Umfelddaten sind in diesem Fall Kamerabilder des von der ermittelten Ortsposition aus nicht-einsehbaren Bereichs des Fahrzeugumfeldes. Hierbei handelt es sich insbesondere um Live- Kamerabilder, also ein jeweils aktuelles Kamerabild des jeweiligen Bereichs des Fahrzeugumfeldes. Die Ermittlung der Ortsposition der mobilen kann Einheit beispielsweise durch Auswertung der Umfelddaten der Umfeldsensorik erfolgen, wie beispielsweise von Kamerabildern der Umfeldsensorik. So kann die die Ermittlung der Ortsposition durch Gesichtserkennung des Bedieners der mobilen Einheit und durch anschließende Zuordnung der erkannten Gesichtspositionen auf den
Kamerabildern zu der jeweiligen Ortsposition bezüglich des Fahrzeugs erfolgen. Oder die Ermittlung der Ortsposition kann durch Erkennung von optischen
Markierungen, die auf der mobilen Einheit angebracht sind, auf den Kamerabildern und durch anschließende Zuordnung der erkannten Markierungspositionen auf den Kamerabildern zu der jeweiligen Ortsposition bezüglich des Fahrzeugs erfolgen.
Zur Ermittlung der Ortsposition der mobilen Einheit bezüglich des Fahrzeugs, beziehungsweise zur Zuordnung der Ortsposition der mobilen Einheit zu einem Sektor des Fahrzeugumfeldes, kann vorzugsweise aber auch ein ein
elektromagnetisches Feld abstrahlender Sender sowie ein die Feldstärke des elektromagnetischen Feldes erkennender Empfänger vorgesehen sein
(Ortungssensorik). Die Ortsposition der mobilen Einheit bezüglich des Fahrzeugs wird dann anhand der vom Empfänger erkannten Feldstärke des
elektromagnetischen Feldes ermittelt. Hierdurch kann einfach und genau die jeweilige Ortsposition beziehungsweise der jeweilige Sektor, innerhalb dessen sich die mobile Einheit befindet, ermittelt werden. Insbesondere können mehrere jeweils ein elektromagnetisches Feld abstrahlende Sender ortsfest an einem Außenbereich des Fahrzeugs angeordnet sein. Die Sender können dann gleichmäßig oder ungleichmäßig an dem Außenbereich des Fahrzeugs verteilt sein. Die mobile Einheit verfügt dann über zumindest einen die Feldstärke des elektromagnetischen Feldes erkennenden Empfänger. Die Ortsposition der mobilen Einheit bezüglich des
Fahrzeugs beziehungsweise der Sektor, innerhalb dessen sich die mobile Einheit befindet, wird anhand der vom Empfänger erkannten Feldstärken der
elektromagnetischen Felder ermittelt. Die Ermittlung kann insbesondere durch die mobile Einheit selbst erfolgen. Sie kann allerdings auch außerhalb der mobilen Einheit, beispielsweise durch das Fahrzeug, erfolgen und an die mobile Einheit übermittelt werden. Auch hierdurch wird eine sehr genaue Ortspositionsermittlung ermöglicht. Vorzugsweise ist die mobile Einheit zusätzlich dazu ausgeführt, das Fahrzeug fernzusteuern. Durch die auf der mobilen Einheit dargestellten Umfelddaten kann das Fahrzeug dann für einen Bediener der mobilen Einheit besonders einfach rangiert werden. Die Erfindung eignet sich daher besonders gut, um ein Rangieren des Fahrzeugs zu erleichtern. Durch die auf der mobilen Einheit dargestellten
ortsspezifischen Umfelddaten kann ein zusätzlicher Einweiser oder Beifahrer entfallen. Die Fernsteuerung kann sich dabei insbesondere auf ein Beschleunigen und/oder Abbremsen und/oder Lenken des Fahrzeugs beziehen. Die Fernsteuerung kann sich auch auf eine Vorgabe einfacher oder komplexer Fahrmanöver des
Fahrzeugs beziehen. Diese werden dann von der mobilen Einheit dem Fahrzeug mitgeteilt, woraufhin das Fahrzeug die Fahrmanöver selbständig durchführt.
Hierdurch kann beispielsweise ein Einparkvorgang oder ein Ankuppelvorgang automatisiert erfolgen.
Die Erfindung bezieht sich auch auf ein Computerprogrammprodukt zur
Durchführung des obig erläuterten Verfahrens, wenn das Computerprogrammprodukt auf einem Computer ausgeführt wird.
Die Erfindung bezieht sich auch auf ein Fahrassistenzsystem zur Überwachung eines Fahrzeugumfeldes. Das Fahrassistenzsystem ist insbesondere zur Ausführung des obig erläuterten Verfahrens ausgeführt. Das Fahrassistenzsystem ist ausgeführt, um Umfelddaten eines Fahrzeugs zu ermitteln und um die Umfelddaten an eine mobile Einheit zu übertragen sowie um die Umfelddaten auf der mobilen Einheit
darzustellen. Des Weiteren ist das Fahrassistenzsystem ausgeführt, um eine
Ortsposition der mobilen Einheit bezüglich des Fahrzeugs zu ermitteln und um die Umfelddaten abhängig von der Ortsposition auf der mobilen Einheit darzustellen.
Des Weiteren betrifft die Erfindung eine mobile Einheit zur Überwachung eines Fahrzeugumfeldes. Dieses ist ausgeführt, um Umfelddaten eines Fahrzeugs zu erhalten, insbesondere von einer Umfeldsensorik des Fahrzeugs, und es ist ausgeführt, die Umfelddaten abhängig von einer Ortsposition der mobilen Einheit bezüglich des Fahrzeugs darzustellen. Bei der mobilen Einheit handelt es sich insbesondere um eine von einer Person tragbaren mobilen Einheit. Die mobile Einheit ist insbesondere ein Mobiltelefon, wie beispielsweise ein Smartphone, oder sie ist beispielsweise ein Tablet-PC, ein Laptop, ein Handheld, etc. Bei dem beziehungsweise den ein elektromagnetisches Feld abstrahlenden Sender(n) handelt es sich insbesondere um einen Bluetooth-Sender, einen WLAN-Sender, einen NFC-Sender, einen RFID-Sender etc., also um in der IT- Industrie kommerziell übliche Sender. In diesem Zusammenhang bedeutet RFID Radio-Frequency Identification, WLAN bedeutet Wireless Local Area Network und NFC bedeutet Near Field Communication. Insbesondere handelt es sich jeweils um einen BLE-Tag (BLE = Bluetooth Low Energy). Bei dem das elektromagnetische Feld jeweils erkennenden Empfänger handelt es sich dementsprechend um einen solchen, der das Bluetooth-Feld, das NFC-Feld, das WLAN-Feld, das RFID-Feld etc. erkennen kann, beziehungsweise dessen Feldstärke erkennen kann. Die oben genannten Sendertypen haben sich als besonders geeignet für die vorliegende Anwendung herausgestellt.
Vorzugsweise ist jeder Sender dazu ausgeführt, um bei Ausstrahlung des
elektromagnetischen Feldes, insbesondere kontinuierlich im Betrieb, eine individuelle Kennung, beispielsweise eine individuelle Zeichenfolge, mit auszustrahlen. Somit kann jedem der elektromagnetischen Felder genau der dem Feld zu Grunde liegende Sender zugeordnet werden. Der Empfänger ist dann ausgeführt, um diese
individuelle Kennung jeweils zu erkennen. Somit ist die vom Empfänger erkannte Feldstärke jedes der elektromagnetischen Felder dem jeweiligen zugehörigen
Sender zuordbar. Dadurch, dass die konstruktive Position des Senders am Fahrzeug bekannt ist, und die Feldstärke jedes Feldes individuell bestimmbar kann die
Ermittlung der Ortsposition der mobile Einheit deutlich verfeinert werden.
Im Folgenden wird die Erfindung anhand einer Figur eines vorteilhaften
Ausführungsbeispiels der Erfindung näher erläutert, aus weicher weitere vorteilhafte Merkmale der Erfindung entnehmbar sind. Die Figur zeigt dabei in schematischer Darstellung eine Draufsicht auf ein Fahrzeug sowie eine mobile Einheit. Gemäß der Figur ist das Fahrzeug mehrgliedrig ausgeführt. Es handelt sich beispielhaft um ein Zugfahrzeug 1 mit daran angekuppelten Anhängern 2.
Grundsätzlich kann auch nur einer der Anhänger 2 vorgesehen sein oder die
Anhänger 2 können entfallen. Das Fahrzeug ist mit einer Umfeldsensorik versehen, mittels deren Umfelddaten des Fahrzeugs ermittelt werden. In dem gezeigten Beispiel handelt es sich bei der Umfeldsensorik um mehrere Kameras 3, welche an einem Außenbereich des Fahrzeugs verteilt angeordnet sind. Die Kameras 3 sind insbesondere so verteilt, dass das gesamte Umfeld des Fahrzeugs von den
Kameras 3 abgedeckt wird. Demnach werden die Frontseite des Fahrzeugs, die Rückseite sowie die beiden Flanken (Fahrerseite, Beifahrerseite) von den Kameras 3 erfasst. Selbstverständlich kann die Umfeldsensorik weitere Sensoren zur Ermittlung von Umfelddaten des Fahrzeugs aufweisen. Beispielhaft sind in der Figur weitere mögliche Positionen für Kameras dargestellt. Die Umfeldsensorik kann darüber hinaus einen oder mehrere Ultraschallsensoren, Radarsensoren, Lasersensoren, Infrarotlichtsensoren etc. aufweisen. Ein Teil oder alle der somit ermittelten
Umfelddaten werden an eine tragbare mobile Einheit 4 übertragen. Hierbei handelt es sich insbesondere um ein Mobiltelefon oder einen Tablet-PC. Die mobile Einheit wird von einem Bediener 5 bedient. Hierbei kann es sich beispielsweise um einen Fahrer oder Beifahrer des Fahrzeugs handeln. Der Bediener 5 befindet sich mit der mobilen Einheit 4 im dargestellten Beispiel außerhalb des Fahrzeugs auf der Fahrerseite, auf Höhe des ersten Anhängers 2. Die mobile Einheit 4 ist insbesondere ausgeführt, um das Fahrzeug fernzusteuern. Der Bediener 5 kann das Fahrzeug von der Außenposition, in welcher er sich gerade befindet, daher rangieren,
beispielsweise um rückwärts an eine Verladestation heranzufahren. Die Übertragung der entsprechenden Befehle von der mobilen Einheit an das Fahrzeug erfolgt dabei insbesondere drahtlos.
Aus der in der Figur dargestellten Situation ergibt sich, dass der Bediener 5 an der Ortsposition, an welcher er sich gerade befindet, nicht das gesamte Fahrzeugumfeld einsehen kann. Beispielsweise kann er ein Hindernis 6, welches sich auf der
Beifahrerseite auf Höhe des ersten Anhängers 2 befindet, nicht sehen. Beim
Rangieren des Fahrzeugs ergibt sich somit ein Gefahrenpotential. Um dieses Gefahrenpotential zu minimieren, wird daher die Ortsposition der mobilen Einheit 4 bezüglich des Fahrzeugs ermittelt. Abhängig von dieser ermittelten
Ortsposition werden dann die Umfelddaten, welche von der Umfeldsensorik (hier: den Kameras 3) erfasst werden auf der mobilen Einheit 4 dargestellt. Gemäß der Figur erfolgt dies in dem dargestellten Ausführungsbeispiel dadurch, dass das von der beifahrerseitigen Kamera 3 erfasste Bild auf der mobilen Einheit 4 dargestellt wird. Hierdurch wird das Hindernis 6 auf der mobilen Einheit 4 angezeigt
(Hindernis 6'). Demnach wird der Bediener 5 auch über das Fahrzeugumfeld in dem von ihm nicht einsehbaren Bereich informiert.
Selbstverständlich können auf der mobilen Einheit 4 dem Bediener 5 abhängig von der verwendeten Umfeldsensorik andere Umfelddaten angezeigt werden, wie beispielsweise ein Radarbild, ein Ultraschallbild, ein Infrarotbild etc. Die Darstellung kann von einer bildlichen Wiedergabe des Fahrzeugumfelds auch abweichen. Somit kann beispielsweise zusätzlich oder alternativ auch ein Abstand zwischen dem Fahrzeug und dem Hindernis 6 angezeigt werden. Alternativ oder zusätzlich kann auch vorgesehen sein, dass die Aufbereitung der Daten (Farben, Formen,
Perspektiven, etc.) abhängig von der ermittelten Ortsposition der mobilen Einheit 4 unterschiedlich erfolgt.
Die Ermittlung der Ortsposition der mobilen Einheit 4 bezüglich des Fahrzeugs kann, wie in der Figur beispielhaft dargestellt ist, mittels einer speziellen Ortungssensorik erfolgen. Die Ortsposition kann allerdings auch beliebig anders erfolgen.
Beispielsweise durch Auswertung der Umfelddaten der Umfeldsensorik, i.e. von Kamerabildern der Kameras 3. Gemäß der Figur sind an dem Außenbereich des Fahrzeugs Sender 7 der Ortungssensorik ortsfest angeordnet, welche jeweils ein elektromagnetisches Feld X abstrahlen. Die Sender 7 sind insbesondere im Bereich von Kanten des Fahrzeugs angeordnet, insbesondere im Bereich von Hochkanten. Demgegenüber verfügt die mobile Einheit 4 über einen Empfänger 8 als Teil der Ortungssensorik, welcher jeweils eine Feldstärke der elektromagnetischen Felder X im Bereich der mobilen Einheit 4 erkennt. Die Feldstärke der elektromagnetischen Felder X nimmt mit zunehmender Entfernung zu dem jeweiligen Sender 7 ab.
Demnach kann durch Messung der jeweiligen Feldstärke die Ortsposition, an welcher sich der Empfänger 8 beziehungsweise die mobile Einheit 4 befindet, ermittelt werden. Dies kann beispielsweise durch trigonometrische Berechnungen oder empirische Versuche oder anhand von Kennfeldern erfolgen.
Vorzugsweise strahlen die Sender 7 mit dem jeweiligen elektromagnetischen Feld X eine individuelle Kennung aus. Demnach ist anhand jedes elektromagnetischen Feldes X der das jeweilige Feld abstrahlende Sender 7 identifizierbar. Der
Empfänger 8 erkennt neben der Feldstärke dann die zugehörige individuelle
Kennung. Somit ist ermittelbar, welche Feldstärke das elektromagnetische Feld X jedes der Sender 7 an der aktuellen Ortsposition der mobilen Einheit 4 aufweist. Die Positionen der Sender 7 an dem Fahrzeug sind, da konstruktiv vorgegeben, bekannt. Aus der Kenntnis der individuellen Feldstärken und der konstruktiven Positionen der Sender 7 kann dann, beispielsweise durch an sich bekannte trigonometrische
Berechnungen, die jeweilige Ortsposition der mobilen Einheit 4 bezüglich des
Fahrzeugs genau ermittelt werden.
Um die Anzahl der möglichen Darstellungsvarianten auf der mobilen Einheit 4 in handhabbaren Grenzen zu halten, kann es vorgesehen sein, das Fahrzeugumfeld in mehrere diskrete Sektoren A bis H unterteilt ist. In diesem Fall wird nicht die exakte Ortsposition der mobilen Einheit 4 beziehungsweise des Empfängers 8 ermittelt, sondern lediglich, in welchem Sektor A bis H sich die mobile Einheit 4
beziehungsweise der Empfänger 8 befindet. Die auf der mobilen Einheit 4
dargestellten Umfelddaten werden dementsprechend an den jeweiligen Sektor A bis H, innerhalb dessen sich die mobile Einheit 4 befindet, angepasst. Im gezeigten Beispiel befindet sich die mobile Einheit 4 innerhalb des Sektors F. Hierdurch wird auf der mobilen Einheit 4 das Bild der beifahrerseitigen Kamera 3 dargestellt.
Befände sich die mobile Einheit 4 beispielsweise im Sektor D (Frontseite des
Fahrzeugs), wäre der Sektor H (Rückseite des Fahrzeugs) für den Bediener 5 nicht einsehbar und würde daher auf der mobilen Einheit 4 dargestellt werden. Befände sich der Bediener 5 mit der mobilen Einheit 4 im Bereich des Sektors A, würde demgegenüber das Bild der Kameras 3 auf der Fahrerseite und auf der Frontseite auf der mobilen Einheit 4 dargestellt werden. Entsprechendes gilt für die anderen Sektoren A bis H. Selbstverständlich kann eine geringere oder höhere Anzahl an Sektoren A bis H vorgesehen sein.
In der Figur ist ein Fahrersitz mit dem Bezugszeichen 9 versehen. Dementsprechend befindet sich auf der linken Seite des Fahrzeugs die Fahrerseite und auf der rechten Seite des Fahrzeugs die Beifahrerseite. Die Frontseite des Fahrzeugs befindet sich im Bereich des Sektors D und die Rückseite des Fahrzeugs befindet sich im Bereich des Sektors H.
Es wird angemerkt, dass der Empfänger 8 durch einen ein elektromagnetisches Feld ausstrahlenden Sender 7 ersetzt werden kann. In diesem Fall sind die in der Figur dargestellten Sender 7 durch entsprechende Empfänger 8 zu ersetzen. Auch hierdurch kann eine Ortspositionsermittlung der mobilen Einheit 4 erfolgen.
Alternative oder zusätzliche Positionen für Sensoren 7 beziehungsweise Empfänger sind in der Figur durch Kästchen dargestellt. Selbstverständlich können die Sender 7 und/oder Empfänger 8 auch an anderen geeigneten Stellen des Fahrzeugs angeordnet sein. Bei den Sendern 7 handelt es sich insbesondere jeweils um BLE- Tags. Dementsprechend dient der Empfänger 8 dazu, um eine Feldstärke der BLE- Tags zu erkennen.
Die Sender 7 sind insbesondere zur Energieversorgung an das jeweilige elektrische Bordnetz des Fahrzeugs gekoppelt. Alternativ können sie jeweils batteriebetrieben sein oder einen elektrischen Generator zur eigenen Erzeugung der zum Betrieb erforderlichen elektrischen Energie aufweisen (Energy Harvesting).
Bezuqszeichen Zugfahrzeug
' Darstellung des Zugfahrzeugs 1 auf der mobilen Einheit 4 Anhänger
' Darstellung des Anhängers 2 auf der mobilen Einheit 4 Umfeldsensorik, Kamera
Mobilen Einheit
Bediener
Hindernis
' Darstellung des Hindernisses 6 auf der mobilen Einheit 4 Sender
Empfänger
Sektor
Elektromagnetisches Feld

Claims

Patentansprüche
1 . Verfahren Überwachung eines Fahrzeugumfeldes, wobei
Umfelddaten eines Fahrzeugs (1 , 2) mittels einer Umfeldsensorik (3) ermittelt werden,
die ermittelten Umfelddaten an eine mobile Einheit (4) übertragen werden und dort dargestellt werden,
dadurch gekennzeichnet, dass
eine Ortsposition der mobilen Einheit (4) bezüglich des Fahrzeugs (1 , 2) ermittelt wird,
und dass die Umfelddaten abhängig von der ermittelten Ortsposition der mobilen Einheit (4) dargestellt werden.
2. Verfahren nach Anspruch 1 , wobei das Fahrzeugumfeld in mehrere diskrete Sektoren (A,..., H) unterteilt ist und ermittelt wird, innerhalb welches Sektors (A,..., H) sich die mobile Einheit (4) befindet,
und dass die Umfelddaten abhängig von dem ermittelten Sektor (A,..., H), in dem sich die mobile Einheit (4) befindet, dargestellt werden.
3. Verfahren nach Anspruch 1 oder 2, wobei die abhängig von der ermittelten Ortsposition der mobilen Einheit (4) dargestellten Umfelddaten solche sind, die sich im Wesentlichen in einem von der ermittelten Ortsposition aus nicht-einsehbaren Bereich des Fahrzeugumfeldes befinden.
4. Verfahren nach Anspruch 3, wobei die Umfeldsensorik (3) zumindest eine Kamera (3) umfasst, welche Kamerabilder des Fahrzeugumfeldes aufnimmt,
wobei die auf der mobilen Einheit (4) dargestellten Umfelddaten Kamerabilder des von der ermittelten Ortsposition aus nicht-einsehbaren Bereichs des
Fahrzeugumfeldes sind.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein ein elektromagnetisches Feld (X) abstrahlender Sender (7) sowie ein die Feldstärke des elektromagnetischen Feldes (X) erkennender Empfänger (8) vorgesehen ist, und die Ortsposition der mobilen Einheit (4) bezüglich des Fahrzeugs (1 , 2) anhand der vom Empfänger (8) erkannten Feldstärke des elektromagnetischen Feldes (X) ermittelt wird.
6. Verfahren nach Anspruch 5, wobei mehrere jeweils ein elektromagnetisches Feld (X) abstrahlende Sender (7) ortsfest an einem Außenbereich des Fahrzeugs (1 , 2) verteilt angeordnet sind,
und die mobile Einheit (4) über zumindest einen die Feldstärke des
elektromagnetischen Feldes (X) erkennenden Empfänger (8) aufweist,
und die Ortsposition der mobilen Einheit (4) bezüglich des Fahrzeugs (1 , 2) anhand der vom Empfänger jeweils erkannten Feldstärken der elektromagnetischen Felder (X) ermittelt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die mobile Einheit (4) ausgeführt ist, um das Fahrzeug (1 , 2) fernzusteuern.
8. Computerprogrammprodukt zur Durchführung eines Verfahren nach einem der vorhergehenden Ansprüche, wenn das Computerprogrammprodukt auf einem Computer ausgeführt wird.
9. Fahrassistenzsystem zur Überwachung eines Fahrzeugumfeldes, insbesondere zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 7, das ausgeführt ist,
um Umfelddaten eines Fahrzeugs (1 , 2) zu ermitteln, und
um die Umfelddaten an eine mobile Einheit (4) zu übertragen, und
um die Umfelddaten auf der mobilen Einheit (4) darzustellen.
dadurch gekennzeichnet, dass das Fahrassistenzsystem ausgeführt ist,
um eine Ortsposition der mobilen Einheit (4) bezüglich des Fahrzeugs (1 , 2) zu ermitteln, und
um die Umfelddaten abhängig von der Ortsposition auf der mobilen Einheit (4) darzustellen.
10. Mobile Einheit (4) zur Überwachung eines Fahrzeugumfeldes, die ausgeführt ist,
um Umfelddaten eines Fahrzeugs (1 , 2) zu empfangen, und
um die Umfelddaten abhängig von einer Ortsposition der mobilen Einheit (4) bezüglich des Fahrzeugs (1 , 2) darzustellen.
PCT/EP2015/062216 2014-07-02 2015-06-02 Ortspositionsabhängige darstellung von fahrzeugumfelddaten auf einer mobilen einheit WO2016000894A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016575752A JP2017522665A (ja) 2014-07-02 2015-06-02 車両の周辺データのモバイルユニット上への局所位置依存表示
CN201580035474.2A CN106662871B (zh) 2014-07-02 2015-06-02 车辆周围环境数据在移动单元上依赖于方位位置的显示
US15/322,004 US11112788B2 (en) 2014-07-02 2015-06-02 Position-dependent representation of vehicle environment data on a mobile unit
EP15729103.0A EP3164771A1 (de) 2014-07-02 2015-06-02 Ortspositionsabhängige darstellung von fahrzeugumfelddaten auf einer mobilen einheit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014212819.6A DE102014212819A1 (de) 2014-07-02 2014-07-02 Ortspositionsabhängige Darstellung von Fahrzeugumfelddaten auf einer mobilen Einheit
DE102014212819.6 2014-07-02

Publications (1)

Publication Number Publication Date
WO2016000894A1 true WO2016000894A1 (de) 2016-01-07

Family

ID=53398054

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/062216 WO2016000894A1 (de) 2014-07-02 2015-06-02 Ortspositionsabhängige darstellung von fahrzeugumfelddaten auf einer mobilen einheit

Country Status (6)

Country Link
US (1) US11112788B2 (de)
EP (1) EP3164771A1 (de)
JP (1) JP2017522665A (de)
CN (1) CN106662871B (de)
DE (1) DE102014212819A1 (de)
WO (1) WO2016000894A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331125B2 (en) * 2017-06-06 2019-06-25 Ford Global Technologies, Llc Determination of vehicle view based on relative location
CN108279671B (zh) * 2018-01-08 2021-12-14 深圳市易成自动驾驶技术有限公司 基于太赫兹的环境感知方法、装置及计算机可读存储介质
WO2019186782A1 (ja) * 2018-03-28 2019-10-03 クレオ株式会社 衝突可視化装置、およびプログラム
US11592813B2 (en) * 2018-12-17 2023-02-28 Robert Bosch Gmbh Method and controller for the situational transmission of surroundings information of a vehicle
CN109917790A (zh) * 2019-03-21 2019-06-21 上海赛摩物流科技有限公司 一种自主导引车辆及其行驶控制方法和控制装置
US11733690B2 (en) 2020-07-06 2023-08-22 Ford Global Technologies, Llc Remote control system for a vehicle and trailer

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1510849A1 (de) * 2003-08-29 2005-03-02 C.R.F. Società Consortile per Azioni Virtuelles Anzeigegerät für ein Fahrzeug
DE102008034606A1 (de) 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
DE102012200721A1 (de) 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren zum Überwachen eines Fahrzeugumfeldes

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3624769B2 (ja) * 1999-09-30 2005-03-02 株式会社豊田自動織機 車両後方監視装置用画像変換装置
JP2002205615A (ja) * 2001-01-05 2002-07-23 Nissan Motor Co Ltd 車両用視界補助装置
NL1019191C2 (nl) * 2001-10-18 2003-04-23 Frog Navigation Systems B V Voertuig en werkwijze voor het besturen daarvan.
US7542834B2 (en) * 2003-10-17 2009-06-02 Panasonic Corporation Mobile unit motion calculating method, apparatus and navigation system
JP2006182084A (ja) * 2004-12-27 2006-07-13 Equos Research Co Ltd 車両
JP4591835B2 (ja) * 2006-03-31 2010-12-01 株式会社エクォス・リサーチ 車両及び遠隔操作装置
JP4661708B2 (ja) * 2006-07-06 2011-03-30 トヨタ自動車株式会社 車両遠隔操作システム
JP2008015801A (ja) * 2006-07-06 2008-01-24 Nissan Motor Co Ltd 車両探索システム、リモコン、車載ユニット、および、車両探索方法
JP4758481B2 (ja) * 2007-01-16 2011-08-31 パイオニア株式会社 車両用画像処理装置及び車両用画像処理プログラム
JP4862775B2 (ja) * 2007-03-26 2012-01-25 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP4863922B2 (ja) * 2007-04-18 2012-01-25 三洋電機株式会社 運転支援システム並びに車両
JP4450036B2 (ja) * 2007-09-10 2010-04-14 トヨタ自動車株式会社 複合画像生成装置、及びプログラム
TW200927537A (en) * 2007-12-28 2009-07-01 Altek Corp Automobile backup radar system that displays bird's-eye view image of automobile
US8565913B2 (en) * 2008-02-01 2013-10-22 Sky-Trax, Inc. Apparatus and method for asset tracking
GB2461912A (en) * 2008-07-17 2010-01-20 Micron Technology Inc Method and apparatus for dewarping and/or perspective correction of an image
JP5235127B2 (ja) * 2008-11-28 2013-07-10 ヤマハ発動機株式会社 遠隔操作システムおよび遠隔操作装置
JP5223811B2 (ja) * 2009-08-06 2013-06-26 株式会社日本自動車部品総合研究所 画像補正装置、画像補正方法、及びそれらに用いられる変換マップ作成方法
US9151822B2 (en) * 2009-12-31 2015-10-06 Optimal Ranging, Inc. Precise positioning using a distributed sensor network
DE102010028071A1 (de) * 2010-04-22 2011-10-27 Zf Friedrichshafen Ag Verfahren zur Fahrsteuerung eines Kraftfahrzeugs
EP2597486A4 (de) * 2010-07-21 2014-03-12 Korea Trade Network System und verfahren für standortbasierte dienste zur innenraumnavigation
JP5481337B2 (ja) * 2010-09-24 2014-04-23 株式会社東芝 画像処理装置
EP2442291B1 (de) * 2010-10-13 2013-04-24 Harman Becker Automotive Systems GmbH Verkehrsereignisüberwachung
US8605009B2 (en) * 2010-12-05 2013-12-10 Ford Global Technologies, Llc In-vehicle display management system
DE102011079703A1 (de) * 2011-07-25 2013-01-31 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
JP6077214B2 (ja) * 2012-02-06 2017-02-08 富士通テン株式会社 画像処理装置、画像処理方法、プログラム、及び画像処理システム
CN203178738U (zh) * 2013-04-19 2013-09-04 北京物资学院 一种货运汽车车载监控操作终端
CN103259851A (zh) * 2013-04-19 2013-08-21 麦特汽车服务股份有限公司 一种基于服务中心的车辆轨迹管理方法及其车载智能终端装置
JP6091586B1 (ja) * 2015-11-12 2017-03-08 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1510849A1 (de) * 2003-08-29 2005-03-02 C.R.F. Società Consortile per Azioni Virtuelles Anzeigegerät für ein Fahrzeug
DE102008034606A1 (de) 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
DE102012200721A1 (de) 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren zum Überwachen eines Fahrzeugumfeldes

Also Published As

Publication number Publication date
CN106662871A (zh) 2017-05-10
DE102014212819A1 (de) 2016-01-07
JP2017522665A (ja) 2017-08-10
EP3164771A1 (de) 2017-05-10
CN106662871B (zh) 2021-02-19
US20170131713A1 (en) 2017-05-11
US11112788B2 (en) 2021-09-07

Similar Documents

Publication Publication Date Title
WO2016000894A1 (de) Ortspositionsabhängige darstellung von fahrzeugumfelddaten auf einer mobilen einheit
DE102011120814B4 (de) Verfahren und Vorrichtung zur Bestimmung eines Winkels zwischen einem Zugfahrzeug und einem damit gekoppelten Anhänger
DE112018003590T5 (de) Durch ein unbemanntes Luftfahrzeug unterstütztes System zum Rückwärtsfahren und Parken von Fahrzeugen
DE102019100495A1 (de) Tethering von mobilen vorrichtungen für ein ferngesteuertes einparkhilfesystem
DE102016208634B4 (de) Verfahren zum Ausgeben einer Warninformation in einem Fahrzeug
DE102013207906A1 (de) Geführte Fahrzeugpositionierung für induktives Laden mit Hilfe einer Fahrzeugkamera
DE102009041587A1 (de) Fahrerassistenzeinrichtung für ein Kraftfahrzeug und Verfahren zum Unterstützen eines Fahrers beim Überwachen eines autonomen Parkvorgangs eines Kraftfahrzeugs
DE102019124152A1 (de) Kupplungsunterstützungssystem
DE102015215127B4 (de) Automatisches Positionieren eines Kraftfahrzeugs
DE102017117582A1 (de) Verfolgung mobiler vorrichtungen zur steuerung von fahrzeugteilsystemen
EP3774499B1 (de) Verfahren zur überwachung und steuerung eines fernbedienten park- oder manövriervorgangs eines fahrzeugs
WO2010025792A1 (de) Verfahren und vorrichtung zur überwachung einer umgebung eines fahrzeuges
EP3153940B1 (de) Verfahren und steuerungsvorrichtung zur steuerung eines fahrzeuges
DE102019119422A1 (de) Kompensation für anhängerkupplerhöhe in einem automatischen kupplungsvorgang
DE102020109279A1 (de) System und verfahren zur anhängerausrichtung
DE102021128907A1 (de) System und verfahren zum trainieren von anhängerdetektionssystemen
DE102013207907A1 (de) Fahrzeugpositionierung für induktives Laden mit Hilfe einer Fahrzeugkamera
DE102019120599A1 (de) System und verfahren zur höhenverstellung von anhängern
DE102018210340A1 (de) Verfahren und System zum Ermitteln einer Relativpose zwischen einem Zielobjekt und einem Fahrzeug
DE102014108489A1 (de) Verfahren zur unterstützung eines fahrers beim überwachen einer fahrt eines kraftfahrzeugs oder kraftfahrzeuggespanns
DE102020122363A1 (de) Erfassung eines eingeengten anhängers und reaktion darauf bei einem systemunterstützten kupplungsvorgang
WO2019201537A1 (de) Verfahren und steuergerät zum kennzeichnen einer person
EP3882733A1 (de) Verfahren und system zum autonomen fahren eines fahrzeugs
DE102019116951A1 (de) System zur Erfassung von und Reaktion auf einen zurückweichenden Anhänger
DE102013019909A1 (de) Lageabhängiges Steuern eines Kommunikationsgeräts in der Nähe eines Kraftfahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15729103

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015729103

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015729103

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15322004

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016575752

Country of ref document: JP

Kind code of ref document: A