WO2014177413A1 - Geführte fahrzeugpositionierung für induktives laden mit hilfe einer fahrzeugkamera - Google Patents

Geführte fahrzeugpositionierung für induktives laden mit hilfe einer fahrzeugkamera Download PDF

Info

Publication number
WO2014177413A1
WO2014177413A1 PCT/EP2014/058054 EP2014058054W WO2014177413A1 WO 2014177413 A1 WO2014177413 A1 WO 2014177413A1 EP 2014058054 W EP2014058054 W EP 2014058054W WO 2014177413 A1 WO2014177413 A1 WO 2014177413A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
control unit
camera
primary coil
predefined
Prior art date
Application number
PCT/EP2014/058054
Other languages
English (en)
French (fr)
Inventor
Josef Krammer
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN201480023823.4A priority Critical patent/CN105142962B/zh
Publication of WO2014177413A1 publication Critical patent/WO2014177413A1/de
Priority to US14/924,995 priority patent/US9802501B2/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/10Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles characterised by the energy transfer between the charging station and the vehicle
    • B60L53/12Inductive energy transfer
    • B60L53/126Methods for pairing a vehicle and a charging station, e.g. establishing a one-to-one relation between a wireless power transmitter and a wireless power receiver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/30Constructional details of charging stations
    • B60L53/35Means for automatic or assisted adjustment of the relative position of charging devices and vehicles
    • B60L53/36Means for automatic or assisted adjustment of the relative position of charging devices and vehicles by positioning the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/30Constructional details of charging stations
    • B60L53/35Means for automatic or assisted adjustment of the relative position of charging devices and vehicles
    • B60L53/37Means for automatic or assisted adjustment of the relative position of charging devices and vehicles using optical position determination, e.g. using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/30Constructional details of charging stations
    • B60L53/35Means for automatic or assisted adjustment of the relative position of charging devices and vehicles
    • B60L53/38Means for automatic or assisted adjustment of the relative position of charging devices and vehicles specially adapted for charging by inductive energy transfer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • B62D6/002Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits computing target steering angles for front or rear wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect
    • Y02T10/70Energy storage systems for electromobility, e.g. batteries
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect
    • Y02T10/7072Electromobility specific charging systems or methods for batteries, ultracapacitors, supercapacitors or double-layer capacitors
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/12Electric charging stations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/14Plug-in electric vehicles

Definitions

  • the invention relates to a method and a corresponding device for positioning a vehicle above a primary coil for inductively charging the rechargeable battery of the vehicle.
  • Vehicles especially vehicles with electric drive, include rechargeable batteries for storing electrical energy.
  • the rechargeable battery of a vehicle may e.g. by charging to a vehicle external power source (e.g., by connection to a public power grid).
  • One approach to automatically, wirelessly, inductively charging the battery of the vehicle is to transmit the electrical energy to the battery from the floor to the underbody of the vehicle via magnetic induction via the underbody clearance. This is illustrated by way of example in FIG. 1a.
  • Figure 1a shows a vehicle 100 having an electrical energy store 103 (e.g., with an auto-chargeable battery 103).
  • the vehicle 100 includes a so-called secondary coil 102 in the vehicle underbody, wherein the
  • Secondary coil 102 is connected via an unillustrated impedance matching and a rectifier 101 to the memory 103.
  • the secondary coil 102 may be positioned over a primary coil 111, the primary coil 111 being e.g. attached to the floor of a garage.
  • the primary coil 111 is connected to a power supply 110.
  • Power supply 110 may include a radio-frequency generator that generates an alternating current current in primary coil 111, thereby inducing a magnetic field. With sufficient magnetic coupling zwi see primary coil 111 and secondary coil 102 on the underbody clearance 120 is due to the magnetic field, a corresponding current in the
  • the Secondary coil 102 induced.
  • the induced current in the secondary coil 102 is rectified by the rectifier 101 and stored in the memory 103 (e.g., in the battery).
  • the memory 103 e.g., in the battery.
  • Power supply 110 to the energy storage 103 of the vehicle 100 are transmitted.
  • secondary coil 102 of vehicle 100 should be positioned with a certain precision (typically + 10 cm) above primary coil 111 (also referred to as ground unit).
  • the present document describes a method and apparatus that assist a driver of the vehicle 100 in positioning the secondary coil 102 over the primary coil 111. Aiding in the positioning is particularly important because the driver does not see the ground unit 111 in the final phase of the positioning of the vehicle 100, because the
  • Ground unit 111 is then located under the vehicle 100.
  • a control unit for a vehicle is described.
  • the vehicle may in particular be a two-lane vehicle, such as a two-lane vehicle. a passenger vehicle, a road vehicle and / or an automobile.
  • the vehicle includes a secondary coil for receiving electrical energy from a vehicle-external primary coil. Typically, the secondary coil is attached to an underbody of the vehicle.
  • Primary coil is e.g. mounted on the floor of a parking space for the vehicle.
  • the primary coil and the secondary coil form a transformer when between the primary coil and the secondary coil a magnetic
  • the distance between the secondary coil and the primary coil should be increased Distance) reach or fall below a predefined threshold value.
  • the distance may be, for example, the geometric distance between one or more predefined points of the primary coil and one or more predefined points of the secondary coil.
  • the vehicle includes at least one camera that is set up
  • the at least one camera may be e.g. act to a front camera, which is adapted to detect an environment in front of the vehicle, and / or act on a rear camera, which is adapted to detect an environment behind the vehicle.
  • the at least one camera can detect an environment in the direction of travel of the vehicle (for example, a front camera during forward movement and / or a front camera)
  • Reversing camera when reversing can also be used to detect the surroundings of the vehicle.
  • the vehicle may include other environmental sensors, such as e.g.
  • Ultrasonic sensors that can be used to determine a distance to certain objects (e.g., to predefined reference objects) in the vicinity of the vehicle.
  • the control unit is set up to receive image data from the at least one camera of the vehicle.
  • the image data may be e.g. an image of the camera-detected environment of the vehicle at a particular time and / or a sequence of images to a sequence of
  • control unit is set up to access reference data.
  • the reference data may contain information about at least one predefined
  • Reference object in the detected environment of the vehicle include.
  • the reference data may include information about one or more optical features of the at least one reference object that may be detected in the image data of the camera.
  • the Reference data comprise a pictorial representation of the at least one reference object, wherein the pictorial representation can be compared with the image data to detect the at least one reference object in the image data.
  • the reference data can be information about a spatial size of the at least one reference object. The spatial size in the
  • Reference data may be detected with the size of the at least one
  • Reference object in the image data are compared to determine a distance of the camera (and the vehicle) from the at least one reference object.
  • the reference data may include information about the position of the at least one predefined reference object relative to the primary coil.
  • the reference data may include information regarding spatial coordinates of the at least one reference object in a predefined coordinate system.
  • the reference data may include information regarding spatial coordinates of the at least one reference object in a predefined coordinate system.
  • control unit can further be set up to detect the at least one predefined reference object in the received image data on the basis of the reference data.
  • control unit may in particular be configured to detect a pictorial reproduction of the reference object in the image data.
  • control unit may be configured to determine a position of the secondary coil relative to the primary coil on the basis of the detected at least one reference object. A position of the detected
  • Reference object in the image data may provide information about the position of the vehicle relative to the reference object.
  • a detected size of the reference object can provide information about the distance between the vehicle and the reference object.
  • the control unit may be configured to determine a camera angle of a beam between the at least one camera and the at least one reference object on the basis of the detected at least one reference object.
  • the camera angle indicates with which angle the vehicle is aligned relative to the at least one reference object.
  • the control unit may be configured to determine a distance of the secondary coil to the at least one reference object on the basis of the determined camera angle.
  • triangulation methods and / or other trigonometric methods can be used for this purpose.
  • the control unit may be further configured to receive information regarding a wheel impact and a wheel speed of the vehicle. On the basis of the information received with regard to the wheel impact and with respect to the wheel speed, a movement of the vehicle can be determined.
  • Radial impact and wheel speed information can be synchronized with the information obtained from the image data (e.g., at the detected camera angle). From this, a movement (and / or position) of the vehicle relative to the at least one reference object can then be determined. For this, e.g. Triangulation method can be used.
  • the reference data may include information about a plurality of predefined reference objects.
  • the plurality of predefined reference objects may be arranged along an approach trajectory of the vehicle to the primary coil.
  • the plurality of predefined reference objects can support the entire positioning process of the vehicle.
  • the control unit may be configured to receive a temporal sequence of image data (in particular a temporal sequence of images) of the at least one camera of the vehicle along the approach trajectory. Furthermore, the control unit may be set up, the plurality of predefined
  • the individual reference objects may be detectable on different image data (in particular images or frames) of the sequence of image data. This can be ensured, for example, that at any time of the
  • Positioning process at least one predefined reference object can be detected by the at least one camera of the vehicle. So can the
  • Positioning process of the vehicle are supported in a consistent manner.
  • the control unit may be configured to bridge one or more times of the positioning process, in which no predefined reference object can be detected.
  • vehicle-internal data (such as the wheel spin and / or the wheel rotation movement) can be used to determine the movement of the vehicle.
  • the control unit may be configured to receive the reference data from one
  • Control unit of the primary coil to receive.
  • the reference data may e.g. via a wireless communication network (e.g., WLAN).
  • WLAN wireless communication network
  • the reference data may be stored in a storage unit of the vehicle.
  • the control unit may be further configured to use the stored reference data when the same charging station repeatedly starts up.
  • further data e.g., an already-determined target trajectory of the vehicle
  • the positioning process can be improved when repeatedly starting a charging station.
  • the control unit may be configured to cause a control signal to be sent to the control unit of the primary coil to illuminate the at least one predefined reference object.
  • the control signal can be transmitted via the above-mentioned wireless communication network. By transmitting the control signal it is ensured that the at least one camera of the vehicle which can detect at least one predefined reference object in a reliable manner.
  • the control unit may be configured to provide information regarding the position of the secondary coil relative to the primary coil for positioning the secondary coil
  • the information regarding the position of the primary coil can be displayed on a screen of the vehicle, and thus a driver of the vehicle at the
  • the control unit can then be set up to cause the parking assist function of the vehicle to move the vehicle in such a way that the distance between the secondary coil and the determined position of the primary coil reaches or falls below the predefined threshold value (in order to achieve a sufficiently large magnetic coupling).
  • the use of at least one camera of the vehicle allows precise positioning of the vehicle over a primary coil.
  • the at least one camera of the vehicle is typically already for others
  • Driver assistance systems e.g., parking assistance
  • the use of the at least one camera of the vehicle allows a cost-effective solution for positioning the vehicle.
  • the control unit may be configured to generate a pictorial representation of the surroundings of the vehicle with the determined position of the primary coil.
  • the primary coil relative to the surroundings of the vehicle is preferably highlighted graphically in the pictorial representation, so that the primary coil is clearly recognizable (eg by emphasized contours).
  • the control unit may be configured to cause the pictorial representation to be displayed on a screen of the vehicle (eg on a central display, eg on the screen) Center console of the vehicle) is issued.
  • the pictorial representation may include a "top view” view of the vehicle and the environment of the vehicle with (a highlighted image) the primary coil
  • images may be combined in an artificial aperture, whereby images from different cameras with different viewing angles / position and / or images of a camera may be acquired via a camera
  • the plurality of images may be synthesized into a new image, the new image representing the surroundings of the vehicle with the detected primary coil from a new angle of view the distance between the secondary coil and the primary coil reaches or falls below the predefined threshold value, thereby indicating to the driver that the vehicle is positioned so that there is sufficient magnetic coupling between the primary coil and the secondary coil.
  • the control unit may be configured to determine a desired trajectory of the vehicle, which makes it possible to reduce the distance between the secondary coil and the primary coil such that the distance is the predefined one
  • control unit can be set up on the basis of the received information regarding the Radeinschlag to determine an actual trajectory of the vehicle.
  • a graphical representation of the desired trajectory and the actual trajectory can be output on the screen of the vehicle (eg together with the pictorial representation of the surroundings of the vehicle). This will indicate to the driver of the vehicle how to properly position the vehicle over the primary coil.
  • a vehicle (particularly a two-lane vehicle, such as a car) is described.
  • the vehicle includes a secondary coil for receiving electrical energy from a vehicle-external primary coil.
  • the vehicle comprises at least one camera which is set up to detect an environment of the vehicle.
  • the vehicle includes the control unit described in this document, which is arranged to assist, based on image data and predefined reference data, the secondary spool positioning process over the primary spool.
  • the vehicle may include a storage unit configured to store the reference data.
  • the vehicle may include an on-board computer (e.g., as part of an information and communication system of the vehicle) that allows a user to input the reference data.
  • the on-board computer may include an application for defining reference data described in this document. This allows a user of a vehicle to read the reference data (in particular the
  • Reference objects for positioning the vehicle in a flexible manner.
  • the method includes receiving image data from at least one camera of the vehicle, wherein the at least one camera is configured to detect an environment of the vehicle.
  • the method comprises receiving or providing Reference data.
  • the reference data may include information about at least one predefined reference object in the detected environment of the vehicle.
  • the reference data may include information about a position of the at least one predefined reference object relative to the primary coil.
  • the method comprises detecting the at least one predefined reference object in the received image data based on the reference data. A position of the secondary coil relative to the primary coil can be determined on the basis of the detected at least one reference object.
  • the reference data may include information about a plurality of predefined reference objects.
  • the reference data may include information about a plurality of predefined reference objects.
  • the method may further include,
  • the actual relative position of the plurality of reference objects can be determined from the image data.
  • the method may further include comparing the reference data with the detected plurality of predefined reference objects.
  • the information about the relative position of a plurality of reference objects may be compared with the actual relative position of the plurality of reference objects. From this, the consistency and / or completeness of the information regarding the reference objects can be checked.
  • an indicator of the reliability of positioning of the vehicle based on the predefined reference objects can be derived therefrom
  • Primary coil can be determined.
  • SW software
  • the SW program can be set up to run on a processor and thereby perform the method described in this document.
  • a storage medium is described.
  • the storage medium may include an SW program that is set up to be executed on a processor, and thereby perform the same in this
  • FIG. 1 a shows an example vehicle comprising a secondary coil for inductive charging of a vehicle battery
  • FIG. 1b shows an exemplary vehicle with additional environmental sensors
  • FIG. 2 a shows an exemplary "top view” representation of the surroundings of the vehicle, which is generated on the basis of environmental sensors of the vehicle;
  • FIG. 2b shows a representation of the rear environment of the vehicle generated by a reversing camera of the vehicle
  • Figure 3 shows an example - supported by the environmental sensors of the vehicle - positioning process of the secondary coil of the vehicle over a primary coil
  • FIG. 4 a shows exemplary features and reference points in the surroundings of the vehicle which can be used to position the vehicle
  • FIG. 4b shows the use of predefined markings in the positioning of the vehicle
  • Figure 5a and Figure 5b each show an exemplary representation of a vehicle trajectory to assist the driver in the positioning of the vehicle
  • FIG. 6 shows the exemplary representation of the primary coil on a screen of the vehicle for assisting the driver in positioning the vehicle
  • FIG. 7a shows exemplary positions of predefined reference objects
  • FIG. 7b exemplary reference objects
  • FIG. 8a, FIG. 8b, FIG. 8c and FIG. 8d the exemplary use of predefined reference objects for the positioning of a vehicle; and
  • FIG. 9 shows an exemplary user interface of an application for defining predefined reference objects.
  • the inductive charging requires a
  • Vehicle battery 103 a relatively precise positioning of the secondary coil 102 of the vehicle 100 over the primary coil 111.
  • additional vehicle-external units can be used, which must be installed separately in the vicinity of the parking space.
  • the vehicle-external units may be e.g. act around cameras, optical positioning aids, mechanical sleepers, sensors, etc.
  • additional sensors and / or transmitter units may be incorporated in the existing components, e.g. in the ground unit 111 and in the vehicle 100 can be used to assist the driver in positioning.
  • the use of vehicle-external units and / or the use of additional sensors / transmitter units adds to the cost of an inductive charging system.
  • support for positioning is shown in some systems only in the immediate vicinity. This causes the driver to roughly position the vehicle
  • This document describes a method and corresponding device for assisting the driver in positioning the secondary coil 102 of a vehicle 100 over a primary coil 11.
  • the described Method and apparatus described allow a consistent and cost-effective support of the positioning process.
  • FIG. 1b shows a vehicle 100 which, in addition to the secondary coil 102, comprises environmental sensors 131, 132.
  • the vehicle 100 includes one or more cameras 131 configured to capture optical images of the surroundings of the vehicle 100.
  • the vehicle 100 may include one or more front cameras 131, one or more side cameras 131, and / or one or more
  • Rear view cameras 131 include. Furthermore, the vehicle 100 can
  • Ultrasonic sensors 132 e.g. can be used to determine distances to objects in the vicinity of the vehicle. Such environmental sensors 131, 132 are already today for various reasons.
  • Driver assistance systems e.g., for parking functions
  • a control unit 133 of the vehicle 100 can be used to generate pictorial representations of the surroundings of the vehicle 100, which can be used by the driver when positioning the vehicle 100 on a screen 134 of the vehicle 100 can be displayed, and so the driver in the
  • FIG. 360 view of the vehicle 100 e.g., a so-called “top view” representation of the vehicle 100.
  • An exemplary “top view” representation is shown in FIG.
  • the “top view” representation may be displayed on a screen 134 of the vehicle 100 (e.g., in a so-called head unit.)
  • the vehicle 100 itself may be illustrated.
  • the position of the secondary coil 102 can be displayed in the vehicle 100.
  • the "top view” representation indicates eg the ground unit 111, as well as the boundary 201 of a parking bay and a column 202.
  • the "top view” representation typically represents an equalized image in Cartesian (xy) coordinates ,
  • the image of a camera 131 of the vehicle can also be used directly
  • An exemplary schematic image of a camera 131 is shown in FIG (in particular a "surround camera") is typically distorted so that the environment of the vehicle 100 is displayed in camera coordinates that do not correspond to the Cartesian (xy) coordinates of the environment of the vehicle 100. Nevertheless, the floor unit 111, the boundary 201 of the parking bay 201 and the pillar 202 can also be recognized on the camera image.
  • FIG. 3 shows an exemplary positioning process in which the vehicle 100 is parked backwards in a parking bay with a ground unit 11 1. During the positioning process, a "top view display" generated from the environmental sensors 131, 132 can be displayed on a screen 134 of the vehicle 100
  • the control unit 133 may be configured to recognize the ground unit 111 based on the data from the environmental sensors 131, 132 and to display the ground unit 111 on the visual display, even if the ground unit 111 is already obscured by the vehicle 100. Thereby, the driver is consistently supported in the positioning of the vehicle 100.
  • the control unit 133 may thus be configured to configure the ground unit 111 on the basis of the data of the environmental sensors 131, 132 (based, in particular, on the basis of FIG Images of the one or more cameras 131) (eg, using image processing algorithms).
  • the ground unit 111 may include specific optical features and / or reference points that may be recognized by the control unit. As shown in Fig. 4a, for example, the corners 401 of
  • Ground unit 111 are determined as reference points. Furthermore, the edges of the ground unit 111 can be recognized as reference points. From this can be e.g. determine the dimensions of the ground unit 111. Alternatively or additionally, other optical features or reference points (e.g., a marker 411 shown in Figure 4b) may also be used to identify the ground unit 111.
  • other optical features or reference points e.g., a marker 411 shown in Figure 4b
  • non-optical features e.g., recognizing that the vehicle 100 is in the WLAN communication receiving area of the ground unit 111
  • non-optical features may be used to detect the position of the ground unit 111 in the vicinity of the vehicle 100.
  • control unit 133 may be configured to detect further reference points 402, 403 of the surroundings of the vehicle 100.
  • reference points 402, 403 above or below the ground plane (zoO) can also be used.
  • corner points 402 and / or edges of the boundary 201 of the parking bay are detected, in which the ground unit 111 is located.
  • a vertex of the pillar 202 are detected.
  • Control unit 133 may be configured to determine the position of ground unit 111 relative to the further reference points 402, 403. Thus, the further reference points 402, 403 can be used to position the secondary coil 102 of the vehicle 100 above the ground unit 111, even if the ground unit 111 is no longer detected by the environmental sensors 131, 132 (eg because the ground unit 111 is already below the ground unit) Vehicle 100 is located).
  • the control unit 133 may be configured based on the determined
  • Ground unit 111 to determine. Furthermore, the control unit 133 may be configured to control the relative movement of the vehicle 100 (relative to
  • the relative movement of the vehicle 100 can be determined via the movement of the objects 111, 201, 202 and reference points 401, 402, 403 recognized in the images.
  • the temporal evolution of the acquired data of the environmental sensors 131, 132 e.g., a temporal sequence of images
  • the steering angle of the vehicle 100 and / or the rotational movement of the wheels of the vehicle 100 can be determined.
  • Control unit 133 may be configured to determine the relative movement of vehicle 100 from this information.
  • the control unit 133 may be configured to track the position of the vehicle 100 relative to the ground unit 111 (even if the ground unit 111) is no longer away from the ground
  • Environmental sensors 131, 132 can be detected.
  • the control unit 133 may be configured to have a pictorial at the beginning of the positioning operation (see, for example, the left image in FIG.
  • control unit 133 may be configured to adjust the position of the vehicle 100 relative to the charging station (in particular relative to the charging station)
  • Ground unit 111 Even if certain parts of the charging station (in particular the ground unit 111) can no longer be detected by the environmental sensors 131, 132 of the vehicle 100 (eg because they are hidden), these parts (in particular the ground unit 111) can still be stored on the basis of the pictorial representation of the charging station are displayed (as shown in the images of Fig. 3). This will be the driver facilitates positioning the secondary coil 102 of the vehicle 100 over the ground unit 111.
  • control unit 133 is typically configured to track the entire approach trajectory for position determination of the vehicle 100.
  • control unit 133 is typically configured to have an initial position of the
  • Vehicle 100 to determine relative to the ground unit 111 already when the ground unit 111 can still be detected by the environmental sensors 131, 132. Furthermore, the control unit 133 may be configured to continuously supply the position of the vehicle 100 from the home position
  • the update may be based on the determined movement of the further reference points 402, 403 and / or the further objects 201, 202, as well as on the basis of vehicle-internal information (such as steering angle and / or wheel rotational movement).
  • vehicle-internal information such as steering angle and / or wheel rotational movement
  • Quality indicator of the magnetic coupling of the primary coil 111 and the secondary coil 102 are used to check the end position.
  • the control unit 133 may be configured to determine, based on a current position of the vehicle 100, a desired trajectory 501 of the vehicle 100 (see FIGS. 5a and 5b).
  • the desired trajectory 501 may be displayed to the driver on the screen 134 (in conjunction with the pictorial representation of the surroundings of the vehicle).
  • the desired trajectory 501 indicates with which positioning process the vehicle 100 as precisely as possible the floor unit 111 can be positioned. Furthermore, the
  • Control unit 133 may be configured based on the current steering angle to determine an actual trajectory 502 of the vehicle 100 and display on the screen 134. This makes it possible for the driver to adapt the actual trajectory 502 (in particular the steering angle) in such a way that the actual trajectory 502 approaches the desired trajectory 501. Thus, the driver in the
  • Positioning of the vehicle 100 is supported.
  • Fig. 6 shows another possibility with which the driver at a
  • both the position of the secondary coil 102 of the vehicle 100 and the position of the ground unit 111 can be continuously displayed by icons 601, 602 on the screen 134 even if the ground unit 111 is no longer detected by the environmental sensors 131, 132 , This makes it possible to bring the indicated symbols 601, 602 into coincidence with the driver, thus positioning the secondary coil 102 precisely above the primary coil 111.
  • the displayed icons 601, 602 may be changed depending on the quality of the positioning to inform the driver of the progress of the positioning. For example, the color of the icons 601, 602 may be changed (e.g., green, yellow, red) to represent the quality of the positioning. In the example shown in FIG.
  • a green icon 603 indicates sufficiently precise coverage of primary coil 111 and secondary coil 102.
  • Such a representation allows the driver to position the vehicle 100 precisely even without displaying a desired trajectory 501.
  • the representation shown in FIG. 6 makes it possible to position the vehicle 100 even without a desired trajectory 501.
  • the "top view” representation is continued with the images captured during the drive-off under the vehicle 100. The driver is shown in a transparent silhouette of the vehicle
  • Secondary coil 102 may then be coupled to image 602 of primary coil 111 in FIG.
  • Charging power can be reduced to reduce endangerment of the animal by high field strengths.
  • the described positioning method can be used with an automatic
  • Parking assistance function can be combined.
  • Parking function may be used to position the vehicle 100 (e.g., according to the desired trajectory 501) over the ground unit 111.
  • the control unit 133 may be configured to learn reference points 401, 402, 403 when repeatedly starting a charging station. As a result, a primary coil 111 can be approached even when the primary coil 11 1 is not visible, for example, when the primary coil 111 is covered by a snow cover. In addition, the precision of the positioning can be continuously improved thereby. As noted above, other reference points 402, 403 may be used to assist in the positioning process. The reference points 402, 403 can also be located above the ground plane (z> 0). The reference points 402, 403 can be generated by teaching as well as by recognizing a pattern 411 that is typical for the charging station. Furthermore, alternative reference points can be used to approach completely hidden (eg embedded in the ground) primary coils 11. As described above, the controller 133 may be configured to learn reference points 401, 402, 403 when repeatedly starting a charging station. As a result, a primary coil 111 can be approached even when the primary coil 11 1 is not visible, for example, when the primary coil 111 is covered by a snow cover. In
  • Reference objects 201, 202 and / or reference points 401, 402 to detect. These reference objects 201, 202 and / or reference points 401, 402 can be detected by image analysis methods. Furthermore, the geometric arrangement of the reference objects 201, 202 and / or reference points 401, 402 can be determined on the basis of the data of the environmental sensors 131, 132.
  • Information about such predefined reference objects may be provided to the control unit 133 as reference data. Thereby, the detection of the position of the secondary coil 102 relative to the ground unit 111 can be improved.
  • Fig. 7a shows various arrangements of predefined reference objects 701, 702 (e.g., predefined markers), and Fig. 7b shows examples of predefined reference objects that can be detected by the control unit 133 of the vehicle 100 based on the captured image data of a vehicle camera 131.
  • the ground unit 111 may be positioned in a predefined manner relative to the one or more reference objects 701, 702. Thus, by determining the position of the one or more reference objects 701, 702, the position of the ground unit 111 can be determined. In particular, by determining the position of the one or more reference objects 701, 702, the position of the ground unit 111 can be determined. In particular, by
  • the position of the one or more reference objects 701, 702 relative to the vehicle 100 are determined. As shown in image a) in FIG. 7a, the reference objects 701, 702 are determined.
  • Coordinates in a coordinate system eg a Cartesian Coordinate system
  • the ground unit 111 is located in the center of the coordinate system.
  • the position of a reference object 701 can thus be represented by coordinates (x, y) in this
  • Coordinates (x, y) of the coordinate system will be described. Knowing the position of the bottom coil 111 and the position of the vehicle 100 in a predefined coordinate system, the control unit 133 is enabled to assist the driver of the vehicle 100 in positioning the secondary coil 102 over the ground unit 111.
  • Image b) in FIG. 7 a indicates that the orientation of the vehicle 100 relative to the ground unit 111 can also be determined on the basis of the predefined reference objects 701, 702. In particular, the camera angles
  • Image c) of FIG. 7 a shows an example in which the reference objects 701, 702 can not be detected simultaneously by the camera 131 of the vehicle 100.
  • the first reference object 701 may be positioned at a garage entrance, and the second reference object 702 may be located at the primary electronics 110 (i.e., the power supply 110) of the charging station. As shown in connection with FIG. 1
  • Reference objects 701, 702 are used to the entire
  • Fig. 7b shows exemplary reference objects 711, 712, 713.
  • the reference objects should be located in a lighted area, or they should
  • the reference object may include an illuminated marker 711 on the electronics 110 for driving the primary coil 111 (eg integrated in a wall box for wired charging).
  • the lighting can be controlled and switched on via an existing radio connection between charging station and vehicle during the positioning process. The lighting can, for example, also acknowledge the achievement of the correct end position by switching off.
  • the marker 711 may include a sticker on the primary electronics 110.
  • existing fixed markings 712, 713 as
  • Reference objects are used (for example, a parking lot 712 or a pillar 713), as far as these markings 712, 713 have a sufficient contrast.
  • the dimensions 721, 722 of the predefined reference objects 71 1, 712, 713 can be used to determine the distance between camera 131 and reference object 711, 712, 713.
  • the actual dimensions 721, 722 (eg height, width) of the reference objects 711, 712, 713 are known to the control unit 133, so that from the dimensions of the reference objects 711, 712, 713 determined on the basis of the image data of the vehicle camera 131 the distance between Reference object 71 1, 712, 713 and vehicle camera 131 can be determined.
  • Distance sensors 132 of the vehicle 100 are used to determine the distance.
  • the control unit 133 is enabled to determine the distance of the vehicle 100 from the reference object and the orientation of the vehicle 100 relative to the reference object. Since the one or more reference objects 701, 702 in a predefined manner relative to the ground unit 111 are arranged, thereby positioning of the secondary coil 102 of the vehicle 100 above the ground unit 111 based on the data of the vehicle camera 131 allows.
  • triangulation methods can be used to determine the distance between a reference object 701 and the camera 131 of the vehicle 100. This is illustrated by way of example in FIGS. 8a and 8b. It is true that the sum of the angles 804 gives 180 °, and that the sum of the
  • the current distance 802 of the vehicle 100 to the reference object 701 can be determined.
  • the special case where is small or zero ie in the case
  • the distance 802 may not exceed the above-mentioned. Triangulation formula are calculated. Then, however, the vehicle route 807 directly provides information about how the distance between vehicle 100 and reference object 701 changes. In particular, the change in distance between the distance 801 to the first corresponds
  • the distance 802 between reference object 701 and vehicle 100 can be determined by measuring the triangulation method Camera angle 804, 806 and by measuring the movement distance 807 of the vehicle 100 (eg based on the wheel rotation) are determined.
  • values for the corrected movement distance 807 and the corrected angle 806 can be determined from the measured quantities: camera angle 816 at the first point in time, steering or turning movement, and movement distance 819. This then results from the above
  • the absolute position of the vehicle may be determined from the detection of at least two reference objects 701 and 702, as shown in FIG. 8c. In particular, can be from the distances 822 and 821 to the two
  • Reference objects 701, 702 calculate all required coordinates and angles.
  • the distances 822, 821 can be determined by the above-described
  • the coordinates and orientation of the vehicle 100 i.e., the position and orientation of the secondary coil 102 of the toy 100
  • the coordinates of the reference objects 701, 702 and the primary coil 111 are known, so that thus all the necessary information for positioning the vehicle 100 are available.
  • the entire approach trajectory of the vehicle 100 can be accompanied and supported.
  • predefined reference objects 701, 702 can be arranged along the approach trajectory, so that whenever possible at least one reference object 701, 702 can be detected by the camera 131 of the vehicle. This is exemplified in Fig. 8d.
  • a position calculation eg by the methods described above.
  • Trajektorien- section 831 directly to the first reference object 701 to.
  • the distance between the vehicle and the first reference object may be e.g. are estimated via the size of the first reference object 701 detected by the camera 131 (see Fig. 8a).
  • the distance to the reference object 701 can be determined via triangulation.
  • the camera 131 of the vehicle 100 does not detect a reference object 701, 702. The distance and angle to the reference object 701 may exceed
  • Vehicle sensors (wheel rotation and / or steering angle) are tracked.
  • the camera 131 of the vehicle 100 detects the second reference object 702.
  • Primary coil 111 can be updated continuously until the target position is reached.
  • the control unit 133 may be configured to assist the driver of the vehicle 100 along the entire trajectory in positioning.
  • the geometry of a charging station i.e., in particular the coordinates of the
  • Reference objects 701, 702; the dimensions 721, 722 of the reference objects 701, 702; the description of the reference objects 701, 702 (for automatic recognition); and / or the relative position of the ground unit) may be stored on a storage unit in the vehicle 100.
  • the control unit 133 may access this storage unit as needed.
  • the geometry of a charging station can be transmitted via a wireless communication link from the charging station (eg, from the primary electronics 110) to the vehicle 100 (eg, when approaching the vehicle 100).
  • An application can be made available that assists a user in determining the geometry of a charging station.
  • the surface 900 of an exemplary application (eg, an application for a smartphone or for the on-board computer of the vehicle 100) is shown in FIG. 9. Images 901 of the charging station can be displayed on which one or more
  • Reference objects or reference points 401 can be selected.
  • the images 901 may be e.g. be recorded with the camera 131 of the vehicle 100 or with a camera of the smartphone.
  • the description of a reference object (size, shape, color, ...) can be determined and recorded.
  • the reference objects from the image can be included as reference objects 701 in a sketch 902 of the charging station and linked to the description of the corresponding reference objects.
  • the dimensions 721, 722 and positions of the reference objects 701 and the primary coil 111 may be inserted in the sketch 902.
  • information about the used vehicle type can be inserted. This results in the position of the camera 131 and the secondary coil 111 in the vehicle 100.
  • the input can be made manually, or by data transmission from the vehicle 100 to the application.
  • hints 903, 904 for setting up the charging station (such as the quality of the setup and / or further steps to be performed) may be determined and displayed.
  • Primary unit 110, 111 and the reference objects are attached. With the vehicle camera 131 or a tablet PC camera, the reference objects can then be photographed.
  • the data of the vehicle (geometry and possibly images) for which the charging station is to be used can be transferred to the Tablet PC. With this information, a configuration of the charging station can then be carried out (as described in FIG. 9).
  • the data relating to the charging station can then be stored in the off-board electronics 110 (also called primary electronics or control unit) of the charging station and transmitted to the vehicle 100.
  • the knowledge of the data with respect to the charging station allows the control unit 133 of the vehicle 100 the Determining the relative position of the vehicle 100 to the ground unit 111.
  • control unit 133 may be configured to cause the primary electronics 110 to illuminate the reference objects from the beginning of the positioning operation so that they can be detected sufficiently well by the camera 131 of the vehicle 100. Furthermore, a lit reference object by appropriate control for acknowledgment of a successful
  • the reference object data may be transferred from the off-board electronics 110 of the charging station, or from a database in the network, to the storage unit of the vehicle 100 (e.g., approaching the vehicle 100).
  • the vehicle 100 then calculates the complete data with its known vehicle geometry and can thus support the positioning process.
  • a charging station with predefined reference objects 701, 702 assumes that the position of the ground unit 111 relative to the predefined reference objects 701, 702 does not change. However, in the ground unit 111, it may be e.g. to act on a flat body on non-slip mat, which is not firmly bolted to the ground. As a result, it may happen that the bottom unit 111 is moved unnoticed, so that no effective positioning of the secondary coil 102 above the bottom unit 111 can be done more.
  • the charging station (and the vehicle) should be set up, one
  • the ground unit 111 may be positioned on a mechanical sensor ball, with the sensor ball registering movement of the ground unit 111.
  • the floor unit 111 may be mounted along a mark on the floor. An optical sensor of the ground unit 111 can then recognize whether the ground unit 111 continues to be located along the mark or whether the ground unit 111 has been shifted.
  • a sensor incorporating a movement (slipping, lifting, etc.) of the ground unit 111 can be installed
  • Ground unit 111 detects.
  • the driver can after a shift of
  • Ground unit 111 are notified and may be required to perform a position check.
  • Vehicle cameras 131 also other external cameras can be used.
  • the external cameras may be used to detect the movement of the vehicle 100.
  • Cameras may be used with the data of the one or more vehicle cameras 131 for optimized positioning.
  • a method and apparatus have been described that assist the driver of a vehicle 100 in positioning the vehicle 100 over a ground unit 111.
  • the method and the device make it possible to use components 131, 132 already present in the vehicle 100 for positioning.
  • This allows the method and apparatus to be implemented inexpensively (e.g., by software).
  • all-round view cameras 131 are already optimally integrated in vehicles 100 (e.g., at low pollution positions) so that these features can be shared.
  • Target position can be in a known representation, eg top or rear view representation done.
  • a known representation eg top or rear view representation done.
  • the described positioning function can be implemented within the framework of a consistent user interface with other driver assistance functions.
  • Possible errors in the optical system eg contamination of a camera 131) in the image shown for the driver conclusively recognizable, and therefore do not lead to a mispositioning of the vehicle.
  • the method described in this document thus enables reliable positioning of the vehicle.
  • Registration of the geometry data of the charging station can also be done without a vehicle (for example with a tablet PC).
  • the detection of the reference objects can be optimized by using original images from the vehicle camera and supported by off-line editing. This allows an increase in the reliability of the system.
  • due to the use of the vehicle camera and due to the control directly in the vehicle information from the chassis (steering angle, Radcardish) on the vehicle movement can be used in a simple manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Charge And Discharge Circuits For Batteries Or The Like (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Die Erfindung betrifft das induktive Laden einer aufladbaren Batterie eines Fahrzeugs. Insbesondere betrifft die Erfindung ein Verfahren und eine entsprechende Vorrichtung zur Positionierung eines Fahrzeugs über einer Primärspule zum induktiven Laden der aufladbaren Batterie des Fahrzeugs. Es wird eine Steuereinheit (133) für ein Fahrzeug (100) beschrieben. Das Fahrzeug (100) umfasst eine Sekundärspule (102) zur Aufnahme von elektrischer Energie von einer Fahrzeug-externen Primärspule (111). Weiter umfasst das Fahrzeug (100) mindestens eine Kamera (131), die eingerichtet ist, eine Umgebung des Fahrzeugs (100) zu erfassen. Die Steuereinheit (133) ist eingerichtet, Bild-Daten von der mindestens einen Kamera (131) des Fahrzeugs (100) zu empfangen, und auf Referenzdaten zuzugreifen. Die Referenzdaten umfassen Informationen über mindestens ein vordefiniertes Referenzobjekt (701) in der erfassten Umgebung des Fahrzeugs (100) und über eine Position des mindestens einen vordefinierten Referenzobjekts (701) relativ zu der Primärspule (111). Die Steuereinheit (133) ist weiter eingerichtet, auf Basis der Referenzdaten das mindestens eine vordefinierte Referenzobjekt (701) in den empfangenen Bild-Daten zu detektieren. Außerdem ist die Steuereinheit (133) eingerichtet, auf Basis des detektierten mindestens einen Referenzobjekts (701), eine Position der Sekundärspule (102) relativ zu der Primärspule (111) zu ermitteln.

Description

Geführte Fahrzeugpositionierung für induktives Laden mit Hilfe einer Fahrzeugkamera Die Erfindung betrifft das induktive Laden einer aufladbaren Batterie eines Fahrzeugs, Insbesondere betrifft die Erfindung ein Verfahren und eine entsprechende Vorrichtung zur Positionierung eines Fahrzeugs über einer Primärspule zum induktiven Laden der aufladbaren Batterie des Fahrzeugs. Fahrzeuge, insbesondere Fahrzeuge mit elektrischem Antrieb, umfassen aufladbare Batterien zur Speicherung elektrischer Energie. Die aufladbare Batterie eines Fahrzeugs kann z.B. durch Anschluss an eine Fahrzeug-externe Stromquelle (z.B. durch Anschluss an ein öffentliches Stromnetz) aufgeladen werden. Ein Ansatz zum automatischen, kabellosen, induktiven Laden der Batterie des Fahrzeugs besteht darin, dass vom Boden zum Unterboden des Fahrzeugs über magnetische Induktion über die Unterbodenfreiheit die elektrische Energie zu der Batterie übertragen wird. Dies ist beispielhaft in Figur la dargestellt. Insbesondere zeigt Fig. 1a ein Fahrzeug 100 mit einem Speicher 103 für elektrische Energie (z.B. mit einer autladbaren Batterie 103). Das Fahrzeug 100 umfasst eine sogenannte Sekundärspule 102 im Fahrzeug-Unterboden, wobei die
Sekundärspule 102 über eine nicht gezeigt Impedanzanpassung und einen Gleichrichter 101 mit dem Speicher 103 verbunden ist.
Die Sekundärspule 102 kann über einer Primärspule 111 positioniert werden, wobei die Primärspule 111 z.B. auf dem Boden einer Garage angebracht ist. Die Primärspule 111 ist mit einer Stromversorgung 110 verbunden. Die
Stromversorgung 110 kann einen Radio-Frequenz -Generator umfassen, der einen AC (Alternating Current) Strom in der Primärspule 111 erzeugt, wodurch ein magnetisches Feld induziert wird. Bei ausreichender magnetischer Kopplung zwi sehen Primärspule 111 und Sekundärspule 102 über die Unterbodenfreiheit 120 wird durch das magnetische Feld ein entsprechender Strom in der
Sekundärspule 102 induziert. Der induzierte Strom in der Sekundärspule 102 wird durch den Gleichrichter 101 gleichgerichtet und im Speicher 103 (z.B. in der Batterie) gespeichert. So kann elektrische Energie kabellos von der
Stromversorgung 110 zum Energie-Speicher 103 des Fahrzeugs 100 übertragen werden.
Um eine ausreichende magnetische Kopplung zwischen Primärspule 111 und Sekundärspule 102 zu erreichen, sollte die Sekundärspule 102 des Fahrzeugs 100 mit einer gewissen Präzision (typischerweise +10cm) über der Primärspule 111 (welche auch als Bodeneinheit bezeichnet wird) positioniert werden. Das vorliegende Dokument beschreibt ein Verfahren und eine Vorrichtung, die einen Fahrer des Fahrzeugs 100 bei der Positionierung der Sekundärspule 102 über der Primärspule 111 unterstützen. Eine Unterstützung bei der Positionierung ist insbesondere daher wichtig, da der Fahrer die Bodeneinheit 111 in der letzten Phase der Positionierung des Fahrzeugs 100 nicht sieht, weil sich die
Bodeneinheit 111 dann unter dem Fahrzeug 100 befindet. Gemäß einem Aspekt wird eine Steuereinheit für ein Fahrzeug beschrieben. Bei dem Fahrzeug kann es sich insbesondere um ein zweispuriges Fahrzeug, wie z.B. ein Personenkraftfahrzeug, ein Straßenfahrzeug und/oder ein Automobil handeln. Das Fahrzeug umfasst eine Sekundärspule zur Aufnahme von elektrischer Energie von einer Fahrzeug-externen Primärspule. Typischerweise ist die Sekundärspule an einem Unterboden des Fahrzeugs angebracht. Die Fahrzeug-externe
Primärspule ist z.B. auf dem Boden eines Stellplatzes für das Fahrzeug angebracht. Die Primärspule und die Sekundärspule bilden einen Transformator, wenn zwischen der Primärspule und der Sekundärspule eine magnetische
Kopplung vorliegt. Um eine ausreichende Übertragung von elektrischer Energie von der Primärspule zu der Sekundärspule zu gewährleisten, sollte der Abstand zwischen der Sekundärspule und der Primärspule (insbesondere der laterale Abstand) einen vordefinierten Schwellwert erreichen oder unterschreiten. Bei dem Abstand kann es sich z.B. um den geometrischen Abstand zwischen ein oder mehreren vordefinierten Punkten der Primärspule und ein oder mehreren vordefinierten Punkten der Sekundärspule handeln.
Das Fahrzeug umfasst mindestens eine Kamera, die eingerichtet ist, eine
Umgebung des Fahrzeugs zu erfassen. Bei der mindestens einen Kamera kann es sich z.B. um eine Frontkamera handeln, die eingerichtet ist, eine Umgebung vor dem Fahrzeug zu erfassen, und/oder um eine Rückkamera handeln, die eingerichtet ist, eine Umgebung hinter dem Fahrzeug zu erfassen. Insbesondere kann die mindestens eine Kamera eine Umgebung in Fahrtrichtung des Fahrzeugs zu erfassen (z.B. eine Frontkamera bei Vorwärtsbewegung und/oder eine
Rückfahrkamera bei Rückwärtsfahrt). Es können auch eine Vielzahl von Kameras verwendet werden, um die Umgebung des Fahrzeugs zu erfassen. Desweiteren kann das Fahrzeug noch weitere Umgebungssensoren umfassen, wie z.B.
Ultraschallsensoren, die dazu verwendet werden können, einen Abstand zu bestimmten Objekten (z.B. zu vordefinierten Referenzobjekten) in der Umgebung des Fahrzeugs zu ermitteln. Die Steuereinheit ist eingerichtet, Bild-Daten von der mindestens einen Kamera des Fahrzeugs zu empfangen. Bei den Bild-Daten kann es sich z.B. um ein Bild der von der Kamera erfassten Umgebung des Fahrzeugs zu einem bestimmten Zeitpunkt und/oder um eine Sequenz von Bildern zu einer Sequenz von
Zeitpunkten handeln.
Des weiteren ist die Steuereinheit eingerichtet, auf Referenzdaten zuzugreifen. Die Referenzdaten können Informationen über mindestens ein vordefiniertes
Referenzobjekt in der erfassten Umgebung des Fahrzeugs umfassen.
Beispielsweise können die Referenzdaten Informationen über ein oder mehrere optische Merkmale des mindestens einen Referenzobjektes umfassen, die in den Bild-Daten der Kamera detektiert werden können. Insbesondere können die Referenzdaten eine bildliche Wiedergabe des mindestens einen Referenzobjekts umfassen, wobei die bildliche Wiedergabe mit den Bild-Daten verglichen werden kann, um das mindestens eine Referenzobjekt in den Bild-Daten zu detektieren. Desweiteren können die Referenzdaten Informationen über eine räumliche Größe des mindestens einen Referenzobjektes. Die räumliche Größe in den
Referenzdaten kann mit der Größe des mindestens einen detektierten
Referenzobjekts in den Bild-Daten verglichen werden, um einen Abstand der Kamera (und des Fahrzeugs) von dem mindestens einen Referenzobjekt zu ermitteln.
Desweiteren können die Referenzdaten Informationen über die Position des mindestens einen vordefinierten Referenzobjekts relativ zu der Primärspule umfassen. Insbesondere können die Referenzdaten Informationen bzgl. räumlicher Koordinaten des mindestens einen Referenzobjektes in einem vordefinierten Koordinatensystem umfassen. Außerdem können die Referenzdaten
Informationen bzgl. räumlicher Koordinaten der Primärspule in dem
vordefinierten Koordinatensystem umfassen. Die jeweiligen Koordinaten stellen dann die relative Position zwischen Referenzobjekt und Primärspule dar, Die Steuereinheit kann weiter eingerichtet sein, auf Basis der Referenzdaten das mindestens eine vordefinierte Referenzobjekt in den empfangenen Bild-Daten zu detektieren. Wie oben dargelegt, kann die Steuereinheit insbesondere eingerichtet sein, eine bildliche Wiedergabe des Referenzobjekts in den Bild-Daten zu detektieren. Desweiteren kann die Steuereinheit eingerichtet sein, auf Basis des detektierten mindestens einen Referenzobjekts, eine Position der Sekundärspule relativ zu der Primärspule zu ermitteln. Eine Position des detektierten
Referenzobjekts in den Bild-Daten kann Informationen über die Position des Fahrzeugs relativ zu dem Referenzobjekt liefern. Außerdem kann eine detektiere Größe des Referenzobjekts Informationen über den Abstand zwischen Fahrzeug und Referenzobjekt liefern. Insbesondere kann die Steuereinheit eingerichtet sein, auf Basis des detektierten mindestens einen Referenzobjekts, einen Kamerawinkel eines Strahls zwischen der mindestens einen Kamera und dem mindestens einen Referenzobjekts zu ermitteln. Der Kamerawinkel gibt an, mit welchem Winkel das Fahrzeug relativ zu dem mindestens einen Referenzobjekt ausgerichtet ist. Die Steuereinheit kann eingerichtet sein, auf Basis des ermittelten Kamerawinkels einen Abstand der Sekundärspule zu dem mindestens einen Referenzobjekt zu ermitteln. Dazu können insbesondere Triangulationsverfahren und/oder andere trigonometrische Verfahren (z.B. Anwendung der Dreiecksregel bei gleichzeitiger Detektion von mindestens zwei Referenzobjekten in den Bild-Daten) verwendet werden.
Die Steuereinheit kann weiter eingerichtet sein, Informationen bzgl. eines Radeinschlags und bzgl. einer Raddrehzahl des Fahrzeugs zu empfangen. Auf Basis der empfangenen Informationen bzgl. des Radeinschlags und bzgl. der Raddrehzahl kann eine Bewegung des Fahrzeugs ermittelt werden. Die
Informationen bzgl. des Radeinschlags und bzgl. der Raddrehzahl können mit den aus den Bild-Daten gewonnenen Informationen synchronisiert werden (z.B. mit dem ermittelten Kamera winkel). Daraus kann dann eine Bewegung (und/oder Position) des Fahrzeugs relativ zu dem mindestens einen Referenzobjekt ermittelt werden. Dazu können z.B. Triangulationsverfahren verwendet werden.
Die Referenzdaten können Informationen über eine Vielzahl von vordefinierten Referenzobjekten umfassen. Die Vielzahl von vordefinierten Referenzobjekten kann entlang einer Anfahrts-Trajektorie des Fahrzeugs zu der Primärspule angeordnet sein. So kann durch die Vielzahl von vordefinierten Referenzobjekten der gesamte Positionierungsprozess des Fahrzeugs unterstützt werden. Die Steuereinheit kann eingerichtet sein, eine zeitliche Sequenz von Bild-Daten (insbesondere eine zeitliche Sequenz von Bildern) der mindestens einen Kamera des Fahrzeugs entlang der Anfahrts-Trajektorie zu empfangen. Desweiteren kann die Steuereinheit eingerichtet sein, die Vielzahl von vordefinierten
Referenzobjekten in der zeitlichen Sequenz von Bild-Daten zu detektieren. Die einzelnen Referenzobjekte können auf verschiedenen Bild-Daten (insbesondere Bildern oder Frames) der Sequenz von Bild-Daten detektierbar sein. Dadurch kann z.B. gewährleistet werden, dass zu jedem Zeitpunkt des
Positionierungsprozesses mindestens ein vordefiniertes Referenzobjekt von der mindestens einen Kamera des Fahrzeugs erfasst werden kann. So kann der
Positionierungsprozess des Fahrzeugs in durchgängiger Weise unterstützt werden. Desweiteren kann die Steuereinheit eingerichtet sein, ein oder mehrere Zeitpunkte des Positionierungsprozesses zu überbrücken, bei denen kein vordefiniertes Referenzobjekt erfasst werden kann. Dazu können Fahrzeug-interne Daten (wie z.B. der Radeinschlag und/oder die Raddrehbewegung) herangezogen werden, um die Bewegung des Fahrzeugs zu ermitteln.
Die Steuereinheit kann eingerichtet sein, die Referenzdaten von einer
Kontrolleinheit der Primärspule zu empfangen. Die Referenzdaten können z.B. über ein drahtloses Kommunikationsnetz (z.B. WLAN) übertragen werden.
Dadurch wird es ermöglicht, dass das Fahrzeug eine unbekannte Ladestation anfährt, und zu Beginn des Positionierungsvorgangs die, für den
Positionierungsprozess erforderlichen, Referenzdaten bereitgestellt bekommt. Die Referenzdaten können in einer Speichereinheit des Fahrzeugs gespeichert werden. Die Steuereinheit kann weiter eingerichtet sein, bei einem wiederholten Anfahren derselben Ladestation, die gespeicherten Referenzdaten zu verwenden. Außerdem können weitere Daten (z.B. eine bereits ermittelte Soll-Trajektorie des Fahrzeugs) verwendet und ggf. aktualisiert werden. Dadurch kann der Positionierungsvorgang bei wiederholtem Anfahren einer Ladestation verbessert werden.
Die Steuereinheit kann eingerichtet sein, zu veranlassen, dass ein Steuersignal an die Kontrolleinheit der Primärspule gesendet wird, um das mindestens eine vordefinierte Referenzobjekt zu beleuchten. Das Steuersignal kann über das o.g. drahtlose Kommunikationsnetz übertragen werden. Durch Übertragung des Steuersignals wird sichergestellt, dass die mindestens eine Kamera des Fahrzeugs das mindestens eine vordefinierte Referenzobjekt in verlässlicher Weise erfassen kann.
Die Steuereinheit kann eingerichtet sein, Informationen bzgl. der Position der Sekundärspule relativ zu der Primärspule für eine Positionierung der
Sekundärspule relativ zu der Primärspule bereitzustellen. Beispielsweise können die Informationen bzgl. der Position der Primärspule auf einem Bildschirm des Fahrzeugs angezeigt werden, und so einen Fahrer des Fahrzeugs bei der
Positionierung des Fahrzeugs unterstützen. Alternativ oder ergänzend können die Informationen bzgl. der Position der Primärspule einer Einparkassistenzfunktion des Fahrzeugs bereitgestellt werden. Die Steuereinheit kann dann eingerichtet sein, die Einparkassistenzfunktion des Fahrzeugs zu veranlassen, das Fahrzeug derart zu bewegen, dass der Abstand zwischen der Sekundärspule und der ermittelten Position der Primärspule den vordefinierten Schwellwert erreicht oder unterschreitet (um eine ausreichend große magnetische Kopplung zu erreichen).
Insgesamt ermöglicht die Verwendung mindestens einer Kamera des Fahrzeugs eine präzise Positionierung des Fahrzeugs über einer Primärspule. Die mindestens eine Kamera des Fahrzeugs ist typischerweise bereits für andere
Fahrerassistenzsysteme (z.B. Einparkhilfe) im Fahrzeug verbaut, so dass die Verwendung der mindestens einen Kamera des Fahrzeugs eine kostengünstige Lösung zur Positionierung des Fahrzeugs ermöglicht.
Die Steuereinheit kann eingerichtet sein, eine bildliche Darstellung der Umgebung des Fahrzeugs mit der ermittelten Position der Primärspule zu generieren. Dabei ist bevorzugt in der bildlichen Darstellung die Primärspule gegenüber der Umgebung des Fahrzeugs graphisch hervorgehoben ist, so dass die Primärspule eindeutig erkennbar ist (z.B. durch hervorgehobene Konturen). Desweiteren kann die Steuereinheit eingerichtet sein, zu veranlassen, dass die bildliche Darstellung auf einem Bildschirm des Fahrzeugs (z.B. auf einer zentralen Anzeige, z.B. an der Mittelkonsole, des Fahrzeugs) ausgegeben wird.
Die bildliche Darstellung kann eine„Top View" Ansicht des Fahrzeugs und der Umgebung des Fahrzeugs mit (einem hervorgehobenen Bild) der Primärspule umfassen. Desweiteren kann die bildliche Darstellung eine symbolische
Darstellung der Sekundärspule im Fahrzeug umfassen. Dies ermöglicht es einem Fahrer gleichzeitig die Position der Sekundärspule und die Position der
Primärspule zu sehen. Dadurch wird der Fahrer dabei unterstützt, den Abstand zwischen der Sekundärspule und der Primärspule zu reduzieren. Alternativ oder ergänzend kann die bildliche Darstellung eine„Rear View" Ansicht des
Fahrzeugs (von einer Rückkamera) oder eine„Front View" Ansicht des Fahrzeugs (von einer Frontkamera) umfassen. Insbesondere können Bilder in einer künstlichen Apertur zusammengefasst werden. Dabei können Bilder von verschiedenen Kameras mit unterschiedlichem Blickwinkel / Position und/oder Bilder einer Kamera über die Zeit berücksichtigt werden. Diese Vielzahl von Bildern können zu einem neuen Bild synthetisiert werden, wobei das neue Bild die Umgebung des Fahrzeugs mit der detektierten Primärspule aus einem neuen Blickwinkel darstellt. Die Steuereinheit kann eingerichtet sein, die symbolische Darstellung der Sekundärspule gesondert hervorzuheben, wenn der Abstand zwischen der Sekundärspule und der Primärspule den vordefinierten Schwellwert erreicht oder unterschreitet. Dadurch kann dem Fahrer angezeigt werden, dass das Fahrzeug derart positioniert ist, dass eine ausreichende magnetische Kopplung zwischen Primärspule und Sekundärspule vorliegt.
Die Steuereinheit kann eingerichtet sein, eine Soll-Trajektorie des Fahrzeugs zu ermitteln, die es ermöglicht, den Abstand zwischen der Sekundärspule und der Primärspule derart zu reduzieren, dass der Abstand den vordefinierten
Schwellwert erreicht oder unterschreitet. Desweiteren kann die Steuereinheit eingerichtet sein, auf Basis der empfangenen Informationen bzgl. des Radeinschlags, eine Ist-Trajektorie des Fahrzeugs zu ermitteln. Eine graphische Darstellung der Soll-Trajektorie und der Ist-Trajektorie kann auf dem Bildschirm des Fahrzeugs (z.B. zusammen mit der bildlichen Darstellung der Umgebung des Fahrzeugs) ausgegeben werden. Dadurch wird dem Fahrer des Fahrzeugs angezeigt, wie er das Fahrzeug richtig über der Primärspule positionieren kann.
Gemäß einem weiteren Aspekt wird ein Fahrzeug (insbesondere ein zweispuriges Fahrzeug, z.B. ein PKW) beschrieben. Das Fahrzeug umfasst eine Sekundärspule zur Aufnahme von elektrischer Energie von einer Fahrzeug-externen Primärspule. Desweiteren umfasst das Fahrzeug mindestens eine Kamera, die eingerichtet ist, eine Umgebung des Fahrzeugs zu erfassen. Außerdem umfasst das Fahrzeug die in diesem Dokument beschriebene Steuereinheit, die eingerichtet ist, anhand von Bild-Daten und vordefinierten Referenzdaten, den Positionierungsprozess der Sekundärspule über der Primärspule zu unterstützen.
Das Fahrzeug kann eine Speichereinheit umfassen, die eingerichtet ist, die Referenzdaten zu speichern. Desweiteren kann das Fahrzeug einen Bordcomputer (z.B. als Teil eines Informations- und Kommunikationssystems des Fahrzeugs) umfassen, der es einem Nutzer ermöglicht, die Referenzdaten einzugeben.
Insbesondere kann der Bordcomputer eine in diesem Dokument beschriebene Applikation zur Definition von Referenzdaten umfassen. Dadurch wird es einem Nutzer eines Fahrzeugs ermöglicht, die Referenzdaten (insbesondere die
Referenzobjekte) zur Positionierung des Fahrzeugs in flexibler Weise zu definieren.
Gemäß einem weiteren Aspekt wird ein Verfahren zur Unterstützung der
Positionierung einer Sekundärspule eines Fahrzeugs relativ zu einer Fahrzeugexternen Primärspule beschrieben. Das Verfahren umfasst, das Empfangen von Bild-Daten von mindestens einer Kamera des Fahrzeugs, wobei die mindestens eine Kamera eingerichtet ist, eine Umgebung des Fahrzeugs zu erfassen.
Desweiteren umfasst das Verfahren das Empfangen oder Bereitstellen von Referenzdaten. Die Referenzdaten können Informationen über mindestens ein vordefiniertes Referenzobjekt in der erfassten Umgebung des Fahrzeugs umfassen. Außerdem können die Referenzdaten Informationen über eine Position des mindestens einen vordefinierten Referenzobjekts relativ zu der Primärspule umfassen. Darüber hinaus umfasst das Verfahren das Detektieren des mindestens einen vordefinierten Referenzobjektes in den empfangenen Bild-Daten, auf Basis der Referenzdaten. Eine Position der Sekundärspule relativ zu der Primärspule kann auf Basis des detektierten mindestens einen Referenzobjekts ermittelt werden.
Wie bereits dargelegt, können die Referenzdaten Informationen über eine Vielzahl von vordefinierten Referenzobjekten umfassen. Insbesondere können die
Referenzdaten Informationen über die relative Position einer Vielzahl von
Referenzobjekten umfassen. Das Verfahren kann weiter umfassen, das
Detektieren der Vielzahl von vordefinierten Referenzobjekten in den
empfangenen Bild-Daten. Insbesondere kann aus den Bild-Daten die tatsächliche relative Position der Vielzahl von Referenzobjekten ermittelt werden. Das Verfahren kann weiter umfassen, das Vergleichen der Referenzdaten mit der detektierten Vielzahl von vordefmierten Referenzobjekten. Insbesondere können die Informationen über die relative Position einer Vielzahl von Referenzobjekten mit der tatsächlichen relativen Position der Vielzahl von Referenzobjekten verglichen werden. Daraus können die Stimmigkeit und/oder die Vollständigkeit der Informationen bzgl. der Referenzobjekte überprüft werden. Insbesondere kann daraus ein Indikator über die Verlässlichkeit der auf Basis der vordefinierten Referenzobjekte durchgeführten Positionierung des Fahrzeugs über der
Primärspule ermittelt werden.
Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen. Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem
Dokument beschriebene Verfahren auszuführen.
Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl all eine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Desweiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtung und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden. Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigt
Figur 1a ein beispielhaftes Fahrzeug, das eine Sekundärspule für induktives Laden einer Fahrzeugbatterie umfasst;
Figur 1b ein beispielhaftes Fahrzeug mit zusätzlichen Umgebungssensoren;
Figur 2a eine anhand von Umgebungssensoren des Fahrzeugs erzeugte beispielhafte„Top-View" Darstellung der Umgebung des Fahrzeugs;
Figur 2b eine von einer Rückfahr-Kamera des Fahrzeugs erzeugte Darstellung der rückseitigen Umgebung des Fahrzeugs;
Figur 3 einen beispielhaften - durch die Umgebungssensoren des Fahrzeugs unterstützten - Positionierungsvorgang der Sekundärspule des Fahrzeugs über einer Primärspule;
Figur 4a beispielhafte Merkmale und Referenzpunkte in der Umgebung des Fahrzeugs, welche zur Positionierung des Fahrzeugs herangezogen werden können;
Figur 4b die Verwendung von vordefinierten Markierungen bei der Positionierung des Fahrzeugs; Figur 5a und Figur 5b jeweils eine beispielhafte Darstellung einer Fahrzeug- Trajektorie zur Unterstützung des Fahrers bei der Positionierung des Fahrzeugs; Figur 6 die beispielhafte Darstellung der Primärspule auf einem Bildschirm des Fahrzeugs zur Unterstützung des Fahrers bei der Positionierung des Fahrzeugs; Figur 7a beispielhafte Positionen von vordefinierten Referenzobjekten;
Figur 7b beispielhafte Referenzobjekte;
Figur 8a, Figur 8b, Figur 8c und Figur 8d die beispielhafte Verwendung von vordefinierten Referenzobjekten für die Positionierung eines Fahrzeugs; und Figur 9 eine beispielhafte Bedien-Oberfläche einer Applikation zur Definition von vordefinierten Referenzobj ekten.
Wie bereits eingangs dargelegt, erfordert das induktive Laden einer
Fahrzeugbatterie 103 eine relativ präzise Positionierung der Sekundärspule 102 des Fahrzeugs 100 über der Primärspule 111. Zur Unterstützung des Fahrers bei der Positionierung können zusätzliche Fahrzeug-externe Einheiten verwendet werden, die im Umfeld des Abstellplatzes gesondert installiert werden müssen. Bei den Fahrzeug-externe Einheiten kann es sich z.B. um Kameras, optische Positionier-Hilfen, mechanische Schwellen, Sensoren, etc. handeln. Außerdem können zusätzliche Sensoren und/oder Sendeeinheiten in den vorhandenen Komponenten wie z.B. in der Bodeneinheit 111 und in dem Fahrzeug 100 verwendet werden, um den Fahrer bei der Positionierung zu unterstützen. Die Verwendung von Fahrzeug-externen Einheiten und/oder die Verwendung von zusätzlichen Sensoren / Sendeeinheiten erhöhen jedoch die Kosten für ein induktives Ladesystem. Desweiteren wird bei einigen Systemen erst im unmittelbaren Nahbereich eine Unterstützung zur Positionierung dargestellt. Das führt dazu, dass der Fahrer eine grobe Positionierung des Fahrzeugs
weitestgehend ohne Unterstützung durchführen muss.
In diesem Dokument wird ein Verfahren und eine entsprechende Vorrichtung zur Unterstützung des Fahrers bei der Positionierung der Sekundärspule 102 eines Fahrzeugs 100 über einer Primärspule 1 11 beschrieben. Das beschriebene Verfahren und die beschriebene Vorrichtung ermöglichen eine durchgängige und kostengünstige Unterstützung des Positionierungsvorgangs.
Insbesondere wird vorgeschlagen, ein oder mehrere der in einem Fahrzeug 100 verbauten Umgebungssensoren (z.B. Kameras und/oder Ultraschallsensoren) zur Unterstützung der Positionierung zu verwenden. Fig. lb zeigt ein Fahrzeug 100, welches zusätzlich zu der Sekundärspule 102 Umgebungssensoren 131, 132 umfasst. Insbesondere umfasst das Fahrzeug 100 ein oder mehrere Kameras 131, die eingerichtet sind, optische Bilder der Umgebung des Fahrzeugs 100 zu erfassen. Insbesondere kann das Fahrzeug 100 ein oder mehrere Frontkameras 131 , ein oder mehrere Seitenkameras 131 und/oder ein oder mehrere
Rückkameras 131 umfassen. Desweiteren kann das Fahrzeug 100
Ultraschallsensoren 132 umfassen, die z.B. zur Ermittlung von Abständen zu Objekten in der Umgebung des Fahrzeugs verwendet werden können. Derartige Umgebungssensoren 131, 132 werden bereits heute für diverse
Fahrerassistenzsysteme (z.B. für Einparkfunktionen) verwendet und sind daher bereits in vielen Fahrzeugen vorhanden.
Anhand der Umgebungssensoren 131, 132 (insbesondere anhand von ein oder mehreren Kameras 131) können durch eine Steuereinheit 133 des Fahrzeugs 100 bildliche Darstellungen der Umgebung des Fahrzeugs 100 erzeugt werden, die dem Fahrer bei der Positionierung des Fahrzeugs 100 auf einem Bildschirm 134 des Fahrzeugs 100 angezeigt werden können, und so den Fahrer bei der
Positionierung des Fahrzeugs 100 unterstützen. Insbesondere kann eine
Rundumsicht des Fahrzeugs 100 (z.B. eine sogenannte„Top View" Darstellung des Fahrzeugs 100) erzeugt werden. Eine beispielhafte„Top View" Darstellung ist in Fig. 2a gezeigt. Die„Top View" Darstellung kann auf einem Bildschirm 134 des Fahrzeugs 100 (z.B. in einer sogenannten Head Unit) dargestellt werden. In der„Top View" Darstellung kann das Fahrzeug 100 selbst dargestellt sein.
Außerdem kann die Position der Sekundärspule 102 im Fahrzeug 100 angezeigt werden. Außerdem kann aus den Daten der Umgebungssensoren 131, 132 eine bildliche Darstellung der Umgebung des Fahrzeugs 100 (z.B. der rückwärtigen Umgebung des Fahrzeugs 100) erzeugt werden. In dem in Fig. 2a dargestellten Beispiel zeigt die„Top View" Darstellung z.B. die Bodeneinheit 111, sowie die Abgrenzung 201 einer Parkbucht und eine Säule 202 an. Die„Top View" Darstellung stellt typischerweise ein entzerrtes Bild in kartesischen (x-y) Koordinaten dar.
Alternativ oder ergänzend zur synthetisch erzeugten„Top View" Darstellung kann auch direkt das Bild einer Kamera 131 des Fahrzeugs (z.B. einer rückwärtigen Kamera 131) verwendet werden. Ein beispielhaftes schematisches Bild einer Kamera 131 ist in Fig. 2b dargestellt. Das Bild einer Kamera 131 (insbesondere einer„Surround-Kamera") ist typischerweise verzerrt, so dass die Umgebung des Fahrzeugs 100 in Kamera-Koordinaten dargestellt wird, die nicht den kartesischen (x-y) Koordinaten der Umgebung des Fahrzeugs 100 entsprechen. Dennoch können auch auf dem Kamerabild die Bodeneinheit 111, die Abgrenzung 201 der Parkbucht 201 und die Säule 202 erkannt werden.
Fig. 3 zeigt einen beispielhaften Positionierungsvorgang, bei dem das Fahrzeug 100 rückwärts in eine Parkbucht mit einer Bodeneinheit 11 1 eingeparkt wird. Während des Positionierungsvorgangs kann eine aus den Umgebungssensoren 131, 132 erzeugte„Top View Darstellung" auf einem Bildschirm 134 des Fahrzeugs 100 dargestellt werden. Dadurch kann der Fahrer bei der
Positionierung des Fahrzeugs 100 unterstützt werden. Insbesondere kann die Steuereinheit 133 eingerichtet sein, die Bodeneinheit 111 anhand der Daten von den Umgebungssensoren 131, 132 zu erkennen und die Bodeneinheit 111 auf der bildlichen Darstellung anzuzeigen, auch wenn die Bodeneinheit 111 bereits von dem Fahrzeug 100 verdeckt ist. Dadurch wird der Fahrer in durchgängiger Weise bei der Positionierung des Fahrzeugs 100 unterstützt. Die Steuereinheit 133 kann folglich eingerichtet sein, die Bodeneinheit 111 auf Basis der Daten der Umgebungssensoren 131, 132 (insbesondere auf Basis der Bilder der ein oder mehreren Kameras 131) zu erkennen (z.B. unter Verwendung von Bildverarbeitungs- Algorithmen). Zur Unterstützung der automatischen Erkennung der Bodeneinheit 111 kann die Bodeneinheit 111 spezifische optische Merkmale und/oder Referenzpunkte umfassen, die durch die Steuereinheit erkannt werden können. Wie in Fig. 4a dargestellt, können z.B. die Ecken 401 der
Bodeneinheit 111 als Referenzpunkte ermittelt werden. Desweiteren können die Kanten der Bodeneinheit 111 als Referenzpunkte erkannt werden. Daraus lassen sich z.B. die Abmessungen der Bodeneinheit 111 bestimmen. Alternativ oder ergänzend können auch andere optische Merkmale oder Referenzpunkte (z.B. eine in Fig. 4b dargestellte Markierung 411) zur Erkennung der Bodeneinheit 111 verwendet werden.
Außerdem können nicht-optische Merkmale (z.B. das Erkennen, dass sich das Fahrzeug 100 im Empfangsbereich der WLAN-Kommunikation der Bodeneinheit111 befindet) verwendet werden, um die Position der Bodeneinheit 111 in der Umgebung des Fahrzeugs 100 zu erkennen.
Desweiteren kann die Steuereinheit 133 eingerichtet sein, weitere Referenzpunkte 402, 403 der Umgebung des Fahrzeugs 100 zu erkennen. Die Referenzpunkte 402, 403 können sich auf dem Boden (d.h. in der Grundebene z=0) befinden.
Alternativ oder ergänzend können auch Referenzpunkte 402, 403 oberhalb bzw. unterhalb der Grundebene (zoO) verwendet werden. In dem in Fig. 4a
dargestellten Beispiel werden Eckpunkte 402 und/oder Kanten der Abgrenzung 201 der Parkbucht erkannt, in der sich die Bodeneinheit 111 befindet.
Desweiteren kann z.B. ein Eckpunkt der Säule 202 erkannt werden. Die
Steuereinheit 133 kann eingerichtet sein, die Position der Bodeneinheit 111 relativ zu den weiteren Referenzpunkten 402, 403 zu bestimmen. Somit können die weiteren Referenzpunkte 402, 403 dazu verwendet werden, die Sekundärspule 102 des Fahrzeugs 100 über der Bodeneinheit 111 zu positionieren, auch wenn die Bodeneinheit 111 nicht mehr von den Umgebungssensoren 131, 132 erfasst wird (z.B. weil sich die Bodeneinheit 111 bereits unter dem Fahrzeug 100 befindet). Die Steuereinheit 133 kann eingerichtet sein, anhand der ermittelten
Referenzpunkte 401, 402, 403 die Position des Fahrzeugs 100 relativ zur
Bodeneinheit 111 zu bestimmen. Desweiteren kann die Steuereinheit 133 eingerichtet sein, die Relativ-Bewegung des Fahrzeugs 100 (relativ zur
Bodeneinheit 111) zu bestimmen. Die Relativ-Bewegung des Fahrzeugs 100 kann über die Bewegung der in den Bildern erkannten Objekte 111, 201, 202 und Referenzpunkte 401, 402, 403 ermittelt werden. Mit anderen Worten die zeitliche Entwicklung der erfassten Daten der Umgebungssensoren 131, 132 (z.B. eine zeitliche Sequenz von Bildern) kann dazu verwendet werden, die Bewegung bestimmter Objekte 111, 201 , 202 und/oder bestimmter Referenzpunkte 401, 402, 403 zu ermitteln. Desweiteren kann der Lenkwinkel des Fahrzeugs 100 und/oder die Drehbewegung der Räder des Fahrzeugs 100 ermittelt werden. Die
Steuereinheit 133 kann eingerichtet sein, aus diesen Informationen die Relativ- Bewegung des Fahrzeugs 100 zu ermitteln. Insbesondere kann die Steuereinheit 133 eingerichtet sein, die Position des Fahrzeugs 100 relativ zur Bodeneinheit 111 zu verfolgen (auch wenn die Bodeneinheit 111) nicht mehr von den
Umgebungssensoren 131 , 132 erfasst werden kann. Beispielsweise kann die Steuereinheit 133 eingerichtet sein, zu Beginn des Positionierungsvorgangs (siehe z.B. linkes Bild in Fig. 3) eine bildliche
Darstellung (z.B. als„Top View" Darstellung) der Ladestation (und insbesondere der Bodeneinheit 111) zu erfassen und abzuspeichern. Im weiteren Verlauf des Positionierungsvorgangs kann die Steuereinheit 133 eingerichtet sein, die Position des Fahrzeugs 100 relativ zu der Ladestation (insbesondere relativ zu der
Bodeneinheit 111) zu aktualisieren. Auch wenn bestimmte Teile der Ladestation (insbesondere die Bodeneinheit 111) nicht mehr von den Umgebungssensoren 131, 132 des Fahrzeugs 100 erfasst werden können (z.B. weil sie verdeckt sind), so können diese Teile (insbesondere die Bodeneinheit 111) dennoch weiterhin auf Basis der gespeicherten bildlichen Darstellung der Ladestation angezeigt werden (wie in den Bildern von Fig. 3 dargestellt). Dadurch wird es dem Fahrer erleichtert, die Sekundärspule 102 des Fahrzeugs 100 über der Bodeneinheit 111 zu positionieren.
Wie bereits dargelegt stehen im Nahbereich, wenn sich das Fahrzeug 100 über der Bodeneinheit 111 befindet, zur Abstandsmessung zwischen Bodeneinheit 111 und Sekundärspule 102 typischerweise nur noch die weiteren Referenzpunkte 402, 403 und die Umgebungssensoren 131, 132 zur Verfügung. Aus diesem Grund ist die Steuereinheit 133 typischerweise eingerichtet, zur Positionsbestimmung des Fahrzeugs 100 die gesamte Annähemngstrajektorie zu verfolgen. Insbesondere ist die Steuereinheit 133 typischerweise eingerichtet, eine Ausgangsposition des
Fahrzeugs 100 relativ zur Bodeneinheit 111 bereits dann zu bestimmen, wenn die Bodeneinheit 111 noch von den Umgebungssensoren 131, 132 erfasst werden kann. Des weiteren kann die Steuereinheit 133 eingerichtet sein, die Position des Fahrzeugs 100 ausgehend von der Ausgangsposition kontinuierlich zu
aktualisieren. Die Aktualisierung kann auf Basis der ermittelten Bewegung der weiteren Referenzpunkte 402, 403 und/oder der weiteren Objekte 201, 202, sowie auf Basis von Fahrzeug-internen Informationen (wie z.B. Lenkwinkel und/oder Raddrehbewegung) erfolgen. Dadurch ist es möglich, das Fahrzeug 100 präzise über der Bodeneinheit 111 zu positionieren, auch wenn die Bodeneinheit 111 nicht mehr von den Umgebungssensoren 131, 132 erfasst werden kann.
Desweiteren kann im unmittelbaren Nahbereich der Bodeneinheit 111 ein
Qualitätsindikator der magnetischen Kopplung der Primärspule 111 und der Sekundärspule 102 zur Überprüfung der Endposition herangezogen werden.
Die Steuereinheit 133 kann eingerichtet sein, ausgehend von einer aktuellen Position des Fahrzeugs 100 eine Soll-Trajektorie 501 des Fahrzeugs 100 zu ermitteln (siehe Figuren 5a und 5b). Die Soll-Trajektorie 501 kann dem Fahrer auf dem Bildschirm 134 (in Zusammenhang mit der bildlichen Darstellung der Umgebung des Fahrzeugs) angezeigt werden. Die Soll-Trajektorie 501 gibt an, mit welchem Positionierungsvorgang das Fahrzeug 100 möglichst präzise über der Bodeneinheit 111 positioniert werden kann. Desweiteren kann die
Steuereinheit 133 eingerichtet sein, auf Basis des aktuellen Lenkwinkels eine Ist- Trajektorie 502 des Fahrzeugs 100 zu ermitteln und auf dem Bildschirm 134 anzuzeigen. Dadurch wird des dem Fahrer ermöglicht, die Ist-Trajektorie 502 (insbesondere den Lenkwinkel) derart anzupassen, dass sich die Ist-Trajektorie 502 der Soll-Trajektorie 501 annähert. Somit wird der Fahrer bei der
Positionierung des Fahrzeugs 100 unterstützt.
Fig. 6 zeigt eine weitere Möglichkeit, mit der der Fahrer bei einem
Positionierungsvorgang unterstützt werden kann. Wie bereits oben dargelegt, können sowohl die Position der Sekundärspule 102 des Fahrzeugs 100 als auch die Position der Bodeneinheit 111 kontinuierlich durch Symbole 601, 602 auf dem Bildschirm 134 angezeigt werden, auch wenn die Bodeneinheit 111 nicht mehr von den Umgebungssensoren 131, 132 erfasst wird. Das ermöglicht es, dem Fahrer die angezeigten Symbole 601, 602 in Deckung zu bringen, und so die Sekundärspule 102 präzise über der Primärspule 111 zu positionieren. Die angezeigten Symbole 601, 602 können in Abhängigkeit von der Qualität der Positionierung verändert werden, um den Fahrer über den Fortschritt der Positionierung zu informieren. Beispielsweise kann die Farbe der Symbole 601, 602 verändert werden (z.B. grün, gelb, rot), um die Qualität der Positionierung darzustellen. In dem in Fig. 6 dargestellten Beispiel zeigt ein grünes Symbol 603 eine ausreichend präzise Überdeckung von Primärspule 111 und Sekundärspule 102 an. Eine derartige Darstellung ermöglicht es dem Fahrer auch ohne Anzeige einer Soll-Trajektorie 501 das Fahrzeug 100 präzise zu positionieren. Mit anderen Worten, die in Fig. 6 gezeigte Darstellung ermöglicht es, auch ohne Soll- Trajektorie 501 das Fahrzeug 100 zu positionieren. Dazu wird die„Top-View"- Darstellung mit den während der Anfahrt erfassten Bildern unter dem Fahrzeug 100 fortgesetzt. Dem Fahrer wird in einer durchsichtigen Silhouette des
Fahrzeugs die Lage der Sekundärspule 102 angezeigt. Die Lage der
Sekundärspule 102 kann dann mit dem Bild 602 der Primärspule 111 in
Übereinstimmung gebracht werden. Es sind weitere Ausgestaltungen des oben beschriebenen
Positionierungsverfahrens möglich. Beispielsweise kann eine permanente
Überwachung der Fahrzeugumgebung (anhand der Umgebungssensoren 131, 132) während des Ladevorgangs herangezogen werden, um zu erkennen, dass ein Tier (z.B. eine Katze) unter das Fahrzeug 100 läuft. Dadurch kann die Sicherheit des Ladevorgangs erhöht werden. Insbesondere könnte in solchen Fällen die
Ladeleistung reduziert werden, um eine Gefährdung des Tieres durch hohe Feldstärken zu reduzieren.
Das beschriebene Positionierungsverfahren kann mit einer automatischen
Parkassistenzfunktion kombiniert werden. Insbesondere kann auf Basis der Referenzpunkte 401, 402, 403 und/oder der Referenzobjekte 11 1, 201, 202 sowie auf Basis der Ausgangsposition des Fahrzeugs 100 eine automatische
Parkfunktion verwendet werden, um das Fahrzeug 100 (z.B. gemäß der Soll- Trajektorie 501) über der Bodeneinheit 111 zu positionieren.
Die Steuereinheit 133 kann eingerichtet sein, bei wiederholtem Anfahren einer Ladestation Referenzpunkte 401, 402, 403 zu erlernen. Dadurch kann eine Primärspule 111 auch dann angefahren werden, wenn die Primärspule 11 1 nicht sichtbar ist, z.B. wenn die Primärspule 111 durch eine Schneedecke verdeckt ist. Außerdem kann dadurch die Präzision der Positionierung kontinuierlich verbessert werden. Wie oben dargelegt, können weitere Referenzpunkt 402, 403 verwendet werden, um den Positionierungsvorgang zu unterstützen. Die Referenzpunkte 402, 403 können sich auch oberhalb der Grundebene (z>0) befinden. Die Referenzpunkte 402, 403 können sowohl durch Anlernen, als auch durch Erkennen eines für die Ladestation typischen Musters 411 erzeugt werden. Desweiteren können alternative Referenzpunkte verwendet werden, um auch vollständig verborgene (z.B. im Boden eingelassene) Primärspulen 1 11 anzufahren. Wie oben beschrieben, kann das Steuergerät 133 eingerichtet sein,
Referenzobjekte 201 , 202 und/oder Referenzpunkte 401, 402 zu detektieren. Diese Referenzobjekte 201, 202 und/oder Referenzpunkte 401, 402 können durch Bildanalyseverfahren detektiert werden. Desweiteren kann die geometrische Anordnung der Referenzobjekte 201, 202 und/oder Referenzpunkte 401, 402 auf Basis der Daten der Umgebungssensoren 131, 132 ermittelt werden.
Um die Komplexität der Ermittlung der Referenzobjekte 201, 202 und/oder Referenzpunkte 401, 402, sowie der Ermittlung der geometrischen Anordnung zu reduzieren und um die Zuverlässigkeit der ermittelten Informationen zu erhöhen, kann es vorteilhaft sein, vordefinierte Markierungen bzw. vordefinierte
Referenzobjekte zu verwenden. Informationen über derartige vordefinierte Referenzobjekte können der Steuereinheit 133 als Referenzdaten zur Verfügung gestellt werden. Dadurch kann die Ermittlung der Position der Sekundärspule 102 relativ zur Bodeneinheit 111 verbessert werden.
Fig. 7a zeigt verschiedene Anordnungen von vordefmierten Referenzobjekten 701, 702 (z.B. vordefinierte Markierungen) und Fig. 7b zeigt Beispiele für vordefinierte Referenzobjekte, die von der Steuereinheit 133 des Fahrzeugs 100 auf Basis der erfassten Bild-Daten einer Fahrzeugkamera 131 detektiert werden können. Die Bodeneinheit 111 kann in vordefinierter Weise relativ zu den ein oder mehreren Referenzobjekten 701, 702 positioniert sein. Somit kann durch Bestimmung der Position der ein oder mehreren Referenzobjekte 701, 702 die Position der Bodeneinheit 111 ermittelt werden. Insbesondere kann durch
Bestimmung der Position der ein oder mehreren Referenzobjekte 701, 702 relativ zum Fahrzeug 100 die Position der Bodeneinheit 111 relativ zum Fahrzeug 100 ermittelt werden. Wie in Bild a) in Fig. 7a gezeigt, können den Referenzobjekten 701 , 702
Koordinaten in einem Koordinatensystem (z.B. einem kartesischen Koordinatensystem) zugeordnet werden. In dem dargestellten Beispiel ist die Bodeneinheit 111 im Zentrum des Koordinatensystems angeordnet. Die Position eines Referenzobjekts 701 kann somit durch Koordinaten (x, y) in diesem
Koordinatensystem beschrieben werden. In gleicher Weise kann die Position des Fahrzeugs 100, z.B. die Position einer Kamera 131 des Fahrzeugs durch
Koordinaten (x,y) des Koordinatensystems beschrieben werden. Durch Kenntnis der Position der Bodenspule 111 und der Position des Fahrzeugs 100 in einem vordefinierten Koordinatensystem, wird es der Steuereinheit 133 ermöglicht, den Fahrer des Fahrzeugs 100 bei der Positionierung der Sekundärspule 102 über der Bodeneinheit 111 zu unterstützen.
Bild b) in Fig. 7a zeigt an, dass auch die Ausrichtung des Fahrzeugs 100 relativ zu der Bodeneinheit 111 auf Basis der vordefinierten Referenzobjekte 701, 702 ermittelt werden kann. Insbesondere können die Kamerawinkel
Figure imgf000023_0001
zwischen der Längsachse des Fahrzeugs 100 und dem Strahl zwischen Kamera 131 und Referenzobjekt 701, 702 erfasst werden.
Bild c) der Fig. 7a zeigt ein Beispiel in dem die Referenzobjekte 701, 702 nicht gleichzeitig von der Kamera 131 des Fahrzeugs 100 erfasst werden können.
Beispielsweise kann das erste Referenzobjekt 701 an einer Garageneinfahrt positioniert sein, und das zweite Referenzobjekt 702 kann an der Primärelektronik 110 (d.h. der Stromversorgung 110) der Ladestation angeordnet sein. Wie im Zusammenhang mit Fig. 8d gezeigt können derart auseinander liegende
Referenzobjekte 701, 702 dazu verwendet werden, den gesamten
Positionierungsvorgang des Fahrzeugs 100 (auch im Fernbereich) zu unterstützen.
Fig. 7b zeigt beispielhafte Referenzobjekte 711, 712, 713. Die Referenzobjekte sollten in einem beleuchteten Bereich angeordnet sein, oder sie sollten
selbstleuchtend sein, oder sie sollten in einem Bereich angeordnet sein, der durch die Fahrzeugscheinwerfer angestrahlt werden kann. Mit anderen Worten, es sollte gewährleistet sein, dass die Referenzobjekte durch die Kamera 131 des Fahrzeugs 100 verlässlich erfasst werden können. Beispielsweise kann das Referenzobjekt eine beleuchtete Markierung 711 an der Elektronik 110 zur Ansteuerung der Primärspule 111 (z.B. integriert in eine Wall-Box zum kabelgebundenen Laden) umfassen. Die Beleuchtung kann über eine vorhandene Funkverbindung zwischen Ladestation und Fahrzeug während des Positionierungsvorgangs angesteuert und eingeschaltet werden. Die Beleuchtung kann z.B. auch das Erreichen der richtigen Endposition durch Ausschalten quittieren. Alternativ oder ergänzend kann die Markierung 711 einen Aufkleber auf der Primärelektronik 110 umfassen. Alternativ oder ergänzend können im Umfeld des Stellplatzes, an dem sich die Ladestation befindet, vorhandene feste Markierungen 712, 713 als
Referenzobjekte verwendet werden (z.B. ein Parkplatzschild 712 oder ein Pfeiler 713), soweit diese Markierungen 712, 713 einen ausreichenden Kontrast aufweisen.
Die Dimensionen 721, 722 der vordefinierten Referenzobjekte 71 1 , 712, 713 können zur Bestimmung des Abstands zwischen Kamera 131 und Referenzobjekt 711, 712, 713 herangezogen werden. Die tatsächlichen Dimensionen 721, 722 (z.B. Höhe, Breite) der Referenzobjekte 711, 712, 713 sind der Steuereinheit 133 bekannt, so dass aus den auf Basis der Bild-Daten der Fahrzeugkamera 131 ermittelten Dimensionen der Referenzobjekte 711, 712, 713 der Abstand zwischen Referenzobjekt 71 1, 712, 713 und Fahrzeugkamera 131 ermittelt werden kann. Alternativ oder ergänzend können auch Daten von
Abstandssensoren 132 des Fahrzeugs 100 zu Ermittlung des Abstands verwendet werden.
Durch die Verwendung von einem vordefinierten Referenzobjekt 701 mit vordefinierten Dimensionen 721, 722 wird es der Steuereinheit 133 ermöglicht, den Abstand des Fahrzeugs 100 zum Referenzobjekt und die Orientierung des Fahrzeugs 100 relativ zum Referenzobjekt zu ermitteln. Da die ein oder mehreren Referenzobjekte 701, 702 in vordefinierter Weise relativ zu der Bodeneinheit 111 angeordnet sind, wird dadurch eine Positionierung der Sekundärspule 102 des Fahrzeugs 100 über der Bodeneinheit 111 anhand der Daten der Fahrzeugkamera 131 ermöglicht. Zur Ermittlung des Abstands zwischen einem Referenzobjekt 701 und der Kamera 131 des Fahrzeugs 100 können Triangulationsverfahren verwendet werden. Dies ist beispielhaft in den Figuren 8a und 8b dargestellt. Es gilt, dass die Summe der Winkel 804 180° ergibt, und dass die Summe der
Figure imgf000025_0001
Winkel 803
Figure imgf000025_0002
180° ergibt. Aus dem
(wobei s12 die Bewegungsstrecke 807 des
Figure imgf000025_0003
Fahrzeugs 100 ist, und wobei der aktuelle Abstand 802 des Fahrzeugs 100
Figure imgf000025_0004
zu dem Referenzobjekt 701 ist) ergibt sich
Figure imgf000025_0005
Somit kann bei Kenntnis der Kamerawinkel 806, 804 zu zwei aufeinander folgenden Zeitpunkten und bei Kenntnis des zwischen diesen beiden Zeitpunkten zurückgelegten Weges 807, der aktuelle Abstand 802 des Fahrzeugs 100 zu dem Referenzobjekt 701 bestimmt werden. Für den Sonderfall bei dem klein bzw. null ist (d.h. für den Fall,
Figure imgf000025_0006
dass sich das Fahrzeug 100 direkt auf das Referenzobjekt 701 zu bewegt) kann der Abstand 802 zwar nicht über die o.g. Triangulationsformel berechnet werden. Dann gibt aber die Fahrzeugstrecke 807 direkt Aufschluss darüber, wie sich der Abstand zwischen Fahrzeug 100 und Referenzobjekt 701 verändert. Insbesondere entspricht die Abstandsänderung zwischen dem Abstand 801 zum ersten
Zeitpunkt und dem aktuellen Abstand 802 (zum zweiten Zeitpunkt) dann der Fahrzeugstrecke 807.
Auch bei Lenkeinschlag kann durch Triangulationsverfahren der Abstand 802 zwischen Referenzobjekt 701 und Fahrzeug 100 durch Messung der Kamerawinkel 804, 806 und durch Messung der Bewegungsstrecke 807 des Fahrzeugs 100 (z.B. auf Basis der Raddrehbewegung) ermittelt werden. Wie in Fig. 8b gezeigt, können aus den gemessenen Größen: Kamerawinkel 816 zum ersten Zeitpunkt, Lenkeinschlag bzw. Drehbewegung, und Bewegungstrecke 819, Werte für die korrigierte Bewegungstrecke 807 und den korrigierten Winkel 806 ermittelt werden. Daraus ergibt sich dann anhand der oben beschriebenen
Triangulationsformel der aktuelle Abstand 802 (zum zweiten Zeitpunkt).
Die absolute Position des Fahrzeugs kann anhand der Erkennung von mindestens zwei Referenzobjekten 701 und 702 ermittelt werden, wie in Fig. 8c gezeigt. Insbesondere lassen sich aus den Abständen 822 und 821 zu den beiden
Referenzobjekten 701 , 702 alle erforderlichen Koordinaten und Winkel berechnen. Die Abstände 822, 821 können durch die oben beschriebenen
Verfahren ermittelt werden. Beispielsweise kann der Winkel anhand der
Figure imgf000026_0001
ermittelt werden, wobei
Figure imgf000026_0002
Figure imgf000026_0003
der vordefmierte Abstand 823 zwischen den beiden Referenzobjekten 701 , 702 ist. Somit können die Koordinaten und die Ausrichtung des Fahrzeugs 100 (d.h. die Position und Ausrichtung der Sekundärspule 102 des Falirzeugs 100) ermittelt werden. Die Koordinaten der Referenzobjekte 701 , 702 und der Primärspule 111 sind bekannt, so dass somit alle erforderlichen Informationen zur Positionierung des Fahrzeugs 100 verfügbar sind.
Durch die Verwendung von einer Reihe von Referenzobjekten 701, 702 kann die gesamte Anfahrts-Trajektorie des Fahrzeugs 100 begleitet und unterstützt werden. Dazu können vordefinierte Referenzobjekte 701, 702 entlang der Anfahrts- Trajektorie angebracht sein, so dass nach Möglichkeit mindestens immer ein Referenzobjekt 701, 702 durch die Kamera 131 des Fahrzeugs erfassbar ist. Dies ist beispielhaft in Fig. 8d dargestellt. Während der Anfahrt des Fahrzeugs 100 wird zu unterschiedlichen Zeitpunkten i (i= 1 .. ,n, wobei n dem Zeitpunkt entspricht, an dem die Zielposition erreicht ist) eine Positionsberechnung (z.B. anhand der oben beschriebenen Verfahren) durchgeführt. Dazu kann nach Möglichkeit immer mindestens ein Referenzobjekt 701, 702 von der Kamera 131 erfasst werden. In dem in Fig. 8d gezeigten Beispiel bewegt sich das Fahrzeug 100 im
Trajektorien- Abschnitt 831 direkt auf das erste Referenzobjekt 701 zu. Der Abstand zwischen Fahrzeug und erstem Referenzobjekt kann z.B. über die von der Kamera 131 erfassten Größe des ersten Referenzobjekts 701 abgeschätzt werden (siehe Fig. 8a). Im Trajektorien- Abschnitt 832 kann über Triangulation die Entfernung zum Referenzobjekt 701 bestimmen werden. Im Trajektorien- Abschnitt 833 erfasst die Kamera 131 des Fahrzeugs 100 kein Referenzobjekt 701, 702. Der Abstand und Winkel zum Referenzobjekt 701 kann über
Fahrzeugsensoren (Raddrehbewegung und/oder Lenkwinkel) verfolgt werden. Im Trajektorien- Abschnitt 833 erfasst die Kamera 131 des Fahrzeugs 100 das zweite Referenzobjekt 702. Abstand und Relativposition des Fahrzeugs 100 zur
Primärspule 111 können bis zum Erreichen der Zielposition laufend aktualisiert werden. Somit kann die Steuereinheit 133 eingerichtet sein, den Fahrer des Fahrzeugs 100 entlang der gesamten Trajektorie bei der Positionierung zu unterstützen.
Die Geometrie einer Ladestation (d.h. insbesondere die Koordinaten der
Referenzobjekte 701, 702; die Dimensionen 721, 722 der Referenzobjekte 701, 702; die Beschreibung der Referenzobjekte 701, 702 (für die automatische Erkennung); und/oder die relative Position der Bodeneinheit) kann auf einer Speichereinheit im Fahrzeug 100 gespeichert sein. Die Steuereinheit 133 kann bei Bedarf auf diese Speichereinheit zugreifen. Beispielsweise kann die Geometrie einer Ladestation über eine drahtlose Kommunikationsverbindung von der Ladestation (z.B. von der Primärelektronik 110) an das Fahrzeug 100 übertragen werden (z.B. bei Annäherung des Fahrzeugs 100). Es kann eine Applikation zur Verfügung gestellt werden, die einen Benutzer dabei unterstützt, die Geometrie einer Ladestation zu ermitteln. Die Oberfläche 900 einer beispielhaften Applikation (z.B. einer Applikation für ein Smartphone oder für den Bordcomputer des Fahrzeugs 100) ist in Fig. 9 dargestellt. Es können Bilder 901 der Ladestation dargestellt werden, auf denen ein oder mehrere
Referenzobjekte oder Referenzpunkte 401 ausgewählt werden können. Die Bilder 901 können z.B. mit der Kamera 131 des Fahrzeugs 100 oder mit einer Kamera des Smartphones aufgenommen werden. Die Beschreibung eines Referenzobjekts (Größe, Form, Farbe,...) kann ermittelt und erfasst werden. Die Referenzobjekte aus dem Bild können als Referenzobjekte 701 in eine Skizze 902 der Ladestation aufgenommen und mit der Beschreibung der entsprechenden Referenzobjekte verknüpft werden. Die Maße 721, 722 und Positionen der Referenzobjekte 701 und der Primärspule 111 können in der Skizze 902 eingefügt werden. Außerdem können Informationen über den verwendeten Fahrzeugtyp eingefügt werden. Dadurch ergibt sich die Position der Kamera 131 und der Sekundärspule 111 im Fahrzeug 100. Die Eingabe kann manuell erfolgen, oder durch Datenübertragung vom Fahrzeug 100 zur Applikation. Desweiteren können Hinweise 903, 904 zum Setup der Ladestation (wie z.B. die Qualität des Setups und/oder weiter durchzuführende Schritte) ermittelt und angezeigt werden.
In einem beispielhaften Verfahren können in einem ersten Schritt die
Primäreinheit 110, 111 und die Referenzobjekte (z.B. Marker) angebracht werden. Mit der Fahrzeugkamera 131 oder einer Tablet PC-Kamera können dann die Referenzobjekte fotografiert werden. Die Daten des Fahrzeugs (Geometrie und gegebenenfalls Bilder), für die die Ladestation genutzt werden soll, können auf den Tablet PC übertragen werden. Mit diesen Informationen kann dann (wie in Fig. 9 beschrieben) eine Konfiguration der Ladestation durchführt werden. Die Daten bzgl. der Ladestation können dann in der Off-Board-Elektronik 110 (auch Primärelektronik oder Kontrolleinheit genannt) der Ladestation gespeichert werden und zum Fahrzeug 100 übertragen werden. Die Kenntnis der Daten bzgl. der Ladestation ermöglicht es der Steuereinheit 133 des Fahrzeugs 100 die Relativposition des Fahrzeugs 100 zur Bodeneinheit 111 zu ermitteln. Optional kann die Steuereinheit 133 eingerichtet sein, die Primärelektronik 110 zu veranlassen, die Referenzobjekte ab Beginn des Positionierungsvorgangs zu beleuchten, so dass sie ausreichend gut von der Kamera 131 des Fahrzeugs 100 erfasst werden können. Desweitere kann ein beleuchtetes Referenzobjekt durch entsprechende Ansteuerung zur Quittierung eines erfolgreichen
Positionierungsvorgangs verwendet werden.
Zur Positionierung eines anderen Fahrzeugtyps können die Daten bzgl. der Referenzobjekte von der Off-Board-Elektronik 110 der Ladestation, oder von einer Datenbank in Netz auf die Speichereinheit des Fahrzeugs 100 übertragen werden (z.B. bei Annäherung des Fahrzeugs 100). Das Fahrzeug 100 berechnet dann mit seiner bekannten Fahrzeuggeometrie die vollständigen Daten und kann so den Positionierungsvorgang unterstützen.
Die Verwendung einer Ladestation mit vordefinierten Referenzobjekten 701, 702 setzt voraus, dass sich die Position der Bodeneinheit 111 relativ zu den vordefinierten Referenzobjekten 701, 702 nicht ändert. Bei der Bodeneinheit 111 kann es sich aber z.B. um einen flachen Körper auf rutschfester Matte handeln, der nicht fest mit dem Boden verschraubt ist. Dadurch kann es vorkommen, dass die Bodeneinheit 111 unbemerkt verschoben wird, so dass keine effektive Positionierung der Sekundärspule 102 über der Bodeneinheit 111 mehr erfolgen kann. Die Ladestation (und das Fahrzeug) sollten eingerichtet sein, eine
Verschiebung der Bodeneinheit 111 zu erkennen. Die Erkennung einer
Verschiebung sollte auch dann funktionieren, wenn kein Fahrzeug geladen wird bzw. wenn kein Fahrzeug über der Primärspule steht. Weiter sollte auch bei einem Stromausfall eine Erkennung möglich sein. Zur Lösung dieses Problem kann die Bodeneinheit 111 auf einer mechanischen Sensorkugel positioniert sein, wobei die Sensorkugel eine Bewegung der Bodeneinheit 111 registriert. Alternativ oder ergänzend kann die Bodeneinheit 111 entlang einer Markierung auf dem Boden angebracht sein. Ein optischer Sensor der Bodeneinheit 111 kann dann erkennen, ob die Bodeneinheit 111 weiterhin entlang der Markierung angeordnet ist, oder ob die Bodeneinheit 111 verschoben wurde.
D.h., um zu verhindern, dass bei einer verschobenen Bodeneinheit 111 eine falsche Position angefahren wird, kann in die Bodeneinheit 111 ein Sensor eingebaut werden, der eine Bewegung (Verrutschen, Anheben,...) der
Bodeneinheit 111 erkennt. Der Fahrer kann nach einer Verschiebung der
Bodeneinheit 111 benachrichtigt werden und ggf. aufgefordert werden, eine Positionsüberprüfen durchzuführen.
Es sei darauf hingewiesen, dass zusätzlich zu einer oder mehrerer
Fahrzeugkameras 131 auch noch weitere externe Kameras verwendet werden können. Die externen Kameras können dazu verwendet werden, die Bewegung des Fahrzeugs 100 zu erfassen. Die Daten der ein oder mehreren externen
Kameras können mit den Daten der ein oder mehreren Fahrzeugkameras 131 für eine optimierte Positionsbestimmung verwendet werden.
In diesem Dokument wurden ein Verfahren und eine Vorrichtung (Steuereinheit) beschrieben, die den Fahrer eines Fahrzeugs 100 bei der Positionierung des Fahrzeugs 100 über einer Bodeneinheit 111 unterstützen. Das Verfahren und die Vorrichtung ermöglichen die Verwendung von bereits im Fahrzeug 100 vorhandenen Komponenten 131, 132 zur Positionierung. Dadurch können das Verfahren und die Vorrichtung kostengünstig (z.B. durch Software) implementiert werden. Insbesondere sind die Kameras 131 zur Rundumsicht bereits heute optimal in Fahrzeugen 100 integriert (z.B. an verschmutzungsarmen Positionen), so dass diese Eigenschaften mit genutzt werden können. Die Anzeige der
Sollposition kann in einer bekannten Darstellung, z.B. Top- oder Rear-View Darstellung, erfolgen. Es ist somit für die Bereitstellung der beschriebenen Positionierungsfunktion keine neue Darstellungsform erforderlich, und die beschriebene Positionierungsfunktion lässt sich im Rahmen einer konsistenten Oberfläche mit anderen Fahrerassistenzfunktionen implementieren. Desweiteren sind mögliche Fehler im optischen System (z.B. eine Verschmutzung einer Kamera 131) im dargestellten Bild für den Fahrer schlüssig erkennbar, und fuhren daher nicht zu einer Fehlpositionierung des Fahrzeugs. Das in diesem Dokument beschriebene Verfahren ermöglicht somit eine zuverlässige Positionierung des Fahrzeugs.
Desweitere kann durch die geeignete Wahl von vordefmierten Referenzobjekten eine gegenüber Verschmutzung und Witterung (z.B. Schnee) unabhängige Positionierung realisiert werden. Die Installation der Ladestation und die
Erfassung der Geometriedaten der Ladestation kann auch ohne Fahrzeug (z.B. mit einem Tablet-PC) erfolgen. Die Erfassung der Referenzobjekte kann durch Verwendung von Originalbildern aus der Fahrzeugkamera optimiert und durch Off-Line-Bearbeitung unterstützt werden. Dies ermöglicht eine Steigerung der Zuverlässigkeit des Systems. Außerdem können aufgrund der Verwendung der Fahrzeugkamera und aufgrund der Steuerung direkt im Fahrzeug in einfacher Weise Informationen vom Fahrwerk (Lenkwinkel, Raddrehbewegung) über die Fahrzeugbewegung verwendet werden.
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.

Claims

Ansprüche
1) Steuereinheit (133) für ein Fahrzeug (100), das eine Sekundärspule (102) zur Aufnahme von elektrischer Energie von einer Fahrzeug-externen Primärspule (111) umfasst, wobei das Fahrzeug mindestens eine Kamera (131) umfasst, die eingerichtet ist, eine Umgebung des Fahrzeugs (100) zu erfassen, wobei die Steuereinheit (133) eingerichtet ist,
- Bild-Daten von der mindestens einen Kamera (131) des Fahrzeugs (100) zu empfangen;
- auf Referenzdaten zuzugreifen; wobei die Referenzdaten
Informationen über mindestens ein vordefiniertes Referenzobjekt (701) in der erfassten Umgebung des Fahrzeugs (100) und über eine Position des mindestens einen vordefinierten Referenzobjekts (701) relativ zu der Primärspule (111) umfassen;
- auf Basis der Referenzdaten das mindestens eine vordefinierte
Referenzobjekt (701) in den empfangenen Bild-Daten zu detektieren; und
- auf Basis des detektierten mindestens einen Referenzobjekts (701), eine Position der Sekundärspule (102) relativ zu der Primärspule (111) zu ermitteln.
2) Steuereinheit (133) gemäß Anspruch 1, wobei die Referenzdaten ein oder mehrere umfassen von:
- Informationen über optische Merkmale des mindestens einen
Referenzobjektes (701 ), die in den Bild-Daten der Kamera (131) detektiert werden können;
- Informationen über eine räumliche Größe des mindestens einen
Referenzobjektes (701);
- Informationen bzgl. räumlicher Koordinaten des mindestens einen Referenzobjektes (701) in einem vordefinierten Koordinatensystem; und - Informationen bzgl. räumlicher Koordinaten der Primärspule (111) in dem vordefinierten Koordinatensystem.
3) Steuereinheit (133) gemäß irgendeinem der vorhergehenden Ansprüche, wobei die Steuereinheit (133) eingerichtet ist,
- Informationen bzgl. eines Radeinschlags und bzgl. einer Raddrehzahl des Fahrzeugs (100) zu empfangen; und
- auf Basis der empfangenen Informationen bzgl. des Radeinschlags und bzgl. der Raddrehzahl, eine Bewegung (807, 819) des Fahrzeugs (100) relativ zu dem mindestens einen Referenzobjekt (701) zu ermitteln.
4) Steuereinheit (133) gemäß irgendeinem der vorhergehenden Ansprüche, wobei die Steuereinheit (133) eingerichtet ist,
- auf Basis des detektierten mindestens einen Referenzobjekts (701), einen Kamerawinkel (804, 806) eines Strahls zwischen der mindestens einen Kamera (131) und dem mindestens einen Referenzobjekt (701) zu ermitteln; und
- auf Basis des ermittelten Kamerawinkels (804, 806) einen Abstand der Sekundärspule (102) zu dem mindestens einen Referenzobjekt (701) zu ermitteln.
5) Steuereinheit (133) gemäß irgendeinem der vorhergehenden Ansprüche, wobei
- die Referenzdaten Informationen über eine Vielzahl von vordefinierten Referenzobjekten (701, 702) entlang einer Anfahrts-Trajektorie des Fahrzeugs (100) zu der Primärspule (111) umfassen;
- die Steuereinheit (133) eingerichtet ist, eine zeitliche Sequenz von Bild-Daten von der mindestens einen Kamera (131) des Fahrzeugs (100) entlang der Anfahrts-Trajektorie zu empfangen; und
- die Steuereinheit (133) eingerichtet ist, die Vielzahl von vordefinierten Referenzobjekten (701, 702) in der zeitlichen Sequenz von Bild-Daten zu detektieren.
6) Steuereinheit (133) gemäß irgendeinem der vorhergehenden Ansprüche, wobei die Steuereinheit (133) eingerichtet ist, die Referenzdaten von einer Kontrolleinheit (1 10) der Primärspule (111) zu empfangen.
7) Steuereinheit (133) gemäß irgendeinem der vorhergehenden Ansprüche, wobei die Steuereinheit (133) eingerichtet ist, zu veranlassen, dass ein Steuersignal an eine Kontroll einheit (110) der Primärspule (111) gesendet wird, um das mindestens eine vordefinierte Referenzobjekt (701) zu beleuchten.
8) Fahrzeug (100), wobei das Fahrzeug (100) umfasst
- eine Sekundärspule (102) zur Aufnahme von elektrischer Energie von einer Fahrzeug-externen Primärspule (111);
- mindestens eine Kamera (131), die eingerichtet ist, eine Umgebung des Fahrzeugs (100) zu erfassen;
- eine Steuereinheit (133) gemäß irgendeinem der Ansprüche 1 bis 7; und
- eine Speichereinheit, die eingerichtet ist, die Referenzdaten zu
speichern.
9) Fahrzeug (100) gemäß Anspruch 8, wobei das Fahrzeug (100) einen
Bordcomputer umfasst, der es einem Nutzer ermöglicht, die Referenzdaten einzugeben.
10) Verfahren zur Unterstützung der Positionierung einer Sekundärspule (102) eines Fahrzeugs (100) relativ zu einer Fahrzeug-externen Primärspule (111), wobei das Verfahren umfasst, - Empfangen von Bild-Daten von mindestens einer Kamera (131) des Fahrzeugs (100), wobei die mindestens eine Kamera (131) eingerichtet ist, eine Umgebung des Fahrzeugs (100) zu erfassen;
- Empfangen von Referenzdaten; wobei die Referenzdaten
Informationen über mindestens ein vordefiniertes Referenzobjekt (701) in der erfassten Umgebung des Fahrzeugs (100) und über eine Position des mindestens einen vordefinierten Referenzobjekts (701) relativ zu der Primärspule (111) umfassen;
- Detektieren des mindestens einen vordefinierten Referenzobjektes (701) in den empfangenen Bild-Daten, auf Basis der Referenzdaten; und
- Ermitteln einer Position der Sekundärspule (102) relativ zu der
Primärspule (111), auf Basis des detektierten mindestens einen Referenzobjekts (701). 11) Verfahren gemäß Anspruch 10, wobei
- die Referenzdaten Informationen über eine Vielzahl von vordefinierten Referenzobjekten (701, 702) umfassen;
- das Verfahren weiter umfasst, Detektieren der Vielzahl von
vordefinierten Referenzobjekten (701, 702) in den empfangenen Bild- Daten; und
- das Verfahren weiter umfasst, Vergleichen der Referenzdaten mit der detektierten Vielzahl von vordefinierten Referenzobjekten (701 , 702).
PCT/EP2014/058054 2013-04-30 2014-04-22 Geführte fahrzeugpositionierung für induktives laden mit hilfe einer fahrzeugkamera WO2014177413A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480023823.4A CN105142962B (zh) 2013-04-30 2014-04-22 用于感应式充电的借助车辆相机的引导的车辆定位
US14/924,995 US9802501B2 (en) 2013-04-30 2015-10-28 Guided vehicle positioning for inductive charging with the assistance of a vehicle camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013207906.0A DE102013207906A1 (de) 2013-04-30 2013-04-30 Geführte Fahrzeugpositionierung für induktives Laden mit Hilfe einer Fahrzeugkamera
DE102013207906.0 2013-04-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/924,995 Continuation US9802501B2 (en) 2013-04-30 2015-10-28 Guided vehicle positioning for inductive charging with the assistance of a vehicle camera

Publications (1)

Publication Number Publication Date
WO2014177413A1 true WO2014177413A1 (de) 2014-11-06

Family

ID=50588678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/058054 WO2014177413A1 (de) 2013-04-30 2014-04-22 Geführte fahrzeugpositionierung für induktives laden mit hilfe einer fahrzeugkamera

Country Status (4)

Country Link
US (1) US9802501B2 (de)
CN (1) CN105142962B (de)
DE (1) DE102013207906A1 (de)
WO (1) WO2014177413A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150375631A1 (en) * 2013-05-31 2015-12-31 Ihi Corporation Vehicle power-supplying system
EP3007024A3 (de) * 2014-10-06 2016-06-22 Audi Ag Verfahren zur positionierung eines kraftfahrzeugs zum kontaktlosen laden und kraftfahrzeug
GB2543094A (en) * 2015-10-09 2017-04-12 Jaguar Land Rover Ltd Method and apparatus for aligning a vehicle with a wireless charging device
GB2543093A (en) * 2015-10-09 2017-04-12 Jaguar Land Rover Ltd Method and apparatus for assisted alignment of a vehicle with a wireless charger

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014016031A1 (de) * 2014-10-29 2016-05-04 Audi Ag Ladeplatte zum kontaktlosen Laden eines Energiespeichers eines Kraftfahrzeugs und Verfahren zur Positionierung eines Kraftfahrzeugs in eine Ladeposition
DE102014223237A1 (de) * 2014-11-14 2016-05-19 Volkswagen Aktiengesellschaft Induktives Ladesystem zum Aufladen eines Elektrofahrzeugs
DE102014225906B4 (de) * 2014-12-15 2023-11-16 Volkswagen Aktiengesellschaft Bestimmen einer Ladeposition einer Ladeeinrichtung einer Ladestation
DE102015201317A1 (de) * 2015-01-27 2016-07-28 Bayerische Motoren Werke Aktiengesellschaft Vermessen einer Abmessung auf einer Oberfläche
DE102015208229A1 (de) 2015-05-05 2016-11-10 Zf Friedrichshafen Ag Verfahren zur Fahrerassistenz in einem zumindest teilweise elektrisch angetriebenen Kraftfahrzeug
DE102015013204A1 (de) 2015-10-09 2016-03-31 Daimler Ag Verfahren zur Positionierung eines Fahrzeugs für einen induktiven Ladevorgang und Ladestation
US10336194B2 (en) * 2015-11-13 2019-07-02 Nio Usa, Inc. Electric vehicle charging device alignment and method of use
US10059213B2 (en) 2015-11-13 2018-08-28 Nio Usa, Inc. Charging devices within wheel portions
US10093195B2 (en) 2015-11-13 2018-10-09 Nio Usa, Inc. Integrated vehicle charging panel system and method of use
US10189363B2 (en) 2015-11-13 2019-01-29 Nio Usa, Inc. Electric vehicle roadway charging system and method of use
GB2533694B (en) * 2015-11-20 2018-05-16 Ford Global Tech Llc Method and system for charging an electric vehicle
DE102015225988A1 (de) * 2015-12-18 2017-07-06 Kuka Roboter Gmbh Verfahren zur Durchführung wenigstens eines Energieversorgungsvorgangs zwischen einer Energieversorgungseinheit und wenigstens einem mit Energie zu versorgenden Kraftfahrzeug
DE102016202460A1 (de) 2016-02-17 2017-08-17 Bayerische Motoren Werke Aktiengesellschaft Unterstützung des Fahrers eines Kraftfahrzeugs beim Positionieren des Kraftfahrzeugs an einer vorgegebenen Zielposition
US10011182B2 (en) * 2016-03-24 2018-07-03 Ford Global Technologies, Llc Inductive charger alignment systems for vehicles
DE102016107421A1 (de) * 2016-04-21 2017-10-26 Valeo Schalter Und Sensoren Gmbh Verfahren zur Anzeige von mit einer Erfassungseinrichtung nicht erfassbaren Umgebungsbereichen in der Umgebung eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
US10967745B2 (en) * 2016-05-18 2021-04-06 Nissan Motor Co., Ltd. Parking assistance method and parking assistance device
US10029577B2 (en) * 2016-06-15 2018-07-24 Qualcomm Incorporated Methods and apparatus for positioning a vehicle
EP3263405B1 (de) * 2016-06-27 2019-08-07 Volvo Car Corporation Rundumsichtüberwachungssystem und -verfahren für fahrzeuge
US10399449B2 (en) * 2016-08-08 2019-09-03 Hyundai Motor Company Wireless charging control apparatus and method for optimal charging by adjusting the inclination of the electric vehicle being charged
GB2553143A (en) * 2016-08-26 2018-02-28 Jaguar Land Rover Ltd A Vehicle camera system
DE102016116855A1 (de) * 2016-09-08 2018-03-08 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH System und Verfahren zum Steuern von Nutzfahrzeugen
DE102016217637A1 (de) 2016-09-15 2018-03-15 Volkswagen Aktiengesellschaft Odometrie-Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug
DE102016217884A1 (de) 2016-09-19 2018-03-22 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel, Infrastruktureinrichtung und Verfahren zur Energieaufnahme eines Fortbewegungsmittels
DE102016224804A1 (de) * 2016-12-13 2018-06-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Bestimmung der Position einer Ladestation zur drahtlosen Übertragung von elektrischer Energie an ein Fahrzeug
CN107330940A (zh) * 2017-01-25 2017-11-07 问众智能信息科技(北京)有限公司 车载相机姿态自动估计的方法和装置
DE102017102640A1 (de) 2017-02-10 2018-08-16 Connaught Electronics Ltd. Verfahren zum Erkennen einer Ladevorrichtung zum induktiven Laden eines Energiespeichers eines Kraftfahrzeugs mithilfe einer Kamera des Kraftfahrzeugs, Recheneinrichtung, Fahrzeugassistenzsystem sowie Kraftfahrzeug
EP3363675A1 (de) * 2017-02-20 2018-08-22 Continental Automotive GmbH Verfahren und vorrichtung zur ausrichtung eines elektrofahrzeugs mit einem ladepad
DE102017130173A1 (de) * 2017-02-24 2018-08-30 Denso Ten Limited Ladeunterstützungsvorrichtung
DE102017104967A1 (de) 2017-03-09 2018-09-13 Connaught Electronics Ltd. Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim berührungslosen Laden eines elektrischen Energiespeichers des Kraftfahrzeugs, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
CN108569337B (zh) * 2017-03-10 2020-11-27 奥迪股份公司 车辆驾驶辅助系统及方法
CN106952496B (zh) * 2017-04-11 2019-08-16 苏州梦伯乐信息科技有限公司 无人驾驶汽车智能寻车位方法
KR102335216B1 (ko) 2017-04-26 2021-12-03 삼성전자 주식회사 발광소자 패키지
US11677059B2 (en) 2017-04-26 2023-06-13 Samsung Electronics Co., Ltd. Light-emitting device package including a lead frame
DE102017209529A1 (de) * 2017-06-07 2018-12-13 Bayerische Motoren Werke Aktiengesellschaft Fahrassistenzsystem für ein Kraftfahrzeug und Verfahren zum Anfahren eines Parkplatzes mit einer Ladestation
DE102017215817A1 (de) 2017-09-07 2019-03-07 Audi Ag Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs bei der Positionierung relativ zu einer bodenseitigen Induktionseinheit und Kraftfahrzeug
DE102017216126A1 (de) 2017-09-13 2019-03-14 Audi Ag Verfahren zum Betreiben einer elektrischen Ladeeinrichtung für ein elektrisch antreibbares Kraftfahrzeug sowie elektrische Ladeeinrichtung und Kraftfahrzeug
CN109933054A (zh) * 2017-12-15 2019-06-25 蔚来汽车有限公司 用于车辆自动泊入换电站内的换电车位的系统及方法、电动车辆
CN109102714B (zh) * 2017-12-15 2021-03-23 上海蔚来汽车有限公司 自动泊车的方法和设备、智能汽车以及计算机存储介质
US10814736B2 (en) * 2017-12-18 2020-10-27 Ford Global Technologies, Llc Wireless vehicle charging
DE102018205062A1 (de) * 2018-04-04 2019-10-10 Audi Ag Verfahren zum Positionieren eines Kraftfahrzeugs zur Durchführung eines induktiven Ladevorgangs
DE102018207394A1 (de) 2018-05-14 2019-11-14 Volkswagen Aktiengesellschaft Positionierungsverfahren zum induktiven Laden von Elektrofahrzeugen
DE102018207455A1 (de) * 2018-05-15 2019-11-21 Continental Automotive Gmbh System zur induktiven Übertragung von Energie von einer Energieversorgungseinheit an ein Fahrzeug
DE102018211955A1 (de) 2018-07-18 2019-08-14 Audi Ag Fahrzeug mit einem Empfänger für eine kontaktlose Energieübertragung
FR3084025B1 (fr) * 2018-07-19 2020-10-09 Psa Automobiles Sa Boitier mobile autonome a eclairement de son environnement, pour recharger par induction une batterie de vehicule
CN109606149A (zh) * 2018-10-26 2019-04-12 惠州市德赛西威汽车电子股份有限公司 一种无线充电定位方法及系统
US10942518B2 (en) * 2018-12-12 2021-03-09 GM Global Technology Operations LLC System and method for assisting a vehicle to park in alignment with a wireless battery charging pad
CN110069065B (zh) * 2019-04-24 2022-05-27 合肥柯金自动化科技股份有限公司 一种基于激光导航与图片识别的agv站点定位系统
US11124079B2 (en) * 2019-07-09 2021-09-21 Valeo Schalter Und Sensoren Gmbh Autonomous alignment of a vehicle and a wireless charging device
CN110293860B (zh) * 2019-08-06 2023-09-05 合肥有感科技有限责任公司 电动汽车无线充电线圈引导对准装置及对准方法
CN112937553B (zh) * 2019-11-26 2023-06-23 帝亚一维新能源汽车有限公司 无人驾驶车辆自动泊车方法
CN111284337B (zh) * 2020-02-17 2021-05-18 赵婷婷 运载工具无线充电对准的方法及其系统
WO2021181323A1 (en) * 2020-03-11 2021-09-16 L&T Technology Services Limited A wireless charging system
DE102020111471A1 (de) 2020-04-27 2021-10-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Bilderkennung für ein automatisiert fahrendes Fahrzeug
CN114280978B (zh) * 2021-11-29 2024-03-15 中国航空工业集团公司洛阳电光设备研究所 一种用于光电吊舱的跟踪解耦合控制方法
CN114283209A (zh) * 2021-12-31 2022-04-05 智道网联科技(北京)有限公司 单目相机放置位置的评估方法及装置
US11999252B2 (en) * 2022-01-20 2024-06-04 Ford Global Technologies, Llc Roadway charging coil alignment and monitoring
US20230391216A1 (en) * 2022-06-02 2023-12-07 Ford Global Technologies, Llc Object detection around vehicle charging stations
DE102023106637A1 (de) 2023-03-16 2024-09-19 Bayerische Motoren Werke Aktiengesellschaft Steuervorrichtung und verfahren zum positionieren eines kraftfahrzeugs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1930203A1 (de) * 2005-09-29 2008-06-11 Toyota Jidosha Kabushiki Kaisha Parkhilfevorrichtung und verfahren zum zuführen/empfangen von elektrischer energie zwischen fahrzeug und bodenvorrichtung
US20090085522A1 (en) * 2007-09-27 2009-04-02 Denso Corporation Charging system
WO2010040962A1 (fr) * 2008-10-09 2010-04-15 Peugeot Citroën Automobiles SA Vehicule automobile electrique ou partiellement electrique et infrastructure de recharge associee pour le positionnement automatique du vehicule par rapport a l'infrastructure et procede associe
EP2199141A1 (de) * 2008-12-22 2010-06-23 Aisin Aw Co., Ltd. Fahrzeugführungsvorrichtung zum Laden der Fahrzeugbatterie
US20110082612A1 (en) * 2008-11-07 2011-04-07 Toyota Jidosha Kabushiki Kaisha Power feeding system for vehicle, electrically powered vehicle and power feeding apparatus for vehicle
WO2011114208A2 (en) * 2010-03-16 2011-09-22 Toyota Jidosha Kabushiki Kaisha Vehicle

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008046215A1 (de) * 2008-09-08 2009-09-17 Daimler Ag Verfahren zur Ankoppelung eines Fahrzeugs an eine Ladestation
JP2010226945A (ja) * 2009-02-25 2010-10-07 Maspro Denkoh Corp 移動体の電力供給システム
US8183826B2 (en) * 2009-05-15 2012-05-22 Battelle Memorial Institute Battery charging control methods, electric vehicle charging methods, battery charging apparatuses and rechargeable battery systems
CN103125081B (zh) * 2010-09-30 2014-12-10 松下电器产业株式会社 电力线通信系统及车辆
DE102010042395A1 (de) * 2010-10-13 2012-04-19 Continental Automotive Gmbh Verfahren und Systeme zum induktiven Laden einer Batterie eines Fahrzeuges
DE102010053058A1 (de) * 2010-12-01 2011-08-25 Daimler AG, 70327 Kraftfahrzeugvorrichtung
DE102011006504A1 (de) * 2011-03-31 2012-10-04 Robert Bosch Gmbh Verfahren zum Positionieren eines Kraftfahrzeugs
JP2012249410A (ja) * 2011-05-27 2012-12-13 Sharp Corp 電気自動車充電用の充電器及び充電装置
EP2722216B1 (de) * 2011-06-20 2019-01-16 Toyota Jidosha Kabushiki Kaisha Kontaktlose leistungsaufnahmevorrichtung, kontaktlose leistungsübertragungsvorrichtung sowie kontaktloses leistungsaufnahme- und übertragungssystem
DE102011111051A1 (de) * 2011-08-24 2012-03-22 Daimler Ag Verfahren und Vorrichtung zur Unterstützung eines Fahrers bei der Steuerung eines Fahrzeugs
US8816637B2 (en) * 2011-10-06 2014-08-26 Ford Global Technologies, Llc Vehicle guidance system with interface
DE102012008791A1 (de) * 2012-04-27 2012-11-08 Daimler Ag Verfahren zum Unterstützen eines Rangiervorgangs eines Fahrzeugs
DE102012013498B3 (de) * 2012-07-06 2013-01-17 Audi Ag Vorrichtung zur induktiven Übertragung elektrischer Energie an ein Fahrzeug
EP2985871B1 (de) * 2013-03-29 2017-09-06 Nissan Motor Co., Ltd Kontaktloses stromversorgungssystem
CN105189184B (zh) * 2013-04-26 2017-07-21 丰田自动车株式会社 受电装置、送电装置、电力传送系统及停车辅助装置
US9187006B2 (en) * 2013-09-05 2015-11-17 Volkswagen Ag Vehicle positioning for wireless charging systems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1930203A1 (de) * 2005-09-29 2008-06-11 Toyota Jidosha Kabushiki Kaisha Parkhilfevorrichtung und verfahren zum zuführen/empfangen von elektrischer energie zwischen fahrzeug und bodenvorrichtung
US20090085522A1 (en) * 2007-09-27 2009-04-02 Denso Corporation Charging system
WO2010040962A1 (fr) * 2008-10-09 2010-04-15 Peugeot Citroën Automobiles SA Vehicule automobile electrique ou partiellement electrique et infrastructure de recharge associee pour le positionnement automatique du vehicule par rapport a l'infrastructure et procede associe
US20110082612A1 (en) * 2008-11-07 2011-04-07 Toyota Jidosha Kabushiki Kaisha Power feeding system for vehicle, electrically powered vehicle and power feeding apparatus for vehicle
EP2199141A1 (de) * 2008-12-22 2010-06-23 Aisin Aw Co., Ltd. Fahrzeugführungsvorrichtung zum Laden der Fahrzeugbatterie
WO2011114208A2 (en) * 2010-03-16 2011-09-22 Toyota Jidosha Kabushiki Kaisha Vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150375631A1 (en) * 2013-05-31 2015-12-31 Ihi Corporation Vehicle power-supplying system
US9758048B2 (en) * 2013-05-31 2017-09-12 Ihi Corporation Vehicle power-supplying system
EP3007024A3 (de) * 2014-10-06 2016-06-22 Audi Ag Verfahren zur positionierung eines kraftfahrzeugs zum kontaktlosen laden und kraftfahrzeug
GB2543094A (en) * 2015-10-09 2017-04-12 Jaguar Land Rover Ltd Method and apparatus for aligning a vehicle with a wireless charging device
GB2543093A (en) * 2015-10-09 2017-04-12 Jaguar Land Rover Ltd Method and apparatus for assisted alignment of a vehicle with a wireless charger
GB2543093B (en) * 2015-10-09 2019-06-12 Jaguar Land Rover Ltd Method and apparatus for assisted alignment of a vehicle with a wireless charger

Also Published As

Publication number Publication date
CN105142962A (zh) 2015-12-09
DE102013207906A1 (de) 2014-10-30
US9802501B2 (en) 2017-10-31
CN105142962B (zh) 2018-01-30
US20160046198A1 (en) 2016-02-18

Similar Documents

Publication Publication Date Title
WO2014177413A1 (de) Geführte fahrzeugpositionierung für induktives laden mit hilfe einer fahrzeugkamera
EP2712762B1 (de) Positioniersystem und Verfahren zur Positionierung eines Fahrzeuges
DE102013217623B4 (de) Einparkassistentensystem
EP2692573B1 (de) Verfahren zum Positionieren eines Kraftwagens, System mit einem solchen Kraftwagen sowie Kraftwagen
DE102013207907B4 (de) Fahrzeugpositionierung für induktives Laden mit Hilfe einer Fahrzeugkamera
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
WO2016066455A1 (de) Verfahren und bodeneinheit zum induktiven laden von elektro- und hybridfahrzeugen
EP3094542B1 (de) Verfahren zum autonomen parken eines fahrzeugs, fahrerassistenzvorrichtung zur durchführung des verfahrens, sowie fahrzeug mit der fahrerassistenzvorrichtung
DE102017128294A1 (de) Fahrzeugumgebung-abbildungssysteme und -verfahren
EP3390140B1 (de) Verfahren zur durchführung wenigstens eines energieversorgungsvorgangs zwischen einer energieversorgungseinheit und wenigstens einem mit energie zu versorgenden kraftfahrzeug
DE102018220325A1 (de) Projektionsvorrichtung
DE102018220296A1 (de) Fahrzeugsteuergerät und Verfahren
EP2568310A2 (de) Verfahren, System sowie Vorrichtung zur Lokalisation eines Fahrzeugs relativ zu einem vordefinierten Bezugssystem
DE102015202435A1 (de) Fahrzeugsteuersystem zum Ausrichten einer induktiven Ladeverbindung
DE102015111118A1 (de) Infrarot-triangulationsverfahren zur positionierung von fahrzeugen zum kontaktlosen laden von elektrofahrzeugen
DE102020117732A1 (de) Eigenständiges Ausrichten eines Fahrzeugs und einer drahtlosen Ladevorrichtung
DE102014221998A1 (de) Verfahren und Vorrichtung zum induktiven Laden von Elektro- und Hybridfahrzeugen
DE102018220279A1 (de) Bildgebungsapparat und verfahren
DE102018220282A1 (de) Fahrzeug-parkgerät
DE102017130173A1 (de) Ladeunterstützungsvorrichtung
DE102018220257A1 (de) Andockstation
DE102020109279A1 (de) System und verfahren zur anhängerausrichtung
DE102016221732A1 (de) Verfahren zum Leiten eines Kraftfahrzeugs in eine Ladeposition an einer induktiven Ladestation sowie Steuervorrichtung und Kraftfahrzeug
DE102017206530A1 (de) Fahrzeugpositionierung für induktive Energieübertragung
DE102018220297A1 (de) Einparkassistenzverfahren und Vorrichtung

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480023823.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14719712

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14719712

Country of ref document: EP

Kind code of ref document: A1