WO2023148024A1 - Verfahren zum betreiben einer schnittstellenvorrichtung in einem fahrzeug, sowie schnittstellenvorrichtung und fahrzeug - Google Patents

Verfahren zum betreiben einer schnittstellenvorrichtung in einem fahrzeug, sowie schnittstellenvorrichtung und fahrzeug Download PDF

Info

Publication number
WO2023148024A1
WO2023148024A1 PCT/EP2023/051429 EP2023051429W WO2023148024A1 WO 2023148024 A1 WO2023148024 A1 WO 2023148024A1 EP 2023051429 W EP2023051429 W EP 2023051429W WO 2023148024 A1 WO2023148024 A1 WO 2023148024A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
interface device
vehicle occupant
function
driver
Prior art date
Application number
PCT/EP2023/051429
Other languages
English (en)
French (fr)
Inventor
Sebastien Ambrosetti
Tim Krämer
Original Assignee
Audi Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi Ag filed Critical Audi Ag
Publication of WO2023148024A1 publication Critical patent/WO2023148024A1/de

Links

Classifications

    • B60K35/10
    • B60K35/29
    • B60K35/60
    • B60K35/65
    • B60K2360/122
    • B60K2360/1438
    • B60K2360/146
    • B60K2360/149
    • B60K2360/195
    • B60K2360/197
    • B60K2360/741
    • B60K2360/782
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Definitions

  • the invention relates to a method for operating an interface device in a vehicle, wherein an operator action by a vehicle occupant on the interface device is detected by means of a first sensor device.
  • the invention relates to an interface device for a vehicle with a first sensor device for detecting an operator action by a vehicle occupant on the interface device.
  • the invention also relates to a vehicle with a
  • Vehicles in particular highly automated vehicles, have an infotainment system in the passenger compartment.
  • Such an infotainment system can have a “center information display (CID)”, for example.
  • CID center information display
  • Vehicle occupants such as the vehicle driver and other passengers, can interact with the infotainment system with this "center information display”.
  • the "Center Information Display” can serve as the main means of interaction for the infotainment system. In particular, this can be shared or used jointly by the driver and front passenger in current cockpit architectures.
  • infotainment systems A disadvantage of such infotainment systems is the risk of driver distraction or driver inattention. This is true avoid.
  • offers of infotainment content, such as apps are already restricted while driving.
  • moving images, such as a video may be blocked while driving and thus not made available to occupants.
  • screens or images with long texts and complex information can also be blocked for occupants.
  • Complex actions, such as entering a destination with the keyboard, can also be blocked while driving.
  • the theoretically optimized content for the driving task can be dynamically hidden and blocked for a few seconds as an educational measure in certain situations.
  • DE 10 2009 018681 A1 discloses a control device for a motor vehicle with a control panel that is arranged within reach of the driver and front passenger. In this case, the driver's operating options are only available if the driver's access to the control panel is clear.
  • an operating device for a motor vehicle is known from DE 102016 001 314 A1.
  • This has a touch-sensitive display device.
  • the aim is to ensure that a driver does not use the on-screen keyboard while driving.
  • a distinction can be made between touching the display device on the driver's side and on the passenger's side.
  • DE 103 40 249 A1 discloses a method and an arrangement for operating devices in a motor vehicle, in which an input by means of a control element that can be reached by people in different places in the motor vehicle leads to the display of menus that depend on the at least one Control element are each operating person. Sensors are used to automatically identify the respective person.
  • DE 103 37 852 A1 discloses a vehicle system for operation in a motor vehicle with an operating device for operating the vehicle system. In this way, it can be recognized whether the vehicle driver or another occupant of the vehicle is accessing the operating device.
  • One object of the present invention is to be able to provide a vehicle occupant who is interacting with an infotainment system in a vehicle with an individualized and situation-specific information offer. This object is solved by a method, an interface device and a vehicle according to the independent patent claims. Useful further developments result from the dependent patent claims.
  • One aspect of the invention relates to a method for operating an interface device in a vehicle, wherein
  • a first sensor device comprising:
  • Vehicle occupant who performs the operator action with a second sensor device that is different from the first sensor device,
  • the proposed method can be used to make an individually adapted function and/or an individually adapted information content available to the vehicle occupant who carries out an operating action on the interface device.
  • an adapted use can be provided or made possible depending on which vehicle occupant would like to operate or use the interface device.
  • the vehicle occupant who performs or desires the operator action is a vehicle driver or driver or a passenger or other passenger in the vehicle.
  • this can ensure that the driver of the Vehicle is not distracted by information overload and / or by extensive functionality of the interface device.
  • the passenger of the vehicle who does not have to perform any driving tasks, can be provided with more information content and/or a larger functional scope of the interface device.
  • the safety when using the interface device by the driver of the vehicle can be increased on the one hand, since care is taken that the driver of the vehicle is not distracted too much. Otherwise, the passenger in particular can be provided with attractive content and/or functions of the interface device.
  • the operating action of the vehicle occupant on the interface device is recognized or detected or recorded by means of the first sensor device and at least one piece of status information of the vehicle occupant is additionally recorded by means of a second sensor device.
  • different, in particular independent, pieces of information can be taken into account when determining the type and/or scope of the function of the interface device.
  • the robustness or the efficiency of the determination of the type and/or scope of the function can be increased or improved.
  • the function of the interface device can thus be individually adapted to the respective vehicle occupants. This is done by determining the respective type and/or the respective extent of the function of the interface device. As a result, an individualized function can be made available to the respective vehicle occupant who wants to use the interface device.
  • the interface device can be controlled by an operator action by a vehicle occupant of the vehicle on the interface device.
  • the interface device can be referred to as an operating device.
  • the interface device is an infotainment system of the vehicle.
  • the interface device can be arranged in a cockpit area of the vehicle.
  • the interface device can be used to interact with the vehicle occupants.
  • the interface device can have a display unit and/or an output unit with which acoustic, optical and/or haptic information content and/or interactions can be output or made available to the vehicle occupants.
  • the vehicle occupants can control the interface device by means of a respective operating action on the interface device.
  • the vehicle occupants can in particular be passengers and/or occupants of the vehicle.
  • the vehicle can be a passenger car, for example, which has a passenger compartment.
  • the first sensor device can be at least one proximity sensor and/or at least one camera and/or a driver observation camera and/or an interior radar and/or an interior camera and/or a 3D camera and/or a Trade ToF camera.
  • the first sensor device can have a plurality of partial sensors.
  • the first sensor device can in particular detect a passenger compartment or the passenger cell of the vehicle by sensors.
  • the first sensor device can be used to detect an actual control action currently being performed by the vehicle occupant. For example, using the first sensor device, an operator action can already be recognized in advance by recognizing that the vehicle occupant is approaching the interface device. Likewise, an operating action that has actually been carried out or exercised by the vehicle occupant can already be recorded.
  • an operator action by a vehicle occupant can be recognized by a finger movement, pointing movement, arm movement. It is also conceivable for the operator action to be performed or exercised by the vehicle occupant by means of an operator control element.
  • an operating element can be an operating pen and/or an operating rod.
  • the second sensor device can be a number of sensors or sub-units.
  • the second sensor device is, for example, a driver observation camera or capacitive sensors.
  • a respective state and/or several states of the vehicle occupant can be detected or determined using the second sensor device.
  • the type and/or scope of the function can be determined with an electronic evaluation unit of the interface device.
  • the type of function can be, for example, a driver mode or a non-driver mode.
  • the type can be used to distinguish between a driver-side function or a passenger-side function of the interface device.
  • the scope or the measure of the function for example, information content or a period of time and/or a functional scope of the function can be provided. In particular, it can be determined, for example, whether the
  • Interface device is released for use.
  • an interface device designed as an infotainment system it can be determined which infotainment content or infotainment applications are offered or released to the vehicle occupant for use.
  • the interface device can have a release unit with which the provided function is released for use by the vehicle occupant.
  • the scope and/or the type can be blocked or restricted again accordingly.
  • the proposed method is a computer-implemented method.
  • a determination is made as to whether the vehicle occupant is a vehicle driver of the vehicle or a vehicle occupant who is different from the vehicle driver, and this determination is made when determining the type and/or scope of the function of the interface device is taken into account.
  • this determination is made by means of an electronic evaluation unit or the computing unit of the interface device.
  • the information that was recorded or determined by the first sensor device and the second sensor device can be used for the determination.
  • An improved and, in particular, more robust differentiation between the vehicle occupants can thus be made through the most diverse information from the various sensor devices. In particular, in this case between the driver of the vehicle and the Passengers of the vehicle are distinguished.
  • the type and/or scope of the function is adjusted. Consequently, it can be determined or checked whether the operator action is being performed by the driver or vehicle operator or by the passenger. For example, it can be clearly identified in this way whether the operator action or operator control or operator intention was performed by a driver or a passenger.
  • This determination allows the interface device to be controlled and, in particular, operated individually. By determining whether it is the driver of the vehicle or an occupant who is different from him, the function and/or the contents of the interface device can be made available or offered in a targeted manner for use by the vehicle occupant.
  • the differentiation between the vehicle driver and a different occupant is of importance if, for example, the vehicle is an at least partially autonomously operated vehicle.
  • the vehicle can be a vehicle with an autonomy level of 2, 3 or 4.
  • an autonomy level 3 care must be taken to ensure that, due to the need for distraction and/or attention, the function offered to the vehicle driver is not the same as the content or the range of functions or the type of function offered to the passenger.
  • a distinction or lesson of the type of function and/or the scope of functions can be made.
  • a number of vehicle occupants and/or a respective position of one of the vehicle occupants within the vehicle is detected with a third sensor device that is different from the first and second sensor device, this being taken into account when determining whether the vehicle occupant is the vehicle operator of the vehicle or an occupant other than the vehicle operator.
  • the detected number of vehicle occupants and/or the respective position of the vehicle occupants can be used to determine more efficiently, in particular more precisely, whether the vehicle occupant is the vehicle driver or the passenger, for example. It can thereby be achieved that the type of function and/or the range of functions can be adapted individually, in particular specifically, to the vehicle occupants.
  • the third sensor device can have a plurality of sensors, which are optionally distributed in the passenger compartment of the vehicle.
  • the third sensor device can be sensors in the vehicle seats or vehicle benches of the vehicle. It is also conceivable for the third sensor device to be seat occupancy sensors or seat occupancy mats.
  • the third sensor device can be designed as a capacitive sensor system.
  • the third sensor device can be seat belt buckle sensors. Consequently, the third sensor device can be used to determine or check which vehicle seats or vehicle seats are occupied and which are not. Thus, the respective positions and in particular the number can be determined. This is particularly advantageous because seat occupancy detection can be used to determine whether the vehicle occupant is the driver or the front passenger.
  • the first, second and third sensor devices can be used together in order to be able to make an efficient or effective determination.
  • the information from the sensor devices can be merged in order to be able to reliably determine the vehicle occupant and consequently the range of functions and/or the type of function.
  • further sensor devices or sensors can be used in the vehicle.
  • a hand movement and/or a finger movement and/or an arm movement and/or a line of sight and/or a state of alertness and/or a body posture of the vehicle occupant are recorded as the at least one piece of status information with the second sensor device .
  • These options which are mentioned by way of example and which can all be status information, can be used to make a detailed and efficient assessment of the vehicle occupant in order to be able to determine a type of function and/or a range of functions that is adapted to the vehicle occupant.
  • the examples of status information just mentioned are not intended to be construed as conclusive, but are merely intended to provide a small insight into the possibilities.
  • the second sensor device can be used to detect the viewing angle and/or viewing direction with which the vehicle occupant directs the interface device before and/or during the operator control action. From this it can be concluded, for example, whether it is the driver or the passenger. If, for example, it is determined that the vehicle occupant is looking outside of the passenger compartment, it can be assumed that he is currently inattentive and therefore only a limited function is available. Furthermore, this information can also be used to inform the vehicle occupants of their current status by means of an acoustic and/or visual and/or haptic warning.
  • the hand movement and/or the finger movement and/or the arm movement of the vehicle occupant can be detected which angle the hand and/or the fingers and/or the arm with respect to the interface device having.
  • This can also be an indicator to determine whether the vehicle occupant is the driver and/or the passenger.
  • the vehicle occupant's posture can be analyzed or assessed in order to determine, for example, whether the driver is alert or a passenger who is resting. All of this possible information can be used to determine a functional type and/or functional scope adapted to the respective vehicle occupant and in particular the respective situation.
  • the specific type and/or the specific scope of the function of the interface device and/or the specific function of the interface device and/or the detected operator action by the vehicle occupant and/or the recorded at least one item of status information from the vehicle occupant of a machine unit of the Interface device is provided or transmitted, whereby the interface device is automatically trained by means of the machine learning unit, in particular automatically, to determine the type and / or the scope of a function of the interface device.
  • the interface device can be operated even better, since the interface device can learn independently using specific situations. A future determination of a type and/or scope of a function can thus be carried out more efficiently and, in particular, better.
  • the interface device or the interface system can be gradually machine-trained using machine learning, so that over time the application situations or the operator action situations can be recognized even faster and more reliably. This is above all advantageous when one or more sensor devices have failed or are only functional to a limited extent.
  • the type or scope of the function can still be determined by machine learning.
  • the interface device can learn how the driver or the front passenger interacts with the interface device for each interaction or operator action. As a result, the interface device can gradually recognize the intentions of the users or vehicle occupants with regard to the operation of the interface device in a more reliable and reactive manner.
  • the learning of the interface device takes place automatically and in particular continuously with the aid of the machine unit.
  • information and/or input variables can be used for machine learning.
  • the exemplary embodiments already described above and the information and/or input variables for the machine unit contained therein can be used.
  • all information provided and/or generated from this invention can be used for the machine learning of the interface device in this context.
  • the operator action of the vehicle occupant is performed on a display unit of the interface device, touching the vehicle occupant on the display unit being recognized as an operator action by the first sensor device.
  • the interface device can have a user interface.
  • the interface device can thus have a man-machine interface, so that the vehicle occupants are given the opportunity to carry out a corresponding operating action.
  • the display unit can be designed as a touch-sensitive display, for example be.
  • the display unit is a touch-sensitive screen, so that information or functions displayed thereon can be actuated or selected by the vehicle occupant by means of the operating action.
  • the display unit is a touch display of an infotainment system of the vehicle.
  • the vehicle occupant can therefore touch the display unit with his fingers, arms or hands, for example, in order to be able to carry out or exercise the operator control action.
  • This contact can be detected or recognized, for example, using the first sensor device or a capacitive sensor device of the interface device.
  • it By touching the display unit, it can be determined, for example by means of capacitive sensors in the display unit, whether it is the vehicle driver or the passenger.
  • a value specific to the touch for example a pressure value
  • This can be assigned to the respective operation, for example.
  • a respective impedance and/or capacitance can also be determined when touching, so that this can be assigned to the operator action and then, in a future operator action, a corresponding range of functions and/or a function type can be selected on the basis of these special or characteristic values.
  • typical impedance values and/or typical capacitance values when the display unit is touched can be recorded in a database, for example, and taken into account in future operator actions.
  • these values can also be used for the machine learning unit.
  • these specific values can deviate from reference values be determined or considered in order to provide a predefined function.
  • a modulated identification signal is generated with a signal generation unit, with the generated identification signal being transmitted to the display unit when the vehicle occupant touches the display unit from a steering wheel of the vehicle gripped by the vehicle occupant, via the vehicle occupant, in order to determine the type and /or to determine the scope of the function of the interface device.
  • a specially modulated electrical and/or digital signal is transmitted or transmitted via the body of the vehicle occupant to a receiving unit of the display unit, so that this identification signal, which is received in turn, can be used to determine whether it is the vehicle occupant who performed the operator control action whether or not the vehicle driver is concerned.
  • a simple possibility can thus be provided by the signal generation and signal transmission in order to be able to distinguish between the passenger and the driver.
  • the signal generation unit can be integrated in the interface device or at least partially integrated in the steering wheel.
  • a corresponding signal can thus be generated and transmitted via the vehicle occupant's body to the touched display unit via the steering wheel gripped by the vehicle occupant. If the receiving unit now receives exactly the modulated identification signal that was previously generated, it can be clearly determined whether the vehicle occupant is the vehicle driver. In this way, the functions permitted or usable by the vehicle driver can be made available more quickly in their respective type and/or in their respective scope and issued to the vehicle occupant for use.
  • the steering wheel can have a steering wheel heater, via which the identification signal can be transmitted to the vehicle occupants.
  • a special signal in particular the identification signal
  • the signal can be generated or generated, for example, as an electric current with a low voltage and intensity.
  • the identification signal can be routed via the driver's body or the body of the vehicle occupant and received by special sensors and/or receiving units in the display unit and thus assigned to the driver. A driver operation can then be provided as a function for use.
  • a modulated identification signal is generated with a signal generation unit, with the generated identification signal being transmitted to the display unit via the vehicle occupant when the vehicle occupant touches the display unit from a vehicle seat on which the vehicle occupant is sitting, in order to determine the type and/or to determine the scope of the function of the interface device.
  • the identification signal from a vehicle seat By emitting or conducting the identification signal from a vehicle seat, for example, if a driver and a passenger are present, these two can be distinguished at the same time and it can thus be determined which of these two performed the operator action in order to then determine the type and/or scope of the function can.
  • Signal modulation can be used for this purpose, for example in order not to generate an individual identification signal for each vehicle seat in the vehicle. Consequently, a recognition or an identification can then take place as to which vehicle occupant has carried out or carried out the operator control action.
  • a seat heater in the vehicle seats and/or a seat occupancy detection unit in the vehicle seats can be used for this purpose in order to transmit the identification signal to the vehicle occupants to be able to receive or detect this in turn, for example with the receiving unit of the display unit.
  • the type and/or scope of the function can be determined on the basis of the respective assignment, whether it is the driver or the passenger.
  • the identification signal can be modulated differently for each vehicle seat in order to be able to carry out a clear identification of the vehicle occupant. For example, depending on which modulated identification signal was detected, driver operation and/or passenger operation can be made available as a function for the vehicle occupant to use.
  • vehicle information and/or a current driving situation and/or a current operating mode of the vehicle and/or a current traffic situation in the vicinity of the vehicle are taken into account when determining the type and/or scope of the function of the interface device becomes.
  • This can also be used by the machinery unit. This is important, for example, when a complex or dangerous traffic situation in the vicinity of the vehicle has been detected and the operator control is performed by the driver. In this case, to increase safety, the function can be kept to a minimum in terms of its type and/or scope, so as not to unnecessarily distract the driver from the road traffic.
  • an operating mode can be, for example, an autonomy level of the vehicle.
  • the type and/or the scope of the function can be limited in particular, in order not to distract the driver as a vehicle occupant too much from his driving task or readiness to drive.
  • a hand movement and/or a finger movement and/or an arm movement of the vehicle occupant is detected as an operator action with the first sensor device and/or the second sensor device and/or the third sensor device. For example, this can be done by touching the display unit of the interface device, or these movements can be detected in the immediate vicinity of the display unit or the interface device.
  • a further exemplary embodiment provides that a vehicle driver mode or a non-vehicle driver mode is set or released or activated for the interface device depending on the information recorded by the various sensor devices of the interface device. Thus, depending on whether it is the driver or the passenger, for example, a special mode of the interface device can be enabled or not enabled.
  • Another aspect of the invention relates to an interface device for a vehicle, with
  • a first sensor device for detecting an operator action by a vehicle occupant on the interface device having:
  • a second sensor device different from the first sensor device, for detecting at least one item of status information relating to the vehicle occupant who is performing the operator control action
  • an evaluation unit for determining a type and/or an extent of a function of the interface device depending on the detected operating action of the vehicle occupant and the recorded at least one status information of the vehicle occupant
  • the interface device can in particular be an electronic system for a vehicle.
  • the interface device can be an infotainment system of the vehicle.
  • the interface device has at least one electronic evaluation unit.
  • the interface device can have a machine learning unit.
  • the user interface unit can be, for example, a graphical user interface or a touch display or an acoustic output and/or input unit.
  • a graphical user interface or a touch display or an acoustic output and/or input unit.
  • an interaction between the interface device and the vehicle occupant of the vehicle can take place with the aid of the user interface unit, which is in particular a machine-human interface.
  • a further aspect of the invention relates to a vehicle with an interface device according to the preceding aspect.
  • the vehicle can be a passenger car or a truck.
  • the interface device can be arranged in a cockpit area of the vehicle.
  • a wide variety of functions, components and/or elements in the vehicle can be operated or controlled using the interface device.
  • the vehicle can be a highly automated vehicle.
  • the invention also includes the interface device for the vehicle.
  • the interface device can have a data processing device or a processor device that is set up to carry out an embodiment of the method according to the invention.
  • the processor device can have at least one microprocessor and/or at least one microcontroller and/or at least one FPGA (Field Programmable Gate Array) and/or at least one DSP (Digital Signal Processor).
  • the processor device can have program code which is set up to carry out the embodiment of the method according to the invention when executed by the processor device.
  • the program code can be stored in a data memory of the processor device.
  • the invention also includes developments of the interface device according to the invention and of the vehicle according to the invention, which have features as have already been described in connection with the developments of the method according to the invention. For this reason, the corresponding developments of the interface device according to the invention and the vehicle according to the invention are not described again here.
  • the vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger car or truck, or as a passenger bus or motorcycle.
  • the invention also includes the combinations of features of the described embodiments.
  • the invention also includes realizations, each having a combination of the features of several of the embodiments described, provided that the Embodiments have not been described as mutually exclusive.
  • FIG. 1 shows a schematic representation of a vehicle with an interface device
  • FIG. 2 shows a schematic illustration of a passenger compartment of the vehicle with an interface device from FIG. 1 ;
  • FIG. 3 shows an exemplary embodiment of the interface device from FIG. 1 ;
  • FIG. 4 shows a further exemplary embodiment of the interface device from FIG. 1 ;
  • FIG. 5 shows a schematic flow chart of an operating strategy of the interface device from FIG. 1 .
  • the vehicle 1 shows a schematic view of a vehicle 1 .
  • the vehicle 1 is, for example, a passenger car or another type of motor vehicle.
  • the vehicle 1 can be an at least partially autonomously operated vehicle.
  • the vehicle 1 can have an autonomy level 3 or 4, for example.
  • the vehicle 1 has an interface device 3 or an interface system.
  • the interface device 3 can be an infotainment system or an operating system in the vehicle 1, for example.
  • infotainment content and/or application programs (apps) can be made available or offered to the vehicle occupant 2 .
  • This can include, for example, images, videos, audio files, setting options, air conditioning control, telephone calls, setting a vehicle mode, calling up a website, retrieving information, weather information, or other information and/or usage options or operating options.
  • the, in particular electronic, interface device 3 can have at least one, in particular electronic, evaluation unit 4 .
  • the evaluation unit 4 can be a computing unit or a computing system.
  • the interface device 3 can have a user interface unit 5 .
  • the vehicle occupants can use this to interact with the interface device 3, for example.
  • the user interface unit 5 can be a graphical user interface act.
  • the user interface unit 5 is a machine-human interface, so that on the one hand the vehicle occupants 2 can carry out operating actions on the interface device 3 at the same time.
  • information and/or information content can be made available to the vehicle occupant 2 by the interface device 3 via the user interface unit 5 .
  • the vehicle occupants 2 can transmit control instructions and/or operating actions to the interface device 2 by means of the user interface unit 5 .
  • the interface device 3 can be arranged in the cockpit of the vehicle 1 .
  • the interface device 3 can be arranged in the area of the center console in a passenger compartment 6 of the vehicle 1 .
  • the interface device 3 is arranged in such a way that it can be used by all vehicle occupants 2 .
  • the interface device 3 can be used both by a vehicle driver 7 and by the passenger 8 or by another occupant, in particular while the vehicle 1 is moving, a distinction between the respective functions offered by the interface device 3 is relevant here. This is particularly important since the vehicle driver 7 or the driver must be alert or not distracted in order to be able to carry out driving tasks. In particular, the driver must be able to react to special situations and/or traffic events at all times. Therefore, for example, the front passenger 8 can be offered a greater range of functions by means of the interface device 3 than the vehicle driver 7.
  • the interface device 3 is designed to communicate between the vehicle driver 7 and the front passenger 8 or another occupant 9 to be able to differentiate and to adapt the information content and/or information offer individually to the respective person.
  • the interface device 3 has at least one first sensor device 11 .
  • the operating action 10 of a vehicle occupant 2 on the interface device 3 can be recognized or detected or recorded.
  • the passenger compartment 6 of the vehicle 1 can be detected by means of the first sensor device 5 .
  • a distinction can be made here between an immediately imminent or approaching operator action 10 or an operator action 10 that has actually already been carried out. For example, a hand movement and/or a finger movement and/or an arm movement and/or a pointing movement of a vehicle occupant 2 can be detected as an operator action 10 with the aid of the first sensor device 11 .
  • the first sensor device 11 can be a driver observation camera, an interior radar, an interior camera, a passenger monitoring system or an image acquisition system.
  • the interface device 3 can have a different or different second sensor device 12 than the first sensor device 11 .
  • the second sensor device 12 can have one of the sensor types already listed for the first sensor device 11 .
  • the second sensor device 12 is designed to detect or determine at least one item of status information or a status of the vehicle occupant 2 that triggered the operator control action 10 .
  • two different items of information in connection with the operator action 10 can be detected with the two different sensor devices 11 , 12 .
  • These two items of information can be combined or corrected, for example, in order to make a distinction, for example to be able to meet the vehicle occupants 2 .
  • the interface device 3 can merge the different sensor devices 11, 12 or other sensor devices, so that an added value of information is available.
  • a type and/or scope of a function 13 of the interface device 3 can be determined or generated with the aid of the information recorded by the sensor devices 11 , 12 , which has been correlated, for example.
  • the function 13 can mean a setting option for a vehicle function and/or an infotainment offering and/or an application and/or a video and/or various images and/or an audio file and/or a music playlist and/or a web browser login.
  • the vehicle occupants 2 can be offered an interaction option and/or a use option in the vehicle 1 with the function 13 .
  • the type and scope of the function 13 can be determined independently of which vehicle occupant 2 is involved.
  • the type and/or scope of the function 13 differs for the vehicle driver 7 from that of the passenger 8.
  • the passenger 8 or the occupant 9 can be offered several types and/or a greater range of functions compared to the vehicle driver 7, since the Vehicle driver 7 should not be distracted so much compared to the other people.
  • the specific function of the interface device 3 can be provided or made available for use by the vehicle occupant 2 in the specific type and to the specific extent.
  • the vehicle occupant 2 who performed the operator action 10 can use the respective function 13 .
  • the specific function 13 can be released for use by the respective vehicle occupant 2 .
  • the interface device 3 can have a third sensor device 14 that is different from the first and second sensor devices 11, 12, or can communicate with them or be electrically networked.
  • the third sensor device 14 can be, for example, sensors in the vehicle seats 15 (see FIG. 2), capacitive sensors, seat occupancy sensors, seat occupancy mats, or seat belt sensors. Consequently, with the aid of the third sensor device 14, for example the number of vehicle occupants 2 in the vehicle 1 and/or a respective person of one of the vehicle occupants 2 can be determined or detected. This information can in turn be used to be able to determine more effectively which vehicle occupant 2 is actually performing or has performed the operator control action 10 .
  • the interface device 3 can use the sensor devices 11 , 12 , 14 mentioned by way of example or several other different sensor devices in order to be able to determine a wide variety of information in connection with the operator control action 10 . For this purpose, the most diverse sensor types and/or sensor models can be merged in order to obtain a greater information content.
  • the interface device 3 can be communicatively networked with the sensor devices 11 , 12 , 14 .
  • a hand movement and a finger movement and/or an arm movement and/or a viewing direction and/or a viewing angle and/or a state of alertness and/or a body posture of the vehicle occupant 2 can be recorded as the at least one piece of status information become.
  • This can be made available, for example, to the evaluation unit 4 of the interface device 3, which in turn can be taken into account when determining the type and/or scope of the function 13.
  • Additional useful information can be, for example, vehicle information from vehicle 1 and/or a current driver situation and/or current traffic events and/or a current operating state of vehicle 1 . These can be made available to the interface device 3, for example, by information sources and/or external sensors and/or information sources.
  • warnings and/or warnings can be output acoustically and/or optically and/or haptically in the vehicle 1 by the interface device 3 .
  • FIG. 2 An example representation of the passenger compartment 6 is shown in FIG. 2 .
  • the interface device 3 can have a display unit 19 .
  • the display unit 19 can be, for example, a touch display or a center information display of the vehicle 1 .
  • the operating action 10 can be carried out by a vehicle occupant 2 touching an area of the display unit 19 .
  • the display unit 19 is divided into two. In this case, for example, the part which is directed towards the area 17 on the driver's side can be used for the “driver input on the display”.
  • the area or side facing the area 18 on the passenger side can in turn be used as a “passenger input on the display”.
  • the display unit 19 can have capacitive sensors in order to be able to detect the respective input of the driver 7 or the front passenger 8 .
  • signal receivers can be used for this purpose.
  • the driver only has his left hand on the steering wheel and no operator action is performed
  • the driver has his left hand on the steering wheel and an operating action on the display unit is carried out with his right hand
  • the driver has no hand on the steering wheel and may perform an operator action
  • the driver has his left hand on the steering wheel and the front passenger carries out an operating action with his left hand
  • the driver has his left hand on the steering wheel and wants to carry out an operating action with his right hand and at the same time the front passenger also carries out an operating action with his left hand
  • the driver has both hands on the steering wheel and the front passenger carries out an operating action
  • the driver does not have a hand on the steering wheel and the front passenger carries out an operating action.
  • the interface device 3 a For example, the interface device 3 a
  • Machine unit 20 (compare FIG. 1 ). With this you can Interface device 3 are machine-trained in order to be able to determine or generate more efficiently future functional types and/or functional scopes of a function 13 of the interface device 3 .
  • the most diverse input variables which have already been described in particular in connection with the interface device 3, can be used.
  • the just mentioned application situations of the machine unit 20 can be made available, so that a more efficient provision of a function 13 can be achieved in future other application situations.
  • a modulated, in particular electrical or digital, identification signal 24 can be generated or generated with a signal generation unit 21 .
  • This signal 24 has, for example, a low current with a low voltage intensity.
  • the identification signal 24 can be modulated in frequency and/or form, so that it can be unambiguously assigned, for example.
  • the driver 7 has his left hand 25 on the steering wheel 16 and his right hand 26 is touching the display unit 19, for example.
  • a current flow is therefore via the steering wheel 16, which is gripped by the vehicle occupant 2 , via the body of the vehicle occupant 2 to the display unit 19.
  • a signal transmission is thus carried out here, which can be received, for example, by a transceiver unit or a signal receiver of the display unit 19 and should the modulated identification signal 24 have been recognized, the driver 7 be inferred.
  • special electrical elements of a steering wheel heating of the steering wheel 16 can be used for the signal transmission or the signal line.
  • a modulated identification signal 27, 28 for each vehicle seat 15 can in turn be modulated.
  • These two exemplary identification signals 27, 28 differ from one another, so that when they are received on the display unit 19 they can be distinguished or selected.
  • a respective signal generation unit 22, 23 can in turn be used for this purpose.
  • This signal generation unit 22, 23 can be part of a vehicle seat or a seat occupancy unit, for example.
  • a signal path or a current path can again be generated via the signal generation units or vehicle seats 15 via the respective body of the vehicle occupant 2 to the display unit 19 and then evaluated.
  • the vehicle occupant 2, who can be referred to here as the passenger 8 can in turn touch the display unit 19 with his left hand 29, just like the driver 7.
  • This distinction can in turn be made by the identification signals 27, 28 modulated in their frequency and/or form.
  • Another way of distinguishing between the driver 7 and the front passenger 8 is to determine a respective impedance and/or a respective resistance value of the driver 7 and the front passenger 8. This can be done, for example, with capacitive sensors or, for example, with the third sensor device 14. These measured Electrical values can be coordinated with the measured information from the other sensors 11 , 12 , 14 in order to be able to identify the typical capacitance and/or impedance values or variations during operation of the interface device 3 .
  • FIG. 4 An exemplary operating strategy of the method according to the invention is explained in FIG. 4 .
  • a first step S1 it can be checked which operating mode or autonomy level is present or set in the vehicle 1 . If, for example, an autonomy level 3 or 4 is activated, the passenger 8 can, for example, be provided or offered the full range of the function 13 of the interface device 3 .
  • the driver observation camera can be used to distinguish whether only the driver 7 or the front passenger is looking at the road, for example. If only the driver 7 is present, which in turn can be detected with a seat occupancy sensor or a belt buckle sensor, it can again be checked to what extent the driver 7 can safely handle driving tasks.
  • capacitive sensors installed in a steering wheel 16 can be used to determine whether the driver has no hand on the steering wheel 16 , for example. In this case, a warning would again be issued. If the driver 7 has at least one hand on the steering wheel 16, a low-distraction function 13 could be provided to the driver 7, for example.
  • step S2 it can again be checked in an optional third step S3 whether the driver, who inevitably also performs function 3 at least partially, is holding a hand on steering wheel 16 .
  • step S3 the driver 7 can again be provided with a low-distraction function 13 and the front passenger 8 could be provided with a function 13 that is comprehensive in scope and type.
  • the passenger 8 or other occupants 9 can be provided with the full range of the function 13 in an optional fifth step S5.

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer Schnittstellenvorrichtung (3) in einem Fahrzeug (1), wobei - eine Bedienhandlung (10) eines Fahrzeuginsassen (2, 7, 8, 9) an der Schnittstellenvorrichtung mittels einer ersten Sensoreinrichtung (11) erkannt wird, gekennzeichnet, durch - Erfassen zumindest einer Zustandsinformation betreffend den Fahrzeuginsassen (2, 7, 8, 9), welcher die Bedienhandlung (10) ausübt, mit einer zur ersten Sensoreinrichtung (11) verschiedenen zweiten Sensoreinrichtung (12), - Bestimmen einer Art und/oder eines Umfangs einer Funktion (13) der Schnittstellenvorrichtung (3) in Abhängigkeit von der erkannten Bedienhandlung (10) des Fahrzeuginsassen (2, 7, 8, 9) und der erfassten zumindest einen Zustandsinformation des Fahrzeuginsassen (2, 7, 8, 9), und - Bereitstellen der bestimmten Funktion (13) der Schnittstellenvorrichtung (3) zur Nutzung für den Fahrzeuginsassen (2, 7, 8, 9) in der bestimmten Art und/oder dem bestimmten Umfang. Des Weiteren betrifft die Erfindung eine Schnittstellenvorrichtung (3) sowie ein Fahrzeug (1).

Description

Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
BESCHREIBUNG:
Die Erfindung betrifft ein Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, wobei eine Bedienhandlung eines Fahrzeuginsassen an der Schnittstellenvorrichtung mittels einer ersten Sensoreinrichtung erkannt wird.
Des Weiteren betrifft die Erfindung eine Schnittstellenvorrichtung für ein Fahrzeug mit einer ersten Sensoreinrichtung zum Erkennen einer Bedienhandlung eines Fahrzeuginsassen an der Schnittstellenvorrichtung.
Ebenfalls betrifft die Erfindung ein Fahrzeug mit einer
Schnittstellenvorrichtung.
Fahrzeuge, insbesondere hochautomatisierte Fahrzeuge, weisen im Fahrgastinnenraum ein Infotainmentsystem auf. Ein solches Infotainmentsystem kann beispielsweise ein „Center-Information-Display (CID)“ aufweisen. Mit diesem „Center-Information-Display“ können Fahrzeuginsassen, wie beispielsweise der Fahrzeugführer und weitere Passagiere, mit dem Infotainmentsystem interagieren. Somit kann das „Center-Information-Display“ als Haupt-Interaktionsmittel für das Infotainmentsystem dienen. Insbesondere kann dies in aktuellen Cockpit- Architekturen durch den Fahrer und Beifahrer geteilt beziehungsweise gemeinsam genutzt werden.
Ein Nachteil bei solchen Infotainmentsystemen ist die Gefahr der Fahrer- Ablenkung beziehungsweise der Fahrer-Unaufmerksamkeit. Dies gilt es zu vermeiden. Hierzu werden bereits Angebote an Infotainment-Inhalten, wie beispielsweise Apps, während der Fahrt eingeschränkt. Beispielsweise können bewegte Bilder, wie beispielsweise ein Video, während der Fahrt blockiert und somit nicht zur Verfügung gestellt werden für Insassen. Des Weiteren können Screens beziehungsweise Bilddarstellungen mit langen Texten und komplexen Informationen ebenso für Insassen blockiert werden. Komplexe Handlungen, wie beispielsweise eine Zieleingabe mit dem Keyboard, kann ebenso während der Fahrt gesperrt werden.
Des Weiteren können während der Fahrt dennoch die theoretisch für die Fahraufgabe optimierten Inhalte dynamisch für einige Sekunden, als Erziehungsmaßnahme in bestimmten Situationen, ausgeblendet und gesperrt werden.
Sollte beispielsweise festgestellt werden, beispielsweise über einen Touch- Controller, dass der Fahrer das Center-Information-Display zu oft oder zu lange bedient, kann eine entsprechende Maßnahme ergriffen werden. Ebenso kann dies dann erfolgen, wenn festgestellt wird, beispielsweise über eine Fahrbeobachtungskamera, dass der Nutzer zu lange auf das Center- Information-Display schaut. Sollte wiederum festgestellt werden, beispielsweise ebenfalls über die Fahrbeobachtungskamera, dass der Fahrer die Straße länger als beispielsweise drei Sekunden nicht angeschaut hat, wird der Fahrer gewarnt. Mittels kapazitiver Sensoren kann festgestellt werden, dass der Fahrer zu lange keine Hände auf dem Lenkrad hatte. Dies kann ebenfalls zu einer Warnung führen. Sollte der Fahrer einen sogenannten Sekundenschlaf haben, kann ebenfalls eine Warnung ausgegeben werden. Das System kann feststellen, dass die aktuelle Fahrsituation kognitiv anspruchsvoll ist und somit können einige Warnungen oder Dialoge mit dem Nutzer verzögert bis zu einem besseren Zeitpunkt ausgegeben werden.
Diese bisherigen Maßnahmen sind extrem restriktiv und schränken auch das Inhalt-Angebot für den Beifahrer ein, vor allem, wenn Fahrer und Beifahrer nur ein Display zur Bedienung der Inhalte zur Verfügung stehen. Beispielsweise ist aus der DE 10 2009 018681 A1 eine Bedieneinrichtung für ein Kraftfahrzeug mit einem Bedienteil, das in gemeinsamer Reichweite von Fahrer und Beifahrer angeordnet ist, bekannt. Dabei steht dem Fahrer nur dann seine Bedienmöglichkeit zur Verfügung, wenn der Zugriff des Fahrers auf das Bedienteil eindeutig ist.
Des Weiteren ist aus der DE 102016 001 314 A1 eine Bedienvorrichtung für ein Kraftfahrzeug bekannt. Dieses weist eine berührungssensitive Anzeigeeinrichtung auf. Dabei soll erreicht werden, dass ein Fahrer die Bildschirmtastatur während einer Fahrt nicht bedient. Dabei kann zwischen einem fahrerseitigen und einem beifahrerseitigen Berühren der Anzeigeeinrichtung unterschieden werden.
Ferner offenbart die DE 103 40 249 A1 ein Verfahren und eine Anordnung zur Bedienung von Geräten in einem Kraftfahrzeug, bei welchem eine Eingabe mittels eines für auf verschiedenen Plätzen im Kraftfahrzeug befindlichen Personen erreichbaren Bedienelements zur Darstellung von Menüs führen, die abhängig von der das mindestens eine Bedienelement jeweils betätigenden Person sind. Mittels Sensoren erfolgt automatisch die Ermittlung der jeweiligen Person.
Aus der DE 103 37 852 A1 ist ein Fahrzeugsystem zum Betrieb in einem Kraftfahrzeug mit einer Bedieneinrichtung zur Bedienung des Fahrzeugsystems bekannt. Dabei kann erkannt werden, ob ein Bedienzugriff auf die Bedieneinrichtung durch den Fahrzeugführer oder einen sonstigen Insassen des Fahrzeugs erfolgt.
Eine Aufgabe der vorliegenden Erfindung besteht darin, einen jeweiligen Fahrzeuginsassen, welcher in Interaktion mit einem Infotainmentsystem in einem Fahrzeug steht, ein individualisiertes und situationsabgepasstes Informationsangebot bereitstellen zu können. Diese Aufgabe wird durch ein Verfahren, eine Schnittstellenvorrichtung und ein Fahrzeug gemäß den unabhängigen Patentansprüchen gelöst. Sinnvolle Weiterbildungen ergeben sich aus den abhängigen Patentansprüchen.
Ein Aspekt der Erfindung betrifft ein Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, wobei
- eine Bedienhandlung eines Fahrzeuginsassen an der Schnittstellenvorrichtung mittels einer ersten Sensoreinrichtung erkannt wird, aufweisend:
- Erfassen zumindest einer Zustandsinformation betreffend den
Fahrzeuginsassen, welcher die Bedienhandlung ausübt, mit einer zur ersten Sensoreinrichtung verschiedenen zweiten Sensoreinrichtung,
- Bestimmen einer Art und/oder eines Umfangs einer Funktion der Schnittstellenvorrichtung in Abhängigkeit von der erkannten Bedienhandlung des Fahrzeuginsassen und der erfassten zumindest einen Zustandsinformation des Fahrzeuginsassen, und
- Bereitstellen der bestimmten Funktion der Schnittstellenvorrichtung zur Nutzung für den Fahrzeuginsassen in der bestimmten Art und/oder dem bestimmten Umfang.
Durch das vorgeschlagene Verfahren kann dem Fahrzeuginsassen, welcher an der Schnittstellenvorrichtung eine Bedienhandlung durchführt, eine individuell angepasste Funktion und/oder ein individuell angepasster Informationsinhalt zur Verfügung gestellt werden. Somit kann je nachdem, welcher Fahrzeuginsasse die Schnittstellenvorrichtung bedienen beziehungsweise nutzen möchte, eine angepasste Nutzung bereitgestellt beziehungsweise ermöglicht werden.
Insbesondere wird bei der Bestimmung der Art und/oder des Umfangs der Funktion der Schnittstellenvorrichtung darauf geachtet, ob es sich bei dem Fahrzeuginsassen, welcher die Bedienhandlung ausübt beziehungsweise wünscht, um einen Fahrzeugfahrer beziehungsweise Fahrer oder um einen Beifahrer oder einen anderweitigen Passagier im Fahrzeug handelt. Dadurch kann zum einen dafür gesorgt werden, dass insbesondere der Fahrer des Fahrzeuges nicht durch eine Informationsüberfrachtung und/oder durch eine umfangreiche Funktionalität der Schnittstellenvorrichtung abgelenkt wird. Ebenso können dem Beifahrer des Fahrzeuges, welcher keine Fahraufgaben wahrnehmen muss, mehr Informationsinhalte und/oder ein größerer funktioneller Umfang der Schnittstellenvorrichtung zur Verfügung gestellt werden.
Mithilfe des vorgeschlagenen Verfahrens kann also zum einen die Sicherheit bei der Nutzung der Schnittstellenvorrichtung durch den Fahrer des Fahrzeuges erhöht werden, da darauf geachtet wird, dass der Fahrer des Fahrzeuges nicht zu sehr abgelenkt wird. Anderenfalls kann insbesondere der Beifahrer mit attraktiven Inhalten und/oder Funktionen der Schnittstellenvorrichtung versorgt werden.
Hierzu wird zum einen mittels der ersten Sensoreinrichtung die Bedienhandlung des Fahrzeuginsassen an der Schnittstellenvorrichtung erkannt beziehungsweise detektiert beziehungsweise erfasst und zusätzlich mittels einer zweiten Sensoreinrichtung zumindest eine Zustandsinformation des Fahrzeuginsassen erfasst. Durch dies können verschiedene, insbesondere unabhängige, Informationen bei der Bestimmung der Art und/oder des Umfangs der Funktion der Schnittstellenvorrichtung berücksichtigt werden. Dadurch kann die Robustheit beziehungsweise die Effizienz der Bestimmung der Art und/oder des Umfangs der Funktion erhöht beziehungsweise verbessert werden. Somit kann die Funktion der Schnittstellenvorrichtung an den jeweiligen Fahrzeuginsassen individuell angepasst werden. Dies erfolgt durch das Bestimmen der jeweiligen Art und/oder des jeweiligen Umfangs der Funktion der Schnittstellenvorrichtung. Dadurch kann eine individualisierte Funktion dem jeweiligen Fahrzeuginsassen, welcher die Schnittstellenvorrichtung nutzen möchte, bereitgestellt werden.
Beispielsweise kann die Schnittstellenvorrichtung durch eine Bedienhandlung eines Fahrzeuginsassen des Fahrzeugs an der Schnittstellenvorrichtung gesteuert werden. Beispielsweise kann die Schnittstellenvorrichtung als Bedienvorrichtung bezeichnet werden. Insbesondere handelt es sich bei der Schnittstellenvorrichtung um ein Infotainmentsystem des Fahrzeugs.
Beispielsweise kann die Schnittstellenvorrichtung in einem Cockpitbereich des Fahrzeuges angeordnet sein. Beispielsweise kann die Schnittstellenvorrichtung zur Interaktion mit den Fahrzeuginsassen genutzt werden. Hierzu kann die Schnittstellenvorrichtung eine Anzeigeeinheit und/oder eine Ausgabeeinheit aufweisen, mit welchen akustische, optische und/oder haptische Informationsinhalte und/oder Interaktionen den Fahrzeuginsassen ausgegeben beziehungsweise bereitgestellt werden können.
Beispielsweise können die Fahrzeuginsassen mittels einer jeweiligen Bedienhandlung an der Schnittstellenvorrichtung die Schnittstellenvorrichtung steuern.
Bei den Fahrzeuginsassen kann es sich insbesondere um Passagiere und/oder Insassen des Fahrzeugs handeln. Bei dem Fahrzeug kann es sich beispielsweise um einen Personenkraftwagen handeln, welcher eine Fahrgastzelle aufweist.
Beispielsweise kann es sich bei der ersten Sensoreinrichtung um zumindest einen Näherungssensor und/oder um zumindest eine Kamera und/oder um eine Fahrerbeobachtungskamera und/oder um einen Innenraumradar und/oder um eine Innenraumkamera und/oder um eine 3D-Kamera und/oder um eine ToF-Kamera handeln. Insbesondere kann die erste Sensoreinrichtung mehrere Teilsensoren aufweisen. Dazu kann die erste Sensoreinrichtung insbesondere einen Fahrgastinnenraum beziehungsweise die Fahrgastzelle des Fahrzeuges sensorisch erfassen.
Mithilfe der ersten Sensoreinrichtung kann entweder eine unmittelbar bevorstehende Bedienhandlung des Fahrzeuginsassen erfasst werden. Folglich wird ein Annähern des Fahrzeuginsassen an die Schnittstellenvorrichtung detektiert. Ebenso kann mit der ersten Sensoreinrichtung eine tatsächlich aktuell ausgeübte Bedienhandlung des Fahrzeuginsassen erfasst werden. Beispielsweise kann mithilfe der ersten Sensoreinrichtung eine Bedienhandlung bereits im Vorfeld erkannt werden, indem ein Annähern des Fahrzeuginsassen an die Schnittstellenvorrichtung erkannt wird. Ebenso kann bereits eine tatsächlich ausgeführte beziehungsweise ausgeübte Bedienhandlung des Fahrzeuginsassen erfasst werden.
Insbesondere kann eine Bedienhandlung eines Fahrzeuginsassen durch eine Fingerbewegung, Zeigebewegung, Armbewegung erkannt werden. Ebenso denkbar ist, dass die Bedienhandlung mittels eines Bedienelements durch den Fahrzeuginsassen ausgeführt beziehungsweise ausgeübt wird. Beispielsweise kann es sich bei einem Bedienelement um einen Bedienstift und/oder einen Bedienstab handeln.
Beispielsweise kann es sich bei der zweiten Sensoreinrichtung um mehrere Sensoren beziehungsweise Teileinheiten handeln. Insbesondere handelt es sich bei der zweiten Sensoreinrichtung beispielsweise um eine Fahrerbeobachtungskamera oder um kapazitive Sensoren. Insbesondere kann mithilfe der zweiten Sensoreinrichtung ein jeweiliger Zustand und/oder mehrere Zustände des Fahrzeuginsassen erfasst beziehungsweise bestimmt werden.
Beispielsweise können mit einer elektronischen Auswerteeinheit der Schnittstellenvorrichtung die Art und/oder der Umfang der Funktion bestimmt werden. Bei der Art der Funktion kann es sich beispielsweise um einen Fahrzeugführer-Modus handeln oder um einen Nicht-Fahrzeugführer-Modus handeln. Beispielsweise kann mit der Art zwischen einer fahrerseitigen Funktion oder um eine beifahrerseitige Funktion der Schnittstellenvorrichtung unterschieden werden. Mit dem Umfang beziehungsweise dem Maß der Funktion kann beispielsweise ein Informationsinhalt beziehungsweise eine Zeitdauer und/oder ein Funktionsumfang der Funktion bereitgestellt werden. Insbesondere kann beispielsweise bestimmt werden, ob der
Fahrzeuginsasse nur einen Lesezugriff oder einen Schreibzugriff und/oder einen Lese- und Schreibzugriff bezüglich der Funktion der
Schnittstellenvorrichtung freigegeben wird zur Nutzung.
Insbesondere kann mithilfe der Art und/oder des Umfangs bei einer als Infotainmentsystem ausgebildeten Schnittstellenvorrichtung festgelegt werden, welche Infotainment-Inhalte beziehungsweise Infotainment- Anwendungen dem Fahrzeuginsassen zur Nutzung angeboten beziehungsweise freigegeben werden.
Beispielsweise kann die Schnittstellenvorrichtung eine Freigabeeinheit aufweisen, mit welcher die bereitgestellte Funktion zur Nutzung dem Fahrzeuginsassen freigegeben wird. Ebenso kann bei bestimmten Fahrsituationen und/oder auftretenden Situationen der Umfang und/oder die Art entsprechend wieder gesperrt beziehungsweise eingeschränkt werden.
Insbesondere handelt es sich bei dem vorgeschlagenen Verfahren um ein computerimplementiertes Verfahren.
In einem Ausführungsbeispiel der Erfindung ist vorgesehen, dass eine Feststellung erfolgt, ob es sich bei dem Fahrzeuginsassen um einen Fahrzeugführer des Fahrzeugs oder um einen vom Fahrzeugführer verschiedenen Insassen des Fahrzeugs handelt, und diese Feststellung bei dem Bestimmen der Art und/oder des Umfangs der Funktion der Schnittstellenvorrichtung berücksichtigt wird. Insbesondere erfolgt diese Feststellung mittels einer elektronischen Auswerteeinheit beziehungsweise der Recheneinheit der Schnittstellenvorrichtung. Für die Feststellung können die Informationen, welche von der ersten Sensoreinrichtung und der zweiten Sensoreinrichtung erfasst beziehungsweise bestimmt wurden, verwendet werden. Somit kann durch die verschiedensten Informationen der verschiedenen Sensoreinrichtungen eine verbesserte und insbesondere robustere Unterscheidung der Fahrzeuginsassen getroffen werden. Insbesondere kann hierbei zwischen dem Fahrer des Fahrzeugs und dem Beifahrer des Fahrzeugs unterschieden werden. Je nachdem, ob es sich bei dem Fahrzeuginsassen um den Fahrer oder den Beifahrer handelt, werden die Art und/oder der Umfang der Funktion angepasst. Folglich kann festgestellt beziehungsweise überprüft werden, ob die Bedienhandlung durch den Fahrer beziehungsweise Fahrzeugführer oder von dem Beifahrer ausgeübt wird. Beispielsweise kann dadurch eindeutig identifiziert werden, ob die Bedienhandlung beziehungsweise Bedienung beziehungsweise Bedienungsabsicht von einem Fahrer oder einem Beifahrer getroffen wurde. Durch diese Feststellung kann die Schnittstellenvorrichtung individuell angesteuert und insbesondere betrieben werden. Durch die Feststellung, ob es sich um den Fahrzeugführer oder um einen davon verschiedenen Insassen handelt, können die Funktion und/oder die Inhalte der Schnittstellenvorrichtung zielgerichtet zur Nutzung für den Fahrzeuginsassen bereitgestellt beziehungsweise angeboten werden.
Insbesondere ist die Unterscheidung zwischen dem Fahrzeugführer und einem davon verschiedenen Insassen dann von Bedeutung, wenn es sich beispielsweise bei dem Fahrzeug um ein zumindest teilweise autonom betriebenes Fahrzeug handelt.
Beispielsweise kann es sich bei dem Fahrzeug um ein Fahrzeug mit einem Autonomielevel 2, 3 oder 4 handeln. Insbesondere ist bei einem Autonomielevel 3 darauf zu achten, dass aufgrund von Ablenkungsanforderungen und/oder Aufmerksamkeitsanforderungen die angebotene Funktion für den Fahrzeugführer nicht gleich ist, wie das Inhaltsangebot beziehungsweise der Funktionsumfang beziehungsweise die Funktionsart wie für den Beifahrer. Somit kann eine Unterscheidung beziehungsweise Lektion der Funktionsart und/oder des Funktionsumfangs getroffen werden.
In einem weiteren Ausführungsbeispiel ist vorgesehen, dass mit einer zur ersten und zweiten Sensoreinrichtung verschiedenen dritten Sensoreinrichtung eine Anzahl an Fahrzeuginsassen und/oder eine jeweilige Position eines der Fahrzeuginsassen innerhalb des Fahrzeugs erfasst wird, wobei dies bei der Feststellung, ob es sich bei dem Fahrzeuginsassen um den Fahrzeugführer des Fahrzeugs oder um einen von dem Fahrzeugführer verschiedenen Insassen handelt, berücksichtigt wird. Durch die erfasste Anzahl an Fahrzeuginsassen und/oder die jeweilige Position der Fahrzeuginsassen kann die Feststellung, ob es sich bei dem Fahrzeuginsassen um den Fahrzeugfahrer oder um den Beifahrer beispielsweise handelt, effizienter, insbesondere genauer, durchgeführt werden. Dadurch kann erreicht werden, dass die Funktionsart und/oder der Funktionsumfang an den Fahrzeuginsassen individuell, insbesondere spezifisch, angepasst werden kann.
Beispielsweise kann die dritte Sensoreinrichtung mehrere Sensoren aufweisen, welche optional im Fahrgastinnenraum des Fahrzeugs verteilt angeordnet sind. Beispielsweise kann es sich bei der dritten Sensoreinrichtung um Sensoren in den Fahrzeugsitzen beziehungsweise Fahrzeugbänken des Fahrzeugs handeln. Ebenso denkbar ist, dass es sich bei der dritten Sensoreinrichtung um Sitzbelegungssensoren beziehungsweise Sitzbelegungsmatten handelt. Beispielsweise kann die dritte Sensoreinrichtung als kapazitives Sensorsystem ausgebildet sein. Ferner kann es sich bei der dritten Sensoreinrichtung um Gurtschlosssensoren handeln. Folglich kann somit mithilfe der dritten Sensoreinrichtung festgestellt beziehungsweise überprüft werden, welche Fahrzeugsitze beziehungsweise Fahrzeugsitzplätze belegt sind und welche nicht. Somit können die jeweiligen Positionen und insbesondere die Anzahl ermittelt werden. Dies ist insbesondere dadurch vorteilhaft, da durch eine Sitzbelegungserkennung festgestellt werden kann, ob es sich bei dem Fahrzeuginsassen um den Fahrer oder den Beifahrer handelt.
Besonders vorteilhaft ist, wenn zur Feststellung, ob es sich bei dem Fahrzeuginsassen um den Fahrer oder den Beifahrer handelt, mehrere unterschiedliche Sensorsysteme beziehungsweise Sensorverfahren angewendet werden. Beispielsweise können die erste, zweite und die dritte Sensoreinrichtung gemeinsam verwendet werden, um eine effiziente beziehungsweise effektive Feststellung treffen zu können. Insbesondere können die Informationen der Sensoreinrichtungen fusioniert werden, um eine zuverlässige Feststellung des Fahrzeuginsassen und folglich den Funktionsumfang und/oder die Funktionsart bestimmen zu können. Insbesondere können neben den drei genannten Sensoreinrichtungen weitere Sensoreinrichtungen beziehungsweise Sensoren im Fahrzeug verwendet werden.
In einem weiteren Ausführungsbeispiel der Erfindung ist vorgesehen, dass mit der zweiten Sensoreinrichtung eine Handbewegung und/oder eine Fingerbewegung und/oder eine Armbewegung und/oder eine Blickrichtung und/oder ein Aufmerksamkeitszustand und/oder eine Körperhaltung des Fahrzeuginsassen als die zumindest eine Zustandsinformation erfasst werden. Durch diese beispielhaft genannten Möglichkeiten, was alles eine Zustandsinformation sein kann, kann eine detaillierte und effiziente Beurteilung des Fahrzeuginsassen getroffen werden, um damit eine an den Fahrzeuginsassen angepasste Funktionsart und/oder einen Funktionsumfang bestimmen zu können. Insbesondere sollen die soeben genannten Beispiele für eine Zustandsinformation nicht abschließend zu verstehen sein, sondern sollen lediglich einen kleinen Einblick in Möglichkeiten liefern.
Beispielsweise kann mithilfe der zweiten Sensoreinrichtung erfasst werden, mit welchem Blickwinkel und/oder Blickrichtung der Fahrzeuginsasse auf die Schnittstellenvorrichtung vor und/oder während der Bedienhandlung richtet. Daraus kann beispielsweise geschlossen werden, ob es sich um den Fahrer oder den Beifahrer handelt. Sollte beispielsweise festgestellt werden, dass der Fahrzeuginsasse eine Blickrichtung nach außerhalb des Fahrgastinnenraums hat, so kann davon ausgegangen werden, dass dieser aktuell unaufmerksam ist und somit nur eine beschränkte Funktion zur Verfügung gestellt wird. Des Weiteren können diese Informationen auch dann dazu verwendet werden, um den Fahrzeuginsassen mittels akustischer und/oder optischer und/oder haptischer Warnung über seinen aktuellen Zustand zu informieren. Des Weiteren kann bei der Handbewegung und/oder der Fingerbewegung und/oder der Armbewegung des Fahrzeuginsassen, mit welchen die Handlung beziehungsweise Bedienung initiiert beziehungsweise ausgeführt wird, erfasst werden, welchen Winkel die Hand und/oder die Finger und/oder der Arm bezüglich der Schnittstellenvorrichtung aufweist. Dies kann ebenfalls ein Indikator sein, um festzustellen, ob es sich bei dem Fahrzeuginsassen um den Fahrer und/oder den Beifahrer handelt. Des Weiteren kann der Fahrzeuginsasse bezüglich seiner Körperhaltung analysiert beziehungsweise beurteilt werden, um beispielsweise festzustellen, ob es sich um einen aufmerksamen Fahrer oder einen ausruhenden Beifahrer handelt. All diese möglichen Informationen können dazu verwendet werden, um eine an den jeweiligen Fahrzeuginsassen und insbesondere die jeweilige Situation angepasste Funktionsart und/oder Funktionsumfang zu bestimmen.
In einem weiteren Ausführungsbeispiel ist vorgesehen, dass die bestimmte Art und/oder der bestimmte Umfang der Funktion der Schnittstellenvorrichtung und/oder die bestimmte Funktion der Schnittstellenvorrichtung und/oder die erkannte Bedienhandlung des Fahrzeuginsassen und/oder die erfasste zumindest eine Zustandsinformation des Fahrzeuginsassen einer Maschineniemeinheit der Schnittstellenvorrichtung bereitgestellt beziehungsweise übermittelt wird, wodurch die Schnittstellenvorrichtung mittels der Maschinenlerneinheit, insbesondere automatisch, zur Bestimmung der Art und/oder des Umfangs einer Funktion der Schnittstellenvorrichtung maschinell trainiert wird. Dadurch kann die Schnittstellenvorrichtung noch besser betrieben werden, da die Schnittstellenvorrichtung anhand bestimmter Situationen selbstständig lernen kann. Somit kann eine zukünftige Bestimmung einer Art und/oder eines Umfangs einer Funktion effizienter und insbesondere besser erfolgen.
Darüber hinaus kann die Schnittstellenvorrichtung beziehungsweise das Schnittstellensystem nach und nach anhand eines Maschinenlernens („Machine Learning“) maschinell trainiert werden, sodass mit der Zeit die Anwendungssituationen beziehungsweise die Bedienhandlungssituationen noch schneller und zuverlässiger erkannt werden können. Dies ist vor allem dann von Vorteil, wenn eine oder mehrere Sensoreinrichtungen ausgefallen sind oder nur eingeschränkt funktionsfähig sind. Somit kann durch das Maschinenlernen trotzdem eine Bestimmung der Art oder des Umfangs der Funktion durchgeführt werden. Insbesondere kann anhand einer der Maschineniemeinheit, welche sich eines Maschinenlern-Algorithmus bedient, bei jeder Interaktion beziehungsweise Bedienhandlung die Schnittstellenvorrichtung lernen, wie der Fahrer beziehungsweise der Beifahrer mit der Schnittstellenvorrichtung interagieren. Folglich kann nach und nach die Schnittstellenvorrichtung die Absichten der Nutzer beziehungsweise Fahrzeuginsassen bezüglich der Bedienung der Schnittstellenvorrichtung zuverlässiger und reaktiver erkennen.
Insbesondere erfolgt das Lernen der Schnittstellenvorrichtung mithilfe der Maschineniemeinheit automatisch und insbesondere kontinuierlich.
Insbesondere können für das Maschinenlernen die verschiedensten Informationen und/oder Eingangsgrößen verwendet werden. Hierzu können die bereits zuvor geschilderten Ausführungsbeispiele und die darin enthaltenen Informationen und/oder Eingangsgrößen für die Maschineniemeinheit verwendet werden. Insbesondere können in diesem Zusammenhang alle bereitgestellten und/oder generierten Informationen aus dieser Erfindung für das maschinelle Lernen der Schnittstellenvorrichtung verwendet werden.
In einem Ausführungsbeispiel ist vorgesehen, dass die Bedienhandlung des Fahrzeuginsassen auf einer Anzeigeeinheit der Schnittstellenvorrichtung ausgeübt wird, wobei ein Berühren des Fahrzeuginsassen auf der Anzeigeeinheit als Bedienhandlung durch die erste Sensoreinrichtung erkannt wird. Beispielsweise kann die Schnittstellenvorrichtung eine Benutzerschnittstelle („User Interface“) aufweisen. Somit kann die Schnittstellenvorrichtung eine Mensch-Maschine-Schnittstelle aufweisen, sodass zum einen den Fahrzeuginsassen die Möglichkeit bereitgestellt wird, eine entsprechende Bedienhandlung ausüben zu können. Hierzu kann die Anzeigeeinheit beispielsweise als berührungssensitives Display ausgebildet sein. Insbesondere handelt es sich bei der Anzeigeeinheit um einen berührungssensitiven Bildschirm, sodass darauf angezeigte Informationen beziehungsweise Funktionen mittels der Bedienhandlung durch den Fahrzeuginsassen getätigt beziehungsweise ausgewählt werden können. Beispielsweise handelt es sich bei der Anzeigeeinheit um ein Touch-Display eines Infotainmentsystems des Fahrzeugs. Somit kann der Fahrzeuginsasse beispielsweise mit seinen Fingern, Armen oder Händen die Anzeigeeinheit berühren, um somit die Bedienhandlung ausführen beziehungsweise ausüben zu können. Diese Berührung kann beispielsweise mithilfe der ersten Sensoreinrichtung oder einer kapazitiven Sensoreinrichtung der Schnittstellenvorrichtung erfasst beziehungsweise erkannt werden. Durch das Berühren der Anzeigeeinheit kann beispielsweise mittels kapazitiver Sensoren in der Anzeigeeinheit festgestellt werden, ob es sich um den Fahrzeugführer oder Beifahrer handelt.
Beispielsweise kann bei einem Berühren des Fahrzeuginsassen auf der Anzeigeeinheit ein dem Berühren spezifischer Wert (beispielsweise ein Druckwert) erfasst werden. Dies kann beispielsweise der jeweiligen Bedienung zugeordnet werden. Ebenfalls kann bei dem Berühren eine jeweilige Impedanz und/oder Kapazität ermittelt werden, sodass dies der Bedienhandlung zugeordnet werden kann und daraufhin bei einer zukünftigen Bedienhandlung anhand dieser speziellen beziehungsweise charakteristischen Werte ein entsprechender Funktionsumfang und/oder eine Funktionsart ausgewählt werden kann. Hierzu können typische Impedanzwerte und/oder typische Kapazitätswerte des Berührens der Anzeigeeinheit beispielsweise in einer Datenbank festgehalten werden und bei zukünftigen Bedienhandlungen berücksichtigt werden.
Beispielsweise können diese Werte ebenso für die Maschinenlerneinheit verwendet werden.
Beispielsweise können bei einem Berühren der Anzeigeeinheit eine Abweichung von diesen speziellen Werte gegenüber Referenzwerten festgestellt beziehungsweise betrachtet werden, um somit bereits eine vordefinierte Funktion zur Verfügung zu stellen.
In einem Ausführungsbeispiel ist vorgesehen, dass mit einer Signalerzeugungseinheit ein moduliertes Identifizierungssignal erzeugt wird, wobei das erzeugte Identifizierungssignal bei einer Berührung der Anzeigeeinheit durch den Fahrzeuginsassen von einem von dem Fahrzeuginsassen umgriffenen Lenkrad des Fahrzeugs über den Fahrzeuginsassen an die Anzeigeeinheit übertragen wird, um die Art und/oder den Umfang der Funktion der Schnittstellenvorrichtung zu bestimmen. Mit anderen Worten ausgedrückt wird ein speziell moduliertes elektrisches und/oder digitales Signal über den Körper des Fahrzeuginsassen an eine Empfangseinheit der Anzeigeeinheit übertragen beziehungsweise übersendet, sodass anhand dieses wiederum empfangenen Identifizierungssignals festgestellt werden kann, ob es sich bei dem Fahrzeuginsassen, welcher die Bedienhandlung ausgeübt hat, um den Fahrzeugfahrer handelt oder nicht. Somit kann durch die Signalerzeugung und Signalübertragung eine einfache Möglichkeit bereitgestellt werden, um zwischen dem Beifahrer und dem Fahrer unterscheiden zu können.
Beispielsweise kann die Signalerzeugungseinheit in der Schnittstellenvorrichtung integriert sein oder zumindest teilweise im Lenkrad integriert sein. Somit kann ein entsprechendes Signal erzeugt und über das von dem Fahrzeuginsassen umgriffene Lenkrad über den Körper des Fahrzeuginsassen an die berührte Anzeigeeinheit übertragen werden. Sollte durch die Empfangseinheit nun genau das modulierte Identifizierungssignal empfangen sein, welches zuvor generiert wurde, kann eindeutig festgestellt werden, ob es sich bei dem Fahrzeuginsassen um den Fahrzeugführer handelt. Somit können die für den Fahrzeugführer erlaubten beziehungsweise nutzbaren Funktionen in ihrer jeweiligen Art und/oder in ihrem jeweiligen Umfang schneller bereitgestellt und dem Fahrzeuginsassen zur Nutzung ausgegeben werden. Beispielsweise kann das Lenkrad eine Lenkradheizung aufweisen, über welche das Identifizierungssignal an den Fahrzeuginsassen übertragen werden kann. Insbesondere kann über das Lenkrad ein spezielles Signal, insbesondere das Identifizierungssignal, in Frequenz und/oder Form moduliert werden und beispielsweise über Elemente einer Lenkradheizung oder ein Lenkrad-Hand- Fassungssystem ausgesendet werden. Das Signal kann beispielsweise als elektrischer Strom mit einer niedrigen Spannung und Intensität generiert beziehungsweise erzeugt werden. Das Identifizierungssignal kann über den Fahrerkörper beziehungsweise den Körper des Fahrzeuginsassen geleitet werden und von speziellen Sensoren und/oder Empfangseinheiten in der Anzeigeeinheit empfangen und somit zum Fahrer zugeordnet werden. Daraufhin kann eine Fahrer-Bedienung als Funktion zur Nutzung bereitgestellt werden.
In einem Ausführungsbeispiel ist vorgesehen, dass mit einer Signalerzeugungseinheit ein moduliertes Identifizierungssignal erzeugt wird, wobei das erzeugte Identifizierungssignal bei einer Berührung der Anzeigeeinheit durch den Fahrzeuginsassen von einem Fahrzeugsitz, auf welchem der Fahrzeuginsasse sitzt, über den Fahrzeuginsassen an die Anzeigeeinheit übertragen wird, um die Art und/oder den Umfang der Funktion der Schnittstellenvorrichtung zu bestimmen.
Durch die Aussendung beziehungsweise Leitung des Identifizierungssignals von einem Fahrzeugsitz kann beispielsweise gleichzeitig bei Vorhandensein eines Fahrers und eines Beifahrers diese beiden unterschieden werden und somit festgestellt werden, welcher dieser beiden die Bedienhandlung ausgeübt hat, um daraufhin die Art und/oder den Umfang der Funktion bestimmen zu können. Hierzu kann eine Signal-Modulierung verwendet werden, um beispielsweise für jeden Fahrzeugsitz des Fahrzeuges kein individuelles Identifizierungssignal zu erzeugen. Somit kann anschließend eine Erkennung beziehungsweise eine Identifizierung erfolgen, welcher Fahrzeuginsasse die Bedienhandlung ausgeübt beziehungsweise ausgeführt hat. Beispielsweise kann hierfür eine Sitzheizung in den Fahrzeugsitzen und/oder eine Sitzbelegungserkennungseinheit der Fahrzeugsitze verwendet werden, um das Identifizierungssignal an den Fahrzeuginsassen übertragen zu können, um dies wiederum beispielsweise mit der Empfangseinheit der Anzeigeeinheit empfangen beziehungsweise detektieren zu können. Anhand der jeweiligen Zuordnung, ob es sich um den Fahrer oder den Beifahrer handelt, kann die Art und/oder der Umfang der Funktion bestimmt werden. Insbesondere kann das Identifizierungssignal für jeden Fahrzeugsitz unterschiedlich moduliert werden, um eine eindeutige Erkennung des Fahrzeuginsassen durchführen zu können. Beispielsweise kann, je nachdem welches modulierte Identifizierungssignal erfasst wurde, eine Fahrerbedienung und/oder eine Beifahrerbedienung als Funktion dem Fahrzeuginsassen zur Nutzung bereitgestellt beziehungsweise zur Verfügung gestellt werden.
In einem weiteren Ausführungsbeispiel ist vorgesehen, dass eine Fahrzeuginformation und/oder eine aktuelle Fahrsituation und/oder ein aktueller Betriebsmodus des Fahrzeugs und/oder eine aktuelle Verkehrssituation in der Umgebung des Fahrzeugs bei der Bestimmung der Art und/oder des Umfangs der Funktion der Schnittstellenvorrichtung berücksichtigt wird. Dies kann ebenso von der Maschineniemeinheit verwendet werden. Dies ist beispielsweise dann von Bedeutung, wenn beispielsweise eine komplexe beziehungsweise gefährliche Verkehrssituation in der Umgebung des Fahrzeugs detektiert wurde und die Bedienhandlung von dem Fahrer ausgeübt wird. In diesem Fall kann zur Sicherheitserhöhung die Funktion in ihrer Art und/oder in ihrem Umfang minimal gehalten werden, um den Fahrer hierbei nicht unnötig vom Straßenverkehr abzulenken.
Des Weiteren ist bei der Bestimmung der Art und/oder des Umfangs der Funktion der jeweilige Betriebsmodus des Fahrzeuges von Bedeutung. Bei einem Betriebsmodus kann es sich beispielsweise um ein Autonom ielevel des Fahrzeugs handeln. Je nachdem, welches Autonom ielevel vorliegt, können insbesondere die Art und/oder der Umfang der Funktion eingeschränkt werden, um insbesondere den Fahrer als Fahrzeuginsassen nicht zu stark von seiner Fahraufgabe beziehungsweise Fahrbereitschaft abzulenken. In einem Ausführungsbeispiel ist des Weiteren vorgesehen, dass mit der ersten Sensoreinrichtung und/oder der zweiten Sensoreinrichtung und/oder der dritten Sensoreinrichtung eine Handbewegung und/oder eine Fingerbewegung und/oder eine Armbewegung des Fahrzeuginsassen als Bedienhandlung erfasst wird. Beispielsweise kann dies an der Anzeigeeinheit der Schnittstellenvorrichtung mittels Berühren erfolgen oder in unmittelbarer Nähe zu der Anzeigeeinheit oder der Schnittstellenvorrichtung können diese Bewegungen erfasst werden.
In einem weiteren Ausführungsbeispiel ist vorgesehen, dass in Abhängigkeit von den erfassten Informationen der verschiedenen Sensoreinrichtungen der Schnittstellenvorrichtung ein Fahrzeugführer-Modus oder ein Nicht- Fahrzeugführer-Modus für die Schnittstellenvorrichtung eingestellt beziehungsweise freigegeben beziehungsweise aktiviert wird. Somit kann je nachdem, ob es sich beispielsweise um den Fahrer oder den Beifahrer handelt, ein spezieller Modus der Schnittstellenvorrichtung freigegeben oder halt nicht freigegeben werden.
Ein weiterer Aspekt der Erfindung betrifft eine Schnittstellenvorrichtung für ein Fahrzeug, mit
- einer erste Sensoreinrichtung zum Erkennen einer Bedienhandlung eines Fahrzeuginsassen an der Schnittstellenvorrichtung, aufweisend:
- eine zur ersten Sensoreinrichtung verschiedene zweite Sensoreinrichtung zum Erfassen zumindest einer Zustandsinformation betreffend den Fahrzeuginsassen, welcher die Bedienhandlung ausübt, und
- eine Auswerteeinheit zur Bestimmung einer Art und/oder eines Umfangs einer Funktion der Schnittstellenvorrichtung in Abhängigkeit von der erkannten Bedienhandlung des Fahrzeuginsassen und der erfassten zumindest einen Zustandsinformation des Fahrzeuginsassen, sowie
- eine Benutzerschnittstelleneinheit zum Bereitstellen der bestimmten Funktion der Schnittstellenvorrichtung zur Nutzung für den Fahrzeuginsassen in der bestimmten Art und/oder dem bestimmten Umfang Bei der Schnittstellenvorrichtung kann es sich insbesondere um ein elektronisches System für ein Fahrzeug handeln. Beispielsweise kann es sich bei der Schnittstellenvorrichtung um ein Infotainmentsystem des Fahrzeugs handeln.
Insbesondere weist die Schnittstellenvorrichtung zumindest eine elektronische Auswerteeinheit auf. Des Weiteren kann die Schnittstellenvorrichtung eine Maschinenlerneinheit aufweisen.
Bei der Benutzerschnittstelleneinheit kann es sich beispielsweise um eine grafische Benutzeroberfläche oder um ein Touchdisplay oder um eine akustische Aus- und/oder Eingabeeinheit handeln. Insbesondere kann mithilfe der Benutzerschnittstelleneinheit, welche insbesondere eine Maschine-Mensch-Schnittstelle ist, eine Interaktion zwischen der Schnittstellenvorrichtung und dem Fahrzeuginsassen des Fahrzeugs erfolgen.
Ein weiterer Aspekt der Erfindung betrifft ein Fahrzeug mit einer Schnittstellenvorrichtung nach dem vorhergehenden Aspekt.
Beispielsweise kann es sich bei dem Fahrzeug um einen Personenkraftwagen oder einen Lastkraftwagen handeln. Beispielsweise kann die Schnittstellenvorrichtung in einem Cockpitbereich des Fahrzeuges angeordnet werden. Beispielsweise können mithilfe der Schnittstellenvorrichtung die verschiedensten Funktionen, Komponenten und/oder Elemente im Fahrzeug bedient beziehungsweise gesteuert werden. Insbesondere kann es sich bei dem Fahrzeug um ein hochautomatisiertes Fahrzeug handeln.
Insbesondere kann mithilfe der Schnittstellenvorrichtung das vorhin geschilderte Verfahren durchgeführt werden. Insbesondere können einzelne Ausführungsbeispiele eines Aspekts als vorteilhafte Ausführungsbeispiele der anderen Aspekte und umgekehrt angesehen werden.
Zu der Erfindung gehört auch die Schnittstellenvorrichtung für das Fahrzeug. Die Schnittstellenvorrichtung kann eine Datenverarbeitungsvorrichtung oder eine Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen FPGA (Field Programmable Gate Array) und/oder zumindest einen DSP (Digital Signal Processor) aufweisen. Des Weiteren kann die Prozessoreinrichtung Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.
Zu der Erfindung gehören auch Weiterbildungen der erfindungsgemäßen Schnittstellenvorrichtung und des erfindungsgemäßen Fahrzeugs, die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Verfahrens beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen der erfindungsgemäßen Schnittstellenvorrichtung und des erfindungsgemäßen Fahrzeugs hier nicht noch einmal beschrieben.
Das erfindungsgemäße Fahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet.
Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen. Die Erfindung umfasst also auch Realisierungen, die jeweils eine Kombination der Merkmale mehrerer der beschriebenen Ausführungsformen aufweisen, sofern die Ausführungsformen nicht als sich gegenseitig ausschließend beschrieben wurden.
Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
Fig. 1 eine schematische Darstellung eines Fahrzeugs mit einer Schnittstellenvorrichtung;
Fig. 2 eine schematische Darstellung eines Fahrgastinnenraums des Fahrzeugs mit einer Schnittstellenvorrichtung aus Fig.1 ;
Fig. 3 ein Ausführungsbeispiel der Schnittstellenvorrichtung aus Fig. 1 ;
Fig. 4 ein weiteres Ausführungsbeispiel der Schnittstellenvorrichtung aus Fig. 1 ; und
Fig. 5 ein schematisches Ablaufdiagramm einer Betriebsstrategie der Schnittstellenvorrichtung aus Fig. 1 .
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente. In der Fig. 1 ist eine schematische Ansicht eines Fahrzeugs 1 dargestellt. Bei dem Fahrzeug 1 handelt es sich beispielsweise um einen Personenkraftwagen oder einen anderweitigen Kraftwagen. Beispielsweise kann das Fahrzeug 1 ein zumindest teilweise autonom betriebenes Fahrzeug sein. Hierzu kann das Fahrzeug 1 beispielsweise ein Autonom ielevel 3 oder 4 aufweisen.
Damit sich Fahrzeuginsassen 2 beziehungsweise Passagiere des Fahrzeugs 1 , Informationen im Fahrzeug 1 ausgeben und/oder anzeigen lassen können, weist das Fahrzeug 1 eine Schnittstellenvorrichtung 3 beziehungsweise ein Schnittstellensystem auf. Bei der Schnittstellenvorrichtung 3 kann es sich beispielsweise um ein Infotainmentsystem oder um ein Bediensystem im Fahrzeug 1 handeln. Mit Hilfe der Schnittstellenvorrichtung 3 können beispielsweise Infotainment-Inhalte und/oder Anwendungsprogramme (Apps) dem Fahrzeuginsassen 2 zur Verfügung gestellt beziehungsweise angeboten werden. Dies können beispielsweise Bilder, Videos, Audiodateien, Einstelloptionen, Klimaanlagensteuerung, Telefonate, Einstellung eines Fahrzeugmodus, Aufrufen einer Internetseite, Informationsabrufung, Wetterinformationen, oder sonstige Informationen und/oder Nutzungsmöglichkeiten oder Bedienungsmöglichkeiten umfassen. Diese Beispiele sind nicht abschließend zu verstehen, sondern sollen lediglich einen kleinen Einblick liefern, welche Möglichkeiten die Fahrzeuginsassen 2 mit Hilfe der Schnittstellenvorrichtung 3 angeboten bekommen können.
Beispielsweise kann die, insbesondere elektronische, Schnittstellenvorrichtung 3 zumindest eine, insbesondere elektronische, Auswerteeinheit 4 aufweisen. Insbesondere kann es sich bei der Auswerteeinheit 4 um eine Recheneinheit oder um ein Rechensystem handeln. Des Weiteren kann die Schnittstellenvorrichtung 3 eine Benutzerschnittstelleneinheit 5 aufweisen. Mittels dieser können die Fahrzeuginsassen beispielsweise mit der Schnittstellenvorrichtung 3 interagieren. Beispielsweise kann es sich bei der Benutzerschnittstelleneinheit 5 um eine grafische Benutzeroberfläche handeln. Insbesondere handelt es sich bei der Benutzerschnittstelleneinheit 5 um eine Maschine-Mensch-Schnittstelle, sodass zum einen die Fahrzeuginsassen 2 Bedienhandlungen an der Schnittstellenvorrichtung 3 gleich vornehmen können. Und wiederum von der Schnittstellenvorrichtung 3 über die Benutzerschnittstelleneinheit 5 Informationen und/oder Informationsinhalte dem Fahrzeuginsassen 2 zur Verfügung gestellt werden können. Insbesondere können die Fahrzeuginsassen 2 mittels der Benutzerschnittstelleneinheit 5 Steueranweisungen und/oder Bedienhandlungen an die Schnittstellenvorrichtung 2 übermitteln.
Beispielsweise kann die Schnittstellenvorrichtung 3 im Cockpit des Fahrzeugs 1 angeordnet sein. Beispielsweise kann die Schnittstellenvorrichtung 3 im Bereich der Mittelkonsole in einem Fahrgastinnenraum 6 des Fahrzeugs 1 angeordnet sein. Insbesondere ist die Schnittstellenvorrichtung 3 so angeordnet, dass sie für alle Fahrzeuginsassen 2 nutzbar ist.
Da die Schnittstellenvorrichtung 3, insbesondere während einer Fortbewegungsfahrt des Fahrzeugs 1 , sowohl von einem Fahrzeugführer 7 als auch von dem Beifahrer 8 oder von einem anderweitigen Insassen genutzt werden kann, ist hier eine Unterscheidung des jeweiligen Funktionsangebots der Schnittstellenvorrichtung 3 relevant. Dies ist besonders von Bedeutung, da der Fahrzeugführer 7 beziehungsweise der Fahrer aufmerksam beziehungsweise nicht abgelenkt sein muss, um Fahraufgaben durchführen zu können. Insbesondere muss der Fahrer jederzeit in der Lage sein, auf spezielle Situationen und/oder Verkehrsgeschehnisse reagieren zu können. Daher kann beispielsweise dem Beifahrer 8 ein größeres Funktionsangebot mittels der Schnittstellenvorrichtung 3 angeboten werden als dem Fahrzeugführer 7. Um diesen Aspekten Rechnung tragen zu können, ist die Schnittstellenvorrichtung 3 ausgebildet, um zum einen zwischen dem Fahrzeugführer 7 und dem Beifahrer 8 oder einem anderweitigen Insassen 9 unterscheiden zu können und entsprechend den Informationsinhalt und/oder Informationsangebot individuell an die jeweilige Person anzupassen. Um eine von einem Fahrzeuginsassen 2 ausgeübte Bedienhandlung 10 (vergleiche Fig. 3) unterscheiden zu können, weist die Schnittstellenvorrichtung 3 zumindest eine erste Sensoreinrichtung 11 auf. Mit Hilfe der ersten Sensoreinrichtung 11 kann die Bedienhandlung 10 eines Fahrzeuginsassen 2 an der Schnittstellenvorrichtung 3 erkannt beziehungsweise detektiert beziehungsweise erfasst werden. Insbesondere kann mittels der ersten Sensoreinrichtung 5 der Fahrgastinnenraum 6 des Fahrzeugs 1 erfasst werden. Dabei kann zwischen einer unmittelbar bevorstehenden beziehungsweise sich annähernden Bedienhandlung 10 oder einer tatsächlich aktuell bereits ausgeführten Bedienhandlung 10 unterschieden werden. Beispielsweise kann mit Hilfe der ersten Sensoreinrichtung 11 eine Handbewegung und/oder eine Fingerbewegung und/oder eine Armbewegung und/oder eine Zeigebewegung eines Fahrzeuginsassen 2 als Bedienhandlung 10 erfasst werden.
Beispielsweise kann es sich bei der ersten Sensoreinrichtung 11 um eine Fahrerbeobachtungskamera, ein Innenraumradar, eine Innenraumkamera, ein Fahrgastüberwachungssystem oder ein Bilderfassungssystem handeln.
Damit die Unterscheidung der Fahrzeuginsassen 2 detaillierter und effektiver durchgeführt werden kann, kann die Schnittstellenvorrichtung 3 von der ersten Sensoreinrichtung 11 verschiedene beziehungsweise unterschiedliche zweite Sensoreinrichtung 12 aufweisen. Beispielsweise kann die zweite Sensoreinrichtung 12 eine der bereits zur ersten Sensoreinrichtung 11 aufgezählten Sensorarten aufweisen. Insbesondere ist die zweite Sensoreinrichtung 12 dazu ausgebildet, um zumindest eine Zustandsinformation beziehungsweise einen Zustand des Fahrzeuginsassen 2, welcher die Bedienhandlung 10 ausgelöst hat, zu erfassen beziehungsweise zu bestimmen. Somit können mit den beiden verschiedenen Sensoreinrichtungen 11 , 12 zwei unterschiedliche Informationen im Zusammenhang mit der Bedienhandlung 10 erfasst werden. Diese beiden Informationen können beispielsweise kombiniert beziehungsweise korrigiert werden, um beispielsweise eine Unterscheidung der Fahrzeuginsassen 2 treffen zu können. Insbesondere kann die Schnittstellenvorrichtung 3 die unterschiedlichen Sensoreinrichtungen 11 , 12, oder noch weitere Sensoreinrichtungen fusionieren, sodass ein Mehrwert an Informationen zur Verfügung steht.
Mit Hilfe der erfassten Informationen der Sensoreinrichtungen 11 , 12, welche beispielsweise korreliert wurden, kann eine Art und/oder ein Umfang einer Funktion 13 der Schnittstellenvorrichtung 3 bestimmt beziehungsweise generiert werden. Beispielsweise können mit der Funktion 13 eine Einstellmöglichkeit einer Fahrzeugfunktion und/oder ein Infotainmentangebot und/oder eine Anwendungsapplikation und/oder ein Video und/oder verschiedene Bilder und/oder eine Audiodatei und/oder eine Musikplaylist und/oder eine Webbrowseranmeldung gemeint sein. Insbesondere kann mit der Funktion 13 den Fahrzeuginsassen 2 eine Interaktionsmöglichkeit und/oder eine Nutzungsmöglichkeit im Fahrzeug 1 angeboten werden.
Die Funktion 13 kann in ihrer Art und ihrem Umfang unabhängig davon bestimmt werden, um welchen Fahrzeuginsassen 2 es sich handelt. Die Art und/oder der Umfang der Funktion 13 unterscheiden sich bei dem Fahrzeugführer 7 von denen des Beifahrers 8. Insbesondere können dem Beifahrer 8 oder dem Insassen 9 gegenüber dem Fahrzeugführer 7 mehrere Arten und/oder ein größerer Umfang von Funktionen angeboten werden, da der Fahrzeugführer 7 gegenüber den anderen Personen nicht so stark abgelenkt werden soll. Mit Hilfe der Benutzerschnittstelleneinheit 5 kann die bestimmte Funktion der Schnittstellenvorrichtung 3 zur Nutzung für den Fahrzeuginsassen 2 in der bestimmten Art und dem bestimmten Umfang bereitgestellt beziehungsweise zur Verfügung gestellt werden. Somit kann der Fahrzeuginsasse 2, welcher die Bedienhandlung 10 ausgeübt hat, die jeweilige Funktion 13 nutzen. Insbesondere kann beispielsweise die bestimmte Funktion 13 für den jeweiligen Fahrzeuginsassen 2 zur Nutzung freigegeben werden. Andernfalls kann je nach Situation die Art und/oder der Umfang der Funktion 13 eingeschränkt werden. Zur besseren Feststellung, ob es sich bei dem Fahrzeuginsassen 2 um einen Fahrzeugführer 7 oder um den Insassen 9 oder um den Beifahrer 8 handelt, kann die Schnittstellenvorrichtung 3 eine gegenüber der ersten und zweiten Sensoreinrichtung 11 , 12 verschiedene dritte Sensoreinrichtung 14 aufweisen oder mit dieser kommunikativ beziehungsweise elektrisch vernetzt sein.
Bei der dritten Sensoreinrichtung 14 kann es sich beispielsweise um Sensoren in den Fahrzeugsitzen 15 (vergl. Fig. 2), kapazitive Sensoren, Sitzbelegungssensoren, Sitzbelegungsmatten, oder um Gurtschlusssensoren handeln. Folglich kann mit Hilfe der dritten Sensoreinrichtung 14 beispielsweise die Anzahl an Fahrzeuginsassen 2 im Fahrzeug 1 und/oder eine jeweilige Person einer der Fahrzeuginsassen 2 bestimmt beziehungsweise erfasst werden. Diese Informationen können wiederum dazu verwendet werden, um effektiver feststellen zu können, welcher Fahrzeuginsasse 2 tatsächlich die Bedienhandlung 10 ausführt beziehungsweise ausgeführt hat. Insbesondere kann die Schnittstellenvorrichtung 3 die beispielhaft genannten Sensoreinrichtungen 11 , 12, 14 oder mehrere weitere verschiedene Sensoreinrichtungen dazu verwenden, um vielfältigste Informationen im Zusammenhang mit der Bedienhandlung 10 ermitteln zu können. Hierzu können die verschiedensten Sensorarten und/oder Sensormodelle fusioniert werden, um einen größeren Informationsgehalt zu erhalten. Dazu kann die Schnittstellenvorrichtung 3 mit den Sensoreinrichtungen 11 , 12, 14 kommunikativ miteinander vernetzt sein.
Beispielsweise kann mithilfe der ersten oder zweiten Sensoreinrichtung 11 , 12 eine Handbewegung und eine Fingerbewegung und/oder eine Armbewegung und/oder eine Blickrichtung und/oder ein Blickwinkel und/oder ein Aufmerksamkeitszustand und/oder eine Körperhaltung des Fahrzeuginsassen 2 als die zumindest eine Zustandsinformation erfasst werden. Dies kann beispielsweise der Auswerteeinheit 4 der Schnittstellenvorrichtung 3 zur Verfügung gestellt werden, welche wiederum bei der Bestimmung der Art und/oder des Umfangs der Funktion 13 berücksichtigt werden können. Weitere nützliche Informationen können beispielsweise Fahrzeuginformationen des Fahrzeugs 1 und/oder eine aktuelle Fahrersituation und/oder ein aktuelles Verkehrsgeschehen und/oder ein aktueller Betriebszustand des Fahrzeugs 1 sein. Diese können beispielsweise durch Informationsquellen und/oder externe Sensor und/oder Informationsquellen der Schnittstellenvorrichtung 3 zur Verfügung gestellt werden.
Insbesondere ist beispielsweise bei einer gefährlichen Verkehrssituation vorteilhaft, dass die Art und/oder der Umfang der Funktion 13 für den Fahrzeugführer 7 eingeschränkt wird, um diesen nicht von seinen Fahraufgaben zu stark abzulenken. Des Weiteren kann beispielsweise mithilfe dieser Informationen durch die Schnittstellenvorrichtung 3 entsprechende Warn- und/oder Aufmerksamkeitshinweise im Fahrzeug 1 akustisch und/oder optisch und/oder haptisch ausgegeben werden.
In der Fig. 2 ist eine beispielhafte Darstellung des Fahrgastraums 6 dargestellt. Insbesondere ist hier einmal ein fahrerseitiger Bereich 17 und ein beifahrerseitiger Bereich 18 dargestellt. In diesem Ausführungsbeispiel kann die Schnittstellenvorrichtung 3 eine Anzeigeeinheit 19 aufweisen. Bei der Anzeigeeinheit 19 kann es sich beispielsweise um ein Touchdisplay oder um ein „Center Information Display“ des Fahrzeugs 1 handeln. Somit kann hierbei die Bedienhandlung 10 durch Berührung eines Bereichs der Anzeigeeinheit 19 von einem Fahrzeuginsassen 2 durchgeführt werden. Beispielsweise denkbar ist, dass die Anzeigeeinheit 19 zweigeteilt ist. Dabei kann beispielsweise der Teil, welcher zum fahrerseitigen Bereich 17 gerichtet ist, für den „driver input am Display“ verwendet werden. Der zum beifahrerseitigen Bereich 18 gerichtete Bereich beziehungsweise Seite kann wiederum als „passenger input am Display“ genutzt werden. Dabei kann beispielsweise die Anzeigeeinheit 19 kapazitive Sensoren aufweisen, um den jeweiligen Input des Fahrers 7 oder des Beifahrers 8 detektieren zu können. Beispielsweise können hierzu Signalempfänger verwendet werden. Mögliche Beispiele bei den Anwendungssituationen bezüglich einer Bedienhandlung an der Schnittstellenvorrichtung 3 können beispielsweise folgende sein:
- Fahrer hat nur eine Hand am Lenkrad und keine Bedienhandlung wird ausgeübt
- Fahrer hat beide Hände am Lenkrad und es wird ebenfalls keine Bedienhandlung ausgeübt
- Fahrer hat beispielsweise nur linke Hand am Lenkrad und keine Bedienhandlung wird ausgeübt
- Fahrer hat linke Hand am Lenkrad und mit der rechten Hand wird eine Bedienhandlung an der Anzeigeeinheit ausgeführt
- Beispielsweise hat der Fahrer keine Hand am Lenkrad und wird eventuell eine Bedienhandlung ausüben
- Beispielsweise wird von dem Beifahrer eine Bedienhandlung ausgeführt und der Fahrer hat nur eine Hand am Lenkrad
- Fahrer hat linke Hand am Lenkrad und der Beifahrer übt mit seiner linken Hand eine Bedienhandlung aus
- Fahrer hat linke Hand am Lenkrad und will mit der rechten Hand eine Bedienhandlung ausüben und gleichzeitig übt der Beifahrer ebenfalls eine Bedienhandlung mit seiner linken Hand aus
- Fahrer hat beide Hände am Lenkrad und der Beifahrer übt eine Bedienhandlung aus
- Fahrer hat keine Hand am Lenkrad und der Beifahrer übt eine Bedienhandlung aus.
Die soeben genannten beispielhaften Anwendungssituationen können mithilfe der Sensoreinrichtungen 11 , 12, 14 oder anderen
Sensoreinrichtungen im Fahrzeug 1 erfasst werden, sodass daraufhin die Schnittstellenvorrichtung 3 betrieben beziehungsweise gesteuert werden kann.
Beispielsweise kann die Schnittstellenvorrichtung 3 eine
Maschineniemeinheit 20 (vergleiche Fig. 1 ) aufweisen. Mit dieser kann die Schnittstellenvorrichtung 3 maschinell trainiert werden, um effizienter zukünftige Funktionsarten und/oder Funktionsumfänge einer Funktion 13 der Schnittstellenvorrichtung 3 bestimmen beziehungsweise generieren zu können. Hierzu können die vielfältigsten Eingangsgrößen, welche insbesondere schon in Zusammenhang mit der Schnittstellenvorrichtung 3 beschrieben worden sind, verwendet werden. Hierzu können beispielsweise die soeben genannten Anwendungssituationen der Maschineniemeinheit 20 zur Verfügung gestellt werden, sodass bei zukünftigen anderen Verwendungssituationen eine effizientere Bereitstellung einer Funktion 13 erreicht werden kann.
Des Weiteren können beispielsweise für das maschinelle Trainieren verschiedene Aspekte berücksichtigt werden, welche im Folgenden beispielsweise aufgezählt werden:
- Mit welchem Blickwinkel schaut der Fahrer auf die Anzeigeeinheit vor einer Bedienhandlung
- welchen Winkel hat das Armgelenk beziehungsweise das Handgelenk, um zur Anzeigeeinheit zu greifen
- wie schnell ist die durchschnittliche Arm-, Hand- oder Fingerbewegung bei der Bedienhandlung
- welche typische Druckabweichung oder Impedanzabweichung oder Kapazitätsabweichung wird vor oder während einer Bedienhandlung an der Anzeigeeinheit festgestellt
- welche typische Impedanz oder Kapazität wird beispielsweise am Lenkrad oder an der Anzeigeeinheit während einer Bedienhandlung festgestellt.
Dies sind nur einige Beispiele und sollen einen kleinen Einblick über die Möglichkeiten für das maschinelle Trainieren geben.
In der Fig. 3 ist in eine weitere Möglichkeit dargestellt, wie die Art und/oder der Umfang der Funktion 13 der Schnittstellenvorrichtung 3 bestimmt werden kann und insbesondere die Unterscheidung zwischen Fahrer 7 und Beifahrer 8 getroffen werden kann. Hierzu kann mit einer Signalerzeugungseinheit 21 ein moduliertes, insbesondere elektrisches beziehungsweise digitales, Identifizierungssignal 24 erzeugt beziehungsweise generiert werden. Dieses Signal 24 weist beispielsweise einen niedrigen Strom mit einer niedrigen Spannungsintensität auf. Dabei kann das Identifizierungssignal 24 in Frequenz und/oder Form moduliert werden, sodass es beispielsweise eindeutig zugeordnet werden kann.
Wenn nun also die Betriebshandlung 10 von einem Fahrzeuginsassen 2 erfolgt, so hat beispielsweise der Fahrer 7 seine linke Hand 25 am Lenkrad 16 und seine rechte Hand 26 berührt die Anzeigeeinheit 19. Somit steht ein Stromfluss über das Lenkrad 16, welches vom Fahrzeuginsassen 2 umgriffen wird, über den Körper des Fahrzeuginsassen 2 hin zur Anzeigeeinheit 19. Somit wird hier eine Signalübertragung durchgeführt, welche beispielsweise von einer Sendeempfangseinheit beziehungsweise einem Signalempfänger der Anzeigeeinheit 19 empfangen werden kann und sollte das modulierte Identifizierungssignal 24 erkannt worden sein, so kann hier auf den Fahrer 7 rückgeschlossen werden. Beispielsweise können für die Signalübertragung beziehungsweise die Signalleitung spezielle elektrische Elemente einer Lenkradheizung des Lenkrads 16 verwendet werden.
Eine weitere Möglichkeit hierzu ist in der Fig. 4 dargestellt. Dabei kann wiederum ein moduliertes Identifizierungssignal 27, 28 für jeden Fahrzeugsitz 15 moduliert werden. Diese beiden beispielhaften Identifizierungssignale 27, 28 unterscheiden sich voneinander, sodass diese bei einem Empfang an der Anzeigeeinheit 19 unterschieden beziehungsweise selektiert werden können. Hierzu kann wiederum eine jeweilige Signalerzeugungseinheit 22, 23 verwendet werden. Diese Signalerzeugungseinheit 22, 23 kann beispielsweise Bestandteil eines Fahrzeugsitzes oder einer Sitzbelegungseinheit sein. Somit kann hier wiederum ein Signalpfad beziehungsweise ein Strompfad über die Signalerzeugungseinheiten beziehungsweise Fahrzeugsitze 15 über den jeweiligen Körper des Fahrzeuginsassen 2 hin zur Anzeigeeinheit 19 erzeugt und anschließend ausgewertet werden. Der Fahrzeuginsasse 2, welcher hier als Beifahrer 8 bezeichnet werden kann, kann wiederum mit seiner linken Hand 29 die Anzeigeeinheit 19 ebenso wie der Fahrer 7 berühren. Diese Unterscheidung kann wiederum durch die in ihrer Frequenz und/oder Form modulierten Identifizierungssignale 27, 28 getroffen werden.
Eine weitere Möglichkeit zur Unterscheidung zwischen dem Fahrer 7 und dem Beifahrer 8 ist eine Bestimmung einer jeweiligen Impedanz und/oder eines jeweiligen Widerstandswerts des Fahrers 7 und des Beifahrers 8. Dies kann beispielsweise mit kapazitiven Sensoren erfolgen oder beispielsweise mit der dritten Sensoreinrichtung 14. Diese gemessenen elektrischen Werte können mit den gemessenen Informationen der anderweitigen Sensoren 11 , 12, 14 koordiniert werden, um die typischen Kapazitäts- und/oder Impedanzwerte beziehungsweise Variationen während einer Bedienung der Schnittstellenvorrichtung 3 identifizieren zu können.
In der Fig. 4 wird eine beispielhafte Betriebsstrategie des erfindungsgemäßen Verfahrens erläutert.
Zunächst kann beispielsweise in einem ersten Schritt S1 überprüft werden, welcher Betriebsmodus beziehungsweise Autonom ielevel im Fahrzeug 1 vorhanden beziehungsweise eingestellt ist. Sollte beispielsweise ein Autonomielevel 3 oder 4 aktiviert sein, so kann dem Beifahrer 8 beispielsweise ein voller Umfang der Funktion 13 der Schnittstellenvorrichtung 3 bereitgestellt beziehungsweise angeboten werden.
Sollte keines dieser Autonomiemodi aktiviert sein, so erfolgt in einem nachfolgenden beispielhaften zweiten Schritt S2 die Überprüfung, ob insbesondere die Fahrzeuginsassen 2 ihren Blick hin zur Schnittstellenvorrichtung 3 richten oder ob sie davon abgewandt sind. Dies kann beispielsweise mit einer Fahrerbeobachtungskamera als erste oder zweite Sensoreinrichtung 11 , 12 erfolgen. Beispielsweise kann bei einer nicht identifizierten Situation der Fahrer 7 mittels eines entsprechenden Warnhinweises gewarnt werden.
Dabei kann beispielsweise mithilfe der Fahrerbeobachtungskamera unterschieden werden, ob nur der Fahrer 7 oder der Beifahrer beispielsweise auf die Straße blickt. Sollte nur der Fahrer 7 vorhanden sein, was wiederum mit einem Sitzbelegungssensor oder einem Gurtschlosssensor erfasst werden kann, so kann wiederum nochmals überprüft werden inwieweit der Fahrer 7 Fahraufgaben sicher bewältigen kann. Hierzu kann beispielsweise mittels einem Lenkrad 16 verbauten kapazitiven Sensoren erfasst werden, ob der Fahrer beispielsweise keine Hand am Lenkrad 16 hat. In diesem Fall würde wiederum ein Warnhinweis ausgegeben werden. Sollte der Fahrer 7 zumindest eine Hand am Lenkrad 16 haben, so könnte beispielsweise eine ablenkungsarme Funktion 13 dem Fahrer 7 bereitgestellt werden.
Sollte jedoch bei Schritt S2 festgestellt werden, dass der Fahrer die Bedienhandlung ausübt kann wiederum in einem optionalen dritten Schritt S3 überprüft werden, ob der Fahrer, welcher zwangsläufig ebenfalls die Funktion 3 zumindest teilweise wahrnimmt, eine Hand am Lenkrad 16 halten. In diesem Fall kann dem Fahrer 7 in einem optionalen vierten Schritt S4 wiederum eine ablenkungsarme Funktion 13 bereitgestellt werden und dem Beifahrer 8 könnte eine in Umfang und Art vollumfängliche Funktion 13 zur Verfügung gestellt werden.
Sollte wiederum der Fahrer die Bedienhandlung 10 ausüben und der Fahrer 7 beide Hände am Lenkrad 16 haben und aufmerksam sein, so kann in einem optionalen fünften Schritt S5 dem Beifahrer 8 beziehungsweise weiteren Insassen 9 ein voller Umfang der Funktion 13 zur Verfügung gestellt werden.
Insgesamt zeigen die Beispiele, wie eine Fahrer- oder Beifahrerunterscheidung bei der Bedienung vom Touch-Display bereitgestellt werden kann.

Claims

PATENTANSPRÜCHE:
1. Verfahren zum Betreiben einer Schnittstellenvorrichtung (3) in einem Fahrzeug (1 ), wobei
- eine Bedienhandlung (10) eines Fahrzeuginsassen (2, 7, 8, 9) an der Schnittstellenvorrichtung mittels einer ersten Sensoreinrichtung (11 ) erkannt wird, gekennzeichnet, durch
- Erfassen zumindest einer Zustandsinformation betreffend den Fahrzeuginsassen (2, 7, 8, 9), welcher die Bedienhandlung (10) ausübt, mit einer zur ersten Sensoreinrichtung (11 ) verschiedenen zweiten Sensoreinrichtung (12),
- Bestimmen einer Art und/oder eines Umfangs einer Funktion (13) der Schnittstellenvorrichtung (3) in Abhängigkeit von der erkannten Bedienhandlung (10) des Fahrzeuginsassen (2, 7, 8, 9) und der erfassten zumindest einen Zustandsinformation des Fahrzeuginsassen (2, 7, 8, 9), und
- Bereitstellen der bestimmten Funktion (13) der Schnittstellenvorrichtung (3) zur Nutzung für den Fahrzeuginsassen (2, 7, 8, 9) in der bestimmten Art und/oder dem bestimmten Umfang.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass eine Feststellung erfolgt, ob es sich bei dem Fahrzeuginsassen (2, 7, 8, 9) um einen Fahrzeugführer (7) des Fahrzeugs (1 ) oder um einen vom Fahrzeugführer (7) verschiedenen Insassen (2, 8, 9) des Fahrzeugs (1 ) handelt, und diese Feststellung bei dem Bestimmen der Art und/oder des Umfangs der Funktion (13) der Schnittstelleneinrichtung (3) berücksichtigt wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass mit einer zur ersten und zweiten Sensoreinrichtung (11 , 12) verschiedenen dritten Sensoreinrichtung (14) eine Anzahl an Fahrzeuginsassen (2, 7, 8, 9) und/oder eine jeweilige Position eines der Fahrzeuginsassen (2, 7, 8, 9) innerhalb des Fahrzeuges (1 ) erfasst wird, wobei dies bei der Feststellung, ob es sich bei dem Fahrzeuginsassen (2, 7, 8, 9) um den Fahrzeugführer (7) des Fahrzeugs (1 ) oder um einen vom Fahrzeugführer (7) verschiedenen Insassen (2, 8, 9) handelt, berücksichtigt wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit der zweiten Sensoreinrichtung (12) eine Handbewegung und/oder eine Fingerbewegung und/oder eine Armbewegung und/oder eine Blickrichtung und/oder ein Aufmerksamkeitszustand und/oder eine Körperhaltung des Fahrzeuginsassen (2, 7, 8, 9) als die zumindest eine Zustandsinformation erfasst wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die bestimmte Art und/oder der bestimmte Umfang der Funktion (13) der Schnittstellenvorrichtung (3) und/oder die bestimmte Funktion (13) der Schnittstellenvorrichtung (3) und/oder die erkannte Bedienhandlung (10) des Fahrzeuginsassen (2, 7, 8, 9) und/oder die erfasste zumindest eine Zustandsinformation des Fahrzeuginsassen (2, 7, 8, 9) einer Maschinenlerneinheit (20) der Schnittstellenvorrichtung (3) bereitgesellt werden, wodurch die Schnittstellenvorrichtung (3) mittels der Maschineniemeinheit (20) zur Bestimmung der Art und/oder des Umfangs einer Funktion (13) der Schnittstellenvorrichtung (3) maschinell trainiert wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bedienhandlung des Fahrzeuginsassen (2, 7, 8, 9) auf einer Anzeigeeinheit (19) der Schnittstellenvorrichtung (3) ausgeübt wird, wobei ein Berühren des Fahrzeuginsassen (2, 7, 8, 9) auf der Anzeigeeinheit (19) als Bedienhandlung (10) durch die erste Sensoreinrichtung (11 ) erkannt wird. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass mit einer Signalerzeugungseinheit (21 , 22, 23) ein moduliertes Identifizierungssignal (24) erzeugt wird, wobei das erzeugte Identifizierungssignal (24) bei einer Berührung der Anzeigeeinheit (19) durch den Fahrzeuginsassen (2, 7, 8, 9) von einem von dem Fahrzeuginsassen (2, 7, 8, 9) umgriffenen Lenkrad (16) des Fahrzeugs (1 ) über den Fahrzeuginsassen (2, 7, 8, 9) an die Anzeigeeinheit (19) übertragen wird, um die Art und/oder den Umfang der Funktion (13) der Schnittstellenvorrichtung (3) zu bestimmen. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass mit einer Signalerzeugungseinheit (21 , 22, 23) ein moduliertes Identifizierungssignal (27, 28) erzeugt wird, wobei das erzeugte Identifizierungssignal (27, 28) bei einer Berührung der Anzeigeeinheit (19) durch den Fahrzeuginsassen (2, 7, 8, 9) von einem Fahrzeugsitz (15), auf welchem der Fahrzeuginsasse (2, 7, 8, 9) sitzt, über den Fahrzeuginsassen (2, 7, 8, 9) an die Anzeigeeinheit (19) übertragen wird, um die Art und/oder den Umfang der Funktion (13) der Schnittstellenvorrichtung (3) zu bestimmen Schnittstellenvorrichtung (3) für ein Fahrzeug (1 ), mit
- einer erste Sensoreinrichtung (11 ) zum Erkennen einer Bedienhandlung (10) eines Fahrzeuginsassen (2, 7, 8, 9) an der Schnittstellenvorrichtung (3), gekennzeichnet, durch
- eine zur ersten Sensoreinrichtung (11 ) verschiedene zweite Sensoreinrichtung (12) zum Erfassen zumindest einer Zustandsinformation betreffend den Fahrzeuginsassen (2, 7, 8, 9), welcher die Bedienhandlung (10) ausübt, und - eine Auswerteeinheit (4) zur Bestimmung einer Art und/oder eines Umfangs einer Funktion (13) der Schnittstellenvorrichtung (3) in Abhängigkeit von der erkannten Bedienhandlung (10) des Fahrzeuginsassen (2, 7, 8, 9) und der erfassten zumindest einen Zustandsinformation des Fahrzeuginsassen (2, 7, 8, 9), sowie
- eine Benutzerschnittstelleneinheit (5) zum Bereitstellen der bestimmten Funktion (13) der Schnittstellenvorrichtung (3) zur Nutzung für den Fahrzeuginsassen (2, 7, 8, 9) in der bestimmten Art und/oder dem bestimmten Umfang. Fahrzeug (1 ) mit einer Schnittstellenvorrichtung (3) nach Anspruch 9.
PCT/EP2023/051429 2022-02-03 2023-01-20 Verfahren zum betreiben einer schnittstellenvorrichtung in einem fahrzeug, sowie schnittstellenvorrichtung und fahrzeug WO2023148024A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022102504.7A DE102022102504B9 (de) 2022-02-03 2022-02-03 Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
DE102022102504.7 2022-02-03

Publications (1)

Publication Number Publication Date
WO2023148024A1 true WO2023148024A1 (de) 2023-08-10

Family

ID=85037052

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/051429 WO2023148024A1 (de) 2022-02-03 2023-01-20 Verfahren zum betreiben einer schnittstellenvorrichtung in einem fahrzeug, sowie schnittstellenvorrichtung und fahrzeug

Country Status (2)

Country Link
DE (1) DE102022102504B9 (de)
WO (1) WO2023148024A1 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10337852A1 (de) 2003-08-18 2005-03-17 Robert Bosch Gmbh Fahrzeugsystem
DE10340249A1 (de) 2003-08-29 2005-04-28 Siemens Ag Verfahren und Anordnung zur Bedienung von Geräten in einem Kraftfahrzeug
DE102009018681A1 (de) 2009-04-23 2010-10-28 Bayerische Motoren Werke Aktiengesellschaft Bedieneinrichtung für Kraftfahrzeuge
DE102012206247A1 (de) * 2012-04-17 2013-10-17 Ford Global Technologies, Llc Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE102016001314A1 (de) 2016-02-05 2017-08-10 Audi Ag Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
US20180009442A1 (en) * 2015-01-12 2018-01-11 Harman International Industries, Incorporated Cognitive load driving assistant
US20180239441A1 (en) * 2015-03-25 2018-08-23 Denso Corporation Operation system
US20210061102A1 (en) * 2018-02-22 2021-03-04 Mitsubishi Electric Corporation Operation restriction control device and operation restriction control method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10337852A1 (de) 2003-08-18 2005-03-17 Robert Bosch Gmbh Fahrzeugsystem
DE10340249A1 (de) 2003-08-29 2005-04-28 Siemens Ag Verfahren und Anordnung zur Bedienung von Geräten in einem Kraftfahrzeug
DE102009018681A1 (de) 2009-04-23 2010-10-28 Bayerische Motoren Werke Aktiengesellschaft Bedieneinrichtung für Kraftfahrzeuge
DE102012206247A1 (de) * 2012-04-17 2013-10-17 Ford Global Technologies, Llc Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
US20180009442A1 (en) * 2015-01-12 2018-01-11 Harman International Industries, Incorporated Cognitive load driving assistant
US20180239441A1 (en) * 2015-03-25 2018-08-23 Denso Corporation Operation system
DE102016001314A1 (de) 2016-02-05 2017-08-10 Audi Ag Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
US20210061102A1 (en) * 2018-02-22 2021-03-04 Mitsubishi Electric Corporation Operation restriction control device and operation restriction control method

Also Published As

Publication number Publication date
DE102022102504B3 (de) 2023-06-07
DE102022102504B9 (de) 2023-07-20

Similar Documents

Publication Publication Date Title
DE102017209562B4 (de) Verfahren zum Betreiben einer Anzeigeanordnung eines Kraftfahrzeugs, Bedienvorrichtung, und Kraftfahrzeug
DE102017110118A1 (de) Lenkrad mit fahrererkennung
WO2014206558A1 (de) Kraftfahrzeug-bedienschnittstelle mit gestenerkennung
DE102014016222A1 (de) Verfahren und System zum Betreiben einer berührungssensitiven Anzeigeeinrichtung eines Kraftwagens
DE102015110941A1 (de) Steuern des Zugangs zu einer Fahrzeug-Benutzeroberfläche
WO2013104389A1 (de) Verfahren und vorrichtung zum bedienen von funktionen in einem fahrzeug unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
DE102016001314A1 (de) Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
EP2941685B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
DE102006050017B4 (de) Kraftfahrzeug mit einer Sensoranordnung zur Bestimmung eines Zustandes eines Fahrers des Kraftfahrzeuges
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
EP2058162B1 (de) Multifunktionsanzeige- und Bediensystem und Verfahren zum Bedienen von Funktionen oder Fahrzeugsystemen mit einem assistierten Bedienmodus
DE102011112445A1 (de) Multifunktionsbedieneinrichtung
DE102016202251A1 (de) Anordnung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei einer Bedienung einer berührungsempfindlichen Anzeigeeinrichtung
DE102012018685B4 (de) System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
EP3488320B1 (de) Vorrichtung und verfahren zur unterstützung eines anwenders
DE112016001394T5 (de) Betätigungssystem
DE102022102504B3 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
DE102013022035B4 (de) Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle, sowie Kraftfahrzeug und Verfahren
DE102019211500B4 (de) Verfahren zur Zugriffskontrolle auf wenigstens eine Bedienfunktion eines Unterhaltungssystems eines Kraftfahrzeugs, Computerprogrammprodukt, Unterhaltungssysteme, Kraftfahrzeuge
DE102020214908A1 (de) Verfahren und Vorrichtung zur Überwachung der Blickrichtung eines Fahrers beim Führen eines Kraftfahrzeugs
DE102013019263B4 (de) Verfahren zum Betreiben einer Bedieneinrichtung sowie Fahrzeug mit einer Bedieneinrichtung
EP2885154B1 (de) Verfahren und eine bedien- und anzeigeeinrichtung zum betreiben einer interaktiven bedieneinrichtung
EP3426516A1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102013226012A1 (de) Bereitstellung eines Bedienelements durch Oberflächenveränderung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23701692

Country of ref document: EP

Kind code of ref document: A1