DE102022003091A1 - System for generating information or interaction elements - Google Patents

System for generating information or interaction elements Download PDF

Info

Publication number
DE102022003091A1
DE102022003091A1 DE102022003091.8A DE102022003091A DE102022003091A1 DE 102022003091 A1 DE102022003091 A1 DE 102022003091A1 DE 102022003091 A DE102022003091 A DE 102022003091A DE 102022003091 A1 DE102022003091 A1 DE 102022003091A1
Authority
DE
Germany
Prior art keywords
display
vehicle
gan model
information
interaction elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022003091.8A
Other languages
German (de)
Inventor
Thomas Albin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102022003091.8A priority Critical patent/DE102022003091A1/en
Publication of DE102022003091A1 publication Critical patent/DE102022003091A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

Die Erfindung betrifft ein System (S) zur Erzeugung von Informations- oder Interaktionselementen (2) auf einer Anzeigeeinrichtung oder einer Anzeige- und Bedieneinrichtung (5) in einem Fahrzeug (1). Das System (S) ist dazu eingerichtet:- ein Vorgabeelement einzulesen;- ein zu dem Vorgabeelement korrespondierendes gespeichertes GAN-Modell (M) zu laden;- vorgegebene Werte eines Eingaberaums (E) für das GAN-Modell einzulesen;- mittels des GAN-Modells (M) und der vorgegebenen Werte des Eingaberaums (E) Informations- oder Interaktionselemente (2) zu erzeugen; und- die erzeugten Informations- oder Interaktionselemente (2) anzuzeigen und/oder abzuspeichern.The invention relates to a system (S) for generating information or interaction elements (2) on a display device or a display and operating device (5) in a vehicle (1). The system (S) is set up to: - read in a default element; - load a stored GAN model (M) corresponding to the default element; - read in default values of an input space (E) for the GAN model; - using the GAN Model (M) and the predetermined values of the input space (E) to generate information or interaction elements (2); and - display and/or save the generated information or interaction elements (2).

Description

Die Erfindung betrifft ein System zur Erzeugung von Informations- oder Interaktionselementen auf einer Anzeigeeinrichtung oder einer Anzeige- und Bedieneinrichtung.The invention relates to a system for generating information or interaction elements on a display device or a display and operating device.

Auf Anzeigeeinrichtungen, insbesondere auf Anzeige- und Bedieneinrichtungen wie beispielsweise Touchscreens, kommen typischerweise Informationen zur Anzeige, indem entsprechende Informationselemente, beispielsweise Text, Piktogramme, Farben, Hintergrundbilder und/oder -farben oder ähnliches verwendet werden. Daneben können zumindest einige dieser Elemente, für den Fall einer zusätzlichen Bedienmöglichkeit, sei es als Touchscreen, über am Rand der Anzeige angebrachte Tasten oder dergleichen, als Interaktionselemente ausgewählt werden. Grundsätzlich, insbesondere jedoch in Fahrzeugen, bei denen Informationen schnell und ohne zeitlich lange Ablenkung vom Verkehr erfasst werden müssen, spielt nun ein solches Informations- und Interaktionselement hinsichtlich seiner Verständlichkeit eine entscheidende Rolle. Dabei kann es von Vorteil sein, wenn das Informations- und Interaktionselement ein möglichst realistisches für den jeweiligen Nutzer optimiertes Erscheinungsbild aufweist. Möglichst echt wirkende Bilder lassen sich meistens, zumindest intuitiv und aus dem Augenwinkel heraus, besser erfassen als synthetisch erscheinende Inhalte.Information is typically displayed on display devices, in particular on display and operating devices such as touch screens, by using appropriate information elements, for example text, pictograms, colors, background images and/or colors or the like. In addition, at least some of these elements can be selected as interaction elements in the event of an additional operating option, be it as a touchscreen, via buttons attached to the edge of the display or the like. In principle, but especially in vehicles where information has to be recorded quickly and without being distracted from traffic for a long time, such an information and interaction element now plays a crucial role in terms of its comprehensibility. It can be advantageous if the information and interaction element has an appearance that is as realistic as possible and optimized for the respective user. Images that look as real as possible are usually easier to capture, at least intuitively and from the corner of your eye, than content that appears synthetic.

Aus der DE 10 2018 121 808 A1 ist ein System bekannt, bei dem synthetische Daten unter Verwendung von Hilfseingaben verfeinert werden. Das dortige System bedient sich hierfür eines sogenannten Generative Adversarial Networks (GAN) und dient im Wesentlichen dazu, möglichst realistisch erscheinende optische Szenarien bereitzustellen, um damit beispielsweise autonome Fahrzeuganwendungen trainieren zu können.From the DE 10 2018 121 808 A1 is known a system in which synthetic data is refined using auxiliary inputs. The system there uses a so-called Generative Adversarial Network (GAN) and essentially serves to provide visual scenarios that appear as realistic as possible in order to be able to train autonomous vehicle applications, for example.

Die Aufgabe der hier vorliegenden Erfindung besteht darin, ein System zur verbesserten Erzeugung von Informations- oder Interaktionselementen auf einer Anzeigeeinrichtung oder einer Anzeige- und Bedieneinrichtung in einem Fahrzeug anzugeben.The object of the present invention is to provide a system for improved generation of information or interaction elements on a display device or a display and operating device in a vehicle.

Erfindungsgemäß wird diese Aufgabe durch ein System mit den Merkmalen im Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen des erfindungsgemäßen Systems ergeben sich aus den hiervon abhängigen Unteransprüchen.According to the invention, this object is achieved by a system with the features in claim 1. Advantageous refinements and further developments of the system according to the invention result from the dependent claims.

Das erfindungsgemäße System dient zur Erzeugung von Informations- oder Interaktionselementen auf einer Anzeigeeinrichtung oder einer Anzeige- und Bedieneinrichtung in einem Fahrzeug. Es ist dazu eingerichtet ein Vorgabeelement einzulesen sowie ein zu dem Vorgabeelement korrespondierendes gespeichertes, im Weiteren als GAN-Modell bezeichnetes Generative Adversarial Network zu laden. Ferner ist es dazu eingerichtet vorgegebene Werte eines Eingaberaums des sogenannten Latent Space für das GAN-Modell einzulesen. Mittels des GAN-Modells und der vorgegebenen Werte dieses Eingaberaums werden dann die Informations- oder Interaktionselemente erzeugt. Die erzeugten Informations- oder Interaktionselemente lassen sich über das System gemäß der Erfindung dann anzeigen und/oder abspeichern.The system according to the invention is used to generate information or interaction elements on a display device or a display and operating device in a vehicle. It is set up to read in a default element and to load a stored generative adversarial network corresponding to the default element, hereinafter referred to as a GAN model. Furthermore, it is set up to read in predetermined values of an input space of the so-called latent space for the GAN model. The information or interaction elements are then generated using the GAN model and the specified values of this input space. The information or interaction elements generated can then be displayed and/or saved via the system according to the invention.

Der Vorteil des Systems besteht nun darin, dass ein Nutzer des Fahrzeugs die Informations- und Interaktionselemente über eine Auswahl der Vorgabeelemente sehr individuell an seine eigenen Bedürfnisse anpassen kann und durch den Einsatz des GAN-Modells dabei eine realistische Darstellung der Informations- oder Interaktionselemente erhält, welche diese für ihn sehr leicht verständlich machen. Somit lassen sich durch die Anwendung von GAN-basierten Modellen zur Erzeugung entsprechender Informations- und Interaktionselemente, welche in dem Fahrzeug auch Designkomponenten darstellen, für die das Fahrzeug nutzende Person bei hochwertiger Anmutung individuell anpassen. Damit wird eine neue digitale Design-Erfahrung möglich, bei welcher eine individuelle Anpassung ohne Verwendung von vorinstallierten Designs erfolgen kann, sodass hier nicht lediglich die Möglichkeit einer Anpassung im vorgegebenen Rahmen, sondern eine tatsächliche individuelle Anpassung möglich wird.The advantage of the system is that a user of the vehicle can adapt the information and interaction elements very individually to his or her own needs by selecting the default elements and, by using the GAN model, receives a realistic representation of the information or interaction elements, which make them very easy to understand for him. Thus, by using GAN-based models to generate corresponding information and interaction elements, which also represent design components in the vehicle, they can be individually adapted for the person using the vehicle with a high-quality appearance. This makes a new digital design experience possible in which individual adaptation can be carried out without using pre-installed designs, meaning that not only the possibility of adaptation within the given framework, but actual individual adaptation is possible.

Gemäß einer sehr vorteilhaften Ausgestaltung des Systems gemäß der Erfindung kann es ferner vorgesehen sein, dass das zu dem Vorgabeelement korrespondierende GAN-Modell mit einer dem Vorgabeelement entsprechenden Klasse von Objekten vortrainiert ist. Das GAN-Modell kann also entsprechend vortrainiert sein, um sehr effizient die gewünschten Anpassungen vornehmen zu können.According to a very advantageous embodiment of the system according to the invention, it can further be provided that the GAN model corresponding to the default element is pre-trained with a class of objects corresponding to the default element. The GAN model can therefore be pre-trained accordingly in order to be able to make the desired adjustments very efficiently.

Gemäß einer weiteren sehr vorteilhaften Ausgestaltung des erfindungsgemäßen Systems ist dieses durch eine zentrale Hauptanzeige und/oder ein Kombiinstrument in dem Fahrzeug gekennzeichnet. Dabei kann diese zentrale Hauptanzeige und/oder das Kombiinstrument wenigstens einen berührungssensitiven Bedienbereich umfassen, um so nicht nur Informationen anzeigen sondern auch in eine Interaktion mit dem Nutzer treten zu können.According to a further very advantageous embodiment of the system according to the invention, this is characterized by a central main display and/or a combination instrument in the vehicle. This central main display and/or the instrument cluster can include at least one touch-sensitive operating area in order not only to display information but also to be able to interact with the user.

Der Eingaberaum kann gemäß einer sehr vorteilhaften Ausgestaltung des erfindungsgemäßen Systems als mehrdimensionaler Vektor ausgebildet sein, wobei eine Leseeinrichtung dazu eingerichtet ist, Einzelwerte des Vektors über Gesten des Benutzers einzulesen. Solche Gesten können genutzt werden, um den mehrdimensionalen Vektor des Eingaberaums ganz oder zumindest in einigen seiner Einzelwerte entsprechend anzupassen. Die Leseeinrichtung hierfür kann beispielsweise den berührungssensitiven Bereich umfassen, sodass die Gesten beispielsweise Wischgesten auf diesem berührungssensitiven Bereich sind. Der berührungssensitive Bereich kann dabei ein Touchpad sein oder kann mit dem Anzeigebereich entsprechend kombiniert werden, sodass beispielsweise ein Touchscreen als Anzeige- und Bedienbereich in einem zum Einsatz kommt, beispielsweise im zentralen Bereich eines Fahrzeugs, im Bereich der sogenannten Headunit als zentrale Hauptanzeige.According to a very advantageous embodiment of the system according to the invention, the input space can be designed as a multi-dimensional vector, with a reading device being set up to read in individual values of the vector via gestures of the user. Such gestures can be used to display the multidimensional vector of the input be adjusted accordingly in its entirety or at least in some of its individual values. The reading device for this can, for example, include the touch-sensitive area, so that the gestures are, for example, swiping gestures on this touch-sensitive area. The touch-sensitive area can be a touchpad or can be combined with the display area accordingly, so that, for example, a touchscreen is used as a display and operating area in one, for example in the central area of a vehicle, in the area of the so-called head unit as the central main display.

Die Leseeinrichtung kann ergänzend oder alternativ hierzu wenigstens eine Innenraumkamera des Fahrzeugs umfassen. Die Gesten, um Einzelwerte des Vektors einzulesen, müssen dann nicht auf ein Touchpad oder einen Touchscreen beschränkt werden. Vielmehr ist es aus dem Bereich der Fahrzeuge bekannt, dass auch Gesten, welche ohne Bezug zu einer berührungssensitiven Bedienfläche vorgenommen werden, als Steuerungsgesten erkannt werden können. Solche Gesten werden typischerweise über eine oder mehrere Innenraumkameras im Innenraum des Fahrzeugs erfasst, erkannt und entsprechend ausgewertet. So kann beispielsweise eine Zeigegeste als solche erkannt und interpretiert werden und damit zum Einlesen der Einzelwerte des Vektors Verwendung finden.The reading device can additionally or alternatively comprise at least one interior camera of the vehicle. The gestures for reading in individual values of the vector do not then have to be limited to a touchpad or touchscreen. Rather, it is known from the field of vehicles that gestures that are made without reference to a touch-sensitive control surface can also be recognized as control gestures. Such gestures are typically recorded, recognized and evaluated accordingly via one or more interior cameras in the interior of the vehicle. For example, a pointing gesture can be recognized and interpreted as such and can therefore be used to read in the individual values of the vector.

Eine weitere sehr günstige Ausgestaltung des Systems gemäß der Erfindung kann es ferner vorsehen, dass bei der Verwendung eines mehrdimensionalen Vektors als Eingaberaum bzw. Latent Space weitere Einzelwerte des Vektors fest und/oder auch in Abhängigkeit des Vorgabeelements vorgegeben werden. So kann beispielsweise für bestimmte Werte des Vektors eine Festlegung vorab erfolgen oder eine solche Festlegung kann in Abhängigkeit des Vorgabewerts erfolgen. Da der Vektor, je nach GAN-Model und Anwendungsfall, unterschiedlich dimensioniert ist, können durch diese feste Vorgabe bestimmter Einzelwerte des Vektors oder eine Anpassung von mehreren Einzelwerten gleichzeitig erforderliche Anpassungen der Dimensionen des Vektors an das jeweilige GAN-Modell einfach umgesetzt werden.A further very favorable embodiment of the system according to the invention can also provide that when using a multi-dimensional vector as an input space or latent space, further individual values of the vector are specified in a fixed manner and/or depending on the default element. For example, a specification can be made in advance for certain values of the vector or such a specification can be made depending on the default value. Since the vector is dimensioned differently depending on the GAN model and application, necessary adjustments to the dimensions of the vector to the respective GAN model can be easily implemented through this fixed specification of certain individual values of the vector or an adjustment of several individual values at the same time.

Die zentrale Hauptanzeige und/oder das Kombiinstrument sind gemäß einer weiteren sehr günstigen Ausgestaltung dazu eingerichtet, die erzeugten Informations- oder Interaktionselemente zu speichern. Dies kann z.B. in einem Speicherbaustein innerhalb einer Steuerung derselben erfolgen, vorzugsweise verknüpft mit einem Nutzerprofil. Hierdurch kann das System ohne erneuten Aufwand zur Erzeugung der Informations- oder Interaktionselemente eben diese wiederverwenden, vorzugsweise nutzerbezogen, sodass bei der Nutzung des Fahrzeugs durch einen registrierten Nutzer immer dessen individuelles Design verwendet werden kann. Es lässt sich dann auch nutzerbezogen entsprechend weiterentwickeln.According to a further very favorable embodiment, the central main display and/or the instrument cluster are set up to store the generated information or interaction elements. This can be done, for example, in a memory module within a controller, preferably linked to a user profile. This allows the system to reuse the information or interaction elements without any additional effort, preferably user-related, so that when the vehicle is used by a registered user, their individual design can always be used. It can then be developed further depending on the user.

Gemäß einer weiteren sehr günstigen Ausgestaltung der Erfindung sind der Anzeigebereich der zentralen Hauptanzeige und/oder des Kombiinstruments, also z.B. das Display der Headunit sowie das oder die Displays eines im Weiteren kurz als IC-Cluster genannten Instrument-Clusters, dazu eingerichtet, ein Auswahlmenü zur Auswahl des Vorgabeelements, des Eingaberaums und/oder des GAN-Modells anzuzeigen. Über eine solche Anzeige wird dem Nutzer visualisiert welche Möglichkeiten beispielsweise beim Vorgabeelement, beim Eingaberaum und/oder beim GAN-Modell zur Verfügung stehen und es wird ihm die Möglichkeit gegeben, hier entsprechend Einfluss zu nehmen und die eine oder andere Auswahl in dem Menü zu treffen, um das System zur Erzeugung der Informations- oder Interaktionselemente entsprechend seiner eigenen Wünsche zu beeinflussen.According to a further very favorable embodiment of the invention, the display area of the central main display and / or the instrument cluster, for example the display of the head unit and the display or displays of an instrument cluster, referred to below as an IC cluster, are set up to provide a selection menu Display selection of the default element, input space and/or GAN model. Such a display shows the user which options are available, for example for the default element, the input space and/or the GAN model, and he is given the opportunity to influence this accordingly and make one or two selections in the menu to influence the system for generating the information or interaction elements according to its own wishes.

Das System ist dabei gemäß einer sehr vorteilhaften Ausgestaltung der Erfindung dazu eingerichtet seinen Nutzern zu ermöglichen, die gespeicherten Informations- oder Interaktionselemente über ein Netzwerk mit anderen Nutzern zu teilen. Empfindet der Nutzer also eines oder mehrere der erzeugten Elemente als besonders gelungen, besonders sehenswert oder dergleichen, kann er über ein entsprechendes Netzwerk diese Informations- oder Interaktionselemente mit anderen Nutzern teilen, sodass diese die Elemente sehen und bei Bedarf auch selbst einsetzen können.According to a very advantageous embodiment of the invention, the system is set up to enable its users to share the stored information or interaction elements with other users via a network. If the user finds one or more of the elements created to be particularly successful, particularly worth seeing or the like, he can share these information or interaction elements with other users via a corresponding network so that they can see the elements and use them themselves if necessary.

Die Integration in das Fahrzeug kann dabei gemäß einer sehr vorteilhaften Ausgestaltung des erfindungsgemäßen Systems so eingerichtet sein, dass das zu dem Vorgabeelement korrespondierende und insbesondere vortrainierte GAN-Modell von einem fahrzeugexternen Server empfangen wird. Ohne den Aufwand verschiedene GAN-Modelle in dem Fahrzeug selbst vorhalten zu müssen kann so von einem fahrzeugexternen Server, beispielsweise einem Cloudserver, wie dem Backendserver des Fahrzeugherstellers, das entsprechende GAN-Modell heruntergeladen und dann auf dem System im Fahrzeug eingesetzt werden.According to a very advantageous embodiment of the system according to the invention, the integration into the vehicle can be set up in such a way that the GAN model corresponding to the default element and in particular pre-trained is received by a server external to the vehicle. Without the effort of having to maintain different GAN models in the vehicle itself, the corresponding GAN model can be downloaded from a server external to the vehicle, for example a cloud server such as the vehicle manufacturer's backend server, and then used on the system in the vehicle.

Eine Alternative hierzu kann eine Art hybridisiertes System sein, bei welchem ein Teilsystem fahrzeugintegriert und ein Teilsystem fahrzeugextern ist. Das fahrzeugexterne Teilsystem kann dann wieder auf einem fahrzeugexternen Server ausgebildet sein und sollte das wenigstens eine GAN-Modell umfassen, sodass nicht eine Vielzahl von komplexen GAN-Modellen in dem Fahrzeug selbst vorgehalten werden muss. Anstelle eines Herunterladens und Nutzens des GAN-Modells in dem Fahrzeug, wie im zuvor beschriebenen Beispiel, ist es hier nun möglich, dass das fahrzeugintegrierte Teilsystem dem fahrzeugexternen Teilsystem lediglich Daten wie beispielsweise das Vorgabeelement und/oder Werte des Eingaberaums sammelt und dem anderen Teilsystem übermittelt, sodass die Nutzung des GAN-Modells dann innerhalb des fahrzeugexternen Teilsystems erfolgen kann. Da dieses typischerweise als fahrzeugexterner Server ausgebildet ist, besteht hier die Möglichkeit einfach und kostengünstig eine entsprechend hohe Rechenleistung und Rechenkapazität zur Verfügung stellen zu können.An alternative to this may be a type of hybridized system in which one subsystem is integrated into the vehicle and one subsystem is external to the vehicle. The vehicle-external subsystem can then again be designed on a vehicle-external server and should include the at least one GAN model, so that a large number of complex GAN models do not have to be kept in the vehicle itself. Instead of downloading and Using the GAN model in the vehicle, as in the example described above, it is now possible for the vehicle-integrated subsystem to simply collect data from the vehicle-external subsystem, such as the default element and/or values of the input space, and transmit it to the other subsystem, so that the use of the GAN model can then take place within the vehicle-external subsystem. Since this is typically designed as a server external to the vehicle, it is possible to provide a correspondingly high level of computing power and computing capacity easily and cost-effectively.

Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Systems ergeben sich auch aus dem Ausführungsbeispiel, welches nachfolgend unter Bezugnahme auf die Figuren näher beschrieben wird.Further advantageous refinements of the system according to the invention also result from the exemplary embodiment, which is described in more detail below with reference to the figures.

Dabei zeigen:

  • 1 eine schematische Darstellung eines Generative Adversarial Networks;
  • 2 eine schematische Darstellung eines GAN-basierten Systems zur Erzeugung von Informations- oder Interaktionselementen; und
  • 3 eine schematische Darstellung des Zusammenspeils aus dem GAN-Modell und einer Interaktion eines Nutzers.
Show:
  • 1 a schematic representation of a Generative Adversarial Network;
  • 2 a schematic representation of a GAN-based system for generating information or interaction elements; and
  • 3 a schematic representation of the combination of the GAN model and a user interaction.

Bevor das hier vorgestellte System S (vgl. 2) näher beschrieben wird, wird zunächst die zugrunde liegende Deep Learning Architektur für das bessere Verständnis erläutert. 1 stellt ein Generative Adversarial Network (GAN) vereinfacht dar und soll das Prinzip dieser Architektur erklären. Ziel eines GANs ist es, neue Inhalte (beispielsweise Bilder) zu generieren, welche einem realen Trainingsdatensatz ähnlich sind. Um diese Inhalte zu generieren und zu entscheiden ob der künstliche Datensatz essentielle Eigenschaften der Trainingsdaten aufweist, bedarf es im Wesentlichen zweier Hauptkomponenten. Diese zwei, auf Deep Learning basierten Netze sind einerseits ein Generator G und andererseits ein Discriminator D. Der Generator G hat die Aufgabe neue Inhalte zu erzeugen. Diese neuen Inhalte sind in 1 gestrichelt mit F dargestellt. Als Input können beispielsweise Rauschen (Noise) N gemeinsam mit einem Output O eines sogenannten Eingaberaums E bzw. latenten Eingaberaums (Latent Input Space) dienen. Dieser Eingaberaum E kann, wie es durch die Kreise angedeutet ist, ein mehr-dimensionaler Vektor sein, dessen durch die Kreise angedeuteten Einzelwerte den entsprechenden Output O liefern. Welche Einzelwerte des Vektors welche Eigenschaften des generierten Outputs O beeinflussen lässt sich dabei nur explorativ / heuristisch bestimmen.Before the system S presented here (cf. 2 ) is described in more detail, the underlying deep learning architecture is first explained for a better understanding. 1 represents a Generative Adversarial Network (GAN) in simplified form and is intended to explain the principle of this architecture. The goal of a GAN is to generate new content (e.g. images) that is similar to a real training data set. In order to generate this content and decide whether the artificial data set has essential properties of the training data, two main components are essentially required. These two networks based on deep learning are, on the one hand, a generator G and, on the other hand, a discriminator D. The generator G has the task of generating new content. This new content is in 1 shown dashed with F. For example, noise N together with an output O of a so-called input space E or latent input space can serve as input. This input space E can, as indicated by the circles, be a multi-dimensional vector whose individual values indicated by the circles deliver the corresponding output O. Which individual values of the vector influence which properties of the generated output O can only be determined exploratively/heuristically.

Die neu generierten Daten F gehen dann als Input in den Discriminator D. Dieses Netz wird mit Hilfe von reellen Inputdatensätzen R und den generierten Daten F trainiert. Es erfolgt die Berechnung einer Wahrscheinlichkeit (Probability) P, welche angibt, ob die Daten F einem reellen oder künstlichen Input entsprechen (real or fake). Ziel ist es die Daten F so zu generieren, dass der Discriminator D die generierten Daten F für real erachtet. Die Information ob die Daten F als real oder nicht real angesehen werden, geht als Feedback FB zurück in die neuronalen Netze, damit beispielsweise der Generator G lernt reellere Daten F zu generieren. Wie die Netze trainiert werden, und welche Probleme damit einhergehen soll nicht im Rahmen dieser Kurzbeschreibung erklärt werden. Dies ist dem einschlägigen Fachmann jedoch bekannt. Schlussendlich soll das Training zu einem GAN-Modell M führen, welches basierend auf einen Eingaberaum E in Form eines Vektors einen real wirkenden Datensatz F erzeugen und ausgeben kann, wie es ganz rechts in 1 dargestellt ist.The newly generated data F then goes as input into the discriminator D. This network is trained with the help of real input data sets R and the generated data F. A probability P is calculated, which indicates whether the data F corresponds to a real or artificial input (real or fake). The goal is to generate the data F in such a way that the discriminator D considers the generated data F to be real. The information as to whether the data F is viewed as real or not real goes back into the neural networks as feedback FB, so that, for example, the generator G learns to generate more real data F. How the networks are trained and the problems associated with it should not be explained in this short description. However, this is known to the relevant expert. Ultimately, the training should lead to a GAN model M, which can generate and output a real-looking data set F based on an input space E in the form of a vector, as shown on the far right 1 is shown.

Anhand der 2 und 3 soll nachfolgend das GAN basierte System S erläutert werden, welches ganz oder zumindest teilweise on-board in einem Fahrzeug 1 (vgl. 3) zum Einsatz kommen soll. Es soll zur Erstellung von individuellen Informations- oder Interaktionselementen 2 dienen, welche in den 2 und 3 beispielhaft als Icons angedeutet und mit dem Bezugszeichen 2 versehen sind. Man könnte sie auch als User Interface Designs bezeichnen. Das System S soll zusammenfassend zumindest die folgenden Elemente ganz oder teilweise enthalten: Ein vor-trainiertes GAN-Modell M#n wird lokal in einem Backend 3 (vgl. 3) des Fahrzeugs 1 installiert oder bei Bedarf von extern des Fahrzeugs 1 in dieses heruntergeladen. Das GAN-Modell M#n selbst, welches einen Latent Input Space als Eingangsraum E erwartet, erzeugt je nach Auswahl durch eine das System S nutzende Person 4 neue Informations- oder Interaktionselemente 2, welche auch als User Interface Elemente bezeichnet werden. Diese erlauben es der Person (User) 4 hochgradig individuelle Designs der Informations- oder Interaktionselemente 2 zu erzeugen. Hierunter kann beispielsweise die gesamte Anzeige einer Anzeige- oder Anzeige- und Bedieneinrichtung 5 fallen, welche auch als User Interface 5 bezeichnet wird. Dieses User Interface 5 kann, wie es in 3 angedeutet ist, z.B. eine zentralen Hauptanzeige 5.1 und/oder ein Kombiinstrument 5.2 umfassen, welche auch als Head Unit bzw. IC-Cluster bezeichnet werden. Dabei könnte z. B. eine Anpassung der Geschwindigkeitsanzeige gemeinsam mit Farbton und - verläufen sowie Schriftarten, etc. erfolgen. Aber auch weitere Elemente können individuell ausgewählt und/oder erzeugt werden, z.B. Schriftarten, Icons für die Navigation, für Medien, für das Mobiltelefon, etc.. Die erzeugten Informations- oder Interaktionselemente 2 können angezeigt und anschließend abgespeichert und mit anderen Nutzern geteilt werden.Based on 2 and 3 The GAN-based system S will be explained below, which is completely or at least partially on-board in a vehicle 1 (cf. 3 ) should be used. It is intended to be used to create individual information or interaction elements 2, which are in the 2 and 3 are indicated by way of example as icons and provided with the reference number 2. You could also call them user interface designs. In summary, the system S should contain at least the following elements in whole or in part: A pre-trained GAN model M#n is created locally in a backend 3 (cf. 3 ) of the vehicle 1 installed or, if necessary, downloaded into it from external to the vehicle 1. The GAN model M#n itself, which expects a latent input space as input space E, generates 4 new information or interaction elements 2, which are also referred to as user interface elements, depending on the selection made by a person using the system S. These allow the person (user) 4 to create highly individual designs of the information or interaction elements 2. This can, for example, include the entire display of a display or display and operating device 5, which is also referred to as user interface 5. This user interface 5 can, as in 3 is indicated, for example include a central main display 5.1 and/or an instrument cluster 5.2, which are also referred to as a head unit or IC cluster. This could e.g. B. an adjustment of the speed display together with color tone and gradients as well as fonts, etc. can be done. But other elements can also be individually selected and/or created, e.g. fonts, icons for navigation, for media, for mobile phones, etc. The information or interaction elements generated 2 can be displayed and then saved and shared with other users.

2 zeigt die das Fahrzeug 1 nutzende Person 4. Sie kann das Fahrzeug 1 beispielsweise fahren. Sie stellt den User 4 dar. Dessen Interaktion mit den GAN-Modellen M#1, M2#, ... M#n sowie dem Eingaberaum E ist durch die punktierten Pfeile angedeutet. Im ersten Schritt wählt der User 4 Informations- oder Interaktionselemente 2 aus, die er individuell verändern bzw. anpassen möchte. In dem hier dargestellten Beispiel handelt es sich um Informations- oder Interaktionselemente 2 in Form von Icons, welche im User Interface 5 die Navigation, das Telefon, Medien und Radio repräsentieren. Entsprechend wird das für die Informations- oder Interaktionselemente 2 korrespondierende GAN-Modell M, hier das GAN-Modell M#2, ausgewählt. Das ausgewählte GAN-Modell M#2 wird in das System S geladen. Es erwartet nun einen Input vom User 4. Dieser Input erfolgt über Eingaben in dem Eingaberaum E. Wie dieser Eingaben aussehen, wird weiter unten noch näher beschrieben. 2 shows the person 4 using the vehicle 1. They can drive the vehicle 1, for example. It represents user 4. His interaction with the GAN models M#1, M2#, ... M#n and the input space E is indicated by the dotted arrows. In the first step, the user selects 4 information or interaction elements 2 that he would like to change or adapt individually. The example shown here involves information or interaction elements 2 in the form of icons, which represent navigation, the telephone, media and radio in the user interface 5. Accordingly, the GAN model M corresponding to the information or interaction elements 2, here the GAN model M#2, is selected. The selected GAN model M#2 is loaded into the system S. It now expects input from user 4. This input takes place via inputs in the input space E. What these inputs look like is described in more detail below.

Das hier passend ausgewählte GAN-Modell M#2 selbst ist ein vortrainiertes Modell, welches bevorzugt lokal in dem Fahrzeug 1 ausgeführt wird. Als Trainingsdaten werden entsprechende Designelemente, Icons, etc. (je nach Modell) verwendet. Mit Hilfe der GAN-Modelle M kann der User 4 nun realistische vom GAN generierte Designelemente (Generated Design Element(s)) als Informations- oder Interaktionselemente 2 erzeugen lassen. Der User 4 wählt Einzelwerte innerhalb des zugelassenen Eingaberaums E aus. Diese Werte gehen in Echtzeit als Input in das System S bzw. das in das System S geladene GAN-Modell M. Auf den Werten basierend erzeugt das GAN-Modell M entsprechend neue Designelemente (Generated Design Element(s)). Der User 4 kann den Eingaberaum E interaktiv verändern. Die Interaktion des Users 4 mit dem Eingaberaum E erzeugt dann in Echtzeit eine Ausgabe von Daten F, hier in Form der angesprochenen Icons als Informations- oder Interaktionselemente 2. Anschließend kann der User 4 die erzeugten Informations- oder Interaktionselemente 2 für die Anzeige verwenden, er kann sie abspeichern, seinem Profil zuordnen und die Informations- oder Interaktionselemente 2 entsprechend teilen, um sie anderen Usern zu zeigen oder sie ihnen bereitzustellen.The GAN model M#2 itself, which is appropriately selected here, is a pre-trained model which is preferably executed locally in the vehicle 1. Appropriate design elements, icons, etc. (depending on the model) are used as training data. With the help of the GAN models M, the user 4 can now have realistic design elements generated by the GAN (Generated Design Element(s)) generated as information or interaction elements 2. The user 4 selects individual values within the permitted input space E. These values go in real time as input into the system S or the GAN model M loaded into the system S. Based on the values, the GAN model M generates new design elements (Generated Design Element(s)). The user 4 can change the input space E interactively. The interaction of the user 4 with the input space E then generates an output of data F in real time, here in the form of the icons mentioned as information or interaction elements 2. The user 4 can then use the generated information or interaction elements 2 for the display can save them, assign them to his profile and share the information or interaction elements 2 accordingly in order to show them to other users or make them available to them.

3 zeigt das Zusammenspiel aus dem GAN-Modell M und der Interaktion mit dem User 4. Die schematische Darstellung ist aufgeteilt in das oben schon angesprochene Backend 3 und ein Frontend 6, welche zusammen das System S ausbilden. Im Backend 3 wurde zuvor ein vom User 4 -in 3 durch seine Hand dargestellt- ausgewähltes, designelementabhängiges GAN-Modell M, hier wieder das GAN-Modell M#2, geladen. Die Interaktion mit dem Frontend 6 ist durch die Pfeile angedeutet und soll den Input bzw. Output des GAN-Modells M darstellen. Das Frontend 6 ist aufgeteilt in zwei Komponenten 5.1 und 5. 2 des User Interfaces bzw. der Anzeige- oder Anzeige- und Bedieneinrichtung 5. Diese Komponenten können z.B. die zentrale Hauptanzeige 5.1 und das Kombiinstrument 5.2 vor einem Lenkrad 7 des Fahrzeugs 1 sein. 3 shows the interaction between the GAN model M and the interaction with the user 4. The schematic representation is divided into the backend 3 already mentioned above and a frontend 6, which together form the system S. In backend 3, a user 4 -in 3 represented by his hand - selected, design element-dependent GAN model M, here again the GAN model M#2, loaded. The interaction with the frontend 6 is indicated by the arrows and is intended to represent the input or output of the GAN model M. The front end 6 is divided into two components 5.1 and 5. 2 of the user interface or the display or display and operating device 5. These components can, for example, be the central main display 5.1 and the instrument cluster 5.2 in front of a steering wheel 7 of the vehicle 1.

Bei dem oben beschriebenen Eingaberaum E bzw. Latent Input Space handelt es sich um einen mehrdimensionalen Vektor, dessen Einzelwerte zu einem entsprechenden Output O führen. Damit der User diesen mehrdimensionalen Vektor nicht manuell mit Zahlen definieren muss, erfolgt die Einstellung der Werte über ein interaktives Interface LSN (Latent Space Navigator) z.B. auf der zentralen Hauptanzeige 5.1. Beispielsweise werden bei einer Berührungssensitiven Anzeigefläche die X/Y Koordinaten des LSN als Einzelwerte für den Vektor des Eingaberaums E übernommen und an das GAN-Modell M kommuniziert.The input space E or latent input space described above is a multidimensional vector whose individual values lead to a corresponding output O. So that the user does not have to define this multidimensional vector manually with numbers, the values are set via an interactive interface LSN (Latent Space Navigator), e.g. on the central main display 5.1. For example, in the case of a touch-sensitive display surface, the X/Y coordinates of the LSN are adopted as individual values for the vector of the input space E and communicated to the GAN model M.

Da der Vektor, je nach GAN-Modell M und Anwendungsfall, unterschiedlich dimensioniert ist, können bestimmte Einzelwerte des Vektors fest vorgegeben werden, oder es werden mehrere Einzelwerte gleichzeitig angepasst. Über ein Untermenü SUB können die User 4 verschiedene Eingaberaum-Lösungen auswählen oder zwischen verschiedenen Designelementen und den entsprechenden GAN-Modellen M wechseln. Die resultierenden, vom ausgewählten GAN-Modell erzeugten Informations- oder Interaktionselemente 2 in Form von Designelemente, Icons etc. werden in dem Kombiinstrument 5.2 und/oder in der zentralen Hauptanzeige 5.1 verwendet. Die Designänderung der Informations- oder Interaktionselemente 2 erfolgen in Echtzeit; je nach Einstellung des Untermenüs SUB, sowie der Position des LSN und den hieraus resultierenden (Einzel-)Werten des Eingaberaums E.Since the vector is dimensioned differently depending on the GAN model M and the application, certain individual values of the vector can be specified or several individual values can be adjusted at the same time. Using a SUB submenu, users can select 4 different input space solutions or switch between different design elements and the corresponding GAN models M. The resulting information or interaction elements 2 generated by the selected GAN model in the form of design elements, icons, etc. are used in the instrument cluster 5.2 and/or in the central main display 5.1. The design changes of the information or interaction elements 2 take place in real time; depending on the setting of the submenu SUB, as well as the position of the LSN and the resulting (individual) values of the input space E.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102018121808 A1 [0003]DE 102018121808 A1 [0003]

Claims (13)

System (S) zur Erzeugung von Informations- oder Interaktionselementen (2) auf einer Anzeigeeinrichtung oder einer Anzeige- und Bedieneinrichtung (5) in einem Fahrzeug (1), welches dazu eingerichtet ist: - ein Vorgabeelement einzulesen; - ein zu dem Vorgabeelement korrespondierendes gespeichertes GAN-Modell (M) zu laden; - vorgegebene Werte eines Eingaberaums (E) für das GAN-Modell einzulesen; - mittels des GAN-Modells (M) und der vorgegebenen Werte des Eingaberaums (E) Informations- oder Interaktionselemente (2) zu erzeugen; und - die erzeugten Informations- oder Interaktionselemente (2) anzuzeigen und/oder abzuspeichern.System (S) for generating information or interaction elements (2) on a display device or a display and operating device (5) in a vehicle (1), which is set up for this purpose: - read in a default element; - to load a stored GAN model (M) corresponding to the default element; - read in specified values of an input space (E) for the GAN model; - to generate information or interaction elements (2) using the GAN model (M) and the specified values of the input space (E); and - display and/or save the generated information or interaction elements (2). System (S) nach Anspruch 1, dadurch gekennzeichnet, dass das zu dem Vorgabeelement korrespondierende GAN-Modell (M) mit einer dem Vorgabeelement entsprechenden Klasse von Objekten vortrainiert ist.System (S) after Claim 1 , characterized in that the GAN model (M) corresponding to the default element is pre-trained with a class of objects corresponding to the default element. System (S) nach Anspruch 1 oder 2 gekennzeichnet durch eine zentrale Hauptanzeige (5.1) und/oder ein Kombiinstrument (5.2) als Anzeigeeinrichtung oder einer Anzeige- und Bedieneinrichtung (5).System (S) after Claim 1 or 2 characterized by a central main display (5.1) and/or a combination instrument (5.2) as a display device or a display and operating device (5). System (S) nach Anspruch 3, dadurch gekennzeichnet, dass die zentrale Hauptanzeige (5.1) und/oder das Kombiinstrument (5.2) wenigstens einen berührungssensitiven Bedienbereich umfassen.System (S) after Claim 3 , characterized in that the central main display (5.1) and/or the instrument cluster (5.2) comprise at least one touch-sensitive operating area. System (S) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Eingaberaum (E) als mehrdimensionaler Vektor ausgebildet ist, wobei eine Leseeinrichtung dazu eingerichtet ist, Einzelwerte des Vektors über Gesten eines Nutzers einzulesen.System (S) according to one of the Claims 1 until 4 , characterized in that the input space (E) is designed as a multi-dimensional vector, with a reading device being set up to read individual values of the vector via gestures of a user. System (S) nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Leseeinrichtung den berührungssensitiven Bedienbereich umfasst.System (S) after Claim 4 or 5 , characterized in that the reading device includes the touch-sensitive operating area. System(S) nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass die Leseeinrichtung wenigstens eine Innenraumkamera des Fahrzeugs (1) umfasst.System(S) after Claim 5 or 6 , characterized in that the reading device comprises at least one interior camera of the vehicle (1). System (S) nach Anspruch 5, 6 oder 7, dadurch gekennzeichnet, dass weitere Einzelwerte des Vektors fest und/oder in Abhängigkeit des Vorgabeelements vorgegeben sind.System (S) after Claim 5 , 6 or 7 , characterized in that further individual values of the vector are fixed and/or specified depending on the default element. System (S) nach einem der Ansprüche 3 bis 8, dadurch gekennzeichnet, dass die zentrale Hauptanzeige (5.1) und/oder das Kombiinstrument (5.2) dazu eingerichtet sind, die Informations- oder Interaktionselemente (2), insbesondere in einem Nutzerprofil, zu speichern.System (S) according to one of the Claims 3 until 8th , characterized in that the central main display (5.1) and/or the instrument cluster (5.2) are set up to store the information or interaction elements (2), in particular in a user profile. System (S) nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass ein Anzeigebereich der zentralen Hauptanzeige (5.1) und/oder des Kombiinstruments (5.2) dazu eingerichtet ist, ein Auswahlmenü (SUB) zur Auswahl des Vorgabeelements, des Eingaberaums (E) und/oder des GAN-Modells (M) anzuzeigen.System (S) according to one of the Claims 3 until 9 , characterized in that a display area of the central main display (5.1) and/or the instrument cluster (5.2) is set up to provide a selection menu (SUB) for selecting the default element, the input space (E) and/or the GAN model (M). to display. System (S) nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass es dazu eingerichtet ist, die gespeicherten Informations- oder Interaktionselemente (2) über ein Netzwerk mit anderen Nutzern zu teilen.System (S) according to one of the Claims 1 until 10 , characterized in that it is set up to share the stored information or interaction elements (2) with other users via a network. System (S) nach einem der Ansprüche 1 bis 11 gekennzeichnet durch die Integration in das Fahrzeug (1), wobei das System (S) dazu eingerichtet ist, dass zu dem Vorgabeelement korrespondierende vortrainierte GAN-Modell (M) von einem fahrzeugexternen Server zu empfangen.System (S) according to one of the Claims 1 until 11 characterized by the integration into the vehicle (1), the system (S) being set up to receive the pre-trained GAN model (M) corresponding to the default element from a server external to the vehicle. System (S) nach einem der Ansprüche 1 bis 11 gekennzeichnet durch ein fahrzeugintegriertes Teilsystem sowie ein fahrzeugexternes Teilsystem, welches auf einem fahrzeugexternen Server ausgebildet ist, und welches das wenigstens eine GAN-Modell (M) umfasst.System (S) according to one of the Claims 1 until 11 characterized by a vehicle-integrated subsystem and a vehicle-external subsystem, which is designed on a vehicle-external server and which includes the at least one GAN model (M).
DE102022003091.8A 2022-08-23 2022-08-23 System for generating information or interaction elements Pending DE102022003091A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022003091.8A DE102022003091A1 (en) 2022-08-23 2022-08-23 System for generating information or interaction elements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022003091.8A DE102022003091A1 (en) 2022-08-23 2022-08-23 System for generating information or interaction elements

Publications (1)

Publication Number Publication Date
DE102022003091A1 true DE102022003091A1 (en) 2024-02-29

Family

ID=89844793

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022003091.8A Pending DE102022003091A1 (en) 2022-08-23 2022-08-23 System for generating information or interaction elements

Country Status (1)

Country Link
DE (1) DE102022003091A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015007741A1 (en) 2015-06-17 2016-12-22 Daimler Ag Personalization of a vehicle
DE102018121808A1 (en) 2017-09-08 2019-03-14 Ford Global Technologies, Llc REFINING SYNTHETIC DATA WITH A GENERATIVE ADVERSARIAL NETWORK USING AUXILIARY INPUTS
US20220004809A1 (en) 2020-07-01 2022-01-06 Wipro Limited Method and system for generating user driven adaptive object visualizations using generative adversarial network models
US20220084204A1 (en) 2020-09-11 2022-03-17 Nvidia Corporation Labeling images using a neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015007741A1 (en) 2015-06-17 2016-12-22 Daimler Ag Personalization of a vehicle
DE102018121808A1 (en) 2017-09-08 2019-03-14 Ford Global Technologies, Llc REFINING SYNTHETIC DATA WITH A GENERATIVE ADVERSARIAL NETWORK USING AUXILIARY INPUTS
US20220004809A1 (en) 2020-07-01 2022-01-06 Wipro Limited Method and system for generating user driven adaptive object visualizations using generative adversarial network models
US20220084204A1 (en) 2020-09-11 2022-03-17 Nvidia Corporation Labeling images using a neural network

Similar Documents

Publication Publication Date Title
DE102012009429A1 (en) Method for remote configuration of electric car, involves displaying visually perceptible connection between two graphic elements of two display modes, where one of modes corresponds to actual control arrangement in vehicle
DE102016210288A1 (en) Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device
DE102011110978A1 (en) Method for operating an electronic device or an application and corresponding device
DE102014206047A1 (en) Method and apparatus for providing a graphical user interface in a vehicle
DE102013015737A1 (en) Method for configuring motor vehicle for user, involves including specific settings for particular user and particular motor vehicle, where motor vehicle is configured using loaded configuration data
EP2987066B1 (en) Motor vehicle having a display and operating device and corresponding method
DE102006052898B4 (en) Information and control device for a user of a motor vehicle
DE102022003091A1 (en) System for generating information or interaction elements
DE102013011126A1 (en) Method for displaying information of motor vehicle in display device of e.g. smart phone, involves designing presentation of information specific to configuration of motor vehicle
DE102011121108A1 (en) Method for outputting information such as display of menus to passengers in vehicle, involves coupling mobile devices to vehicle using interfaces, so that the mobile devices are assigned as portion of output system of vehicle
DE102018206653A1 (en) Method for dynamically adapting an operating device in a motor vehicle and operating device and motor vehicle
DE102004002010B4 (en) Arrangement for voice control of an electronic device, in particular in a motor vehicle
DE102019004868A1 (en) Instructions for use procedure and explanation
DE102013001885A1 (en) System-initiated help function per trip and / or per user for the operation of a device associated with a vehicle
DE102018205953A1 (en) Method for operating an operating device of a device in order to determine a display content, as well as operating device and device
DE102013001384A1 (en) Method and system for viewing direction-dependent control of a plurality of functional units and motor vehicles and mobile terminal with such a system
DE102018217126A1 (en) Method for displaying information on a display unit with a user-identifying avatar, and motor vehicle
DE102010019675A1 (en) Method for graphical representation of information on image screen of vehicle, involves selecting design for presentation of information from number of possible designs
DE102013003047A1 (en) Method for controlling functional unit of motor vehicle, involves activating control function for controlling functional unit, when user has performed given blink pattern that is specified as double blink of the user
DE102004053763A1 (en) operating device
DE102009058538A1 (en) Control device e.g. head unit, for controlling e.g. radio of motor vehicle, has evaluation device that determines control functions favored from control functions of telephone, navigation system, radio and air conditioning system
DE102016014546A1 (en) Method for configuring vehicle parameters
EP2188594B1 (en) Vehicle system of a motor vehicle having explanation function
DE102019207682A1 (en) Method for the graphic configuration of a display instrument in a motor vehicle and motor vehicle for carrying out the method
DE102022211314A1 (en) Method for outputting feedback during interaction of a user with a data processing system and motor vehicle with a data processing system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication