DE102017219332A1 - Mensch-fahrzeug-interaktion - Google Patents

Mensch-fahrzeug-interaktion Download PDF

Info

Publication number
DE102017219332A1
DE102017219332A1 DE102017219332.8A DE102017219332A DE102017219332A1 DE 102017219332 A1 DE102017219332 A1 DE 102017219332A1 DE 102017219332 A DE102017219332 A DE 102017219332A DE 102017219332 A1 DE102017219332 A1 DE 102017219332A1
Authority
DE
Germany
Prior art keywords
application
zone
touchpad
display
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017219332.8A
Other languages
English (en)
Inventor
Steven Feit
Ross Cameron Miller
Jessica Champi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/669,992 external-priority patent/US10402161B2/en
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102017219332A1 publication Critical patent/DE102017219332A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/28
    • B60K35/29
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • B60K2360/11
    • B60K2360/122
    • B60K2360/1434
    • B60K2360/1438
    • B60K2360/164
    • B60K2360/182
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Gemäß einem oder mehreren Aspekten, werden hierin Systeme und Verfahren für eine Mensch-Fahrzeug-Interaktion beschrieben. Ein Touchpad kann eine erste Touchpadzone und eine zweite Touchpadzone einschließen. Eine Anzeige kann eine erste Anzeigezone und eine zweite Anzeigezone einschließen, die jeweils der ersten Touchpadzone und der zweiten Touchpadzone entsprechen. Ein Prozessor kann Anweisungen ausführen, die in einem Speicher gespeichert sind, um das Rendern einer ersten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige und das Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige durchzuführen. Der Prozessor kann als Reaktion auf eine Eingabe von dem Touchpad die bereits laufende zweite Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige rendern und die erste Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige rendern.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Vorteil der vorläufigen U.S.-Patentanmeldung mit der Seriennummer 62/421,322 (Aktenzeichen des Anwalts HRA-41750 // H1162629US01) mit dem Titel „SYSTEM AND METHOD FOR HMI DESIGN AND HUMAN-VEHICLE INTERACTION“, eingereicht am 13. November 2016; wobei die vorstehende(n) Anmeldung(en) hierin durch Bezugnahme vollumfänglich aufgenommen ist bzw. sind.
  • ALLGEMEINER STAND DER TECHNIK
  • Im Allgemeinen können Fahrzeuge mit Anzeigen, wie etwa Mittelkonsolenanzeigen, Autoarmaturenbrettanzeigen (z. B. Messanzeige), Touchscreen-Anzeigen oder anderen Anzeigen, ausgestattet sein. Diese Anzeigen können Fahrzeuginformationen für einen Benutzer, Fahrer, Fahrgast oder anderen Insassen eines Fahrzeugs rendern. Mensch-Maschine-Schnittstellen (HMI) in dem Fahrzeug können eine Interaktion zwischen einem Menschen (z. B. einem Fahrer, Fahrgast) in dem Fahrzeug und dem Fahrzeug oder verknüpften Fahrzeugsystemen vereinfachen. Durch die Gestaltung der Benutzerschnittstelle (UI) von derartigen Systemen kann eine selbsterklärende, intuitive, effiziente oder benutzerfreundliche Möglichkeit zum Betreiben des Fahrzeugs und/oder zum Bereitstellen von Informationen bereitgestellt werden.
  • KURZBESCHREIBUNG
  • Gemäß einem oder mehreren Aspekten kann ein System für eine Mensch-Fahrzeug-Interaktion ein Touchpad, eine Anzeige, einen Speicher und einen Prozessor einschließen. Das Touchpad kann eine erste Touchpadzone und eine zweite Touchpadzone einschließen. Die Anzeige kann eine erste Anzeigezone und eine zweite Anzeigezone einschließen. Die erste Anzeigezone entspricht der ersten Touchpadzone und die zweite Anzeigezone entspricht der zweiten Touchpadzone. Der Speicher kann eine oder mehrere Anweisungen speichern. Der Prozessor kann eine oder mehrere der Anweisungen ausführen, die in dem Speicher gespeichert sind, um das Rendern einer ersten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige durchzuführen. Der erste Modus kann ein Anwendungsmodus sein. Der Prozessor kann das Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige durchführen. Der zweite Modus kann ein Widget-Modus sein. Der Prozessor kann eine Eingabe von dem Touchpad empfangen, die für das Starten der zweiten Anwendung bezeichnend ist. Als Reaktion auf das Empfangen der Eingabe von dem Touchpad kann der Prozessor das Rendern der bereits laufenden zweiten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige durchführen. Der erste Modus kann ein Anwendungsmodus sein, der mit einer größeren Funktionalität verknüpft ist als der Widget-Modus der zweiten Anwendung. Als Reaktion auf das Empfangen der Eingabe von dem Touchpad kann der Prozessor das Rendern der ersten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige durchführen.
  • Der Prozessor kann den ersten Modus der ersten Anwendung mit einer ersten Schnittstelle und den zweiten Modus der ersten Anwendung mit einer zweiten Schnittstelle rendern, die anders angeordnet ist als die erste Schnittstelle. Das Touchpad kann einen Teiler zwischen der ersten Touchpadzone und der zweiten Touchpadzone einschließen. Die erste Touchpadzone und die zweite Touchpadzone können in unterschiedlichen Höhen angeordnet sein. Die erste Touchpadzone und die zweite Touchpadzone können unterschiedliche Texturen aufweisen. Der Prozessor kann eine Grafikanwendungskennung in der zweiten Anzeigezone rendern, die für eine Reihenfolge bezeichnend ist, die mit der Anwendung verknüpft ist, die derzeit in der zweiten Anzeigezone gerendert wird. Die Eingabe von dem Touchpad kann ein Klick oder ein Doppeltippen in der zweiten Touchpadzone sein. Die Eingabe von dem Touchpad, die für das Starten der zweiten Anwendung bezeichnend ist, kann empfangen werden, während ein Symbol, das mit der zweiten Anwendung verknüpft ist, gerendert wird.
  • Gemäß einem oder mehreren Aspekten kann ein Verfahren für eine Mensch-Fahrzeug-Interaktion Folgendes einschließen: Rendern einer ersten Anwendung in einem ersten Modus innerhalb einer ersten Anzeigezone einer Anzeige, Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb einer zweiten Anzeigezone der Anzeige, Empfangen einer Eingabe von einem Touchpad, wobei das Touchpad eine erste Touchpadzone und eine zweite Touchpadzone einschließt, Rendern der zweiten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige als Reaktion auf die Eingabe von dem Touchpad, und Rendern einer dritten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige als Reaktion auf die Eingabe von dem Touchpad auf Grundlage der ersten Anwendung, die keinen zweiten Modus aufweist und auf Grundlage der Eingabe von dem Touchpad.
  • Die dritte Anwendung kann eine Standardanwendung sein. Die zweite Anwendung kann eine Standardanwendung sein und die dritte Anwendung kann eine sekundäre Standardanwendung sein. Das Verfahren kann das Rendern des ersten Modus der zweiten Anwendung mit einer ersten Schnittstelle und des zweiten Modus der zweiten Anwendung mit einer zweiten Schnittstelle einschließen, die anders angeordnet ist als die erste Schnittstelle. Das Touchpad kann einen Teiler zwischen der ersten Touchpadzone und der zweiten Touchpadzone einschließen. Die erste Touchpadzone und die zweite Touchpadzone können in unterschiedlichen Höhen angeordnet sein. Die erste Touchpadzone und die zweite Touchpadzone können unterschiedliche Texturen aufweisen. Das Verfahren kann das Rendern einer Grafikanwendungskennung in der zweiten Anzeigezone einschließen, die für eine Reihenfolge bezeichnend ist, die mit der Anwendung verknüpft ist, die derzeit in der zweiten Anzeigezone gerendert wird. Die Eingabe von dem Touchpad kann ein Klick oder ein Doppeltippen in der zweiten Touchpadzone sein. Das Verfahren kann das Rendern eines Symbols einschließen, das mit der zweiten Anwendung verknüpft ist.
  • Gemäß einem oder mehreren Aspekten kann ein System für eine Mensch-Fahrzeug-Interaktion ein Touchpad, eine Anzeige, einen Speicher und einen Prozessor einschließen. Das Touchpad kann eine erste Touchpadzone und eine zweite Touchpadzone einschließen. Die Anzeige kann eine erste Anzeigezone und eine zweite Anzeigezone einschließen. Die erste Anzeigezone kann der ersten Touchpadzone entsprechen und die zweite Anzeigezone entspricht der zweiten Touchpadzone. Der Speicher kann eine oder mehrere Anweisungen speichern. Der Prozessor kann eine oder mehrere der Anweisungen ausführen, die in dem Speicher gespeichert sind, um das Rendern einer ersten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige durchzuführen. Der erste Modus kann ein Anwendungsmodus sein. Der Prozessor kann das Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige durchführen. Der zweite Modus kann ein Widget-Modus sein. Der Prozessor kann eine Eingabe von dem Touchpad empfangen, die für das Starten der zweiten Anwendung bezeichnend ist. Der Prozessor kann als Reaktion auf das Empfangen der Eingabe von dem Touchpad die zweite Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige rendern. Der erste Modus kann ein Anwendungsmodus sein, der mit einer größeren Funktionalität verknüpft ist als der Widget-Modus der zweiten Anwendung. Der Prozessor kann als Reaktion auf das Empfangen der Eingabe von dem Touchpad eine dritte Anwendung in einem zweiten Widget-Modus innerhalb der zweiten Anzeigezone der Anzeige rendern. Die dritte Anwendung kann eine Anwendung sein, die mit einer Reihenfolge erster Priorität verknüpft ist.
  • Die Reihenfolge erster Priorität kann auf derzeit laufenden Anwendungen basieren. Der Prozessor kann eine zweite Eingabe von dem Touchpad empfangen, die für das Starten der dritten Anwendung bezeichnend ist. Als Reaktion auf das Empfangen der zweiten Eingabe von dem Touchpad kann der Prozessor das Rendern der dritten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige durchführen. Der erste Modus kann ein Anwendungsmodus sein, der mit einer größeren Funktionalität verknüpft ist als der Widget-Modus der dritten Anwendung. Als Reaktion auf das Empfangen der zweiten Eingabe von dem Touchpad kann der Prozessor das Rendern einer vierten Anwendung in einem zweiten Widget-Modus innerhalb der zweiten Anzeigezone der Anzeige durchführen. Die vierte Anwendung kann eine Anwendung sein, die mit einer Reihenfolge zweiter Priorität verknüpft ist. Das Touchpad kann einen Teiler zwischen der ersten Touchpadzone und der zweiten Touchpadzone einschließen. Die erste Touchpadzone und die zweite Touchpadzone können in unterschiedlichen Höhen angeordnet sein. Die erste Touchpadzone und die zweite Touchpadzone können unterschiedliche Texturen aufweisen.
  • Figurenliste
    • 1 ist eine Veranschaulichung eines Beispielsystems für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
    • 2 ist eine Veranschaulichung eines beispielhaften Touchpads für ein System für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
    • 3 ist eine Veranschaulichung einer Anzeige und beispielhafter Schnittstellen für ein System für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
    • 4 ist eine Veranschaulichung einer Anzeige und beispielhafter Schnittstellen für ein System für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
    • 5 ist eine Veranschaulichung einer Anzeige und beispielhafter Schnittstellen für ein System für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
    • 6A-6C sind Veranschaulichungen einer Anzeige und beispielhafter Schnittstellen für ein System für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
    • 7A-7D sind Veranschaulichungen einer Anzeige und beispielhafter Schnittstellen für ein System für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
    • 8 ist eine Veranschaulichung eines beispielhaften Ablaufdiagramms eines Verfahrens für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgenden Begriffe werden in der gesamten Offenbarung verwendet, wobei ihre Definitionen hierin bereitgestellt werden, um zum Verständnis von einem oder mehreren Aspekten der Offenbarung beizutragen. Die Definitionen schließen verschiedene Beispiele und/oder Formen von Komponenten ein, welche in den Umfang eines Begriffs fallen und die zur Umsetzung verwendet werden können. Die Beispiele sind nicht dazu bestimmt, einschränkend zu sein.
  • „Computerkommunikation“, wie hier verwendet, bezieht sich auf eine Kommunikation zwischen zwei oder mehreren Rechenvorrichtungen (z. B. Computer, Personal Digital Assistant, Mobiltelefon, Netzwerkvorrichtung) und kann zum Beispiel eine Netzwerkübertragung, eine Dateiübertragung, eine Applet-Übertragung, eine E-Mail, eine Übertragung von einem Hypertext-Transferprotokoll (HTTP) usw. sein. Eine Computerkommunikation kann unter anderem zum Beispiel über ein Drahtlossystem (z. B. IEEE 802.11), ein Ethernet-System (z. B. IEEE 802.3), ein Token-Ring-System (z. B. IEEE 802.5), ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Punkt-zu-Punkt-System, ein Durchschaltevermittlungssystem, ein Paketvermittlungssystem erfolgen. Als ein anderes Beispiel kann das System aus 1 Informationen von einer mobilen Vorrichtung durch eine Computerkommunikation über das Netzwerk empfangen oder eine Computerkommunikation unter Verwendung des Busses oder der Kommunikationsschnittstelle durchführen.
  • Der Prozessor kann eine Verarbeitungseinheit oder Mikroprozessoren einschließen, die Anweisungen ausführen, die in dem Speicher oder der Platte gespeichert sind. Ein „Prozessor“ oder eine „Verarbeitungseinheit“, wie hier verwendet, verarbeitet Signale und führt allgemeine datenverarbeitende und arithmetische Funktionen aus. Signale, die durch den Prozessor verarbeitet werden, können digitale Signale, Datensignale, Computeranweisungen, Prozessoranweisungen, Benachrichtigungen, ein Bit, einen Bit-Strom, der/die/das empfangen, übertragen und/oder detektiert werden kann/können, einschließen. Im Allgemeinen kann der Prozessor einer Vielzahl von verschiedenen Prozessoren entsprechen, einschließend mehrere Einzel- und Multicore-Prozessoren und Co-Prozessoren und andere Architekturen aus mehreren Einzel- und Multicore-Prozessoren und Co-Prozessoren. Der Prozessor kann eine Logikschaltung zum Ausführen von Aktionen und/oder Algorithmen einschließen.
  • Die „Logikschaltung“, wie hier verwendet, schließt unter anderem Hardware, Firmware, ein nicht transitorisches computerlesbares Medium, auf welchem Anweisungen gespeichert sind, Ausführungsanweisungen auf einer Maschine und/oder Veranlassen (z. B. Ausführen) (einer) Aktion(en) von einer/m weiteren Logikschaltung, Modul, Verfahren und/oder System ein. Die Logikschaltung kann einen Prozessor einschließen und/oder ein Teil davon sein, welcher durch einen Algorithmus, eine diskrete Logik (z. B. ASIC), eine analoge Schaltung, eine digitale Schaltung, eine programmierte Logikvorrichtung, eine Speichervorrichtung, welche Anweisungen enthält, usw. gesteuert wird. Logik kann ein oder mehrere Gates, Kombination von Gates oder andere Schaltungskomponenten einschließen. Wo mehrere Logiken beschrieben sind, kann es möglich sein, die mehreren Logiken in einer physikalischen Logik zu vereinigen. Umgekehrt kann es, wo eine einzelne Logik beschrieben ist, möglich sein, diese einzelne Logik zwischen mehreren physikalischen Logiken aufzuteilen.
  • Ein „Modul“, wie hier verwendet, schließt unter anderem Folgendes ein: ein nicht transitorisches computerlesbares Medium, welches Anweisungen speichert, auf einer Maschine ausgeführte Anweisungen, auf einer Maschine ausgeführte Hardware, Firmware, Software und/oder Kombinationen all dieser zum Durchführen von (einer) Funktion(en) oder (einer) Aktion(en) und/oder zum Veranlassen einer Funktion oder Aktion von einem anderen Modul, Verfahren und/oder System. Ein Modul kann zudem eine Logik, einen Software-gesteuerten Mikroprozessor, eine separate Logikschaltung, eine analoge Schaltung, eine digitale Schaltung, eine programmierte Logikvorrichtung, eine Speichervorrichtung, welche Ausführungsanweisungen enthält, Logik-Gates, eine Kombination von Gates und/oder andere Schaltungskomponenten, einschließen. Mehrere Module können in einem Modul kombiniert werden, und einzelne Module können unter mehreren Modulen aufgeteilt werden. Beispiele für Module können Folgendes einschließen: ein Anzeigesteuermodul, welches das Anzeigen oder Rendern von einer oder mehreren Anwendungen innerhalb einer oder mehreren Zonen einer Anzeigeeinheit oder eines Anzeigebildschirms steuert, ein Eingabemodul oder Fahrzeugereignismodul, das eine oder mehrere Eingaben von E/A-Vorrichtungen, wie etwa dem Touchpad, empfängt, ein Anwendungsmodul, das eine oder mehrere Anwendungen in einem Betriebssystem des Systems für eine Mensch-Fahrzeug-Interaktion ausführt, ein Anwendungsverwaltungsmodul, das die Priorität, Reihenfolge, Standardreihenfolge, Widget-Folge oder andere auf die Ausführung bezogene Aspekte von einer oder mehreren der Anwendungen verwaltet, ein Bilderzeugungsmodul, das eine visuelle Rückkopplung generiert, die mit einer Eingabe verknüpft ist, die von den E/A-Vorrichtungen empfangen wird usw.
  • „Computerlesbares Medium“ oder „computerlesbare Vorrichtung“, wie hierin verwendet, bezieht sich auf ein nicht transitorisches Medium, auf dem Anweisungen und/oder Daten gespeichert sind. Ein computerlesbares Medium kann Formen, einschließend unter anderem nicht-flüchtige Medien und flüchtige Medien, annehmen. Nicht-flüchtige Medien können zum Beispiel optische Platten, Magnetplatten usw. einschließen. Flüchtige Medien können zum Beispiel Halbleiterspeicher, dynamischen Speicher usw. einschließen. Herkömmliche Formen von einem computerlesbaren Medium können unter anderem eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein anderes Magnetmedium, eine ASIC, eine CD, ein anderes optisches Medium, einen RAM, einen ROM, einen Speicherchip oder eine Speicherkarte, einen Speicherstick und andere Medien einschließen, von denen ein Computer, ein Prozessor oder eine andere elektronische Vorrichtung lesen kann.
  • „Komponente“, wie hier verwendet, bezieht sich auf eine computerbezogene Einheit (z. B. Hardware, Firmware, Ausführungsanweisungen, Kombinationen davon). Computerkomponenten können zum Beispiel einen Prozess, der auf einem Prozessor läuft, einen Prozessor, ein Objekt, eine Programmdatei, einen Ausführungs-Thread und einen Computer einschließen. (Eine) Computerkomponente(n) kann bzw. können innerhalb eines Prozesses und/oder Threads liegen. Eine Computerkomponente kann in einem Computer lokalisiert sein und/oder zwischen mehreren Computern verteilt sein.
  • Der Speicher kann einen flüchtigen Speicher und/oder einen nicht-flüchtigen Speicher einschließen. Nicht flüchtiger Speicher kann zum Beispiel ROM (Read Only Memory), PROM (Programmable Read Only Memory), EPROM (Erasable PROM) und EEPROM (Electrically Erasable PROM) einschließen. Ein flüchtiger Speicher kann zum Beispiel RAM (Random Access Memory), synchronen RAM (SRAM), dynamischen RAM (DRAM), synchronen DRAM (SDRAM), Double-Data-Rate-SDRAM (DDRSDRAM) und Direct-RAM-Bus-RAM (DRRAM) einschließen. Der Speicher kann eine oder mehrere Anweisungen speichern, die ein Betriebssystem einschließen, das Ressourcen einer Rechenvorrichtung, eine oder mehrere Anwendungen usw. steuert oder zuweist.
  • Die „Platte“, wie hier verwendet, kann zum Beispiel ein Magnetplattenlaufwerk, ein Festkörperlaufwerk, ein Diskettenlaufwerk, ein Bandlaufwerk, ein Zip-Laufwerk, eine Flash-Speicherkarte und/oder ein Speicherstick sein. Weiterhin kann die Platte eine CD-ROM (Compact Disk ROM), ein CD-Recordable-Laufwerk (CD-R-Laufwerk), ein CD-Rewritable-Laufwerk (CD-RW-Laufwerk) und/oder ein Digital-Video-ROM-Laufwerk (DVD ROM) sein. Ähnlich dem Speicher kann die Platte eine oder mehrere Anweisungen speichern, die ein Betriebssystem einschließen, das Ressourcen einer Rechenvorrichtung, eine oder mehrere Anwendungen usw. steuert oder zuweist.
  • Eine „Datenbank“, wie hier verwendet, wird verwendet, um sich auf eine Tabelle zu beziehen. In anderen Beispielen kann eine „Datenbank“ verwendet werden, um sich auf einen Satz von Tabellen zu beziehen. In noch anderen Beispielen kann sich eine „Datenbank“ auf einen Satz von Datenspeichern und Verfahren zum Zugriff auf diese und/oder zur Manipulation dieser Datenspeicher beziehen. Eine Datenbank kann zum Beispiel auf der Platte und/oder dem Speicher gespeichert werden.
  • Wie aus 1 ersichtlich, bildet der Bus eine Wirkverbindung zwischen dem Prozessor, dem Speicher, der Platte und der Kommunikationsschnittstelle. Der „Bus“, wie hier verwendet, bezieht sich auf eine verschaltete Architektur, die wirkverbunden ist, um Daten zwischen Computerkomponenten in einem einzelnen oder mehreren Systemen zu übertragen. Der Bus kann unter anderem ein Speicherbus, eine Speichersteuerung, ein Peripheriebus, ein externer Bus, ein Kreuzschienenschalter und/oder ein lokaler Bus sein. Der Bus kann außerdem ein Fahrzeugbus sein, der Komponenten innerhalb eines Fahrzeugs unter Verwendung von Protokollen, wie etwa unter anderem Controller Area Network (CAN), Media Oriented System Transport (MOST), Local Interconnect Network (LIN), verschaltet.
  • Eine „Wirkverbindung“ oder eine Verbindung, durch welche Elemente „wirkverbunden“ sind, stellt eine Verbindung dar, in welcher Signale, physikalische Kommunikationen und/oder logische Kommunikationen gesendet und/oder empfangen werden können. Eine Wirkverbindung kann eine drahtlose Schnittstelle, eine physikalische Schnittstelle, eine Datenschnittstelle und/oder eine elektrische Schnittstelle einschließen.
  • „Computerkommunikation“, wie hier verwendet, bezieht sich auf eine Kommunikation zwischen zwei oder mehreren Rechenvorrichtungen (z. B. Computer, Personal Digital Assistant, Mobiltelefon, Netzwerkvorrichtung) und kann zum Beispiel eine Netzwerkübertragung, eine Dateiübertragung, eine Applet-Übertragung, eine E-Mail, eine Übertragung von einem Hypertext-Transferprotokoll (HTTP) usw. sein. Eine Computerkommunikation kann unter anderem zum Beispiel über ein Drahtlossystem (z. B. IEEE 802.11), ein Ethernet-System (z. B. IEEE 802.3), ein Token-Ring-System (z. B. IEEE 802.5), ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Punkt-zu-Punkt-System, ein Durchschaltevermittlungssystem, ein Paketvermittlungssystem erfolgen.
  • Ein „Fahrzeug“, wie hier verwendet, bezieht sich auf jedes bewegliche Fahrzeug, das in der Lage ist, einen oder mehrere menschliche Insassen zu transportieren, und das durch eine beliebige Form von Energie angetrieben wird. Der Begriff „Fahrzeug“ schließt unter anderem Autos, Trucks, Vans, Minivans, SUVs, Motorräder, Scooter, Boote, Go-Karts, Fahrgeschäftautos, den Schienenverkehr, private Wasserfahrzeuge und Luftfahrzeuge ein. In einigen Fällen schließt ein Kraftfahrzeug einen oder mehrere Motoren ein. Ferner kann sich der Begriff „Fahrzeug“ auf ein Elektrofahrzeug (EV) beziehen, das in der Lage ist, einen oder mehrere menschliche Insassen zu transportieren, und das vollständig oder teilweise durch einen oder mehrere Elektromotoren angetrieben wird, die durch eine elektrische Batterie angetrieben werden. Das EV kann Batterieelektrofahrzeuge (BEV) und Plug-in-Hybrid-Elektrofahrzeuge (PHEV) einschließen. Der Begriff „Fahrzeug“ kann sich ebenfalls auf ein autonomes Fahrzeug und/oder selbstfahrendes Fahrzeug beziehen, das durch eine beliebige Form von Energie angetrieben wird. Das autonome Fahrzeug kann einen oder mehrere menschliche Insassen transportieren. Ferner kann der Begriff „Fahrzeug“ Fahrzeuge, welche mit vorbestimmten Pfaden automatisiert oder nicht-automatisiert sind, oder freifahrende Fahrzeuge einschließen.
  • Eine „Fahrzeuganzeige“ oder „Anzeige“ (z. B. wenn in Bezug auf eine Anzeige in einem Fahrzeug verwendet), wie hier verwendet, kann unter anderem LED-Anzeigefelder, LCD-Anzeigefelder, CRT-Anzeigen, Plasmaanzeigefelder, Touchscreen-Anzeigen einschließen, ohne darauf beschränkt zu sein, welche oftmals in Fahrzeugen anzutreffen sind, um Informationen über das Fahrzeug anzuzeigen, wie etwa die Anzeigeeinheiten aus 1, welche Anzeigebildschirme einschließen. Die Anzeige kann Eingaben (z. B. Berührungseingaben, Eingaben über eine Tastatur, Eingaben von verschiedenen anderen Eingabevorrichtungen usw.) von einem Benutzer empfangen. Die Anzeige kann sich an verschiedenen Stellen des Fahrzeugs befinden, zum Beispiel an dem Armaturenbrett oder der Mittelkonsole. In einigen Ausführungsformen ist die Anzeige unter anderem Teil einer tragbaren Vorrichtung (z. B. im Besitz eines Fahrzeuginsassen oder mit diesem assoziiert), eines Navigationssystems, eines Infotainment-Systems. Zum Beispiel kann die Anzeigeeinheit die Anzeigeeinheit der Mittelkonsole sein, obwohl die Anzeigeeinheit die Anzeigeeinheit des Armaturenbretts sein kann.
  • Eine „Eingabe/Ausgabe-Vorrichtung“ (E/A-Vorrichtung), wie hier verwendet, kann Vorrichtungen zum Empfangen von Eingaben und/oder Vorrichtungen zum Ausgeben von Daten, wie etwa das Touchpad oder die Anzeigeeinheit, einschließen. Das Touchpad kann Sensoren einschließen, die es dem Touchpad ermöglichen, eine Anzahl von Fingern zu detektieren, die ein Benutzer verwendet oder ermöglichen, dass das Touchpad zwischen mehreren Zonen unterscheiden kann. Die Eingabe und/oder Ausgabe kann zum Steuern unterschiedlicher Fahrzeugmerkmale dienen, welche verschiedene Fahrzeugkomponenten, -systeme und -teilsysteme einschließen. Im Besonderen schließt der Begriff „Eingabevorrichtung“ unter anderem Folgendes ein: Tastatur, Mikrofone, Zeige- und Auswahlvorrichtungen, Kameras, Bildgebungsvorrichtungen, Videokarten, Anzeigen, Drucktasten, Drehknöpfe und dergleichen. Der Begriff „Eingabevorrichtung“ schließt zusätzlich graphische Eingabesteuerungen ein, welche innerhalb einer Benutzerschnittstelle angeordnet sind, die durch verschiedene Arten von Mechanismen, wie etwa Steuerungen auf Software- und Hardwarebasis, Schnittstellen, Touchscreens, Touchpads oder Plug-and-Play-Vorrichtungen, angezeigt werden können. Eine „Ausgabevorrichtung“ schließt unter anderem Folgendes ein: Anzeigevorrichtungen und andere Vorrichtungen zum Ausgeben von Informationen und Funktionen, wie etwa die Anzeigeeinheiten des Systems aus 1.
  • Ein „Fahrzeugsystem“, wie hier verwendet, kann unter anderem beliebige automatische oder manuelle Systeme einschließen, welche zum Verbessern des Fahrzeugs, des Fahrens und/oder der Sicherheit verwendet werden können. Beispielhafte Fahrzeugsysteme schließen unter anderem Folgendes ein: ein elektronisches Stabilitätskontrollsystem, ein Antiblockiersystem, ein Bremsassistenzsystem, ein automatisches Prefill-Bremssystem, ein Niedriggeschwindigkeits-Nachfolge-System, ein Geschwindigkeitsregelungssystem, ein Zusammenstoßwarnungssystem, ein Kollisionsminderungsbremssystem, ein System zur automatischen Geschwindigkeitsregelung, ein Spurabkommwarnungssystem, ein Toter-Winkel-Anzeige-System, ein Spurhalteassistenzsystem, ein Navigationssystem, ein Übertragungssystem, Bremspedalsysteme, ein elektronisches Lenkhilfesystem, visuelle Vorrichtungen (z. B. Kamerasysteme, Näherungssensorsysteme), ein Klimatisierungssystem, ein elektronisches Vorspannsystem, ein Überwachungssystem, ein Insassendetektionssystem, ein Fahrzeugfederungssystem, ein Fahrzeugsitzkonfigurationssystem, ein Fahrzeuginnenraumbeleuchtungssystem, ein Audiosystem, ein sensorisches System, ein Innen- oder Außenkamerasystem.
  • Ein „Widget“ kann zum Beispiel eine kleine eigenständige Anwendung sein (oder mit einer anderen Anwendung verknüpft sein, die in anderen Modi ausgeführt werden kann oder andere Schnittstellen mit anderen Konfigurationen, Funktionalitäten oder Anordnungen aufweisen kann), die eine graphische Benutzerschnittstelle zum Anzeigen von Informationen und/oder Funktionen einschließt, die mit einer oder mehreren Anwendungen verknüpft sind. Ferner kann eine Anwendung, die mit einem Widget verknüpft ist, als eine „übergeordnete Anwendung“ bezeichnet werden. Als ein veranschaulichendes Beispiel können Widgets ein Uhr-Widget, ein Wetter-Widget, ein E-Mail-Widget, ein Audio-Widget, ein Telefon-Widget usw. einschließen.
  • Wie hierin verwendet, beziehen sich die Begriffe „ableiten“, „Ableitung“, „vorhersagen“, „Vorhersage“, „schätzen“ oder „Schätzung“ im Allgemeinen auf den Prozess des Erörterns oder des Ableitens von Zuständen eines Systems, einer Komponente, einer Umgebung, eines Benutzers aus einer oder mehreren Beobachtungen, die über Ereignisse oder Daten usw. festgehalten werden. Eine Ableitung kann zum Beispiel eingesetzt werden, um einen Kontext oder eine Aktion zu identifizieren oder sie kann eingesetzt werden, um eine Wahrscheinlichkeitsverteilung über Zustände zu generieren. Eine Ableitung kann probabilistisch sein. Zum Beispiel kann die Berechnung einer Wahrscheinlichkeitsverteilung über interessierende Zustände auf einer Berücksichtigung von Daten oder Ereignissen basieren. Mit einer Ableitung können außerdem Methoden bezeichnet werden, die eingesetzt werden, um Ereignisse auf einer höheren Ebene aus einem Satz von Ereignissen oder Daten zusammenzusetzen. Eine derartige Ableitung kann die Konstruktion neuer Ereignisse oder neuer Aktionen aus einem Satz beobachteter Ereignisse oder gespeicherter Ereignisdaten ergeben, unabhängig davon, ob die Ereignisse in unmittelbarer zeitlicher Nähe korreliert sind oder nicht und ob die Ereignisse und Daten von einer oder verschiedenen Ereignis- und Datenquellen stammen.
  • 1 ist eine Veranschaulichung eines Beispielsystems 100 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen. Das System kann einen Prozessor 110, eine Logikschaltung, ein oder mehrere Module 112, einen Speicher 120, einen Bus 122, eine Platte 130 eine Kommunikationsschnittstelle 140, eine Anzeigeeinheit 150 mit einem Anzeigebildschirm 152, ein Touchpad 160 mit einem oder mehreren Sensoren 162 und eine zweite Anzeigeeinheit 170 mit einem zweiten Anzeigebildschirm 172 (z. B. andere Anzeige) einschließen. Das System kann mit einem oder mehreren Fahrzeugsystemen 180 interagieren oder Informationen von anderen Vorrichtungen über ein Netzwerk 190 empfangen, welches eine Computerkommunikation ermöglicht.
  • 2 ist eine Veranschaulichung eines beispielhaften Touchpads 160 für ein System 100 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen. 2-8 können in Bezug auf eine oder mehrere der Komponenten (z. B. den Prozessor 110, den Speicher 120, die Anzeige 150, das Touchpad 160 usw.) des Systems 100 für eine Mensch-Fahrzeug-Interaktion aus 1 beschrieben werden. Wie aus 2 ersichtlich, schließt das Touchpad 160 eine erste Touchpadzone 210 und eine zweite Touchpadzone 220 ein. Hier kann die erste Touchpadzone 210 als „Zone A“ (oder die „A-Zone“, primäre Touchpadzone) bezeichnet werden und die zweite Touchpadzone 220 kann als „Zone B“ (oder die „B-Zone“, sekundäre Touchpadzone) bezeichnet werden. Obwohl lediglich zwei Zonen veranschaulicht sind, versteht es sich, dass in anderen Ausführungsformen zusätzliche Zonen verwendet werden können. Die erste Touchpadzone 210 entspricht einer ersten Anzeigezone der Anzeige 150 und die zweite Touchpadzone 220 entspricht einer zweiten Anzeigezone der Anzeige 150, wie zum Beispiel in 3 veranschaulicht. In einer oder mehreren Ausführungsformen bildet das Touchpad 160 eine 1:1 Korrelation (oder andere Korrelation) mit der Anzeige 150 oder dem Anzeigebildschirm 152 ab oder weist eine solche auf.
  • Das Touchpad 160 kann einen Teiler zwischen der ersten Touchpadzone 210 und der zweiten Touchpadzone 220 (z. B. die Linie oder Grenze zwischen den zwei Zonen) einschließen, welcher eine taktile Differenzierung zwischen den entsprechenden Zonen bereitstellt. Da ein einzelner Zeiger oder eine einzelne Auswahl auf der Anzeige 150 angezeigt werden kann, kann der Teiler angeordnet sein, um eine feine taktile Rückkopplung bereitzustellen, wenn ein Finger oder ein anderes Körperglied zwischen der ersten Touchpadzone 210 und der zweiten Touchpadzone 220 über das Touchpad 160 bewegt wird. In einer oder mehreren Ausführungsformen können die erste Touchpadzone 210 und die zweite Touchpadzone 220 in unterschiedlichen Höhen angeordnet sein, wodurch es dem Benutzer ermöglicht wird, seinen Tastsinn zu verwenden, um das Touchpad 160 während der Fahrt zu bedienen. In anderen Ausführungsformen können die erste Touchpadzone 210 und die zweite Touchpadzone 220 unterschiedliche Texturen oder andere Eigenschaften aufweisen, die es dem Benutzer ermöglichen, während der Fahrt zwischen den entsprechenden Zonen zu unterscheiden (ohne dass er auf das Touchpad 160 schauen muss, um die Zonen zu unterscheiden).
  • In einer oder mehreren Ausführungsformen sind die erste Touchpadzone 210 und die zweite Touchpadzone 220 anklickbar oder die Sensoren 162 können eine Tippgeste in der ersten Touchpadzone 210 oder der zweiten Touchpadzone 220 erkennen und der Prozessor 110 kann die Tippgeste als einen „Klick“ interpretieren. Auf diese Weise können die Sensoren 162 des Touchpads 160 einen Klick, ein Tippen, ein Doppeltippen usw. oder andere Gesten detektieren und der Prozessor 110 kann die Benutzereingabe empfangen und Anwendungen dementsprechend verwalten. In anderen Ausführungsformen können Schaltflächen an dem Touchpad 160 bereitgestellt werden, wie etwa eine Linksklick-Schaltfläche 230, eine Mittelklick-Schaltfläche 232 und eine Rechtsklick-Schaltfläche 234.
  • In einer oder mehreren Ausführungsformen führt der Prozessor 110 Anweisungen aus, die auf der Platte 130 oder in dem Speicher 120 gespeichert sind, um ein Betriebssystem auszuführen, welches die Verwendung von „Apps“ oder Anwendungen (z. B. Anwendungsprogramme, Rechenprogramme oder Programme) ermöglicht, die in dem System 100 für eine Mensch-Fahrzeug-Interaktion ausgeführt werden sollen. Anders ausgedrückt, ermöglicht das Betriebssystem, dass der Benutzer mit Anwendungen, welche mit der Hardware des Fahrzeugs oder anderer Hardware interagieren, wie etwa einer mobilen Vorrichtung des Benutzers, interagieren oder diese ausführen kann. Ein Beispiel des Betriebssystems ist in 3 zu sehen.
  • 3 ist eine Veranschaulichung einer Anzeige und beispielhafter Schnittstellen für ein System 100 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen. Wie aus 3 ersichtlich, kann die Anzeige 150 oder der Anzeigebildschirm 152 des Fahrzeugs in mehrere Zonen unterteilt werden, um das Multitasking unterschiedlicher Anwendungen zu fördern. In diesem Beispiel befindet sich die erste Anzeigezone 310 (z. B. primäre Aufgabenzone, Zone A, A-Zone usw.) der Anzeige 150 auf der linken Seite und die zweite Anzeigezone 320 (z. B. sekundäre Aufgabenzone, Zone B, B-Zone usw.) der Anzeige 150 wird auf der rechten Seite gerendert. Die erste Anzeigezone 310 kann verwendet werden, um aktive Anwendungen anzuzeigen, während die zweite Anzeigezone 320 verwendet werden kann, um andere Anwendungen (z. B. Anwendungen, die mit einer anderen Schnittstelle verknüpft sind, die in einer anderen Größe gerendert werden, Anwendungen im Widget-Modus, Anwendungen, die im Hintergrund laufen usw.) anzuzeigen. In einer oder mehreren Ausführungsformen ist die erste Anzeigezone 310 mit einem größeren Bereich verknüpft als die zweite Anzeigezone 320. Demnach kann die zweite Anzeigezone 320 verwendet werden, um Informationen anzuzeigen, die nützlich sind, jedoch nicht Teil einer Anwendung sind, die in der ersten Anzeigezone 310 angezeigt wird, wodurch das Multitasking von Anwendungen ermöglicht wird. Als ein Beispiel kann der Prozessor 110 die zweite Anzeigezone 320 aufweisen, die Benachrichtigungen anzeigt.
  • In einer oder mehreren Ausführungsformen kann der Speicher 120 oder die Platte 130 des Systems 100 für eine Mensch-Fahrzeug-Interaktion Anweisungen speichern, die mit einer oder mehreren der Anwendungen verknüpft sind. Zum Beispiel können einige der Anweisungen, die mit einem Programm oder einer Anwendung verknüpft sind, wenn sie von dem Prozessor 110 ausgeführt werden, die zugehörige Anwendung in einem ersten Modus ausführen. Andere Anweisungen, können, wenn sie ausgeführt werden, die Anwendung in einem zweiten Modus (z. B. einem Widget-Modus), einem dritten Modus usw. ausführen. Gemäß einem oder mehreren Aspekten kann der Prozessor 110 den Modus auswählen, in dem die Anwendung auf Grundlage der Zone ausgeführt werden soll, in der die Anwendung ausgeführt werden soll.
  • Zum Beispiel kann der Prozessor 110 die Anwendung in einem ersten Modus ausführen, wenn die Anwendung in der ersten Anzeigezone 310 läuft. Als ein anderes Beispiel kann der Prozessor 110 die Anwendung in einem zweiten Modus ausführen, wenn die Anwendung in der zweiten Anzeigezone 320 läuft. Jedoch sind, wenn eine Anwendung durch den Prozessor 110 in der ersten Anzeigezone 310 gerendert wird und die Anwendung in der zweiten Anzeigezone 320 als ein Widget gerendert wird, beide mit der gleichen übergeordneten Anwendung verknüpft. Anders ausgedrückt, kann der Prozessor 110 die Anwendung in der ersten Anzeigezone 310 in einem Anwendungsmodus ausführen und er kann die gleiche Anwendung in der zweiten Anzeigezone 320 in einem Widget-Modus ausführen (jedoch nicht zwingend gleichzeitig oder simultan). Von daher ist es in einer oder mehreren Ausführungsformen unnötig, ein Widget in der zweiten Anzeigezone 320 simultan oder gleichzeitig mit seiner verwandten übergeordneten Anwendung in der ersten Anzeigezone 310 anzuzeigen, obwohl es in anderen Ausführungsformen möglich sein kann.
  • Der zweite Modus oder der Widget-Modus der Anwendung kann eine kompakte Version der Anwendung in einem Anwendungsmodus sein. Zum Beispiel kann der zweite Modus oder der kompakte Modus weniger oder (eine) andere Funktionalität oder Optionen (gerendert oder sichtbar) aufweisen als ein erster Modus der Anwendung. Anders ausgedrückt, kann eine Schnittstelle des ersten Modus der Anwendung anders gerendert werden als eine Schnittstelle des zweiten Modus der Anwendung. In einer oder mehreren Ausführungsformen kann der zweite Modus einer Anwendung der Modus sein, in dem die Anwendung läuft, wenn die Anwendung inaktiv ist. In anderen Ausführungsformen kann der zweite Modus gerendert werden, um einen anderen Umfang eines Bildschirmbereichs zu belegen als der erste Modus der gleichen Anwendung. Jedoch versteht es sich, dass „versteckte“ Befehle dennoch verfügbar sein können, während das Widget in dem zweiten Modus läuft. Zum Beispiel können, obwohl in der zweiten Anzeigezone 320 aus 3 keine Pausenfunktion gerendert wird, vordefinierte Benutzereingaben (z. B. eine Geste, bei der etwas gedrückt gehalten wird), die in der zweiten Touchpadzone 220 empfangen werden, veranlassen, dass der Prozessor eine Audioausgabe anhält, die mit der Audioanwendung verknüpft ist. Andere Beispiele für „versteckte“ Befehle können das Springen zum nächsten Titel einschließen, indem in der zweiten Touchpadzone 220 von links nach rechts gewischt wird.
  • In jedem Fall rendert der Prozessor 110 das Betriebssystem 312 in der ersten Anzeigezone 310 (z. B. Zone A) und eine Anwendung in der zweiten Anzeigezone 320 (z. B. Zone B). Der Prozessor 110 rendert ein oder mehrere Symbole, die durch die Verwendung der ersten Touchpadzone 210 ausgewählt werden können. In einer oder mehreren Ausführungsformen kann die Schnittstelle des Betriebssystem 312 eine Auswahl aufweisen, die immer aktiv ist. Anders ausgedrückt, ist eines der Symbole für eine zugehörige Anwendung oder einen Teil des Bildschirms immer oder konstant ausgewählt, wodurch zum Beispiel die Verwendung eines Mauszeigers abgeschwächt wird. In anderen Ausführungsformen kann ein Zeiger durch den Prozessor 110 innerhalb der Schnittstelle des Betriebssystems 312 gerendert werden. Da mehrere Anwendungen verfügbar sind, können mehrere Startseiten virtuell nebeneinander gerendert werden. Zum Beispiel kann eine Wischbewegung mit zwei Fingern nach links dazu führen, dass der Prozessor 110 einen zweiten Startbildschirm mit zusätzlichen Anwendungssymbolen (nicht gezeigt) rendert. Wenn der zweite Startbildschirm gerendert wurde, kann eine graphische Startbildschirmkennung 318 von dem Prozessor 110 gerendert werden, um anzuzeigen, dass der zweite Startbildschirm anstelle des ersten Startbildschirms dargestellt wird. Ferner können zusätzliche Optionen eingestellt oder gerendert werden, wenn das Optionssymbol 316 ausgewählt wurde.
  • Die Anwendung in der zweiten Anzeigezone 320 aus 3 kann eine Audioanwendung, wie etwa eine USB-Audioanwendung, sein. Demnach rendert der Prozessor 110 Informationen, wie etwa Albuminformationen 324, Titelinformationen 326 usw., in der zweiten Anzeigezone 320. Andere Informationen können in der zweiten Anzeigezone 320 unabhängig von der Anwendung gerendert werden, die in der zweiten Anzeigezone 320 gerendert wird. Zum Beispiel kann die Uhrzeit 322 in der zweiten Anzeigezone 320 gerendert werden.
  • WIDGET-FOLGE
  • Zusätzlich kann das Anzeigesteuermodul des Prozessors 110 Anwendungen für den Start in der zweiten Anzeigezone 320 einreihen. Um jedes Widget oder jede Anwendung in der zweiten Anzeigezone 320 auf dem Anzeigebildschirm 152 zu durchlaufen und diese zu betrachten, kann der Benutzer eine Wischgeste auf der Oberfläche des Touchpads 160 verwenden, um durch die derzeit laufenden Widgets oder Anwendungen zu scrollen. Anders ausgedrückt, kann eine vertikale Wischeingabe, die in der zweiten Touchpadzone 220 empfangen wird, dazu führen, dass der Prozessor 110 auf Grundlage einer vorher festgelegten Reihenfolge und einer oder mehreren derzeit laufenden Anwendungen entweder in der ersten Anzeigezone 310 oder der zweiten Anzeigezone 320 eine andere Anwendung in der zweiten Anzeigezone 320 rendert.
  • Die Wischgeste kann eine Wischbewegung zumindest mit einer definierten Schwellenlänge oder eine Wischbewegung in einer vordefinierten Richtung einschließen. Auf diese Weise kann der Prozessor 110 mehrere Anwendungen einstellen, sodass sie in der zweiten Anzeigezone 320 als eine „Folge“ von Kacheln verfügbar sind. Anders ausgedrückt, kann der Prozessor 110 eine Anwendung in einem zweiten Modus (z. B. in einem Widget-Modus) in der zweiten Anzeigezone 320 rendern und einen schnellen Wechsel von dieser Anwendung zu einer anderen Anwendung auf Grundlage einer vorher festgelegten Reihenfolge und auf Grundlage der Unterdrückung von Anwendungen ermöglichen, die bereits aktiv sind. Demnach kann der sichtbare Bildschirmbereich der zweiten Anzeigezone 320 als eine Linse agieren, die jeweils ein Widget oder eine Anwendung (die in einem zweiten Modus laufen) anzeigt. Auf Grundlage von Benutzereingaben von dem Touchpad 160 kann eine Scrolleingabe veranlassen, dass der Prozessor 110 einen Übergang zwischen Anwendungen in der Widget-Folge rendert und unterschiedliche Widgets in der zweiten Anzeigezone 320 rendert.
  • Zum Beispiel, wenn der Prozessor 110 die Anwendung A, die in der ersten Anzeigezone 310 in einem ersten Modus (z. B. Anwendungsmodus) läuft und die Anwendung B aufweist, die in der zweiten Anzeigezone 320 in einem zweiten Modus (z. B. Widget-Modus) läuft und die vorher festgelegte Reihenfolge für die Anwendungen A, B, C bis D ist, würde eine Wischbewegung nach unten (z. B. von oben nach unten) in der zweiten Touchpadzone 220 (die der zweiten Anzeigezone 320 entspricht) dazu führen, dass der Prozessor 110 die Anwendung D in dem zweiten Modus rendert, da die Wischbewegung nach unten mit einem Befehl vom Typ „nach oben scrollen“ verknüpft ist und außerdem „überspringt“ oder unterdrückt der Prozessor 110, da die Anwendung A bereits derzeit läuft oder in der ersten Anzeige 310 gerendert wird, die Ausführung einer zweiten Instanz der bereits laufenden oder derzeit ausgeführten Anwendung A in der zweiten Anzeigezone 320.
  • Anders ausgedrückt, kann der Prozessor 110 die Liste der Anwendungen oder die Reihenfolge der Widget-Folge auf Grundlage einer vorher festgelegten Priorität für die Anwendungen, eines Verwendungsverlaufs der Anwendungen oder von Anwendungen anpassen, die bereits in einer anderen Anzeigezone (z. B. der ersten Anzeigezone 310 oder an einer anderen Stelle) gerendert werden. Noch anders ausgedrückt, kann der Prozessor 110 das Rendern einer Anwendung in der zweiten Anzeigezone 320 auf Grundlage eines anderen Auftretens (z. B. aktiv) der Anwendung (z. B. ungeachtet des Modus der Anwendung) in einer anderen Anzeigezone (z. B. der ersten Anzeigezone 310) oder in einer anderen Anzeigeeinheit 170 unterdrücken. Auf diese Weise kann die zweite Anzeigezone 320 verwendet werden, um Widgets oder Anwendungen in einem zweiten Modus anzuzeigen, die nicht zwangsläufig mit einer aktiven Anwendung (z. B. einer Anwendung, die in der ersten Anzeigezone 310 gerendert wird) verknüpft sind. Als ein Beispiel kann der Prozessor 110 eine zuvor verwendete Anwendung anstelle der unterdrückten Anwendung öffnen.
  • Beispiel für die Reihenfolge der Widget-Folge:
    • A
    • B
    • C
    • D
  • In einer oder mehreren Ausführungsformen „dreht“ der Prozessor 110 die Anzeige oder das Rendern von Programmen, sodass, wenn die Anwendung D in der zweiten Anzeigezone 320 gerendert wird und eine Wischbewegung nach oben (z. B. von unten nach oben) in der zweiten Touchpadzone 220 (die der zweiten Anzeigezone 320 entspricht) empfangen wird, der Prozessor 110 die Anwendung A (in dem zweiten Modus) rendert, da die Wischbewegung nach oben mit einem Befehl vom Typ „nach unten scrollen“ verknüpft ist und außerdem da die Anwendung A kreisförmig mit dem Ende der Reihenfolge der Widget-Folge verknüpft ist. Anders ausgedrückt, sind die Anwendungen durchgehend von oben nach unten verbunden, sodass, wenn die unterste Anwendung oder das unterste Widget angezeigt wird, eine Eingabe zum Scrollen nach unten, veranlasst, dass der Prozessor 110 die oberste Kachel, die oberste Anwendung oder das oberste Widget rendert. Die Reihenfolge der Widget-Folge kann zum Beispiel unter Verwendung einer Widget-Konfigurationsanwendung angepasst werden.
  • Auf diese Weise kann der Prozessor 110 die zweite Anzeigezone 320 aufweisen, die eine „Folge“ von Anwendungen (z. B. Widgets oder Anwendungen in einem zweiten Modus) rendert. Der Prozessor 110 kann eine Grafikanwendungskennung 328 in der zweiten Anzeigezone 320 rendern, die für eine Reihenfolge bezeichnend ist, die mit der Anwendung verknüpft ist, die in der zweiten Anzeigezone 320 gerendert wird. Zum Beispiel wird in 3 die Grafikanwendungskennung 328 gerendert, um für einen Benutzer zu veranschaulichen, dass sich drei Anwendungen in der „Widget-Folge“ befinden (z. B. Anwendung A, Anwendung B und Anwendung C) und dass Anwendung A die Anwendung ist, die angezeigt wird. In 3 schließt die Grafikanwendungskennung 328 drei Rauten in einer vertikalen Reihe ein. Die erste Raute wird hervorgehoben, wodurch angezeigt wird, dass die erste Anwendung in der Widget-Folge derzeit in der zweiten Anzeigezone 320 angezeigt wird. Demnach kann ein Benutzer auf einen Blick bestimmen, dass drei Anwendungen derzeit in der zweiten Anzeigezone 320 verfügbar sind und dass die erste Anwendung (z. B. Anwendung eins von drei) die Anwendung ist, die in der zweiten Anzeigezone 320 gerendert wird.
  • Von daher können Wischeingaben (oder andere Arten von Eingaben, die an dem Touchpad 160 oder in der zweiten Touchpadzone 220 empfangen werden) veranlassen, dass der Prozessor 110 die anderen Anwendungen (z. B. Anwendung zwei von drei oder Anwendung drei von drei) zum Beispiel auf Grundlage der Richtung der Wischbewegung und auf Grundlage davon rendert, ob eine der Anwendungen bereits in der ersten Anzeigezone 310 läuft. Wenn Anwendung B oder Anwendung C von dem Prozessor 110 in der zweiten Anzeigezone 320 gerendert werden, kann das Anzeigesteuermodul des Prozessors 110 die Grafikanwendungskennung 328 aktualisieren, um die zweite oder dritte Raute hervorzuheben, wodurch der Benutzer darauf aufmerksam gemacht wird, dass die zweite oder dritte Anwendung von drei Anwendungen angezeigt wird.
  • ANWENDUNGSPRIORITÄT
  • In einer oder mehreren Ausführungsformen wird durch die Auswahl von einem der Anwendungssymbole auf dem Startbildschirm der Schnittstelle des Betriebssystems 312 die zugehörige Anwendung in der ersten Anzeigezone 310 gestartet. Zum Beispiel kann der Prozessor 110, wenn das Navigationssymbol über eine Benutzereingabe von dem Touchpad 160 (z. B. ein Doppeltippen oder einen Klick von der ersten Touchpadzone 210, während das Navigationssymbol hervorgehoben ist) ausgewählt wird, die Navigationsanwendung in einem ersten Modus in der ersten Anzeigezone 310 starten. Nachdem die Navigationsanwendung in der ersten Anzeigezone 310 gestartet wurde, bleibt die USB-Audioanwendung in der zweiten Anzeigezone 320, die in einem zweiten Modus läuft. Ein Beispiel dafür ist in 5 veranschaulicht.
  • Als ein anderes Beispiel kann der Prozessor 110, wenn die USB-Audioanwendung in der zweiten Anzeigezone 320 in einem zweiten Modus läuft und das USB-Audiosymbol 314d über eine Benutzereingabe von dem Touchpad 160 (z. B. ein Doppeltippen oder ein Klick von der ersten Touchpadzone 210, während das USB-Audiosymbol 314d hervorgehoben ist) ausgewählt wird, die USB-Audioanwendung in einem ersten Modus in der ersten Anzeigezone 310 starten, die USB-Audioanwendung (die in dem zweiten Modus läuft) in der zweiten Anzeigezone 320 schließen, und eine Standardanwendung in der zweiten Anzeigezone 320 anstelle der USB-Audioanwendung starten, die in der zweiten Anzeigezone 320 in einem zweiten Modus läuft.
  • Gleichermaßen kann dies auch auf Grundlage einer Eingabe von der zweiten Touchpadzone 220 stattfinden, mit der die Anwendung in der zweiten Anzeigezone 320 (z. B. die USB-Audioanwendung) ausgewählt und erweitert wird. Nachdem die USB-Audioanwendung in der ersten Anzeigezone 310 gestartet wurde, läuft die Standardanwendung (z. B. kann die Standardanwendung eine vorher festgelegte Anwendung, wie etwa die Navigationsanwendung sein) in der zweiten Anzeigezone 320 in einem zweiten Modus. Ein Beispiel dafür ist in 4 veranschaulicht. Auf diese Weise können Anwendungen, die von einer Zone in eine andere bewegt werden, auf Grundlage einer Standardprioritätsliste oder einer Standardanwendungsreihenfolge durch andere Anwendungen ersetzt werden.
  • Anders erläutert, würde, da die USB-Audioanwendung in der zweiten Anzeigezone 320 bereits in einem zweiten Modus läuft, die Auswahl der gleichen USB-Audioanwendung aus der ersten Anzeigezone 310 nicht dazu führen, dass beide Anzeigezonen 310 und 320 unterschiedliche Modi der gleichen USB-Audioanwendung ausführen, da dies redundant wäre. Stattdessen wird die USB-Audioanwendung in der ersten Anzeigezone 310 in dem ersten Modus gestartet und eine Standardanwendung wird in der zweiten Anzeigezone 320 in einem zweiten Modus auf Grundlage einer Standardreihenfolge von Standardanwendungen und der derzeit gerenderten Anwendungen in der ersten Anzeigezone 310 (z. B. Betriebssystem 312) und der zweiten Anzeigezone 320 (z. B. USB-Audioanwendung) gestartet.
  • Als ein anderes Beispiel, wenn die Standardreihenfolge der Standardanwendungen A, B, C und D ist, wenn die Anwendung Q durch den Prozessor 110 in der ersten Anzeigezone 310 gerendert wird, ist Anwendung A die Anwendung, die in der zweiten Anzeigezone 320 gerendert wird (z. B. in dem zweiten Modus). Wenn die Anwendung A über eine Benutzereingabe von dem Touchpad 160 (z. B. ein Doppeltippen oder ein Klick von der zweiten Touchpadzone 220) ausgewählt wird, ist Anwendung B automatisch die Anwendung, die von dem Prozessor 110 in der zweiten Anzeigezone 320 gerendert wird (z. B. in dem zweiten Modus). Wenn Anwendung B von dem Startbildschirm des Betriebssystems 312 gestartet wird, ist Anwendung A die Anwendung, die von dem Prozessor 110 in der zweiten Anzeigezone 320 gerendert wird (z. B. in dem zweiten Modus), da Anwendung A in der Standardreihenfolge höher liegt und derzeit nicht entweder in der Anzeigezone 310 oder 320 gerendert wird. In einer oder mehreren Ausführungsformen kann die Standardreihenfolge der Standardanwendungen auf dem Verwendungsverlauf von einer oder mehreren der Anwendungen, einer oder mehreren Benutzerpräferenzen usw. basieren. Auf diese Weise kann die Konfiguration der Widget-Folge oder die Anzeige von Widgets in der zweiten Anzeigezone 320 auf Grundlage aktiver übergeordneter Anwendungen modifiziert werden.
  • Für eine oder mehrere der hierin enthaltenen Figuren, können eine oder mehrere Grenzen mit unterschiedlichen Höhen, Breiten, Umfängen, Aspektverhältnissen, Formen usw. gezogen werden. Sie dienen in Bezug aufeinander lediglich dem Zwecke der Veranschaulichung und sind nicht zwingend maßstabsgetreu gezeichnet. Einige Grenzen können imaginär oder für virtuelle Grenzen repräsentativ sein, wie etwa die gestrichelten Linien in 4-5. Da gestrichelte oder gepunktete Linien verwendet werden können, um unterschiedliche Grenzen darzustellen, wären die gestrichelten und gepunkteten Linien, wenn sie übereinander gezeichnet werden sollen, in den Figuren nicht zu unterscheiden, und können demnach in einer oder mehreren der Figuren in unterschiedlichen Größenordnungen oder etwas voneinander versetzt gezeichnet werden, sodass sie voneinander unterschieden werden können. Ferner, wenn eine Grenze mit einer unregelmäßigen Form verknüpft ist, umschließt die Grenze, wie etwa ein Kasten, der mit einer gestrichelten Line, gepunkteten Linie usw. gezeichnet wurde, in einer oder mehreren Ausführungsformen nicht zwingend eine gesamte Komponente. Umgekehrt umschließt ein gezeichneter Kasten in einer oder mehreren Ausführungsformen nicht zwingend lediglich eine verknüpfte Komponente, sondern er kann ebenso einen Teil von einer oder mehreren anderen Komponenten umschließen.
  • Der Prozessor 110 kann es ermöglichen, dass zwei oder mehr Anwendungen simultan, gleichzeitig oder parallel laufen oder ausgeführt werden. Beispiele dafür sind in 4-5 zu sehen. Das System 100 für eine Mensch-Fahrzeug-Interaktion kann ermöglichen, dass ein Benutzer, wie etwa ein Fahrer des Fahrzeugs, mit einer Konfiguration von zwei oder mehr Anwendungen interagieren oder diese verwalten kann, indem er eine Benutzereingabe durch das Touchpad 160 bereitstellt. Beispiele für eine Anwendungsverwaltung oder Mensch-Fahrzeug-Interaktion schließen Folgendes ein: Tauschen der Position der Anwendungen, eine Größenanpassung der Anwendungen, Umwandeln einer Anwendung von einem ersten Modus in einen zweiten Modus (oder von einer Anwendung zu einem Widget, wobei die Funktionalität der Anwendung erhöht oder verringert wird), Verwalten, welche Anwendung aktiv ist, Scrollen durch verfügbare Anwendungen, Tauschen von Positionen von Anwendungen zwischen Teilen eines einzelnen Bildschirms oder mehrerer Bildschirme, Rendern von Anwendungen mit unterschiedlichen Schnittstellen usw. Demnach können die erste Anzeigezone 310 und die zweite Anzeigezone 320 (z. B. aus 3) der ersten Touchpadzone 210 und der zweiten Touchpadzone 220 des Touchpads 160 (z. B. aus 2) entsprechen.
  • 4 ist eine Veranschaulichung einer Anzeige und beispielhafter Schnittstellen für ein System 100 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen. In 4 ist zu erkennen, dass eine erste Anwendung in der ersten Anzeigezone 410 der Anzeige 150 in einem ersten Modus gerendert werden kann und eine zweite Anwendung in der zweiten Anzeigezone 420 der Anzeige 150 in einem zweiten Modus gerendert werden kann. In diesem Beispiel ist die erste Anwendung eine USB-Audioanwendung und die zweite Anwendung ist eine Navigationsanwendung. Ferner ist der erste Modus ein Anwendungsmodus und der zweite Modus ist ein kompakter oder Widget-Modus. Da sich die USB-Audioanwendung in dem ersten Anwendungsmodus befindet, werden ein Befehlsband 434 und ein oder mehrere Vorschläge 436, 438, 452 und 454 gezeigt. Oben in der ersten Anzeigezone 410 werden eine Grafikkennung 412 und ein Menüsymbol 432 gezeigt. Die Medieninformationen 414, 416 und 418 werden als Teil der Schnittstelle der USB-Audioanwendung gerendert. Oben in der zweiten Anzeigezone 420 werden die Grafikkennungen 430 gezeigt, welche für die Uhrzeit und die Signalstärke bezeichnend sind. Die Grafikkennungen 422, 424, 426, 428 und 442 veranschaulichen Informationen in Bezug auf die Navigationsanwendung.
  • TAUSCHEN VON ANWENDUNGSZONEN UND ANWENDUNGSMODI
  • In einer oder mehreren Ausführungsformen führt eine Auswahl der zweiten Anwendung (z. B. der Navigationsanwendung) über eine Berührungseingabe von der zweiten Touchpadzone 220 des Touchpads 160 dazu, dass der Prozessor 110 die zweite Anwendung in der ersten Anzeigezone der Anzeige 150 in einem ersten Modus und die erste Anwendung (z. B. USB-Audioanwendung) in der zweiten Anzeigezone der Anzeige 150 in einem zweiten Modus rendert. Jedoch können unterschiedliche Szenarien, wie etwa die Auswahl der Anwendung in der zweiten Anzeigezone, den Übergang von Anwendungen von der zweiten Anzeigezone in die erste Anzeigezone ergeben, wodurch die Anwendung in der zweiten Anzeigezone aktiviert wird und die Anwendung in der ersten Anzeigezone zu dem Hintergrund oder der zweiten Anzeigezone gesendet wird.
  • In dieser Hinsicht ist 5 eine Veranschaulichung einer Anzeige und beispielhafter Schnittstellen für ein System 100 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen. 5 wird nun im Gegensatz zu einem oder in Bezug auf einen Übergang von 4 beschrieben, wobei die Anwendungen zwischen der ersten Anzeigezone und der zweiten Anzeigezone der entsprechenden Figuren „getauscht“ werden.
  • In einigen Szenarien kann ein Benutzer wünschen, die Anwendung der zweiten Anzeigezone in einem größeren oder vollständigeren Modus zu betrachten. In dieser Hinsicht kann der Benutzer auf die zweite Touchpadzone 220 klicken oder doppeltippen, wodurch der Wunsch angezeigt wird, die Anwendung aus der zweiten Anzeigezone zu erweitern. Als Ergebnis einer Touchpad-Eingabe oder als Reaktion auf die Touchpad-Eingabe kann der Prozessor 110 Positionen von Anwendungen zwischen der ersten Anzeigezone und der zweiten Anzeigezone tauschen. Der Prozessor 110 kann ferner den Modus einer Anwendung von einem ersten Modus zu einem zweiten Modus oder von dem zweiten Modus zu dem ersten Modus wechseln.
  • Wie aus 5 ersichtlich wird die Navigationsanwendung mit einer anderen Schnittstelle gerendert als die Navigationsanwendung aus 4. Gleichermaßen wird die USB-Audioanwendung aus 5 mit einer anderen Schnittstelle gerendert als die USB-Audioanwendung aus 4. Die erste Anzeigezone 510 ist mit der Navigationsanwendung verknüpft und die zweite Anzeigezone 520 ist mit der USB-Audioanwendung verknüpft.
  • In 5 weist die USB-Audioanwendung dahingehend eine geringere gerenderte Funktionalität auf als die USB-Audioanwendung aus 4, dass lediglich die Informationen 522 und 524 über den Künstler und den Titel gerendert werden, während in 4 das Befehlsband 434 und die Vorschläge 436, 438, 452 und 454 gerendert werden. Jedoch hat sich die Grafikkennung 430 von 4 zu 5 bei 530 nicht geändert. In einer oder mehreren Ausführungsformen wird der Anwendungsname 512 neben dem Menüsymbol 516 gerendert. Einige Aspekte der Schnittstelle der Navigationsanwendung aus 5 ähneln der Schnittstelle der Navigationsanwendung aus 4, wie etwa die Turn-by-Turn-Navigations-Grafikkennung 514 oder die Grafikkennungen 442 und 526, während zusätzliche Informationen in 5 durch die Grafikkennungen 518, 532, 534 und 536 bereitgestellt werden können.
  • Demnach wird, da die unterschiedlichen Modi der gleichen Anwendung aus 4 und 5 mit unterschiedlichen Schnittstellen gerendert werden, die in den unterschiedlichen Anzeigezonen jeweils in Bezug aufeinander unterschiedlich angeordnet sind, ein unterschiedliches Maß an Funktionalität, an Einzelheiten oder Informationen zwischen den unterschiedlichen Anzeigezonen bereitgestellt.
  • Der Übergang von 4 zu 5 in der Anzeigeeinheit 150 kann darauf basieren, dass die USB-Audioanwendung einen zweiten Modus aufweist. In einigen Szenarien muss die USB-Audioanwendung nicht zwangsläufig einen zweiten Modus aufweisen. In diesen Szenarien kann die Standardanwendung aus der Standardanwendungsliste oder Standardanwendungsreihenfolge verwendet werden. Zum Beispiel wenn eine Eingabe von dem Touchpad 160 empfangen wird, während die erste Anwendung in der ersten Anzeigezone in einem ersten Modus läuft und die zweite Anwendung in der zweiten Anzeigezone in einem zweiten Modus läuft, jedoch eine der Anwendungen nicht den anderen Modus aufweist (z. B. weist die erste Anwendung keinen zweiten Modus auf), kann der Prozessor 110 eine dritte Anwendung (z. B. eine Standardanwendung aus einer Liste von Standardanwendungen unter Verwendung einer Standardreihenfolge) in der zweiten Anzeigezone der Anzeige 150 in einem zweiten Modus ausführen oder starten (z. B. auf Grundlage davon, dass die erste Anwendung keinen zweiten Modus aufweist). In einer oder mehreren Ausführungsformen kann die Standardreihenfolge auf dem Anwendungsverlauf des Benutzers oder Benutzerpräferenzen basieren. Zum Beispiel können die am häufigsten gestarteten Anwendungen in der Reihenfolge der Standardanwendungen am höchsten liegen.
  • Ferner kann, wenn eine der Anwendungen bereits in der ersten Anzeigezone gerendert wurde oder die zweite Anzeigezone bereits die Standardanwendung ist, bei Bedarf eine sekundäre Standardanwendung verwendet werden. Anders ausgedrückt, kann der Prozessor 110 als Reaktion auf die Eingabe von dem Touchpad 160 das Rendern einer dritten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige 150 auf der Grundlage ausführen, dass die erste Anwendung keinen zweiten Modus aufweist, wenn die zweite Anwendung, die bereits läuft, die Standardanwendung ist und die dritte Anwendung eine sekundäre Standardanwendung ist. Auf diese Weise können Standardanwendungen gestartet werden, wenn Anwendungen keine verknüpften alternativen Modi (z. B. zweiter Modus) aufweisen.
  • 6A-6C sind Veranschaulichungen einer Anzeige und beispielhafter Schnittstellen für ein System 100 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen. In 6A-6C tritt ein Übergang zwischen den Anwendungen der ersten Anzeigezone 610 und der zweiten Anzeigezone 620 auf. In 6A wird eine Navigationsanwendung 612 von dem Prozessor 110 in der ersten Anzeigezone 610 gerendert und eine Audioanwendung 622 wird in der zweiten Anzeigezone 620 gerendert. In 6B läuft die Navigationsanwendung 612' weiter und ein Teil der Audioanwendung 622' wird hervorgehoben, um zu veranschaulichen, dass eine zugehörige Benutzereingabe in dem Touchpad 160 (z. B. in der zweiten Touchpadzone 220) aufgetreten ist oder es wird auf andere Weise eine visuelle Rückkopplung dafür bereitgestellt, dass das Touchpad 160 betätigt wurde. Zum Beispiel kann ein Bilderzeugungsmodul des Prozessors 110 eine visuelle Rückkopplung generieren, die mit einer Eingabe verknüpft ist, die von dem Touchpad 160 empfangen wird und der Prozessor 110 kann die Rückkopplung in einer Position auf dem Anzeigebildschirm 152 rendern, die der Position der Eingabe von dem Touchpad 160 entspricht. Diese visuelle Hervorhebung stellt eine Rückkopplung für den Benutzer bereit, die eine Steuerung im Hinblick auf den Inhalt oder die Anwendung in der zweiten Anzeigezone des Anzeigebildschirms 152 anzeigt.
  • In einer oder mehreren Ausführungsformen kann sich die Farbe, Farbschattierung oder Intensität der visuellen Rückkopplung zu dem Druck, der an dem Touchpad 160 angewendet wird oder einer Zeitdauer proportional verhalten, während der die Eingabe empfangen wird. In anderen Ausführungsformen kann die Farbe, Farbschattierung oder Intensität der visuellen Rückkopplung variiert werden, um zu ermöglichen, dass der Benutzer schnell die Stelle der Eingabe auf dem Anzeigebildschirm 152 ausmachen kann. In 6C wechselt die Audioanwendung 612" auf Grundlage der Berührungseingabe von dem Touchpad 160 in die erste Anzeigezone 610 und die Navigationsanwendung 622" wechselt in die zweite Anzeigezone 620 (z. B. im Gegensatz zu 6A-6B).
  • 7A-7D sind Veranschaulichungen einer Anzeige und beispielhafter Schnittstellen für ein System 100 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen.
  • In 7A-7B befindet sich ein Betriebssystem auf einem Startbildschirm in der ersten Anzeigezone 710 und eine Audioanwendung wird in der zweiten Anzeigezone 720 gerendert. Die Grafikkennungen 722 und 724 zeigen Informationen in Bezug auf die Audioanwendung an. Auf dem Startbildschirm werden unterschiedliche Anwendungssymbole 712a, 712b, 712c, 712d, 712e, 712f, 712g und 712h dargestellt. Wenn das Anwendungssymbol 712a für die Audioanwendung ausgewählt wird, während die Audioanwendung in der zweiten Anzeigezone 720 läuft, wandelt der Prozessor 110 die Audioanwendung von einem zweiten Modus zu einem ersten Modus um und rendert die Audioanwendung in der ersten Anzeigezone 710 zusammen mit zusätzlichen Befehlen 726 und 728, während die Grafikkennungen 722 und 724 beibehalten werden. Da die Audioanwendung von der zweiten Anzeigezone 720 in die erste Anzeigezone 710 bewegt wird, wird eine Ersatzanwendung (z. B. die Standardanwendung 730) von dem Prozessor 110 gestartet. Bei 732 wird ein Symbol für Menüoptionen bereitgestellt.
  • In 7C-7D befindet sich ein Betriebssystem auf einem Startbildschirm in der ersten Anzeigezone 710 und eine Audioanwendung wird in der zweiten Anzeigezone 720 gerendert. Die Grafikkennungen 722 und 724 zeigen Informationen in Bezug auf die Audioanwendung an. Auf dem Startbildschirm werden unterschiedliche Anwendungssymbole 712a, 712b, 712c, 712d, 712e, 712f, 712g und 712h dargestellt. Wenn das Anwendungssymbol 712a für die Navigationsanwendung ausgewählt wird, während die Audioanwendung in der zweiten Anzeigezone 720 läuft, startet der Prozessor 110 die Navigationsanwendung in der ersten Anzeigezone 710 und hält die Audioanwendung in der zweiten Anzeigezone 720.
  • 8 ist eine Veranschaulichung eines beispielhaften Ablaufdiagramms eines Verfahrens 800 für eine Mensch-Fahrzeug-Interaktion gemäß einer oder mehreren Ausführungsformen. Das Verfahren 800 kann bei 802 das Rendern einer ersten Anwendung in einem ersten Modus innerhalb einer ersten Anzeigezone einschließen. Dies kann zum Beispiel eine Anwendung in einem Anwendungsmodus innerhalb einer primären Aufgabenzone eines Anzeigebildschirms sein. Das Verfahren 800 kann bei 804 das Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb einer zweiten Anzeigezone desselben Anzeigebildschirms einschließen. Der zweite Modus der zweiten Anwendung kann ein Widget-Modus sein. Demnach kann eine zweite, andere Anwendung in der zweiten Anzeigezone als ein Widget oder eine kompakte Version der Anwendung laufen. Das Verfahren 800 kann bei 806 das Empfangen einer Eingabe von einem Touchpad einschließen, wie etwa einer Berührungseingabe, die für ein Tippen, ein Doppeltippen oder einen Klick von einer zweiten Touchpadzone konfiguriert ist, welche der zweiten Anzeigezone entspricht. Als Reaktion darauf kann das Verfahren 800 bei 808 das Rendern der zweiten Anwendung in der ersten Anzeigezone in einem ersten Modus einschließen, wodurch die zweite Anwendung effektiv von der zweiten Anzeigezone in die erste Anzeigezone bewegt wird und die zweite Anwendung von einem Widget in eine Anwendung umgewandelt wird.
  • Eine oder mehrere Ausführungsformen können verschiedene auf einer künstlichen Intelligenz (KI) basierende Schemata zur Ausführung verschiedener diesbezüglicher Aspekte einsetzen. Ein oder mehrere Aspekte können über ein automatisches Klassifikatorsystem oder einen automatischen Klassifikatorprozess vereinfacht werden. Ein Klassifikator ist eine Funktion, die einen eingegebenen Attributvektor, x = (x1, x2, x3, x4, xn), einer Konfidenz dafür zuordnet, dass die Eingabe zu einer Klasse gehört. Anders ausgedrückt, f(x) = Konfidenz (Klasse). Bei einer derartigen Klassifikation kann eine probabilistische Analyse oder eine Analyse auf statistischer Grundlage (z. B. Faktorisieren von Kosten und Nutzen bei der Analyse) eingesetzt werden, um eine Aktion zu prognostizieren oder abzuleiten, für die ein Benutzer wünscht, dass sie automatisch durchgeführt wird.
  • Wie in dieser Anwendung verwendet, soll „oder“ eher für ein einschließliches „oder“ als ein ausschließliches „oder“ stehen. Ferner kann ein einschließliches „oder“ eine beliebige Kombination davon (z. B. A, B oder eine beliebige Kombination davon) einschließen. Zusätzlich werden „ein“ und „eine“, wie in dieser Anwendung verwendet, im Allgemeinen so ausgelegt, dass sie für „ein(e) oder mehrere“ stehen, sofern nicht anders angegeben oder sofern nicht aus dem Kontext hervorgeht, dass sie auf eine Singularform gerichtet sind. Zusätzlich steht mindestens eines von A und B und/oder dergleichen im Allgemeinen für A oder B oder sowohl A als auch B. Ferner, insofern, als dass „einschließt“, „aufweist“, „mit“ oder Varianten davon entweder in der detaillierten Beschreibung oder den Ansprüchen verwendet werden, sollen derartige Begriffe auf eine Weise einschließlich sein, die dem Begriff „umfassend“ ähnelt.
  • Ferner, sofern nicht anders angegeben, sollen „erste“ oder „zweite“ oder dergleichen keine(n) zeitlichen Aspekt, räumlichen Aspekt, Ordnung usw. implizieren. Vielmehr werden derartige Begriffe lediglich als Kennungen, Namen usw. für Merkmale, Elemente, Artikel usw. verwendet. Zum Beispiel entsprechen ein erster Kanal und ein zweiter Kanal im Allgemeinen Kanal A und Kanal B oder zwei unterschiedlichen oder zwei identischen Kanälen oder dem gleichen Kanal. Zusätzlich stehen „umfassend“, „umfasst“, „einschließend“, „einschließt“ oder dergleichen im Allgemeinen unter anderem für umfassend oder einschließend.
  • Es ist ersichtlich, dass verschiedene der vorstehend offenbarten und andere Merkmale und Funktionen, oder Alternativen oder Varianten davon, wünschenswert zu vielen anderen unterschiedlichen Systemen oder Anwendungen kombiniert werden können. Es können nachfolgend auch verschiedene derzeit unvorhergesehene oder unerwartete Alternativen, Modifikationen, Varianten oder Verbesserungen daran durch einen Fachmann hergestellt werden, die auch dazu bestimmt sind, in den folgenden Patentansprüchen eingeschlossen zu sein.
  • Gemäß einem oder mehreren Aspekten, werden hierin Systeme und Verfahren für eine Mensch-Fahrzeug-Interaktion beschrieben. Ein Touchpad kann eine erste Touchpadzone und eine zweite Touchpadzone einschließen. Eine Anzeige kann eine erste Anzeigezone und eine zweite Anzeigezone einschließen, die jeweils der ersten Touchpadzone und der zweiten Touchpadzone entsprechen. Ein Prozessor kann Anweisungen ausführen, die in einem Speicher gespeichert sind, um das Rendern einer ersten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige und das Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige durchzuführen. Der Prozessor kann als Reaktion auf eine Eingabe von dem Touchpad die bereits laufende zweite Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige rendern und die erste Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige rendern.

Claims (20)

  1. System für eine Mensch-Fahrzeug-Interaktion, umfassend: ein Touchpad, einschließend eine erste Touchpadzone und eine zweite Touchpadzone; eine Anzeige, einschließend eine erste Anzeigezone und eine zweite Anzeigezone, wobei die erste Anzeigezone der ersten Touchpadzone entspricht und die zweite Anzeigezone der zweiten Touchpadzone entspricht; einen Speicher, der eine oder mehrere Anweisungen speichert; und einen Prozessor, der eine oder mehrere der Anweisungen ausführt, die in dem Speicher gespeichert sind, um Folgendes durchzuführen: Rendern einer ersten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige, wobei der erste Modus ein Anwendungsmodus ist; Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige, wobei der zweite Modus ein Widget-Modus ist; Empfangen einer Eingabe von dem Touchpad, die für das Starten der zweiten Anwendung bezeichnend ist; und als Reaktion auf die Eingabe von dem Touchpad: Rendern der bereits laufenden zweiten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige, wobei der erste Modus ein Anwendungsmodus ist, der mit einer größeren Funktionalität verknüpft ist als der Widget-Modus der zweiten Anwendung; und Rendern der ersten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige.
  2. System nach Anspruch 1, wobei der Prozessor den ersten Modus der ersten Anwendung mit einer ersten Schnittstelle und den zweiten Modus der ersten Anwendung mit einer zweiten Schnittstelle rendert, die anders angeordnet ist als die erste Schnittstelle.
  3. System nach Anspruch 1 oder 2, wobei mindestens eines der Folgenden gilt: das Touchpad schließt einen Teiler zwischen der ersten Touchpadzone und der zweiten Touchpadzone ein; die erste Touchpadzone und die zweite Touchpadzone sind in unterschiedlichen Höhen angeordnet; oder die erste Touchpadzone und die zweite Touchpadzone weisen unterschiedliche Texturen auf.
  4. System nach einem der Ansprüche 1 bis 3, wobei der Prozessor eine Grafikanwendungskennung in der zweiten Anzeigezone rendert, die für eine Reihenfolge bezeichnend ist, die mit der Anwendung verknüpft ist, die derzeit in der zweiten Anzeigezone gerendert wird.
  5. System nach einem der Ansprüche 1 bis 4, wobei die Eingabe von dem Touchpad ein Klick oder ein Doppeltippen in der zweiten Touchpadzone ist.
  6. System nach einem der Ansprüche 1 bis 5, wobei die Eingabe von dem Touchpad, die für das Starten der zweiten Anwendung bezeichnend ist, empfangen wird, während ein Symbol, das mit der zweiten Anwendung verknüpft ist, gerendert wird.
  7. Verfahren für eine Mensch-Fahrzeug-Interaktion, umfassend: Rendern einer ersten Anwendung in einem ersten Modus innerhalb einer ersten Anzeigezone einer Anzeige; Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb einer zweiten Anzeigezone der Anzeige; Empfangen einer Eingabe von einem Touchpad, wobei das Touchpad eine erste Touchpadzone und eine zweite Touchpadzone einschließt; Rendern der zweiten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige als Reaktion auf die Eingabe von dem Touchpad; und Rendern einer dritten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige als Reaktion auf die Eingabe von dem Touchpad auf Grundlage der, ersten Anwendung, die keinen zweiten Modus aufweist und auf Grundlage der Eingabe von dem Touchpad.
  8. Verfahren nach Anspruch 7, wobei die dritte Anwendung eine Standardanwendung ist.
  9. Verfahren nach Anspruch 7 oder 8, wobei die zweite Anwendung eine Standardanwendung ist und die dritte Anwendung eine sekundäre Standardanwendung ist.
  10. Verfahren nach einem der Ansprüche 7 bis 9, umfassend das Rendern des ersten Modus der zweiten Anwendung mit einer ersten Schnittstelle und des zweiten Modus der zweiten Anwendung mit einer zweiten Schnittstelle, die anders angeordnet ist als die erste Schnittstelle.
  11. Verfahren nach einem der Ansprüche 7 bis 10, wobei mindestens eines der Folgenden gilt: das Touchpad schließt einen Teiler zwischen der ersten Touchpadzone und der zweiten Touchpadzone ein; die erste Touchpadzone und die zweite Touchpadzone sind in unterschiedlichen Höhen angeordnet; oder die erste Touchpadzone und die zweite Touchpadzone weisen unterschiedliche Texturen auf.
  12. Verfahren nach einem der Ansprüche 7 bis 11, umfassend das Rendern einer Grafikanwendungskennung in der zweiten Anzeigezone, die für eine Reihenfolge bezeichnend ist, die mit der Anwendung verknüpft ist, die derzeit in der zweiten Anzeigezone gerendert wird.
  13. Verfahren nach einem der Ansprüche 7 bis 12, wobei die Eingabe von dem Touchpad ein Klick oder ein Doppeltippen in der zweiten Touchpadzone ist.
  14. Verfahren nach einem der Ansprüche 7 bis 13, umfassend das Rendern eines Symbols, das mit der zweiten Anwendung verknüpft ist.
  15. System für eine Mensch-Fahrzeug-Interaktion, umfassend: ein Touchpad, einschließend eine erste Touchpadzone und eine zweite Touchpadzone; eine Anzeige, einschließend eine erste Anzeigezone und eine zweite Anzeigezone, wobei die erste Anzeigezone der ersten Touchpadzone entspricht und die zweite Anzeigezone der zweiten Touchpadzone entspricht; einen Speicher, der eine oder mehrere Anweisungen speichert; und einen Prozessor, der eine oder mehrere der Anweisungen ausführt, die in dem Speicher gespeichert sind, um Folgendes durchzuführen: Rendern einer ersten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige, wobei der erste Modus ein Anwendungsmodus ist; Rendern einer zweiten Anwendung in einem zweiten Modus innerhalb der zweiten Anzeigezone der Anzeige, wobei der zweite Modus ein Widget-Modus ist; Empfangen einer Eingabe von dem Touchpad, die für das Starten der zweiten Anwendung bezeichnend ist; und als Reaktion auf die Eingabe von dem Touchpad: Rendern der zweiten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige, wobei der erste Modus ein Anwendungsmodus ist, der mit einer größeren Funktionalität verknüpft ist als der Widget-Modus der zweiten Anwendung; und Rendern einer dritten Anwendung in einem zweiten Widget-Modus innerhalb der zweiten Anzeigezone der Anzeige, wobei die dritte Anwendung eine Anwendung ist, die mit einer Reihenfolge erster Priorität verknüpft ist.
  16. System nach Anspruch 15, wobei die Reihenfolge erster Priorität auf derzeit laufenden Anwendungen basiert.
  17. System nach Anspruch 15 oder 16, wobei der Prozessor eine zweite Eingabe von dem Touchpad empfängt, die für das Starten der dritten Anwendung bezeichnend ist
  18. System nach Anspruch 17, wobei der Prozessor als Reaktion auf die zweite Eingabe von dem Touchpad Folgendes durchführt: Rendern der dritten Anwendung in einem ersten Modus innerhalb der ersten Anzeigezone der Anzeige, wobei der erste Modus ein Anwendungsmodus ist, der mit einer größeren Funktionalität verknüpft ist als der Widget-Modus der zweiten Anwendung; und Rendern einer vierten Anwendung in einem zweiten Widget-Modus innerhalb der zweiten Anzeigezone der Anzeige.
  19. System nach Anspruch 18, wobei die vierte Anwendung eine Anwendung ist, die mit einer Reihenfolge zweiter Priorität verknüpft ist.
  20. System nach einem der Ansprüche 15 bis 19, wobei mindestens eines der Folgenden gilt: das Touchpad schließt einen Teiler zwischen der ersten Touchpadzone und der zweiten Touchpadzone ein; die erste Touchpadzone und die zweite Touchpadzone sind in unterschiedlichen Höhen angeordnet; oder die erste Touchpadzone und die zweite Touchpadzone weisen unterschiedliche Texturen auf.
DE102017219332.8A 2016-11-13 2017-10-27 Mensch-fahrzeug-interaktion Pending DE102017219332A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662421322P 2016-11-13 2016-11-13
US62/421,322 2016-11-13
US15/669,992 US10402161B2 (en) 2016-11-13 2017-08-07 Human-vehicle interaction
US15/669,992 2017-08-07

Publications (1)

Publication Number Publication Date
DE102017219332A1 true DE102017219332A1 (de) 2018-05-17

Family

ID=62026365

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017219332.8A Pending DE102017219332A1 (de) 2016-11-13 2017-10-27 Mensch-fahrzeug-interaktion

Country Status (2)

Country Link
CN (1) CN108073312B (de)
DE (1) DE102017219332A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110297686B (zh) * 2019-07-03 2023-05-12 北京梧桐车联科技有限责任公司 内容显示方法及装置
CN112061137B (zh) * 2020-08-19 2022-01-14 一汽奔腾轿车有限公司 一种车外的人车互动控制方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100963410B1 (ko) * 2008-03-11 2010-06-14 한국전자통신연구원 릴레이 시스템에서 신호점 재배열 또는 중첩 변조를 기반으로 하는 협력 수신 다이버시티 장치 및 방법
CN106020625A (zh) * 2011-08-31 2016-10-12 观致汽车有限公司 交互系统及其控制车辆应用的方法
KR20130063196A (ko) * 2011-12-06 2013-06-14 현대자동차주식회사 다이나믹 터치 인터렉션을 이용한 분할 화면 연동 표시 제어방법 및 그 장치
US9330544B2 (en) * 2012-11-20 2016-05-03 Immersion Corporation System and method for simulated physical interactions with haptic effects
US9298338B2 (en) * 2013-04-08 2016-03-29 Apple Inc. Multiple displays for displaying workspaces
CN103279303A (zh) * 2013-05-31 2013-09-04 东莞宇龙通信科技有限公司 事件消息的处理方法及装置
US9886108B2 (en) * 2013-07-22 2018-02-06 Hewlett-Packard Development Company, L.P. Multi-region touchpad
CN103605524B (zh) * 2013-11-26 2017-10-31 广东欧珀移动通信有限公司 一种在移动终端分屏运行程序的方法及装置
KR101510013B1 (ko) * 2013-12-18 2015-04-07 현대자동차주식회사 자동차의 조작계 터치패드를 이용한 멀티 조작 시스템 및 방법
US9829979B2 (en) * 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
KR20160089619A (ko) * 2015-01-20 2016-07-28 현대자동차주식회사 입력 장치 및 이를 포함하는 차량

Also Published As

Publication number Publication date
CN108073312A (zh) 2018-05-25
CN108073312B (zh) 2022-03-29

Similar Documents

Publication Publication Date Title
US11188296B2 (en) Human-vehicle interaction
EP3373123B1 (de) Verfahren und vorrichtung zur darstellung von empfohlenen bedienhandlungen eines vorschlagssystems und interaktion mit dem vorschlagssystem
EP2930049B1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
EP3040849B1 (de) Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur übergreifenden Anzeige eines Anzeigeinhaltes auf zwei Anzeigeeinrichtungen
DE112015003882T5 (de) Integrierter tragbarer Artikel für interaktives Fahrzeugsteuerungssystem
WO2014146925A1 (de) Informationswiedergabesystem für ein fahrzeug und verfahren zum bereitstellen von informationen für den benutzer eines fahrzeugs
WO2010142543A1 (de) Verfahren zum steuern einer grafischen benutzerschnittstelle und bedienvorrichtung für eine grafische benutzerschnittstelle
DE102015222336B4 (de) Eingabevorrichtung und Fahrzeug mit derselben
DE102014225161A1 (de) Multi-Bediensystem und -Verfahren unter Verwendung eines Touchpads eines Bediensystems von einem Fahrzeug
DE112012004769T5 (de) Konfigurierbare Hardwareeinheit für Autosysteme
WO2010046147A1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
DE102018109425A1 (de) Kontextabhängige fahrzeugbenutzerschnittstelle
DE102012216808A1 (de) Vorrichtung und Verfahren zum Ausführen eines in einem Fahrzeug vorgesehenen Menüs
DE102015223497A1 (de) Fahrzeug und verfahren zum steuern desselben
DE102014211342A1 (de) Anwenderschnittstelle und Verfahren zum Anpassen einer semantischen Skalierung einer Kachel
EP2937771B1 (de) Anwenderschnittstelle für ein Infotainment-System eines Fortbewegungsmittels
DE102017219332A1 (de) Mensch-fahrzeug-interaktion
EP3040808B1 (de) Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur Definition einer Kachel auf einer Anzeigeeinrichtung
EP2987066B1 (de) Kraftfahrzeug mit einer anzeige- und bedienvorrichtung und entsprechendes verfahren
DE102015115362A1 (de) Erfassungsvorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102016220834A1 (de) Verfahren und Anordnung zur displayübergreifenden Anzeige und/oder Bedienung in einem Fahrzeug
DE112018007216B4 (de) Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren
DE102021115126B3 (de) Verfahren und System zum Bedienen eines nicht-tragbaren Benutzergeräts mittels eines Touchscreens eines portablen Handgeräts sowie ein mit dem Benutzergerät koppelbares Handgerät
DE112019000938T5 (de) Menüanzeige-Steuervorrichtung für Fahrzeuge, Bedienungssystem für bordinterne Geräte und GUI-Programme
DE102023122554A1 (de) Technologien zur gestensteuerung der auswahl der kameraansicht für fahrzeugrechenvorrichtungen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed