DE102014225694A1 - Fahrzeugsteuervorrichtung und Fahrzeug - Google Patents

Fahrzeugsteuervorrichtung und Fahrzeug Download PDF

Info

Publication number
DE102014225694A1
DE102014225694A1 DE102014225694.1A DE102014225694A DE102014225694A1 DE 102014225694 A1 DE102014225694 A1 DE 102014225694A1 DE 102014225694 A DE102014225694 A DE 102014225694A DE 102014225694 A1 DE102014225694 A1 DE 102014225694A1
Authority
DE
Germany
Prior art keywords
display
vehicle
detection unit
user
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014225694.1A
Other languages
English (en)
Inventor
Seung Hwan Lee
Gee Hyuk Lee
Sun Jun Kim
Jae Hyun Han
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Korea Advanced Institute of Science and Technology KAIST
Original Assignee
Hyundai Motor Co
Korea Advanced Institute of Science and Technology KAIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Korea Advanced Institute of Science and Technology KAIST filed Critical Hyundai Motor Co
Publication of DE102014225694A1 publication Critical patent/DE102014225694A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04146Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using pressure sensitive conductive elements delivering a boolean signal and located between crossing sensing lines, e.g. located between X and Y sensing line layers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Fahrzeugsteuervorrichtung, die eine Bedienungseinheit enthält, die durch einen Benutzer bedient wird, und ein Fahrzeug, das dieselbe aufweist, sind geliefert. Die Fahrzeugsteuervorrichtung enthält eine Bedienungseinheit mit einer Objekterfassungseinheit, die zum Erfassen eines Objektes auf kontaktlose Weise konfiguriert ist, und ein Pad, das über der Objekterfassungseinheit angeordnet ist und Elastizität aufweist. Zudem ist eine Steuerung zum Generieren eines Steuersignals zum Betätigen eines Fahrzeugs basierend auf einem Ausgangssignal der Bedienungseinheit konfiguriert.

Description

  • HINTERGRUND
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Fahrzeugsteuervorrichtung, die zum Empfangen eines Benutzerbefehls konfiguriert ist, und ein Fahrzeug, das die Fahrzeugsteuervorrichtung enthält.
  • 2. Beschreibung der verwandten Technik
  • Fahrzeuge können Zusatzfunktionen zum Benutzerkomfort, wie beispielsweise eine Audiofunktion, eine Videofunktion, eine Navigationsfunktion, eine Klimatisierungssteuerung, eine Sitzsteuerung und eine Beleuchtungssteuerung, zusätzlich zu einer primären Fahrfunktion durchführen. Um solche Funktionen durchzuführen, enthält das Fahrzeug ein Display, das zum Anzeigen eines Menübildschirms oder eines Steuerbildschirms konfiguriert ist und eine Auswahl eines erwünschten Menüs oder eines Steuerbefehls für das ausgewählte Menü von einem Benutzer gemäß einem Hardkey-Verfahren, einem Touchscreen-Verfahren oder einem Gestenerkennungsverfahren empfängt.
  • Wenn das Hardkey-Verfahren verwendet wird, wird jedoch ein erheblicher Platz erfordert, um die Vielzahl von Hardkeys unterzubringen, oder eine Handhabungsbelastung des Benutzers nimmt zu, um den Steuerbefehl mit einer geringen Anzahl von Hardkeys zu empfangen. Zudem kann das Tochscreen-Verfahren eine negative Auswirkung auf das sichere Fahren haben, da erfordert wird, dass ein Fahrer ein in einem Armaturenbrett vorgesehenes Display manuell berührt, um den Steuerbefehl einzugeben, und das Gestenerkennungsverfahren weist ein Funktionsstörungsrisiko auf.
  • ZUSAMMENFASSUNG
  • Die vorliegende Erfindung liefert eine Fahrzeugsteuervorrichtung, die eine Bedienungseinheit enthält, die konfiguriert ist, um durch einen Benutzer bedient zu werden, und ein Fahrzeug, das dieselbe aufweist.
  • Nach einem Aspekt der vorliegenden Erfindung kann eine Fahrzeugsteuervorrichtung eine Bedienungseinheit, die eine Objekterfassungseinheit, die zum Erfassen eines Objektes auf kontaktlose Weise konfiguriert ist, und ein Pad enthält, das über der Objekterfassungseinheit angeordnet ist und Elastizität aufweist, und eine Steuerung enthalten, die zum Generieren eines Steuersignals zum Betätigen eines Fahrzeugs basierend auf einem Ausgangssignal der Bedienungseinheit konfiguriert ist.
  • Das Pad kann aus einem gelartigen, elastischen Körper bestehen. Die Objekterfassungseinheit kann zumindest einen kapazitiven Näherungssensor, einen Ultraschall-Näherungssensor und/oder einen optischen Näherungssensor enthalten. Die Objekterfassungseinheit kann auch eine Vielzahl von zweidimensional angeordneten Sensoren enthalten. Die Steuerung kann zum Berechnen einer Position oder einer Höhe des Objektes auf der Bedienungseinheit basierend auf einem Ausgangssignal der Objekterfassungseinheit konfiguriert sein. Die Bedienungseinheit kann ferner eine Druckerfassungseinheit enthalten, die unter der Objekterfassungseinheit angeordnet ist und zum Erfassen eines an dieselbe angelegten Drucks konfiguriert ist.
  • Nach einem anderen Aspekt der vorliegenden Erfindung kann ein Fahrzeug eine Bedienungseinheit, die eine zum Erfassen eines Objektes auf eine kontaktlose Weise konfigurierte Objekterfassungseinheit und ein Pad enthält, das über der Objekterfassungseinheit angeordnet ist und Elastizität aufweist, eine Audio-Video-Navigationsvorrichtung (AVN-Vorrichtung), die ein Display enthält, und eine Steuerung enthalten, die zum Generieren eines Steuersignals zum Betätigen der AVN-Vorrichtung basierend auf einem Ausgangssignal der Bedienungseinheit konfiguriert ist.
  • Das Pad kann aus einem gelartigen, elastischen Körper bestehen. Die Objekterfassungseinheit kann zumindest einen kapazitiven Näherungssensor, einen Ultraschall-Näherungssensor und/oder einen optischen Näherungssensor enthalten. Die Objekterfassungseinheit kann auch eine Vielzahl von zweidimensional angeordneten Sensoren enthalten. Die Steuerung kann zum Berechnen einer Position oder einer Höhe des Objektes auf der Bedienungseinheit basierend auf einem Ausgangssignal der Objekterfassungseinheit konfiguriert sein. Die Bedienungseinheit kann ferner eine Druckerfassungseinheit enthalten, die unter der Objekterfassungseinheit angeordnet ist und zum Erfassen eines Drucks konfiguriert ist.
  • Das Display kann zum Anzeigen eines Zeigeobjektes an einer Position, die der Position des Objektes auf der Bedienungseinheit entspricht, konfiguriert sein. Das Display kann auch zum unterschiedlichen Anzeigen von visuellen Eigenschaften des Zeigeobjektes gemäß der Höhe des Objektes auf der Bedienungseinheit konfiguriert sein. Außerdem kann das Display zum Anzeigen von zumindest einem Menübutton konfiguriert sein und die Steuerung zum Generieren eines Steuersignals zum Auswählen eines Menübuttons, in dem das Zeigeobjekt positioniert ist, unter der Vielzahl von Menübuttons konfiguriert sein, wenn die Bedienungseinheit gedrückt wird.
  • Die Steuerung kann zum Aufnehmen eines Benutzerbildes, das eine Hand eines Benutzers enthält, anhand eines Ausgangssignals der Objekterfassungseinheit konfiguriert sein. Die Steuerung kann dann konfiguriert sein, um basierend auf dem Benutzerbild zu bestimmen, ob ein vorbestimmter Bereich der Bedienungseinheit durch die Hand eines Benutzers bedeckt ist. Das Display kann zum Anzeigen einer Menüliste konfiguriert sein, die mit dem vorbestimmten Bereich abgebildet wird, wenn der vorbestimmte Bereich der Bedienungseinheit durch die Hand eines Benutzers bedeckt ist. Das Display kann auch zum Anzeigen einer Menüliste konfiguriert sein, die mit dem vorbestimmten Bereich abgebildet wird, wenn der vorbestimmte Bereich der Bedienungseinheit durch die Hand eines Benutzers für eine Bezugszeit oder länger bedeckt ist.
  • Zudem kann das Display zum Anzeigen eines Bezugsbalkens konfiguriert sein, der ein Verhältnis einer Zeit, für die der vorbestimmte Bereich der Bedienungseinheit durch die Hand eines Benutzers bedeckt ist, relativ zu der Bezugszeit angibt. Das Display kann zum Anzeigen einer Menüliste konfiguriert sein, die mit dem vorbestimmten Bereich abgebildet wird, wenn der vorbestimmte Bereich der Bedienungseinheit durch die Hand eines Benutzers gedrückt wird (z. B. Druck an den vorbestimmten Bereich angelegt wird). Das Display kann durch die Steuerung abgeschaltet werden, wenn der vorbestimmte Bereich der Bedienungseinheit durch die Hand eines Benutzers bedeckt ist. Das Display kann auch durch die Steuerung abgeschaltet werden, wenn der vorbestimmte Bereich der Bedienungseinheit durch die Hand eines Benutzers gedrückt wird.
  • Die AVN-Vorrichtung kann durch die Steuerung abgeschaltet werden, wenn der vorbestimmte Bereich der Bedienungseinheit durch die Hand eines Benutzers gedrückt wird. Das Display kann dann zum Anzeigen von Kartendaten konfiguriert sein, um eine Navigationsfunktion durchzuführen. Die Steuerung kann zum Berechnen eines Winkels eines das Pad berührenden Fingers basierend auf dem Benutzerbild konfiguriert sein. Das Display kann zum Anzeigen von Kartendaten konfiguriert sein, um eine Navigationsfunktion durchzuführen. Das Display kann auch zum unterschiedlichen Anzeigen eines Ansichtswinkels der Kartendaten gemäß dem berechneten Winkel des Fingers konfiguriert sein. Zudem kann das Display zum Anzeigen der Kartendaten gemäß einer vertikalen Ansicht konfiguriert sein, wenn der berechnete Winkel des Fingers ein Bezugswinkel oder größer ist. Die Kartendaten können auch gemäß einer Ansicht von oben angezeigt werden, die dem berechneten Winkel des Fingers entspricht, wenn der berechnete Winkel des Fingers gleich einem oder kleiner als ein Bezugswinkel ist. Die Bedienungseinheit kann mit einem Ende einer Armlehne verbunden sein, die zwischen einem Fahrersitz und einem Beifahrersitz angeordnet ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese und/oder andere Aspekte der Erfindung werden anhand der folgenden Beschreibung der Ausführungsformen in Verbindung mit den beiliegenden Zeichnungen offensichtlich und schneller verstanden werden, in denen:
  • 1 eine beispielhafte Darstellung einer Fahrzeugsteuervorrichtung nach einer beispielhaften Ausführungsform der vorliegenden Erfindung ist;
  • 2 eine beispielhafte Darstellung einer Fahrzeugsteuervorrichtung, die ferner eine Druckerfassungseinheit enthält, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung ist;
  • 3 eine beispielhafte Seitenansicht einer Struktur einer Bedienungseinheit nach einer beispielhaften Ausführungsform der vorliegenden Erfindung ist;
  • 4 eine beispielhafte Draufsicht einer Bedienungseinheit von oben gesehen nach einer beispielhaften Ausführungsform der vorliegenden Erfindung ist;
  • 5 ein beispielhafter Schaltplan einer LED-Matrix einer Objekterfassungseinheit nach einer beispielhaften Ausführungsform der vorliegenden Erfindung ist;
  • 6 ein beispielhafter Schaltplan eines Fototransistor-Arrays einer Objekterfassungseinheit nach einer beispielhaften Ausführungsform der vorliegenden Erfindung ist;
  • 7 eine beispielhafte Darstellung ist, die ein Erscheinungsbild eines Fahrzeugs nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 8 ein beispielhaftes Blockdiagramm des Fahrzeugs nach der beispielhaften Ausführungsform der vorliegenden Erfindung ist;
  • 9 eine beispielhafte Darstellung ist, die ein Erscheinungsbild einer Fahrzeugsteuervorrichtung, die in dem Fahrzeug vorgesehen ist, von einem Rücksitz aus gesehen nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 10 eine beispielhafte Darstellung ist, die ein Erscheinungsbild der Fahrzeugsteuervorrichtung, die in dem Fahrzeug vorgesehen ist, von einem Beifahrersitz aus gesehen nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 11 eine beispielhafte Darstellung ist, die eine Bedienung einer Bedienungseinheit durch einen Benutzer nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 12 eine beispielhafte Darstellung ist, die ein Benutzerbild, das durch ein Ausgangssignal einer Objekterfassungseinheit gebildet wird, wenn der Benutzer die Bedienungseinheit wie in 11 veranschaulicht bedient, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 13 eine beispielhafte Darstellung ist, die einen Audio-Wiedergabebildschirm, der auf einem Display einer Audio-Video-Navigationsvorrichtung (AVN-Vorrichtung) angezeigt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 14 eine beispielhafte Darstellung ist, die einen Bildschirm, der auf dem Display der AVB-Vorrichtung basierend auf der Bedienung durch einen Benutzer angezeigt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 15 eine beispielhafte Darstellung ist, die ein Verhältnis der Zeit zur Bedienung durch einen Benutzer bzw. Benutzer-Bedienungszeit relativ zu einer Bezugszeit nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 16 eine beispielhafte Darstellung ist, die eine Bedienung der Bedienungseinheit durch einen Benutzer nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 17 eine beispielhafte Darstellung ist, die ein beispielhaftes Benutzerbild, das durch ein Ausgangssignal einer Objekterfassungseinheit gebildet wird, wenn der Benutzer die Bedienungseinheit wie in 16 veranschaulicht bedient, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 18 eine beispielhafte Darstellung ist, die einen anderen Bildschirm, der auf dem Display der AVN-Vorrichtung basierend auf der Bedienung durch einen Benutzer angezeigt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 19 eine beispielhafte Darstellung ist, die ein Verhältnis der Benutzer-Bedienungszeit relativ zu einer Bezugszeit nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 20 eine beispielhafte Darstellung ist, die eine Bedienung der Bedienungseinheit durch einen Benutzer nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 21 eine beispielhafte Darstellung ist, die ein Bild, das durch ein Ausgangssignal einer Objekterfassungseinheit gebildet wird, wenn der Benutzer die Bedienungseinheit wie in 20 veranschaulicht bedient, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • die 22 und 23 beispielhafte Darstellungen sind, die einen Bildschirm, der auf dem Display der AVN-Vorrichtung gemäß der Bedienung durch einen Benutzer angezeigt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 24 eine beispielhafte Darstellung ist, die ein Display, auf dem ein einer Fingerposition entsprechendes Zeigeobjekt angezeigt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 25 eine beispielhafte Darstellung ist, die ein Display, auf dem eine Menüliste angezeigt wird, die eine Vielzahl von Menübuttons nacheinander auflistet, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 26 eine beispielhafte Darstellung ist, die eine Zieh- bzw. Drag-Betätigung zum Bewegen einer Menüliste nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 27 ein beispielhaftes Blockdiagramm ist, das eine Konfiguration der AVN-Vorrichtung, die eine Navigationsfunktion durchführt, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • die 28 und 29 beispielhafte Darstellungen sind, die einen Karten-Bildschirm, der auf dem Display angezeigt wird, wenn die Navigationsfunktion durchgeführt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulichen;
  • die 30 und 31 beispielhafte Darstellungen sind, die eine beispielhafte Bedienung zum Anzeigen einer vertikalen Ansicht nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulichen;
  • 32 eine beispielhafte Darstellung ist, die eine beispielhafte Bedienung zum Anzeigen einer Ansicht von oben nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 33 eine beispielhafte Darstellung ist, die ein Benutzerbild, das erhalten wird, wenn die Bedienung zum Anzeigen der vertikalen Ansicht durchgeführt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 34 eine beispielhafte Darstellung ist, die ein Benutzerbild, das erhalten wird, wenn eine Bedienung zum Anzeigen der Ansicht von oben durchgeführt wird, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung veranschaulicht; und
  • 35 eine beispielhafte Darstellung eines Fahrzeugs, das eine Fahrzeugsteuervorrichtung zum Betätigen einer Klimatisierungsvorrichtung enthält, nach einer beispielhaften Ausführungsform der vorliegenden Erfindung ist.
  • DETAILLIERTE BESCHREIBUNG
  • Es ist klar, dass der Ausdruck „Fahrzeug” oder „Fahrzeug-” oder ein anderer ähnlicher Ausdruck, der hierin verwendet wird, Kraftfahrzeuge im Allgemeinen enthält, wie beispielsweise Personenkraftwagen, die Geländefahrzeuge (SUV), Busse, Lastwagen, verschiedene Geschäftswagen enthalten, Wasserfahrzeuge, die eine Vielzahl von Booten und Schiffen enthalten, Luftfahrzeuge und Ähnliches, und Hybridfahrzeuge, Elektrofahrzeuge, Verbrennung, Plug-In-Hybridelektrofahrzeuge, Fahrzeuge mit Wasserstoffantrieb und andere Fahrzeuge mit alternativen Brennstoffen enthält (z. B. Brennstoffe, die aus anderen Rohstoffen als Erdöl gewonnen werden).
  • Zwar wird eine beispielhafte Ausführungsform beschrieben, eine Vielzahl von Einheiten zum Durchführen des beispielhaften Prozesses zu verwenden, aber es ist klar, dass die beispielhaften Prozesse auch durch ein Modul oder eine Vielzahl von Modulen durchgeführt werden können. Zudem ist klar, dass sich der Ausdruck Steuerung/Steuereinheit auf eine Hardwarevorrichtung bezieht, die einen Speicher und einen Prozessor enthält. Der Speicher ist zum Speichern der Module konfiguriert und der Prozessor ist insbesondere zum Ausführen der Module zum Durchführen von einem oder mehreren Prozessen konfiguriert, die weiter unten beschrieben werden.
  • Zudem kann die Steuerlogik der vorliegenden Erfindung als nicht-transitorische computerlesbare Medien auf einem computerlesbaren Datenträger ausgeführt werden, der ausführbare Programmbefehle enthält, die durch einen Prozessor, eine Steuerung/Steuereinheit oder Ähnliches ausgeführt werden. Beispiele der computerlesbaren Datenträger enthalten Festwertspeicher, Direktzugriffsspeicher, Compact-Disc-Festwertspeicher (CD-ROMs), Magnetbänder, Disketten, Flash-Laufwerke, Chipkarten und optische Datenspeichervorrichtungen, sind aber nicht darauf beschränkt. Das computerlesbare Aufnahmemedium kann auch in netzwerkgekoppelten Computersystemen verteilt sein, so dass das computerlesbare Medium auf verteilte Weise gespeichert und ausgeführt wird, z. B. durch einen Telematikserver oder ein Controller Area Network (CAN).
  • Die hierin verwendete Terminologie dient nur zum Zweck des Beschreibens bestimmter Ausführungsformen und soll die Erfindung nicht beschränken. Wie hierin verwendet, sollen die Singularformen „ein/eine” und „der/die/das” auch die Pluralformen enthalten, sofern der Kontext dies nicht anderweitig klar erkennen lässt. Es wird zudem klar sein, dass die Ausdrücke „weist auf” und/oder „aufweisend”, wenn in dieser Beschreibung verwendet, das Vorhandensein der genannten Merkmale, ganzen Zahlen, Schritte, Operationen, Elemente und/oder Bauteile spezifizieren, aber nicht das Vorhandensein oder den Zusatz von einem/einer oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Bauteilen und/oder Gruppen derselben ausschließen. Wie hierin verwendet, enthält der Ausdruck „und/oder” jedes beliebige und alle Kombinationen von einem oder mehreren der assoziierten, aufgelisteten Elemente.
  • Sofern nicht speziell angegeben oder aus dem Kontext offensichtlich, ist der Ausdruck „ca.”, wie hierin verwendet, als innerhalb eines Bereiches einer normalen Toleranz in der Technik, beispielsweise innerhalb von 2 Standardabweichungen des Mittelwertes, zu verstehen. „Ca.” kann als innerhalb von 10%, 9%, 8%, 7%, 6%, 5%, 4%, 3%, 2%, 1%, 0,5%, 0,1%, 0,05% oder 0,01% des genannten Wertes verstanden werden. Wenn nicht anderweitig aus dem Kontext klar, sind alle hierin gelieferten numerischen Werte durch den Ausdruck „c”a.” modifiziert.
  • Nun wird auf die beispielhaften Ausführungsformen der vorliegenden Erfindung detailliert Bezug genommen werden, deren Beispiele in den beiliegenden Zeichnungen veranschaulicht sind, in denen ähnliche Bezugsnummern durchweg ähnliche Elemente bezeichnen. Nachstehend werden eine Fahrzeugsteuervorrichtung und ein Fahrzeug, das dieselbe aufweist, nach beispielhaften Ausführungsformen der vorliegenden Erfindung in Bezug auf die beiliegenden Zeichnungen beschrieben werden.
  • 1 ist eine beispielhafte Darstellung einer Fahrzeugsteuervorrichtung nach einer beispielhaften Ausführungsform. 2 ist eine beispielhafte Darstellung einer Fahrzeugsteuervorrichtung, die ferner eine Druckerfassungseinheit enthält. Wie in 1 veranschaulicht, kann eine Fahrzeugsteuervorrichtung 100 nach einer beispielhaften Ausführungsform eine Bedienungseinheit 110, die zum Empfangen eines Steuerbefehls eines Benutzers bzw. Benutzer-Steuerbefehls konfiguriert ist, und eine Steuerung 120 enthalten, die zum Bestimmen des Benutzer-Steuerbefehls des Benutzers basierend auf einem Ausgangssignal der Bedienungseinheit 110 und Generieren eines Steuersignals, das dem Benutzer-Steuerbefehl entspricht, konfiguriert ist.
  • Die Bedienungseinheit 110 kann ein Pad 111, das Elastizität aufweist, und eine Objekterfassungseinheit 112 enthalten, die unter dem Pad 111 angeordnet und zum Erfassen eines Objektes in der Nähe zu (z. B. innerhalb eines vorbestimmten Abstands zu) der Bedienungseinheit 110 konfiguriert ist. Das Pad 111 kann ein Teil sein, an das Druck in Erwiderung auf eine Bedienung der Bedienungseinheit 110 durch einen Benutzer angelegt werden kann, und kann aus einem transparenten Material bestehen, das Elastizität aufweist. Wenn das Elastizität aufweisende Pad 111 verwendet wird, kann sich das Bedienungsgefühl des Benutzers verbessern und eine taktile Rückmeldung bereitgestellt werden. Wenn eine Bedienung auf einer im Wesentlichen weichen Oberfläche ausgeführt werden kann, kann es insbesondere möglich sein, ein weicheres und natürlicheres Bedienungsgefühl als das Drücken eines tatsächlichen Knopfes zu erhalten. Zudem kann eine Hand komfortabel darauf bleiben, selbst wenn der Benutzer die Bedienungseinheit 110 nicht bedient. Das Pad 111 kann aus einem elastischen Körper, beispielsweise eine gelartige Silikonverbindung oder gelartiges Polyurethan, bestehen. Als Silikonverbindung kann Polydimethylsiloxan (PDMS) und Ähnliches verwendet werden. Das Material zum Bilden des Pads 111 ist jedoch nicht auf diese Materialien beschränkt. Zusätzlich zu den obigen Materialien kann jedes transparente Material mit Elastizität als Material verwendet werden, das das Pad 111 ausbildet.
  • Die Objekterfassungseinheit 112 kann zum Erfassen eines Objektes innerhalb einer vorbestimmten Nähe zu der Bedienungseinheit 110 auf kontaktlose Weise konfiguriert sein. D. h., das Objekt kann erfasst werden, ohne dass die Bedienungseinheit 110 berührt wird (z. B. ohne dass Druck an die Bedienungseinheit 110 angelegt wird), während ein berührendes Objekt noch erfasst werden kann. Mit anderen Worten kann die Objekterfassungseinheit 112 zum Erfassen eines Objektes, das einen Druck an das Pad 111 anlegt, und auch eines Objektes, das von dem Pad 111 getrennt ist (z. B. kontaktlose Erfassung) konfiguriert sein. Zu diesem Zweck kann die Objekterfassungseinheit 112 einen Näherungssensor enthalten.
  • Beispielsweise kann zumindest ein kapazitiver Näherungssensor, ein Ultraschall-Näherungssensor und/oder ein optischer Näherungssensor enthalten sein. Der Näherungssensor bei dieser beispielhaften Ausführungsform kann kollektiv als jeder Sensor definiert sein, der zum Erfassen eines berührendes Objektes und eines von demselben getrennten Objektes konfiguriert ist, solange das Objekt innerhalb einer vorbestimmten Nähe zu dem Sensor ist.
  • Wenn die Objekterfassungseinheit 112 den kapazitiven Näherungssensor enthält, kann ein Abstand zwischen dem Objekt und der Bedienungseinheit 110 basierend auf einer Kapazitätsänderung bestimmt werden, die differiert, während sich das Objekt der Bedienungseinheit 110 nähert. Wenn die Objekterfassungseinheit 112 den Ultraschall-Näherungssensor enthält, kann zudem ein Abstand zwischen dem Objekt und der Bedienungseinheit 110 basierend auf einer Intensität eines Ultraschallsignals bestimmt werden, das von dem Objekt reflektiert und zurückgesendet wird. Wenn die Objekterfassungseinheit 112 den optischen Näherungssensor enthält, kann ein Abstand zwischen dem Objekt und der Bedienungseinheit 110 basierend auf einer Intensität eines optischen Signals bestimmt werden, das von dem Objekt reflektiert und zurückgesendet wird. Ferner kann der Abstand zwischen dem Objekt und der Bedienungseinheit 110 bei dieser beispielhaften Ausführungsform ein Abstand zwischen dem Pad 111 und dem Objekt oder ein Abstand zwischen der Objekterfassungseinheit 112 und dem Objekt sein.
  • Wie unten beschrieben werden wird, kann die Objekterfassungseinheit 112 eine Form aufweisen, bei der eine Vielzahl von Näherungssensoren zweidimensional angeordnet ist. Wenn ein Ausgangssignal der Objekterfassungseinheit 112 verwendet wird, kann es möglich sein, ein Bild eines Objektes innerhalb einer vorbestimmten Nähe zu der Bedienungseinheit 110 zu erhalten und eine Position des Objektes auf einer zweidimensionalen Ebene (2D-Ebene) zu erhalten.
  • Ein Verfahren zum Bedienen der Bedienungseinheit 110 durch den Benutzer kann ein Verfahren zum Drücken des Pads 111 (z. B. Anlegen eines Drucks an das Pad 111) enthalten. Wenn die Objekterfassungseinheit 112 den optischen Näherungssensor oder den Ultraschall-Näherungssensor enthält, kann es möglich sein, basierend auf dem Ausgangssignal der Objekterfassungseinheit 112 zu bestimmen, ob das Pad 111 gedrückt wird (z. B. ob Druck an das Pad 111 angelegt wird). Wenn das Pad 111 gedrückt wird, bewegt sich insbesondere ein Objekt (z. B. ein Finger eines Benutzers) näher zu der Objekterfassungseinheit 112 und eine optische Charakteristik kann auftreten, beispielsweise kann Licht verstreut werden, während das Pad 111 heruntergedrückt wird. Da eine Druckbetätigung in einer im Wesentlichen kurzen Zeitdauer (z. B. vorbestimmte Zeitspanne) durchgeführt werden kann, kann es bei Verwendung einer Musteränderung zudem möglich sein, ohne eine separate Vorrichtung, die einen erforderten Druck erfasst, zu bestimmen, ob ein Drücken durchgeführt wird (z. B. Druck angelegt wird).
  • Wie in 2 veranschaulicht, kann die Bedienungseinheit 110 außerdem ferner eine Druckerfassungseinheit 113 enthalten, die zum Erfassen eines Drucks konfiguriert ist. Die Druckerfassungseinheit 113 kann einen mechanischen Drucksensor, der zum Erfassen eines Drucks unter Verwendung eines mechanischen Kontaktes, wie beispielsweise ein Mikroschalter, einen elektrischen Drucksensor, der zum Messen einer Verschiebung anhand einer Kapazitätsänderung zwischen zwei Elektroden konfiguriert ist, einen Halbleiter-Drucksensor, der zum Erfassen eines Drucks unter Verwendung eines piezoelektrischen Effektes konfiguriert ist, oder einen Widerstandsfilm-Drucksensor enthalten, der zum Erfassen eines Drucks durch Messen einer Änderung eines Stroms oder eines Widerstands konfiguriert ist, die erzeugt wird, wenn ein Druck von der Außenseite angelegt wird und zwei gegenüberliegende Elektroden aneinanderstoßen. Die obigen Drucksensoren sind jedoch lediglich beispielhafte Drucksensoren, die in der Druckerfassungseinheit 113 enthalten sein können, und die beispielhafte Ausführungsform der Fahrzeugsteuervorrichtung 100 ist nicht darauf beschränkt.
  • Es wurde zuvor erwähnt, dass die Position des Objektes innerhalb einer vorbestimmten Nähe zu der Bedienungseinheit 110 anhand des Ausgangssignals der Objekterfassungseinheit 112 bestimmt werden kann. Folglich kann die Druckerfassungseinheit 113 zum Erfassen des Drucks konfiguriert sein und eine Position, an der der Druck erfasst wird, kann anhand des Ausgangssignals der Objekterfassungseinheit 112 bestimmt werden. Zudem kann die Druckerfassungseinheit 113 eine Form aufweisen, bei der eine Vielzahl von Drucksensoren zweidimensional angeordnet ist, oder eine Struktur aufweisen, bei der ein Drucksensor zum Erfassen eines Drucks an jeder Position, die auf einer 2D-Ebene definiert ist, konfiguriert sein kann. Daher kann es auch möglich sein, eine Position der Bedienungseinheit 110, die durch das Objekt gedrückt wird, unter Verwendung eines Ausgangssignals der Druckerfassungseinheit 113 zu bestimmen.
  • Zudem kann das durch die Bedienungseinheit 110 erfasste Objekt oder das Objekt, das einen Druck auf die Bedienungseinheit 110 ausübt, die Hand eines Benutzers oder eine andere Art von Objekt sein, das einen Steuerbefehl eingibt. Die Steuerung 120 kann zum Bestimmen des Benutzer-Steuerbefehls basierend auf dem Ausgangssignal der Bedienungseinheit 110 konfiguriert sein. Die Steuerung 120 kann eine Sensorsteuerung 121, die zum Betätigen der Objekterfassungseinheit 112 oder der Druckerfassungseinheit 113 konfiguriert ist, und eine Steuersignal-Erzeugungseinheit 122 enthalten, die zum Erzeugen bzw. Generieren eines Steuersignals basierend auf dem Ausgangssignal der Bedienungseinheit 110 konfiguriert ist. Die Sensorsteuerung 121 und die Steuersignal-Erzeugungseinheit 122 können aus einem Mikroprozessor, einer Mikrosteuerung und Ähnlichem bestehen.
  • Des Weiteren sind die in der Darstellung der 1 veranschaulichten Komponenten nicht physisch unterteilt, aber können funktionell unterteilt sein. Folglich können die Sensorsteuerung 121 und die Steuersignal-Erzeugungseinheit 122 ein physisches Modul oder separate Module sein, die physisch unterteilt sind. Zudem kann die Sensorsteuerung 121 und/oder die Steuersignal-Erzeugungseinheit 122 in der Bedienungseinheit 110 vorgesehen sein oder sowohl die Sensorsteuerung 121 als auch die Steuersignal-Erzeugungseinheit 122 extern zu der Bedienungseinheit 110 separat vorgesehen sein.
  • 3 ist eine beispielhafte Seitenansicht einer Struktur einer Bedienungseinheit nach einer beispielhaften Ausführungsform. 4 ist eine beispielhafte Draufsicht einer Beidienungseinheit von oben gesehen (z. B. Ansicht von oben) nach einer beispielhaften Ausführungsform. Bei diesem Beispiel kann die Objekterfassungseinheit 112 der Bedienungseinheit 110 den optischen Näherungssensor enthalten. Wie in 3 veranschaulicht, kann die Objekterfassungseinheit 112 eine Vielzahl von lichtemittierenden Einheiten 112a und eine Vielzahl von lichtempfangenden Einheiten 112b enthalten. Die lichtemittierende Einheit 112a kann eine Infrarot-Lumineszenzdiode (Infrarot-LED) sein und die lichtempfangende Einheit 112b kann ein Fototransistor sein, der zum Erfassen von Infrarotlicht konfiguriert ist.
  • Wenn die lichtemittierende Einheit 112a durch die Infrarot-LED implementiert wird, kann ein Infrarot-Filter, der konfiguriert sein kann, um zu verhindern, das anderes Infrarotlicht, das von einer anderen externen Lichtquelle erzeugt wird, als das Infrarotlicht, das von der lichtemittierenden Einheit 112a erzeugt wird, auf die lichtempfangende Einheit 112b einfällt, zwischen dem Pad 111 und der Objekterfassungseinheit 112 vorgesehen sein. Wie in 4 veranschaulicht, können die Vielzahl der lichtemittierenden Einheiten 112a und die Vielzahl der lichtempfangenden Einheiten 112b auf einem Substrat 112c zweidimensional angeordnet sein. Die Vielzahl der lichtemittierenden Einheiten 112a kann in der Form einer Matrix verbunden sein und einzeln ein- und ausgeschaltet werden. Die Fototransistoren 112b können parallel geschaltet sein und als eine Art optischer Sensor mit einer im Wesentlichen breiten bzw. großen Oberfläche betätigt werden.
  • Die Druckerfassungseinheit 113 kann auch eine Vielzahl von Drucksensoren 113a enthalten, die auf einem Substrat 113b oder einem Abstandshalter, der einen Raum zwischen zwei gegenüberliegenden leitenden Filmen zweidimensional unterteilt, zweidimensional angeordnet sind. Eine Konfiguration der 4 ist jedoch lediglich ein Beispiel der Bedienungseinheit 110. Wie oben beschrieben wurde, kann die Druckerfassungseinheit 113 nicht in der Bedienungseinheit 110 enthalten sein.
  • 5 ist ein beispielhafter Schaltplan einer LED-Matrix einer Objekterfassungseinheit. 6 ist ein beispielhafter Schaltplan eines Fototransistor-Arrays einer Objekterfassungseinheit. Wie in 5 veranschaulicht, repräsentieren P1 bis P5 und Q1 bis Q7 digitale Ausgangsstifte der Sensorsteuerung 121. Eine erwünschte LED kann durch angemessenes Abstimmen dieser Ausgänge eingeschaltet werden. Um beispielsweise eine LED in einer dritten Reihe und zweiten Spalte einzuschalten, kann die Sensorsteuerung 121 konfiguriert sein, um den Ausgang derart abzustimmen, dass P1 = P2 = P4 = P5 = 0, P3 = 1, Q1 = Q3 = Q4 = Q5 = Q6 = Q7 = 1 und Q2 = 0 ist. Auf diese Weise kann es möglich sein, eine LED zu einer Zeit sequenziell einzuschalten.
  • Wie in 6 veranschaulicht, können alle Fototransistoren parallel geschaltet sein und ein Strom, der durch dieselben geht, kann durch einen Widerstand auf der Oberseite fließen. Folglich kann ein Ausgangssignal (OUT), das durch den Ausgangsstift des Fototransistor-Arrays ausgegeben wird, einen Wert halten, der in etwa einer Energieversorgungsspannung VCC entspricht, wenn kein Licht vorhanden ist, und wenn Licht auf das Fototransistor-Array einfällt, kann eine Spannung in einem Verhältnis zu einer Menge desselben abnehmen. Das Ausgangssignal des Fototransistors kann in die Steuersignal-Erzeugungseinheit 122 eingegeben werden. Basierend auf einer Position der LED, die durch die Sensorsteuerung 121 und das Ausgangssignal des Fototransistors eingeschaltet wird, kann die Steuersignal-Erzeugungseinheit 122 zum Berechnen des Objektes nahe (z. B. innerhalb einer vorbestimmten Nähe zu) der Bedienungseinheit 110, beispielsweise eine Position der Hand oder des Fingers eines Benutzers, ein Abstand zu der Bedienungseinheit 110 und ein Bereich, konfiguriert sein. Details dessen werden unten beschrieben werden.
  • Die Strukturen, die in den 5 und 6 veranschaulicht sind, sind lediglich Beispiele, die auf die beispielhafte Ausführungsform der Fahrzeugsteuervorrichtung 100 angewandt werden können, aber die beispielhafte Ausführungsform der Fahrzeugsteuervorrichtung 100 ist nicht darauf beschränkt. Folglich kann zusätzlich zu den Strukturen, die in den 5 und 6 veranschaulicht sind, jede Struktur, bei der die Hand oder der Finger eines Benutzers innerhalb einer vorbestimmten Nähe zu der Bedienungseinheit 110 erfasst wird und eine Position, ein Abstand und ein Bereich derselben/desselben und Ähnliches berechnet werden können, auf die Bedienungseinheit 110 angewandt werden.
  • Nachstehend wird eine beispielhafte Ausführungsform eines Fahrzeugs, in dem die Fahrzeugsteuervorrichtung 100 installiert ist, und einer Betätigung der Fahrzeugsteuervorrichtung 100 beschrieben werden. 7 ist eine beispielhafte Darstellung, die ein Erscheinungsbild eines Fahrzeugs nach einer beispielhaften Ausführungsform veranschaulicht. 8 ist eine beispielhafte Darstellung des Fahrzeugs nach der beispielhaften Ausführungsform.
  • Wie in 7 veranschaulicht, kann ein Fahrzeug 10 nach einer beispielhaften Ausführungsform einen Hauptkörper 1, der ein Erscheindungsbild des Fahrzeugs 10 bildet, eine Vielzahl von Rädern 51 und 52, die zum Bewegen des Fahrzeugs 10 konfiguriert sind, eine Antriebsvorrichtung 60, die zum Drehen der Räder 51 und 52 konfiguriert ist, eine Vielzahl von Türen 71 und 72 (siehe 9), die zum Schützen einer Innenseite des Fahrzeugs 10 vor der Außenseite konfiguriert sind, eine Frontscheibe 31, die konfiguriert ist, um einem Fahrer in dem Fahrzeug 10 ein Sichtfeld vor dem Fahrzeug 10 bereitzustellen, und eine Vielzahl von Seitenspiegeln 81 und 82 enthalten, die konfiguriert sind, um dem Fahrer ein Sichtfeld hinter dem Fahrzeug 10 bereitzustellen.
  • Die Räder 51 und 52 können die Vorderräder 51, die in der Vorderseite des Fahrzeugs angeordnet sind, und Hinterräder 52 enthalten, die in dem Heck des Fahrzeugs angeordnet sind. Die Antriebsvorrichtung 60 kann konfiguriert sein, um den Vorderrädern 51 oder den Hinterrädern 52 eine Rotationsleistung bereitzustellen, um den Hauptkörper 1 nach vorn oder nach hinten zu bewegen. Die Antriebsvorrichtung 60 kann eine Kraftmaschine, die zum Verbrennen von fossilen Brennstoffen und Erzeugen einer Rotationsleistung konfiguriert ist, oder einen Motor enthalten, der zum Empfangen von Leistung von einem Kondensator (nicht veranschaulicht) und Erzeugen einer Rotationsleistung konfiguriert ist. Die Türen 71 und 72 können auf linken und rechten Seiten des Hauptkörpers 1 verschwenkbar angeordnet sein. Wenn die Türen geöffnet sind, kann der Fahrer in das Fahrzeug 10 einsteigen. Wenn die Türen geschlossen sind, können die Türen die Innenseite des Fahrzeugs 10 vor der Außenseite schützen. Die Frontscheibe 31 kann in der oberen Front des Hauptkörpers 1 angeordnet sein und ermöglicht dem Fahrer in dem Fahrzeug 10, visuelle Informationen von der Vorderseite des Fahrzeugs 10 zu erhalten, und kann auch Windschutzscheibe genannt werden.
  • Zudem können die Seitenspiegel 81 und 82 den linken Seitenspiegel 81, der auf der linken Seite des Hauptkörpers 1 angeordnet ist, und den rechten Seitenspiegel 82 enthalten, der auf der rechten Seite desselben angeordnet ist. Die Seitenspiegel 81 und 82 ermöglichen dem Fahrer in dem Fahrzeug 10, visuelle Informationen von den Seiten und der Rückseite des Fahrzeugs 10 zu erhalten. Das Fahrzeug 10 kann ferner eine Erfassungsvorrichtung, wie beispielsweise ein Näherungssensor, die zum Erfassen von Hindernissen an der Seite oder Rückseite desselben oder eines anderen Fahrzeugs konfiguriert ist, und einen Regensensor enthalten, der zum Erfassen von Regen und Niederschlag konfiguriert ist.
  • Wie in 8 veranschaulicht, kann das Fahrzeug 10 nach der beispielhaften Ausführungsform die Fahrzeugsteuervorrichtung 100 und eine Audio-Video-Navigationsvorrichtung (AVN-Vorrichtung) 200 enthalten. Die AVN-Vorrichtung 200 kann zum ganzheitlichen Ausführen einer Audiofunktion, einer Videofunktion und einer Navigationsfunktion und zusätzlicher Funktionen, wie beispielsweise das Initialisieren eines Telefonanrufs, zusätzlich zu den obigen Funktionen konfiguriert sein. Eine Konfiguration der Fahrzeugsteuervorrichtung 100 gleicht der in der obigen Beschreibung. Die AVN-Vorrichtung 200 kann ein Display 210, das zum visuellen Ausgeben von Informationen zum Ausführen verschiedener Funktionen konfiguriert ist, einen Lautsprecher 220, der zum akustischen Ausgeben der Informationen konfiguriert ist, und eine AVN-Steuerung 230 enthalten, die zum allgemeinen Betätigen der AVN-Vorrichtung 200 konfiguriert ist.
  • Nachstehend werden bestimmte Operationen in Bezug auf die Erscheinungsbilder der Fahrzeugsteuervorrichtung 120 und der AVN-Vorrichtung 200 beschrieben werden, die in dem Fahrzeug 10 installiert sein können. 9 ist eine beispielhafte Darstellung, die ein Erscheinungsbild einer innerhalb des Fahrzeugs angeordneten Fahrzeugsteuervorrichtung von einem Rücksitz aus gesehen veranschaulicht. 10 ist eine beispielhafte Darstellung, die ein Erscheinungsbild der innerhalb des Fahrzeugs angeordneten Fahrzeugsteuervorrichtung von einem Beifahrersitz aus gesehen veranschaulicht.
  • Wie in den 9 und 10 veranschaulicht, kann das Display 210 in einem mittigen Armaturenbrett 33, d. h. einem mittleren Bereich eines Armaturenbretts 32, installiert sein und zum Anzeigen eines Audio-Bildschirms, eines Video-Bildschirms, eines Navigations-Bildschirms und eines Bildschirms, der zum Ausführen verschiedener anderer Funktionen erforderlich ist, die durch die AVN-Vorrichtung 200 durchgeführt werden, konfiguriert sein. Das Display 210 kann durch eine Flüssigkristallanzeige (LCD), eine Lumineszenzdiode (LED), eine Plasmaanzeige (PDP), eine organische Lumineszenzdiode (OLED), eine Kathodenstrahlröhre (CRT) und Ähnliches implementiert werden.
  • Die Bedienungseinheit 110 kann in einer Mittelkonsole 40 zwischen einem Fahrersitz 21 und einem Beifahrersitz 22 angeordnet sein. Die Mittelkonsole 40 kann ein Bereich zwischen dem Fahrersitz 21 und dem Beifahrersitz 22 sein und in demselben kann ein Schalthebel 41 und ein Konsolenkasten 42, d. h., ein Stauraum zum Unterbringen von Waren bzw. Gegenständen ausgebildet sein. Beispielsweise kann die Bedienungseinheit 110 in einer erweiterten Form in einem vorderen Ende einer Armlehne 43 über dem Konsolenkasten 42 angeordnet sein.
  • Zum Betätigen der AVN-Vorrichtung 200 kann der Benutzer im Allgemeinen einen Hardkey 211, der in der Umgebung des Displays 210 angeordnet ist, ein Jog-Shuttle, das in der Mittelkonsole 40 angeordnet ist, oder einen Hardkey bedienen, der in der Mittelkonsole 40 angeordnet ist. Aufgrund dieser Bedienung kann der fahrende Benutzer eine schlechte Haltung aufweisen, die ein sicheres Fahren beeinflussen kann, ein im Wesentlichen breiter Platz bzw. Raum zum Vorsehen einer Vielzahl von Hardkeys erfordert werden oder erfordert werden, dass der Hardkey oder das Jog-Shuttle mehrere Male bedient werden muss, um einen erwünschten Steuerbefehl einzugeben. In dem Fahrzeug 10 nach der beispielhaften Ausführungsform kann der Benutzer auf dem Vordersitz 21 oder 22 jedoch die Bedienungseinheit 110 unter Verwendung einer Hand (H) oder eines anderen Objektes stabiler bedienen, während ein Arm auf der Armlehne 43 aufliegt.
  • Da das Pad 111 auf dem obersten Teil der Bedienungseinheit 110 angeordnet sein kann, kann der Benutzer einen Steuerbefehl unter Verwendung des Pads 111 eingeben. Wie oben beschrieben wurde, kann das Bedienungsgefühl des Benutzers verbessert werden, da das Pad 111 aus einem Material mit Elastizität bestehen kann, und die Hand kann komfortable auf dem Pad 111 bleiben, selbst wenn kein Steuerbefehl eingegeben wird. Wie unten beschrieben werden wird, kann zudem eine Hotkey-Funktion durch Anzeigen eines erwünschten Menübildschirms des Benutzers auf dem Display 210 mit einer vereinfachten Bedienung ausgeführt werden.
  • Zudem ist eine Position, an der die Fahrzeugsteuervorrichtung 100 installiert ist, nicht auf das Beispiel der 9 und 10 beschränkt. Die Fahrzeugsteuervorrichtung 100 kann in einer Armlehne des Rücksitzes installiert sein und ein Steuerbefehl kann von einem Beifahrer, der auf dem Rücksitz sitzt, eingegeben werden. Eine Vielzahl von Fahrzeugsteuervorrichtungen 100 kann innerhalb des Fahrzeugs 10 derart angeordnet sein, dass eine derselben in der Mittelkonsole 40 installiert ist, wie in den 9 und 10 veranschaulicht, und eine andere derselben in der Armlehne des Rücksitzes installiert ist.
  • 11 ist eine beispielhafte Darstellung, die eine Bedienung einer Bedienungseinheit durch einen Benutzer veranschaulicht. 12 ist eine beispielhafte Darstellung, die ein Benutzerbild veranschaulicht, das durch ein Ausgangssignal einer Objekterfassungseinheit gebildet wird, wenn der Benutzer die Bedienungseinheit wie in 11 veranschaulicht bedient.
  • Ein Bedienungsverfahren, bei dem beispielsweise die Hand eines Benutzers oder ein anderes Objekt einen vorbestimmten Bereich der Bedienungseinheit 110 bedeckt oder drückt oder der Finger eines Benutzers die Bedienungseinheit 110 drückt, kann als Verfahren zum Eingeben eines Steuerbefehls festgelegt sein. Wenn ein Steuerbefehl, der jedem Bedienungsverfahren entspricht, zuvor abgebildet wird und der Benutzer den Steuerbefehl eingibt, kann die Steuersignal-Erzeugungseinheit 122 daher zum Generieren eines Steuersignals konfiguriert sein, das demselben entspricht.
  • Wenn jeder vorbestimmter Bereich der Bedienungseinheit 110 mit einem Steuerbefehl, der demselben entspricht, abgebildet wird und die Hand eines Benutzers den vorbestimmen Bereich bedeckt oder drückt (z. B. wird Druck an den vorbestimmten Bereich durch ein Objekt angelegt), kann des Weiteren der auf den entsprechenden Bereich abgebildete Steuerbefehl ausgeführt werden. Nachstehend wird eine detaillierte beispielhafte Ausführungsform beschrieben werden. Wie in 11 veranschaulicht, kann der Steuerbefehl beispielsweise durch Bedecken eines linken Endes der Bedienungseinheit 110 eingegeben werden. Wenn die Objekterfassungseinheit 112 den optischen Näherungssensor enthält, der oben beschrieben wurde, kann jedes Ausgangssignal, das von der Vielzahl von Fototransistoren 112b der Objekterfassungseinheit 112 ausgegeben wird, ein Pixelwert sein, der ein Einzelbild bildet. Bei der beispielhaften Ausführungsform, die unten zu beschreiben ist, kann das durch das Ausgangssignal der Objekterfassungseinheit 112 gebildete Bild Benutzerbild genannt werden.
  • Wenn das Fototransistor-Array der Objekterfassungseinheit 112 eine Schaltungsstruktur aufweisen kann, wie in 6 veranschaulicht, kann eine Kollektorspannung des Fototransistors ausgegeben werden. Während eine Menge des LED-Reflexionslichtes, das auf den Fototransistor einfällt, zunimmt, kann daher der Ausgang des Fototransistor-Arrays abnehmen, und während eine Menge des LED-Reflexionslichtes, das auf den Fototransistor einfällt, abnimmt, kann der Ausgang des Fototransistor-Arrays zunehmen. Wenn ein Pixel festgelegt ist, um Weiß zum Ausdruck zu bringen, wenn der Ausgang des Fototransistors ein größter Ausgang ist, und ein Pixel festgelegt ist, um Schwarz zum Ausdruck zu bringen, wenn der Ausgang des Fototransistors ein geringster Ausgang ist, wenn die Bedienungseinheit 110 wie in 11 veranschaulicht bedient wird, kann das Benutzerbild (I), wie in 12 veranschaulicht, erhalten werden.
  • Wenn das Benutzerbild (I), wie in 12 veranschaulicht, erhalten wird, kann die Steuersignal-Erzeugungseinheit 122 zum Bestimmen konfiguriert sein, dass das linke Ende der Bedienungseinheit 110 bedeckt ist, und kann zum Erzeugen eines Steuersignals, das demselben entspricht, konfiguriert sein. Um zu bestimmen, ob ein Objekt, das das linke Ende der Bedienungseinheit 110 bedeckt, eine Hand (H) eines Benutzers ist, kann ein Bilderkennungsalgorithmus angewandt werden. Zu diesem Zweck kann die Steuersignal-Erzeugungseinheit 122 zum Speichern von morphologischen Merkmalen einer menschlichen Hand im voraus und Bestimmen, ob das in dem Benutzerbild (I) gezeigte Objekt die Hand ist, konfiguriert sein. Durch diesen Prozess kann das irrtümliche Betrachten des Positionierens anderer menschlicher Teile, wie beispielsweise der Arm oder das Handgelenk eines Benutzers, auf der Bedienungseinheit als eine Eingabe des Steuerbefehls gefiltert werden.
  • 13 ist eine beispielhafte Darstellung, die einen beispielhaften Audio-Wiedergabebildschirm veranschaulicht, der auf einem Display einer Audio-Video-Navigationsvorrichtung (AVN-Vorrichtung) angezeigt wird. 14 ist eine beispielhafte Darstellung, die einen beispielhaften Bildschirm veranschaulicht, der auf dem Display der AVN-Vorrichtung gemäß der Bedienung eines Benutzers bzw. durch einen Benutzer angezeigt wird. 15 ist eine beispielhafte Darstellung, die ein Verhältnis der Bedienungszeit eines Benutzers relativ zu einer Bezugszeit veranschaulicht. Beispielsweise kann das Bedienungsverfahren, das in 11 beschrieben ist, mit einer Hotkey-Funktion abgebildet werden, die in einem Hauptmenü blättert. Die Hotkey-Funktion kann eine Funktion sein, die zum direkten Aufrufen einer erwünschten Funktion ungeachtet von Funktionen, die gegenwärtig durch die AVN-Vorrichtung 200 durchgeführt werden, fähig sein. Wie in 13 veranschaulicht, kann beispielsweise, während ein Audio-Wiedergabebildschirm auf dem Display 210 angezeigt wird, wenn die Hand (H) eines Benutzers das linke Ende der Bedienungseinheit 110 wie in 11 veranschaulicht bedeckt, eine Hauptmenüliste 213a auf einem Teil des Displays 210 angezeigt werden, wie in 14 veranschaulicht.
  • Wenn die Hand eines Benutzers das linke Ende der Bedienungseinheit 110 bedeckt, kann insbesondere das Benutzerbild (I), wie in 12 veranschaulicht, durch das Ausgangssignal der Objekterfassungseinheit 112 erhalten werden und die Steuersignal-Erzeugungseinheit 122 zum Bestimmen, dass die Hand (H) eines Benutzers das linke Ende der Bedienungseinheit 110 bedeckt, basierend auf dem Benutzerbild (I) konfiguriert sein. Eine Bedienung zum Bedecken des linken Endes der Bedienungseinheit 110 mit der Hand (H) eines Benutzers kann mit einem Steuerbefehl zum Zugreifen auf das Hauptmenü abgebildet werden. Die Steuersignal-Erzeugungseinheit 122 kann zum Generieren eines Steuersignals zum Zugreifen auf das Hauptmenü und zum Übertragen des Signals zu der AVN-Steuerung 230 der AVN-Vorrichtung 200 konfiguriert sein. Zudem kann die AVN-Steuerung 230 zum Wirken konfiguriert sein, um die Hauptmenüliste 213a auf dem Display 210 wie in 14 veranschaulicht anzuzeigen.
  • Um die Bedienung für den Steuerbefehl von anderen Operationen zu unterscheiden, wenn die Hand eines Benutzers das linke Ende der Bedienungseinheit 110 für eine Bezugszeit oder länger bedeckt, kann die Steuersignal-Erzeugungseinheit 122 indessen zum Erzeugen eines Steuersignals zum Zugreifen auf das Hauptmenü konfiguriert sein. Zu diesem Zweck kann die Bezugszeit im Voraus festgelegt werden und Informationen bezüglich einer Menge bzw. Dauer der verbleibenden Zeit zum Erreichen der Bezugszeit können dem Benutzer bereitgestellt werden.
  • Wie in 15 veranschaulicht, kann beispielsweise ein Bezugsbalken 213b, der ein Verhältnis einer Zeit, für die die Hand eines Benutzers das linke Ende der Bedienungseinheit 110 bedeckt, relativ zu der Bezugszeit angibt, auf dem Display 210 angezeigt werden. Eine Höhe des Bezugsbalkens 213b kann mit der Zeit differieren. Die Höhe kann von der Unterseite des Displays 210 am Anfang graduell zunehmen. Dann, wenn die Bezugszeit erreicht ist, kann die Höhe des Bezugsbalkens 213b die Oberseite des Displays 210 erreichen und die Hauptmenüliste 213a kann angezeigt werden, wie in 14 veranschaulicht. Der Benutzer kann eine Zeitdauer bestimmen, um ein Objekt oder eine Hand über der Bedienungseinheit zu halten, während derselbe den Bezugsbalken 213b betrachtet, der in 15 veranschaulicht ist. Wenn der Benutzer nicht auf das Hauptmenü zugreifen möchte, kann eine Operation zum Bedecken der Bedienungseinheit 110 beendet werden, bevor die Bezugszeit erreicht wird, und der Steuerbefehl zum Zugreifen auf das Hauptmenü aufgehoben werden.
  • Wenn der Benutzer direkt auf das Hauptmenü zugreifen möchte, ohne auf das Erreichen der Bezugszeit zu warten, kann zudem das Pad 111 direkt gedrückt werden, um sofort auf das Hauptmenü zuzugreifen, während die Hand das linke Ende der Bedienungseinheit 110 bedeckt. Insbesondere kann die Druckerfassungseinheit 113 zum Erfassen des an das Pad 111 angelegten Drucks konfiguriert sein. Wenn das Ausgangssignal der Druckerfassungseinheit 113 das Drücken des linken Endes der Bedienungseinheit 110 angibt, kann die Steuersignal-Erzeugungseinheit 122 zum Generieren eines Steuersignals zum direkten Zugreifen auf das Hauptmenü ohne Warten auf das Erreichen der Bezugszeit und zum Übertragen des Signals zu der AVN-Steuerung 230 konfiguriert sein. Wenn die Bedienungseinheit 110 keine Druckerfassungseinheit 113 enthält, wie oben beschrieben wurde, kann es zudem möglich sein, unter Verwendung des Ausgangssignals der Objekterfassungseinheit 112 zu bestimmen, ob die Bedienungseinheit 110 gedrückt wird.
  • 16 ist eine beispielhafte Darstellung, die eine andere Bedienung der Bedienungseinheit durch einen Benutzer veranschaulicht. 17 ist eine beispielhafte Darstellung, die ein beispielhaftes Benutzerbild veranschaulicht, das durch ein Ausgangssignal einer Objekterfassungseinheit gebildet wird, wenn der Benutzer die Bedienungseinheit wie in 16 veranschaulicht bedient. Wie in 16 veranschaulicht, kann der Steuerbefehl auch unter Verwendung eines Verfahrens, bei dem die Hand (H) eines Benutzers ein rechtes Ende der Bedienungseinheit 110 bedeckt, eingegeben werden. Wenn die Objekterfassungseinheit 112 den optischen Näherungssensor enthält, wie oben beschrieben wurde, kann jedes Ausgangssignal, das von der Vielzahl von Fototransistoren 112b der Objekterfassungseinheit 112 ausgegeben wird, ein Pixelwert sein, der zum Bilden eines Einzelbildes konfiguriert ist.
  • Wenn das Fototransistor-Array der Objekterfassungseinheit 112 die Schaltungsstruktur aufweist, wie in 16 veranschaulicht, kann eine Kollektorspannung des Fototransistors ausgegeben werden. Während eine Menge des LED-Reflexionslichtes, das auf den Fototransistor einfällt, zunimmt, nimmt daher der Ausgang des Fototransistor-Arrays ab, und während eine Menge des LED-Reflexionslichtes, das auf den Fototransistor einfällt, abnimmt, nimmt der Ausgang des Fototransistor-Arrays zu. Wenn ein Pixel festgelegt ist, um Weiß zum Ausdruck zu bringen, wenn der Ausgang des Fototransistors ein größter Ausgang ist, und ein Pixel festgelegt ist, um Schwarz zum Ausdruck zu bringen, wenn der Ausgang des Fototransistors ein geringster Ausgang ist, wenn der Benutzer die Bedienungseinheit 110 wie in 16 veranschaulicht bedient, kann das Benutzerbild (I), wie in 17 veranschaulicht, erhalten werden.
  • Die Steuersignal-Erzeugungseinheit 122 kann zum Bestimmen, ob das Objekt innerhalb einer vorbestimmten Nähe zu Obengenannten der Bedienungseinheit 110 die Hand ist, durch Anwenden eines Bilderkennungsalgorithmus auf das Benutzerbild (I) konfiguriert sein. Wenn das in dem Benutzerbild (I) gezeigte Objekt die Hand eines Benutzers ist und die Hand eines Benutzers das rechte Ende der Bedienungseinheit 110 bedeckt, kann ein dementsprechendes Steuersignals erzeugt werden. Zudem kann bei den Beispielen der 12 und 16 zum Unterscheiden der Bedienung für den Steuerbefehl von einer Bedienung zum Eingeben anderer Steuerbefehle oder der Operation durch einen Benutzer unabhängig von dem Steuerbefehl, wenn die Hand eines Benutzers einen Bezugsbereich des linken oder rechten Endes der Bedienungseinheit 110 bedeckt, ein dementsprechendes Steuersignal erzeugt werden. Der Bezugsbereich kann zuvor festgelegt werden, um einen vorbestimmten Bereich bzw. Umfang aufzuweisen.
  • Wenn das in dem Bild gezeigte Objekt die Hand ist, kann es zudem möglich sein, unter Verwendung einer Anordnungsfolge der Finger zu bestimmen, ob eine entsprechende Hand die Hand eines Fahrers oder die Hand eines Beifahrers ist, der auf dem Beifahrersitz 22 sitzt. Dieses Bestimmungsergebnis kann zum Durchführen einer Sperrfunktion an einer Bedienungsberechtigung der Fahrzeugsteuervorrichtung 100 verwendet werden. Wenn die Sperrfunktion, die die Bedienungsberechtigung der Fahrzeugsteuervorrichtung 100 dem Fahrer bereitstellt, festgelegt ist, kann die Steuersignal-Erzeugungseinheit 122 zum Erzeugen eines Steuersignals, wenn die in dem Benutzerbild (I) gezeigte Hand die Hand eines Fahrers ist, und Übertragen des Signals zu der AVN-Vorrichtung 200 konfiguriert sein.
  • 18 ist eine beispielhafte Darstellung, die einen anderen beispielhaften Bildschirm veranschaulicht, der auf dem Display der AVN-Vorrichtung gemäß der Bedienung durch einen Benutzer angezeigt wird. 19 ist eine beispielhafte Darstellung, die ein Verhältnis der Bedienungszeit eines Benutzers relativ zu einer Bezugszeit veranschaulicht. Beispielsweise kann das Bedienungsverfahren, das in 16 beschrieben ist, mit einer Hotkey-Funktion zum Blättern in einem Kontextmenü abgebildet werden, wie in 18 veranschaulicht. Punkte eines USB, Bluetooth und von Ähnlichem können in einer Kontextmenüliste 213c in dem Beispiel der 18 angezeigt werden, aber dieselben sind lediglich Beispiele. Verschiedene andere Punkte als die in 18 angezeigten Punkte können auch in der Kontextmenüliste 213c angezeigt werden.
  • Indessen kann in diesem Fall, um die Bedienung für den Steuerbefehl von anderen Operationen zu unterscheiden, wenn die Hand (H) eines Benutzers das rechte Ende der Bedienungseinheit 110 für die Bezugszeit oder länger bedeckt, die Steuersignal-Erzeugungseinheit 122 zum Generieren eines Steuersignals zum Zugreifen auf das Kontextmenü konfiguriert sein. Zu diesem Zweck kann die Bezugszeit im Voraus festgelegt werden und Informationen bezüglich dessen, wie viel Zeit verbleibt, um die Bezugszeit zu erreichen, können dem Benutzer bereitgestellt werden. Hier kann die Bezugszeit gleich der oder unterschiedlich zu der Bezugszeit festgelegt werden, die zum Zugreifen auf das Hauptmenü angewandt wird.
  • Wie in 19 veranschaulicht, kann beispielsweise ein Bezugsbalken 213d, der ein Verhältnis einer Zeit, für die die Hand eines Benutzers das rechte Ende der Bedienungseinheit 110 bedeckt, relativ zu der Bezugszeit angibt, auf dem Display 210 angezeigt werden. Eine Höhe des Bezugsbalkens 213d kann mit der Zeit differieren. Die Höhe kann von einer Unterseite des Displays 210 am Anfang graduell zunehmen. Wenn die Bezugshöhe erreicht wird, kann dann die Höhe des Bezugsbalkens 213d eine Oberseite des Displays 210 erreichen und die Kontextmenüliste 213c kann angezeigt werden, wie in 18 veranschaulicht. Der Benutzer kann eine Dauer der Zeit zum Halten einer Hand an der Stelle bestimmten, während derselbe den Bezugsbalken 213d betrachtet, der in 19 veranschaulicht ist. Wenn der Benutzer nicht auf das Kontextmenü zugreifen möchte, kann eine Betätigung zum Bedecken der Bedienungseinheit 110 beendet werden, bevor die Bezugszeit erreicht wird, und der Steuerbefehl zum Zugreifen auf das Kontextmenü aufgehoben werden.
  • Wenn der Benutzer direkt auf das Kontextmenü ohne Warten auf das Erreichen der Bezugszeit zugreifen möchte, kann zudem das Pad 111 direkt gedrückt werden, um sofort auf das Kontextmenü zuzugreifen, während die Hand das rechte Ende der Bedienungseinheit 110 bedeckt. Insbesondere kann die Druckerfassungseinheit 113 zum Erfassen des an das Pad 111 angelegten Drucks konfiguriert sein. Wenn das Ausgangssignal der Druckerfassungseinheit 113 das Drücken des rechten Endes der Bedienungseinheit 110 angibt, kann die Steuersignal-Erzeugungseinheit 122 zum Generieren eines Steuersignals zum direkten Zugreifen auf das Kontextmenü ohne Warten auf das Erreichen der Bezugszeit und zum Übertragen des Signals zu der AVN-Steuerung 230 konfiguriert sein. Wenn die Bedienungseinheit 110 keine Druckerfassungseinheit 113 enthält, wie oben beschrieben wurde, kann es ferner möglich sein, unter Verwendung des Ausgangssignals der Objekterfassungseinheit 112 zu bestimmen, ob die Bedienungseinheit 110 gedrückt wird.
  • 20 ist eine beispielhafte Darstellung, die noch eine andere Bedienung der Bedienungseinheit durch einen Benutzer veranschaulicht. 21 ist eine beispielhafte Darstellung, die ein Bild veranschaulicht, das durch ein Ausgangssignal einer Objekterfassungseinheit gebildet wird, wenn der Benutzer die Bedienungseinheit wie in 20 veranschaulicht bedient. Wie in 20 veranschaulicht, kann der Steuerbefehl auch unter Verwendung eines Verfahrens eingegeben werden, bei dem die Hand eines Benutzers einen mittleren Abschnitt der Bedienungseinheit 110 bedeckt. Wenn die Objekterfassungseinheit 112 den optischen Näherungssensor enthält, kann jedes Ausgangssignal, das von der Vielzahl von Fototransistoren 112b der Objekterfassungseinheit 112 ausgegeben wird, ein Pixelwert sein, der zum Bilden eines Einzelbildes konfiguriert ist, wie oben beschrieben wurde.
  • Wenn das Fototransistor-Array der Objekterfassungseinheit 112 die Schaltungsstruktur aufweist, wie in 5 veranschaulicht, kann eine Kollektorspannung des Fototransistors ausgegeben werden. Während eine Menge des LED-Reflexionslichtes zunimmt, das auf den Fototransistor einfällt, nimmt daher der Ausgang des Fototransistor-Arrays ab, und während eine Menge des LED-Reflexionslichtes abnimmt, das auf den Fototransistor einfällt, nimmt der Ausgang des Fototransistor-Arrays zu. Wenn ein Pixel festgelegt ist, um Weiß zum Ausdruck zu bringen, wenn der Ausgang des Fototransistors ein größter Ausgang ist, und ein Pixel festgelegt ist, um Schwarz zum Ausdruck zu bringen, wenn der Ausgang des Fototransistors ein geringster Ausgang ist, wenn der Benutzer die Bedienungseinheit 110 wie in 20 veranschaulicht bedient, kann das Benutzerbild (I), wie in 21 veranschaulicht, erhalten werden.
  • Die 22 und 23 sind beispielhafte Darstellungen, die einen Bildschirm veranschaulichen, der auf dem Display der AVN-Vorrichtung gemäß der Bedienung durch einen Benutzer angezeigt wird. Das in 20 beschriebene Bedienungsverfahren kann beispielsweise mit einer Hotkey-Funktion zum Ausschalten des Displays 210 abgebildet werden. Wenn die Hand eines Benutzers, die in dem Benutzerbild (I) gezeigt wird, den mittleren Abschnitt der Bedienungseinheit 110 bedeckt, kann die Steuersignal-Erzeugungseinheit 122 insbesondere zum Generieren eines Steuersignals zum Ausschalten des Displays 210 und Übertragen des Signals zu der AVN-Vorrichtung 200 konfiguriert sein.
  • Selbst wenn das Display 210 ausgeschaltet ist, kann indessen eine laufende Funktion kontinuierlich ausgeführt werden. Wenn die Audio-Funktion ausgeführt wird, kann beispielsweise durch den Lautsprecher 220 ausgegebene Musik selbst dann kontinuierlich ausgegeben werden, nachdem das Display 210 ausgeschaltet ist. Wenn die Navigationsfunktion ausgeführt wird, kann eine durch den Lautsprecher 220 ausgegebene Wegführungsstimme selbst dann kontinuierlich ausgegeben werden, nachdem das Display 210 ausgeschaltet ist. Um die Bedienung für den Steuerbefehl von einer Bedienung zum Eingeben anderer Steuerbefehle oder der Operation eines Benutzers unabhängig von dem Steuerbefehl zu unterscheiden, kann die Steuersignal-Erzeugungseinheit 122 zudem zum Ausschalten des Displays 210 konfiguriert sein, wenn die Hand eines Benutzers den im Wesentlichen mittleren Abschnitt der Bedienungseinheit 110 bedeckt, der größer als ein Bezugsbereich ist, und zudem zum Ausschalten des Displays 210 konfiguriert sein, wenn die Hand eines Benutzers den mittleren Abschnitt der Bedienungseinheit 110 für eine Bezugszeit oder länger bedeckt. Insbesondere kann die Bezugszeit ungefähr gleich der oder unterschiedlich zu der Bezugszeit, die zum Zugreifen auf das Hauptmenü angewandt wird, oder der Bezugszeit, die zum Zugreifen auf das Kontextmenü angewandt wird, festgelegt werden.
  • Selbst wenn die Bezugszeit nicht erreicht wird, kann das Display 210 alternativ direkt ausgeschaltet werden, wenn das Pad 111 direkt gedrückt wird, während die Hand (H) eines Benutzers den mittleren Abschnitt der Bedienungseinheit 110 bedeckt. Insbesondere kann die Druckerfassungseinheit 113 zum Erfassen des an das Pad 111 angelegten Drucks konfiguriert sein. Wenn das Ausgangssignal der Druckerfassungseinheit 113 den an den mittleren Abschnitt der Bedienungseinheit 110 angelegten Druck angibt, kann die Steuersignal-Erzeugungseinheit 122 zum Erzeugen eines Steuersignals zum direkten Ausschalten des Displays 210 ohne Warten auf das Erreichen der Bezugszeit und Übertragen des Signals zu der AVN-Steuerung 230 konfiguriert sein. Wenn die Bedienungseinheit 110 keine Druckerfassungseinheit 113 enthält, wie oben beschrieben wurde, kann es zudem möglich sein, unter Verwendung des Ausgangssignals der Objekterfassungseinheit 112 zu bestimmen, ob die Bedienungseinheit 110 gedrückt wird.
  • Alternativ kann das in 20 beschriebene Bedienungsverfahren auch mit einer Hotkey-Funktion zum Abschalten der Leistung der AVN-Vorrichtung 200 abgebildet werden. Wenn das Ausgangssignal der Objekterfassungseinheit 112, d. h., die Hand eines Benutzers, die in dem Benutzerbild (I) gezeigt wird, den mittleren Abschnitt der Bedienungseinheit 110 bedeckt, kann die Steuersignal-Erzeugungseinheit 122 insbesondere zum Erzeugen eines Steuersignals zum Abschalten der Leistung der AVN-Vorrichtung 200 und Übertragen des Signals zu der AVN-Vorrichtung 200 konfiguriert sein. Wenn die Leistung der AVN-Vorrichtung 200 abgeschaltet wird, können die ausgeführten Funktionen beendet werden. Wenn die Hand (H) eines Benutzers den mittleren Abschnitt der Bedienungseinheit 110 bedeckt, kann zudem das Display 210 ausgeschaltet werden, wie in 22 veranschaulicht, und wenn die Hand (H) eines Benutzers den mittleren Abschnitt der Bedienungseinheit 110 drückt, kann die Leistung bzw. der Strom der AVN-Vorrichtung 200 abgeschaltet werden, wie in 23 veranschaulicht.
  • Außerdem können beispielhafte Ausführungsformen der Fahrzeugsteuervorrichtung 100 und des Fahrzeugs 10 nicht auf die Beispiele beschränkt sein, die in Bezug auf die 11 bis 23 beschrieben wurden. Wenn der Benutzer die Bedienungseinheit 110 wie in 11 veranschaulicht bedient und das in 12 veranschaulichte Benutzerbild (1) erhalten werden kann, kann insbesondere nicht auf das Hauptmenü zugegriffen werden, aber andere Hotkey-Funktionen, wie beispielsweise das Zugreifen auf das Kontextmenü, das Ausschalten des Displays 210 und das Abschalten der Leistung, können ausgeführt werden. Wenn die Bedienungseinheit 110 wie in 16 veranschaulicht bedient wird und das Benutzerbild erhalten werden kann, wie in 17 veranschaulicht, kann ähnlich nicht auf das Kontextmenü zugegriffen werden, aber andere Hotkey-Funktionen, wie beispielsweise das Zugreifen auf das Hauptmenü, das Ausschalten des Displays 210 und das Abschalten der Leistung, können ausgeführt werden. Wenn die Bedienungseinheit 110 wie in 20 veranschaulicht bedient wird und das Benutzerbild (I) erhalten werden kann, wie in 21 veranschaulicht, können andere Hotkey-Funktionen ohne das Ausschalten des Displays 210 oder Abschalten der Leistung ausgeführt werden.
  • Des Weiteren ist ein Bedienungsverfahren zum Ausführen der Hotkey-Funktion nicht auf das Verfahren zum Bedecken des linken und rechten Endes oder des mittleren Abschnitts der Bedienungseinheit 110 mit der Hand beschränkt. Anstelle des linken Endes, des rechten Endes oder des mittleren Abschnitts, kann ein Verfahren zum Bedecken anderer Bereiche der Bedienungseinheit 110 als das Bedienungsverfahren zum Ausführen der Hotkey-Funktion festgelegt sein. Beispielsweise können Bereiche, die vier Ecken entsprechen, in denen das linke Ende und das rechte Ende der Bedienungseinheit 110 in einen oberen Bereich bzw. einen unteren Bereich getrennt sind, mit verschiedenen Hotkey-Funktionen abgebildet werden. Wenn eine der vier Ecken durch die Hand eines Benutzers bedeckt wird, kann die abgebildete Hotkey-Funktion ausgeführt werden.
  • Die Betätigung zum Bedecken eines vorbestimmten Bereiches der Bedienungseinheit 110 mit der Hand, wie oben beschrieben wurde, ist eine vereinfachte Betätigung, die mit reduzierten Belastungen durchgeführt werden kann, während das Fahrzeug gefahren wird. Wenn diese Betätigung als das Bedienungsverfahren zum Ausführen der Hotkey-Funktion festgelegt ist, kann der Fahrer daher einen erwünschten Steuerbefehl eingeben, während sich derselbe auf das Fahren konzentriert und eine Haltung beibehält. Der Steuerbefehl kann durch Bedienen der Bedienungseinheit 110 eingegeben werden und kann einen Befehl zum Ausführen der Hotkey-Funktion und einen Befehl zum Auswählen verschiedener Menüs enthalten, die auf dem Display 210 angezeigt werden. Nachstehend werden Details dessen beschrieben werden.
  • 24 ist eine beispielhafte Darstellung, die ein Display veranschaulicht, auf dem ein Zeigeobjekt angezeigt wird, das einer Fingerposition entspricht. Wie in 24 veranschaulicht, kann das Display 210 zum Anzeigen eines Zeigeobjektes 213e an einer Position, die einer Position eines Fingers (F) nahe der Bedienungseinheit 110 entspricht, konfiguriert sein. Zu diesem Zweck kann die Steuersignal-Erzeugungseinheit 122 zum Berechnen einer Position des Fingers (F) innerhalb einer vorbestimmten Nähe zu der Bedienungseinheit 110 konfiguriert sein.
  • Insbesondere kann die Position des Fingers (F) eine Position auf einer zweidimensionalen Ebene (2D-Ebene) der Bedienungseinheit 110 von einer Ansicht von oben aus gesehen sein.
  • Die Steuersignal-Erzeugungseinheit 122 kann zum Berechnen der Position des Fingers (F) basierend auf dem Ausgangssignal der Objekterfassungseinheit 112 konfiguriert sein. Es wurde zuvor erwähnt, dass das Benutzerbild (I) durch das Ausgangssignal der Objekterfassungseinheit 112 erhalten werden kann. Wenn das Bild aus einem n×m-Pixelarray gebildet wird, kann jeder Pixelwert P(i, j) (i ist eine ganze Zahl von 1 ≤ i ≤ n und j ist eine ganze Zahl von 1 ≤ j ≤ m) einen Wert aufweisen, der dem Ausgangssignal des Fototransistor-Arrays entspricht, wenn eine LED (i, j) der Objekterfassungseinheit 112 eingeschaltet ist. P(i, j) kann einen Höchstwert aufweisen, wenn kein Objekt vorhanden ist, das von der LED (i, j) ausgestrahltes Licht reflektiert, und einen Mindestwert aufweisen, wenn ein Objekt, das Licht reflektiert, der LED (i, j) am nächsten ist. Insbesondere kann das auf der Bedienungseinheit 110 positionierte und Licht reflektierende Objekt ein Finger des Benutzers sein.
  • Aufgrund einer Differenz der einzelnen Elemente der LED und des Fototransistors und einer Verteilungsdifferenz der LED und des Fototransistors in der Objekterfassungseinheit 112 kann P(i, j) nicht den gleichen Höchstwert und Mindestwert für alle (i, j) aufweisen. Daher kann ein Höchstwert PM(i, j) und ein Mindestwert Pm(i, j) von P(i, j) durch Versuche oder Statistiken bestimmt werden. Unter Verwendung dieser Werte kann ein Bild g(i, j), das gemäß der folgenden Gleichung 1 normalisiert wird, erhalten werden. Gleichung 1
    Figure DE102014225694A1_0002
  • Hier kann g(i, j) einen Wert zwischen ca. 0 und 1 aufweisen. Dann kann die Steuersignal-Erzeugungseinheit 122 zum Umwandeln jedes Pixelwertes des normalisierten Bildes in ein Niveau, das zur Bildverarbeitung notwendig ist, und Berechnen eines Massenmittelpunktes und einer Elliptizität der umgewandelten Werte konfiguriert sein. Koordinaten des Bildes können unter Verwendung des berechneten Massenmittelpunktes und der berechneten Elliptizität korrigiert (z. B. abgestimmt) werden, der korrigierte Koordinatenwert kann durch ein adaptives Tiefpassfilter (LPF; engl. low pass filter) gefiltert werden und eine Position auf der Ebene des Objektes kann berechnet werden.
  • Insbesondere kann ein normalisiertes Bild g(i, j) unter Verwendung einer Funktion h(g) auf dem Einheitsintervall umgewandelt werden. Die Funktion h(g) kann eine Form von h(g) = gγ(γ > 0) wie bei einer Gammakorrektur, die bei einer Bildverarbeitung verwendet wird, aufweisen, aber die Funktion ist nicht darauf beschränkt und kann verschiedene andere Formen aufweisen. Das Anwenden der Funktion h(g) auf das normalisierte Bild kann durchgeführt werden, um einen Wert, der einer Spitze des Fingers (F) entspricht, in dem Benutzerbild (I) zu betonen und zu ermöglichen, dass die Position des Fingers (F) somit erhalten wird, um nahe der Spitze des Fingers (F) zu sein.
  • Wenn ein Bild, das von dem normalisierten Bild g(i, j) durch Anwenden der Funktion h(g) umgewandelt wird, als h(i, j) festgelegt wird, kann eine obere linke Ecke bzw. ein oberer linker Eckpunkt (vertex) der Bedienungseinheit 110 als ein Ausgangspunkt festgelegt werden, eine Richtung nach rechts als eine x-Achse festgelegt werden und eine Richtung nach unten als eine y-Achse festgelegt werden und Koordinaten jedes Punktes auf der Bedienungseinheit 110 können als (x, y) repräsentiert werden. Zudem können Koordinaten eines Massenmittelpunktes (xc, yc) von h(i, j) durch die folgende Gleichung 2 und Gleichung 3 erhalten werden. Gleichung 2
    Figure DE102014225694A1_0003
    Gleichung 3
    Figure DE102014225694A1_0004
  • Wenn der Finger (F) des Benutzers, der die Bedienungseinheit 110 bedient, ein Daumen ist, kann der Finger aufgrund struktureller Merkmale des Fingers erscheinen, in einer Diagonalrichtung in dem Benutzerbild (I) länger zu werden. Wenn Koordinaten des Fingers (F) unter Verwendung des Massenmittelpunktes bestimmt werden, wie oben beschrieben wurde, können insbesondere somit erhaltene Koordinaten nicht einer Spitze des Daumens entsprechen, aber einen Wert aufweisen, der einer Position entspricht, die zu einer Handflächenseite erheblich verschoben ist. Daher kann es möglich sein, einen Fehler zu korrigieren, der durch die strukturellen Merkmale des Daumens verursacht wird.
  • Zunächst kann e, was einer von mehreren Werten sein kann, die zu einer Länge eines Daumens proportional sein können, durch die folgende Gleichung 4 definiert werden. Gleichung 4
    Figure DE102014225694A1_0005
  • Ein Wert von e, der durch die obige Gleichung 4 berechnet wird, kann 0 werden, wenn das in dem Bild gezeigte Objekt eine im Wesentlichen kreisförmige Form aufweist, eine positive Zahl werden, wenn das in dem Bild gezeigte Objekt in einer absteigenden Diagonalrichtung länger wird, und eine negative Zahl werden, wenn das in dem Bild gezeigte Objekt in einer aufsteigenden Diagonalrichtung länger wird. Wenn der Benutzer der Fahrer ist und die Bedienungseinheit 110 mit einem Daumen der rechten Hand bedient, kann das in dem Bild gezeigte Objekt erscheinen, in der absteigenden Diagonalrichtung länger zu werden, und e einen positiven Wert aufweisen.
  • Wenn der Benutzer ein auf dem Beifahrersitz 22 sitzender Beifahrer ist und die Bedienungseinheit 110 mit einem Daumen der linken Hand bedient, kann des Weiteren das in dem Bild gezeigte Objekt erscheinen, in der aufsteigenden Diagonalrichtung länger zu werden, und e einen negativen Wert aufweisen. Durch Reflektieren solch eines Rechenergebnisses können Koordinaten des Massenmittelpunktes durch die folgende Gleichung 5 und Gleichung 6 korrigiert (z. B. abgestimmt) werden.
  • Gleichung 5
    • x'c = xc – β√ |e|
  • Gleichung 6
    • y'c = yc – βsgn(e)√ |e|
  • Hier ist β eine positive reelle Zahl, die einen Korrekturgrad angibt und durch einen Versuch bestimmt werden kann. Wenn der Finger (F) des Benutzers, der die Bedienungseinheit 110 bedient, nicht der Daumen ist, können jedoch die Koordinaten des Massenmittelpunktes (xc, yc) nicht korrigiert werden. Zudem kann die Steuersignal-Erzeugungseinheit 122 zum Schätzen einer Höhe des Fingers (F) von der Ebene des Pads 111 oder der Objekterfassungseinheit 112 oder eines Abstands (z) zwischen der Ebene des Pads 111 oder der Objekterfassungseinheit 112 und dem Finger (F) unter Verwendung des Bildes g(i, j) konfiguriert sein, das durch die obige Gleichung 1 normalisiert wird. In diesem Fall kann die folgende Gleichung 7 verwendet werden.
  • Gleichung 7
    • z = 1 – maxg(i, j) (i, j)
  • Das zuvor definierte g(i, j) kann einen Wert zwischen 0 und 1 aufweisen und einen Höchstwert von ca. 1 aufweisen, wenn der Finger (F) das Pad 111 berührt und eine maximale Reflexion auf der LED (i, j) auftritt. Daher kann z einen Wert zwischen ca. 0 und 1 aufweisen. Mit anderen Worten kann z, wenn der Finger (F) das Pad 111 berührt, einen Wert aufweisen, der ca. 0 beträgt, und wenn der Finger (F) im Wesentlichen distant von dem Pad 111 wird (z. B. außerhalb eines vorbestimmten Abstands ist), kann z einen Wert von ca. 1 aufweisen. Daher kann ein Grad der Nähe (z. B. Nähegrad) zwischen dem Pad 111 und dem Finger (F) in etwa repräsentiert werden. Solch ein Wert kann jedoch keinen Wert angeben, der genau proportional zu einem physischen Abstand ist.
  • Ferner können Parameter des adaptiven LPF durch Messen einer Änderungsrate der Höhe (z) bestimmt werden. Mit anderen Worten können die Höhe (z) unter Verwendung des LPF gefiltert werden, die Änderungsrate durch Differenzieren des gefilterten Wertes gemessen werden und die Parameter des adaptiven LPF unter Verwendung des Ergebnisses bestimmt werden. Das Anwenden des adaptiven LPF kann durchgeführt werden, um einem Handzittern und Rauschen zu entsprechen. Wenn das Tiefpassfiltern durchgeführt wird, kann das Handzittern abgeschwächt werden, aber eine Zeitverzögerung kann gleichzeitig auftreten, was eine im Wesentlichen geringe Reaktivität verursachen kann. Folglich kann eine Intensität des LPF basierend auf einem Grad einer Bewegung des Fingers (F) adaptiv geändert werden. Wenn eine Änderung von (xc, yc) oder (x'c, y'c) im Wesentlichen groß ist (z. B. größer als eine vorbestimmte Änderung), da das Beibehalten der Reaktivität wichtiger werden kann als eine Abschwächung des Zitterns, kann insbesondere ein schwaches Tiefpassfiltern durchgeführt werden. Wenn eine Änderung von (xc, yc) oder (x'c, y'c) im Wesentlichen klein ist (z. B. geringer als eine vorbestimme Änderung), da eine Abschwächung des Zitterns wichtiger werden kann als eine Reaktivität, kann ein stärkeres Tiefpassfiltern durchgeführt werden.
  • Zudem kann das Zeigen stabilisiert werden, um einen geschätzten Wert (x, y) einer Position des Fingers (F) konstant zu halten, während das Pad 111 durch den Finger (F) berührt wird. Zu diesem Zweck kann eine Änderungsrate von z gemessen werden und die Änderung von (x, y) festgelegt werden, geringer zu sein, indem die Intensität des Tiefpassfilterns erhöht wird, wenn z erheblich abnimmt. Zusammenfassend kann eine Varianz von (xc, yc) oder (x'c, y'c) gemessen werden und die Änderungsrate von z gemessen werden, um die Parameter des LPF zu bestimmen. Zunächst kann z unter Verwendung des LPF gemäß der folgenden Gleichung 8 gefiltert werden.
  • Gleichung 8
    • z = az z + (1 – az)z
  • Hier ist z ein Wert von z, der durch das LPF gefiltert ist, und az gibt eine Position eines Pols eines einpoligen Filters an. Vz, das eine Änderungsrate von z ist, kann unter Verwendung einer Differenz zwischen zwei sukzessiven z -Werten berechnet werden. Zudem können σx, das eine Standardabweichung von xc oder x'c während jüngsten w-Abtastwerten ist, und σy, das eine Standardabweichung von yc oder y'c während jüngsten w-Abtastwerten ist, berechnet werden. Schließlich kann (xc, yc) oder (x'c, y'c) gefiltert werden, um ( x , y ) unter Verwendung des LPF gemäß der folgenden Gleichung 9 und Gleichung 10 zu erhalten.
  • Gleichung 9
    • x = ax x + (1 – ax)x
  • Gleichung 10
    • y = ay y + (1 – ay)y
  • Hier können ax und ay durch die folgende Gleichung 11 und Gleichung 12 bestimmt werden.
  • Gleichung 11
    • ax = min(1, max(0, a0 – κσx – ρVz))
  • Gleichung 12
    • ay = min(1, max(0, a0 – κσy – ρVz))
  • Hier ist a0 ein Wert zwischen 0 und 1, der eine Gesamtintensität des LPF bestimmt, κ ein positiver Parameter, der ein Reflexionsgrad der Änderungsrate von (xc, yc) oder (x'c, y'c) angibt, und ρ ein positiver Parameter, der ein Reflexionsgrad der Änderungsrate von z angibt.
  • Wenn die Steuersignal-Erzeugungseinheit 122 die Position des Fingers (F), (xc, yc), (x'c, y'c) oder ( x , y ) und die Höhe z oder z berechnet, die ein Grad der Nähe zwischen dem Finger (F) und dem Pad 111 angibt, wie oben beschrieben wurde, kann das Display 210 ausgeführt werden, um das Zeigeobjekt 213e an einer Position anzuzeigen, die der Position des Fingers (F) auf der Bedienungseinheit 110 entspricht. Das obige Verfahren ist jedoch lediglich ein beispielhaftes Verfahren zum Berechnen der Position oder der Höhe des Fingers (F) und die beispielhafte Ausführungsform der vorliegenden Erfindung ist nicht auf das obige Beispiel beschränkt.
  • Zu diesem Zweck kann die Steuersignal-Erzeugungseinheit 122 oder die AVN-Steuerung 230 zum Berechnen einer Position auf dem Display 210, die der Position des Fingers (F) auf der Bedienungseinheit 110 entspricht, gemäß der folgenden Gleichung 13 konfiguriert sein. Gemäß einem Koordinatensystem, in dem ein oberer linker Eckpunkt des Displays 210 als ein Ausgangspunkt festgelegt ist, eine Richtung nach rechts als eine X-Achse festgelegt sein kann und eine Richtung nach unten als eine Y-Achse festgelegt sein kann, können Koordinaten jedes Punktes auf dem Display 210 (X, Y) genannt werden. Gleichung 13
    Figure DE102014225694A1_0006
  • Hier bezeichnet (xM, yM) Koordinaten eines unteren rechten Eckpunktes der Bedienungseinheit 110 und (XM, YM) Koordinaten eines unteren rechten Eckpunktes des Displays 210. Mit anderen Worten können vier Eckpunkte der rechteckigen Bedienungseinheit 110 jeweils vier Eckpunkten des Displays 210 entsprechen und interne Punkte der Bedienungseinheit 110 jeweils internen Punkten des Displays 210 linear proportional entsprechen. Die Bedienungseinheit 110 kann ungefähr das gleiche Aspektverhältnis wie das des Displays 210 aufweisen.
  • Wieder in Bezug auf 24 kann das Zeigeobjekt 213e an einer Position auf dem Display 210 angezeigt werden, die der Position auf der Bedienungseinheit 110 entspricht, an der der Finger (F) positioniert ist. Der Benutzer kann das auf dem Display 210 angezeigte Zeigeobjekt 213e betrachten und bestimmen, den Finger (F) zu einer bestimmen Position zu bewegen, um eine erwünschte Steuerung durchzuführen. Mit anderen Worten kann der Benutzer eine Rückmeldung bezüglich der durchgeführten Operation (z. B. die Bedienung durch einen Benutzer) empfangen. Eine Form des Zeigeobjektes 213e kann ein Kreis sein, wie in 24 veranschaulicht, aber beispielhafte Ausführungsformen der Fahrzeugsteuervorrichtung 100 und des Fahrzeugs 10 sind nicht darauf beschränkt. Anstelle des Kreises, können Polygone, wie beispielsweise ein Rechteck und ein Dreieck, oder jegliche Formen verwendet werden, solange die Position des Fingers (F) distinguiert von Informationen, die auf dem Display 210 angezeigt werden, angezeigt werden kann.
  • Indessen kann das Zeigeobjekt 213e auf dem Display 210 angezeigt werden, wenn der Finger (F) das Pad 111 berührt, wenn der Finger (F) das Pad 111 nicht berührt, aber innerhalb einer vorbestimmten Nähe zu dem Pad 111 ist, und wenn das Pad 111 gedrückt wird. Das Zeigeobjekt 213e kann jedoch für jeden Zustand unterschiedlich angezeigt werden. Beispielsweise können visuelle Eigenschaften, wie beispielsweise Farben oder Formen des Zeigeobjektes 213e, unterschiedlich angezeigt werden. Zu diesem Zweck können diese drei Zustände distinguiert werden. Die Steuersignal-Erzeugungseinheit 122 kann zum Distinguieren der drei Zustände unter Verwendung des Ausgangssignals der Objekterfassungseinheit 112 und Distinguieren der drei Zustände unter Verwendung der Ausgangssignale der Objekterfassungseinheit 112 und der Druckerfassungseinheit 113 konfiguriert sein.
  • Es wurde zuvor erwähnt, dass der Nähegrad zwischen der Bedienungseinheit 110 und dem Finger (F) als die Höhe z repräsentiert werden kann. Wenn eine Stärke des Pads 111 zusätzlich zu der Höhe z berücksichtigt wird, kann es möglich sein, zu bestimmen, ob der Finger (F) das Pad 111 gegenwärtig berührt oder nicht berührt, aber sich innerhalb der vorbestimmten Nähe zu dem Pad 111 befindet. Basierend auf dem Bestimmungsergebnis kann es möglich sein, wenn der Zustand, in dem sich der Finger (F) innerhalb der vorbestimmten Nähe zu dem Pad 111 befindet, in den Berührungszustand übergeht bzw. gewechselt wird, visuelle Eigenschaften des Zeigeobjektes 213e zu ändern. Als Beispiel des Änderns von Farbeigenschaften, wenn der Finger (F) das Pad 111 berührt, kann die Farbe dunkler als vor dem Berühren werden. Mit anderen Worten kann eine Transparenz verringert werden.
  • Der Zustand, in dem der Finger (F) das Pad 111 drückt, kann unter Verwendung des Ausgangssignals der Druckerfassungseinheit 113 bestimmt werden, aber kann auch unter Verwendung des Ausgangssignals der Objekterfassungseinheit 112 bestimmt werden. Da das Pad 111 aus einem gelartigen Material mit Elastizität bestehen kann, kann, wenn der Finger (F) das Pad 111 drückt (z. B. wenn Druck an das Pad 111 angelegt wird), ein gedrückter Teil des Pads 111 heruntergedrückt werden und ein Abstand zwischen dem Finger (F) und der Objekterfassungseinheit 112 abnehmen. Daher kann die Steuersignal-Erzeugungseinheit 122 zum Bestimmen, ob der Finger (F) das Pad 111 drückt, unter Verwendung des z-Wertes konfiguriert sein, der den Abstand zwischen dem Finger (F) und der Objekterfassungseinheit 112 angibt.
  • Alternativ kann es möglich sein, unter Verwendung des Musters des z-Wertes zu bestimmen, ob der Finger (F) das Pad 111 drückt. Wenn der Finger (F) das Pad 111 drückt, anstatt das Pad 111 zu kontaktieren oder zu berühren, kann eine erhebliche Änderung von z erwartet werden. Wenn der z-Wert erheblich geändert wird, kann daher bestimmt werden, dass der Finger (F) das Pad 111 drückt. Basierend auf einem Bestimmungsergebnis kann es möglich sein, wenn der Zustand des Fingers (F) von dem Berührungszustand in den Druckzustand übergeht, visuelle Eigenschaften des Zeigeobjektes 213e zu ändern. Als Beispiel des Änderns von Farbeigenschaften, kann die Farbe des Zeigeobjektes 213e dunkler werden, wenn der Finger (F) das Pad 111 drückt, als wenn der Finger (F) das Pad 111 berührt.
  • Als Beispiel des Änderns von Formeigenschaften, kann zudem eine Größe des Zeigeobjektes 213e zunehmen oder abnehmen, wenn der Finger (F) das Pad 111 berührt oder das Pad 111 drückt. Wenn der Finger (F) die Bedienungseinheit 110 nicht berührt, können visuelle Eigenschaften des Zeigeobjektes 213e gemäß dem Nähegrad zwischen dem Finger (F) und der Bedienungseinheit 110 unterschiedlich angezeigt werden. Während der Finger (F) der Bedienungseinheit 110 näher kommt (z. B. sich nähert), kann die Farbe des Zeigeobjektes 213e dunkler werden. Mit anderen Worten können, während der Abstand zwischen dem Finger (F) und der Bedienungseinheit 110 zunimmt, die Transparenz des Zeigeobjektes 213e zunehmen und das Zeigeobjekt 213e nicht mit einem vorbestimmten Limit bzw. einer vorbestimmten Begrenzung oder größer angezeigt werden.
  • Zwar kann ein halbtransparenter Schatten des Zeigeobjektes 213e unter dem Zeigeobjekt 213e angezeigt werden, aber ein Abstand zwischen dem Zeigeobjekt 213e und dem Schatten kann zudem in einem Verhältnis zu dem Abstand zwischen dem Finger (F) und der Bedienungseinheit 110 angezeigt werden. Der Benutzer kann den Finger (F) auf der Bedienungseinheit 110 bewegen bis das Zeigeobjekt 213e auf einem Menübutton positioniert ist, der durch den Benutzer auszuwählen ist. Wenn das Zeigeobjekt 213e auf dem durch den Benutzer auszuwählenden Menübutton positioniert ist, kann es möglich sein, das Pad 111 zu drücken. Wenn das Pad 111 gedrückt wird, kann der Menübutton, der an der Position des Zeigeobjektes 213e auf dem Display 210 angezeigt wird, ausgewählt werden. Bevor der Benutzer das Pad 111 drückt, kann kein Menübutton ausgewählt werden. Selbst wenn der Benutzer keine Steuerung durch die Bedienungseinheit 110 durchführt, kann der Benutzer daher die Hand lediglich auf dem Pad 111 aufliegen lassen und in einer stabilen Haltung weiter fahren.
  • 25 ist eine beispielhafte Darstellung, die ein Display veranschaulicht, auf dem eine Menüliste angezeigt wird, die eine Vielzahl von Menübuttons nacheinander auflistet. 26 ist eine beispielhafte Darstellung, die eine Drag-Betätigung zum Bewegen einer Menüliste veranschaulicht. Wie in 25 veranschaulicht, kann das Display 210 zum Anzeigen einer Menüliste 215 konfiguriert sein, in der auswählbare Menübuttons nacheinander aufgelistet werden. Bei dem Beispiel der 25 kann eine Vielzahl von Menübuttons (215a bis 215e) zum Auswählen von Musik aufgelistet werden. Der Benutzer kann den Finger (F) auf der Bedienungseinheit 110 derart bewegen, dass das Zeigeobjekt 213e auf einem erwünschten Menübutton positioniert wird, und Druck an das Pad 111 mit dem Finger (F) anlegen. Daher kann ein erwünschter Menübutton ausgewählt werden. Die in der Menüliste 215 enthaltenen Menübuttons können jedoch nicht in einem einzigen Bildschirm angezeigt werden. Insbesondere kann der Benutzer die Menüliste 215 durch ein Verfahren bewegen, in dem der Finger (F) das Pad 111 wie in 26 veranschaulicht zieht.
  • Um eine Drag-Bewegung durchzuführen, kann der Finger (F) erst das Pad 111 an einer Position drücken, die einem Drag-Ausgangspunkt entspricht. Während das Pad 111 gedrückt wird oder der Finger (F) das Pad 111 berührt, kann sich der Finger (F) in eine erwünschte Richtung bewegen. Wie in 25 veranschaulicht, kann sich der Finger (F), wenn die Menübuttons 215a bis 215e vertikal aufgelistet sind, nach oben oder unten bewegen, so dass Menübuttons erscheinen, die nicht in dem Bildschirm gezeigt wurden. Wenn sich der Finger (F), wie in 26 veranschaulicht, in eine Richtung nach unten bewegt, erscheinen Menübuttons, die nicht in einem oberen Teil gezeigt wurden. Zudem erscheinen Menübuttons, die nicht in einem unteren Teil gezeigt wurden, wenn sich der Finger (F) in eine Richtung nach oben bewegt. Ein Grad zum Bewegen der Menüliste kann zu einem Bewegungsgrad des Fingers (F) oder auch zu einer Bewegungsgeschwindigkeit des Fingers (F) proportional sein. Wenn der erwünschte Menübutton auf dem Display 210 angezeigt wird, kann der Benutzer das Zeigeobjekt 213e auf dem erwünschten Menübutton positionierten und drückt das Pad 111, um den Menübutton auszuwählen.
  • Die Navigationsfunktion kann eine Funktion von Funktionen sein, die durch die AVN-Vorrichtung 200 durchgeführt werden können. Nachstehend wird eine beispielhafte Ausführungsform, bei der der Benutzer die Navigationsfunktion durch Bedienen der Bedienungseinheit 110 steuert, detailliert beschrieben werden. 27 ist eine beispielhafte Darstellung, die eine Konfiguration der AVN-Vorrichtung veranschaulicht, die eine Navigationsfunktion durchführt. Die 28 und 29 sind beispielhafte Darstellungen, die einen beispielhaften Kartenbildschirm veranschaulichen, der auf dem Display angezeigt wird, wenn die Navigationsfunktion durchgeführt wird. Wie in 27 veranschaulicht, kann die AVN-Vorrichtung 200, die die Navigationsfunktion durchführt, eine Empfangseinheit 241 eines globalen Positionsbestimmungssystems (GPS), die zum Empfangen von Positionsinformationen des Fahrzeugs 10 von Satelliten eines globalen Positionsbestimmungssystems (GPS) konfiguriert ist, und eine Speichereinheit 242 enthalten, die zum Speichern von Kartendaten konfiguriert ist.
  • Die AVN-Steuerung 230 kann zum Erzeugen eines Fahrweges von einer Abfahrtposition zu einem Zielort unter Verwendung der Kartendaten, die in der Speichereinheit 242 gespeichert sind, und Speichern des generierten Fahrweges in der Speichereinheit 242 konfiguriert sein. Die Abfahrtposition kann eine aktuelle bzw. gegenwärtige Position des Fahrzeugs 10, die von der GPS-Empfangseinheit 241 empfangen wird, oder eine Position sein, die durch den Benutzer separat festgelegt wird. Wenn das Fahrzeug gefahren wird, kann das Display 210 dann zum Anzeigen eines Fahrweges konfiguriert sein, der der gegenwärtigen Position des Fahrzeugs 10 entspricht, und auch zum Anzeigen der gegenwärtigen Position des Fahrzeugs 10 auf dem angezeigten Fahrweg konfiguriert sein.
  • Indessen können die in der Speichereinheit 242 gespeicherten Kartendaten Kartendaten sein, die dreidimensionale Informationen (3D-Informationen) enthalten. Die AVN-Steuerung 230 kann zum Betätigen des Displays 210 konfiguriert sein, um die Kartendaten gemäß verschiedenen Ansichtswinkeln anzuzeigen. Das Display 210 kann zum Anzeigen der Kartendaten gemäß einer vertikalen Ansicht von der Luft aus vertikal gesehen, wie in 28 gezeigt, oder zum Anzeigen der Kartendaten gemäß einer Vogelperspektive von einer Ansicht eines konstanten Winkels aus gesehen, wie in 29 veranschaulicht, neben der vertikalen Ansicht konfiguriert sein. Wenn die Kartendaten gemäß der vertikalen Ansicht angezeigt werden, können im Wesentlichen 2D-Informationen des Fahrweges bereitgestellt werden. Wenn die Kartendaten gemäß der Vogelperspektive angezeigt werden, können 3D-Informationen über den Fahrweg bereitgestellt werden.
  • Abhängig von den Gegebenheiten können Informationen, die in der vertikalen Ansicht bereitgestellt werden, nützlich sein oder Informationen, die in der Vogelperspektive bereitgestellt werden, nützlich sein. In der verwandten Technik wird erfordert, dass der Benutzer Betätigungen durchführt, wie beispielsweise das Eingeben eines Einstellungs-Menüs einer Navigation und das Einstellen eines Ansichtswinkels. Bei den beispielhaften Ausführungsformen der Fahrzeugsteuervorrichtung 100 und des Fahrzeugs 10 kann der Benutzer jedoch die Bedienungseinheit 110 bedienen, um den Ansichtswinkel einzustellen, während das Display 210 den Fahrweg anzeigt.
  • Die 30 und 31 sind beispielhafte Darstellungen, die eine beispielhafte Bedienung zum Anzeigen einer vertikalen Ansicht veranschaulichen. 32 ist eine beispielhafte Darstellung, die eine beispielhafte Bedienung zum Anzeigen einer Vogelperspektive veranschaulicht. 30 ist eine beispielhafte Darstellung, in der die Hand (H), die die Bedienungseinheit 110 bedient, von oben aus gesehen wird. 31 ist eine beispielhafte Darstellung, in der die Hand (H), die die Bedienungseinheit 110 bedient, von einer Seite aus gesehen wird. Wie in den 30 und 31 veranschaulicht, können die Kartendaten, während zwei oder mehr Finger (F) die Bedienungseinheit 110 berühren oder drücken, wenn der Finger (F) um ca. 90 Grad abgewinkelt ist, basierend auf der vertikalen Ansicht angezeigt werden, wie in 28 veranschaulicht. Insbesondere bezieht sich das Abwinkeln des Fingers (F) um ca. 90 Grad auf das Aufrichten eines Teils von einer Spitze des Fingers (F) zu einem ersten oder zweiten Gelenk (J) um ca. 90 Grad in Bezug auf einer Oberfläche des Pads 111.
  • Wenn die Kartendaten gemäß der vertikalen Ansicht angezeigt werden, kann der Benutzer Stellen einer Linkswendung, Rechtswendung oder Kehrtwendung akkurater erkennen und eine Kreuzung oder eine Strecke akkurater überprüfen. Wenn der Fahrer Bedingungen des folgenden Fahrweges überprüfen möchte und überprüfen möchte, welche Straßen oder Gebäude sich vor ihm befinden, kann indessen das Anzeigen der Kartendaten gemäß der Vogelperspektive effektiver sein. Insbesondere kann der Benutzer den Finger (F) auf dem Pad 111 in einem Winkel, der kleiner als ca. 90 Grad ist, abflachen bzw. anordnen oder ausstrecken, wie in 32 veranschaulicht, und das Display 210 kann zum Anzeigen der Kartendaten gemäß der Vogelperspektive konfiguriert sein, die dem Winkel des Fingers (F) entspricht, wie in 29 veranschaulicht.
  • Zusammenfassend kann der Ansichtswinkel, wenn das Display 210 die Kartendaten gemäß der vertikalen Ansicht anzeigt, wie in 28 veranschaulicht, wenn der Benutzer den Finger (F) auf dem Pad 111 in einem Winkel, der kleiner als ca. 90 Grad ist, hinlegt, d. h. den Finger streckt, wie in 32 veranschaulicht, in einen Winkel geändert werden, der dem Winkel des Fingers (F) entspricht, und die Kartendaten können gemäß der Vogelperspektive angezeigt werden. Wenn das Display 210 die Kartendaten gemäß der Vogelperspektive anzeigt, wie in 29 veranschaulicht, wenn der Benutzer den Finger (F) auf dem Pad 111 um ca. 90 Grad abwinkelt, wie in den 30 und 31 veranschaulicht, können die Kartendaten zudem gemäß der vertikalen Ansicht angezeigt werden.
  • Wenn der Benutzer die Kartendaten gemäß der vertikalen Ansicht sehen möchte, kann es jedoch schwierig sein, den Finger (F) um ca. 90 Grad akkurat abzuwinkeln. Daher kann ein Bezugswinkel, der der vertikalen Ansicht entspricht, im Voraus festgelegt werden. Wenn der Finger (F) des Benutzers in dem Bezugswinkel oder größer abgewinkelt wird, können die Kartendaten gemäß der vertikalen Ansicht angezeigt werden. Wenn der Bezugswinkel auf ca. 70 Grad festgelegt wird, können die Kartendaten, wenn der Winkel des Fingers (F) des Benutzers größer als ca. 70 Grad ist, beispielsweise gemäß der vertikalen Ansicht angezeigt werden, und wenn der Winkel des Fingers (F) des Benutzers ca. 70 Grad oder weniger beträgt, die Kartendaten gemäß der Vogelperspektive angezeigt werden, die dem Winkel entspricht.
  • Wie oben beschrieben wurde, ist, wenn der Ansichtswinkel der Kartendaten, die auf dem Display 210 angezeigt werden, gemäß dem Winkel des Fingers (F) auf der Bedienungseinheit 110 zu ändern ist, ein Prozess zum Berechnen des Winkels des Fingers (F) erforderlich. Nachstehend werden Details desselben in Bezug auf die 33 und 34 beschrieben werden.
  • 33 ist eine beispielhafte Darstellung, die ein beispielhaftes Benutzerbild veranschaulicht, das erhalten wird, wenn die Bedienung zum Anzeigen der vertikalen Ansicht durchgeführt wird. 34 ist eine beispielhafte Darstellung, die ein beispielhaftes Benutzerbild veranschaulicht, wenn die Bedienung zum Anzeigen der Vogelperspektive durchgeführt wird.
  • Zuvor wurde erwähnt, dass das Benutzerbild (I) anhand des Ausgangssignals der Objekterfassungseinheit 112 erhalten werden kann. Wenn der Benutzer die Bedienung wie in den 30 und 31 durchführt, um die vertikale Ansicht anzuzeigen, kann das Benutzerbild (I) erhalten werden, das in 33 veranschaulicht ist. Wenn der Benutzer die Bedienung wie in 32 durchführt, um die Vogelperspektive anzuzeigen, kann das Benutzerbild (I) erhalten werden, das in 34 veranschaulicht ist. Die Steuersignal-Erzeugungseinheit 122 kann zum Berechnen eines Abstands zwischen einem Fingergelenk (J) und einer Spitze des Fingers (F), die das Pad 111 berührt, anhand des Benutzerbildes (I) konfiguriert sein. Der Abstand zwischen der Spitze des Fingers (F) und dem Fingergelenk (J), der in dem Benutzerbild (I) gezeigt ist, kann gemäß einem Abwinklungsgrad des Fingers (F) differieren. Während der Abwinklungsgrad des Fingers zunimmt, kann der Abstand desselben abnehmen.
  • Zudem kann die Steuersignal-Erzeugungseinheit 122 zum Berechnen eines Abstands zwischen dem Fingergelenk (J) und der Bedienungseinheit 110 anhand des Benutzerbildes (I) konfiguriert sein. Die Helligkeit des Benutzerbildes (I) kann auch gemäß dem Abstand zwischen der Bedienungseinheit 110 und dem Objekt differieren. Die Beispiele in den 33 und 34 veranschaulichen einen Fall, in dem das Benutzerbild (I) dunkler wird, während der Abstand zwischen der Bedienungseinheit 110 und dem Objekt abnimmt. Wenn der Benutzer den Finger (F) vertikal abwinkelt, wie in den 30 und 31 veranschaulicht, erscheint daher die Spitze des Fingers (F), der das Pad 111 berührt, dunkel (z. B. mit einer Helligkeit eines vorbestimmten Niveaus) und die Helligkeit des Fingers (F) kann in Richtung einer Handfläche zunehmen, wie in 33 veranschaulicht.
  • Wenn der Benutzer den Finger (F) ausstreckt, wie in 32 veranschaulicht, kann die Helligkeit von der Spitze des Fingers (F), der das Pad 111 berührt, zu einer Handfläche im Wesentlichen gleichmäßig werden oder etwas heller (z. B. um ein vorbestimmtes Helligkeitsniveau zunehmen), wie in 34 veranschaulicht. Daher kann die Steuersignal-Erzeugungseinheit 122 zum Berechnen des Abstands zwischen dem Finger (F) und der Bedienungseinheit 110 anhand eines Helligkeitsmusters des Fingers (F) konfiguriert sein, das in dem Benutzerbild (I) gezeigt ist. Basierend auf dem Abstand zwischen der Spitze des Fingers (F) und dem Fingergelenk (J) und dem Abstand zwischen dem Fingergelenk (J) und der Bedienungseinheit 110 kann der Winkel des Fingers (F) berechnet werden.
  • Zwar bedient der Benutzer in den Beispielen der 30 bis 32 die Bedienungseinheit 110 mit vier Fingern (F), aber es besteht keine Notwendigkeit die vier Finger (F) positiv bzw. tatsächlich zu verwenden. Wenn zwei oder mehr Finger (F) verwendet werden, kann es möglich sein, den Steuerbefehl in Bezug auf den Ansichtswinkel durch die Bedienungseinheit 110 einzugeben. Um eine Verwechslung der Bedienung zum Einstellen des Ansichtswinkels mit anderen Operationen, wie beispielsweise eine Zoom-Betätigung, zu verhindern, können zwei oder mehr Finger (F) erst das Pad 111 drücken. Jedoch kann, wenn das Pad 111 nicht gedrückt, sondern nur berührt wird, wenn eine Betätigung zum Abwinkeln des Fingers (F) nach der Berührung anschließend durchgeführt wird, dieselbe als Bedienung zum Einstellen des Ansichtswinkels bestimmt werden.
  • Wenn der Winkel des Fingers (F) berechnet wird, kann die Steuersignal-Erzeugungseinheit 122 zum Generieren eines Steuersignals zum Einstellen des Ansichtswinkels gemäß dem berechneten Winkel des Fingers (F) und zum Übertragen des Signals zu der AVN-Vorrichtung 200 konfiguriert sein. Die AVN-Steuerung 230 kann zum Betätigen des Displays 210 gemäß dem übertragenen Steuersignal konfiguriert sein. Die Fahrzeugsteuervorrichtung 100 kann zum Betätigen verschiedener Vorrichtungen zum Komfort, die innerhalb des Fahrzeugs 10 angeordnet sind, zusätzlich zu der AVN-Vorrichtung 200 konfiguriert sein. Als weiteres Beispiel kann die Fahrzeugsteuervorrichtung 100 zum Betätigen einer Klimatisierungsvorrichtung 300 konfiguriert sein. Nachstehend werden Details dessen beschrieben werden.
  • 35 ist eine beispielhafte Darstellung eines Fahrzeugs, das eine Fahrzeugsteuervorrichtung zum Steuern einer Klimatisierungsvorrichtung enthält. Wie in 35 veranschaulicht, kann das Fahrzeug 10 die Fahrzeugsteuervorrichtung 100 und die Klimatisierungsvorrichtung 300 enthalten. Die Fahrzeugsteuervorrichtung 100 kann zum Betätigen der Klimatisierungsvorrichtung 300 konfiguriert sein. Die Klimatisierungsvorrichtung 300 kann zum Heizen oder Kühlen eines Fahrgastraums des Fahrzeugs 10 (z. B. Erhöhen oder Verringern einer Fahrgastraumtemperatur des Fahrzeugs) konfiguriert sein. Insbesondere kann die Klimatisierungsvorrichtung 300 einen Kondensator, der zum Kondensieren und Verflüssigen eines Kühlmittels konfiguriert ist, einen Verdampfer, der zum Verdampfen des verflüssigten Kühlmittels konfiguriert ist, einen Kompressor, der zum Verdichten des Kühlmittels konfiguriert ist, eine Innenraumluft- und Außenluftklappe, die zum selektiven Ablassen oder Zuführen von Innenraumluft oder Außenluft des Fahrzeugs 10 konfiguriert ist, ein Gebläse, das zum Leiten der durch die Innenraum- und Außenluftklappe zugeführten Luft zu dem Verdampfer konfiguriert ist, einen Heizkern, der zum Regulieren einer Temperatur der in das Fahrzeug 10 zugeführten Luft konfiguriert ist, eine Kühlwasserleitung, die zum Kühlen des Heizkerns konfiguriert ist, eine temperaturregulierende Klappe, die zwischen dem Verdampfer und dem Heizkern angeordnet und zum Einstellen einer Strömung der Luft konfiguriert ist, die durch den Verdampfer zu dem Heizkern strömt, eine Lüftungsöffnung, die zum Zuführen der durch den Verdampfer oder den Heizkern strömenden Luft in das Fahrzeug 10 konfiguriert ist, und Ähnliches enthalten.
  • Da die Klimatisierungsvorrichtung, die innerhalb des Fahrzeugs 10 angeordnet ist, eine allgemein bekannte Technologie ist, wird eine detaillierte Beschreibung derselben ausgelassen werden. Im Allgemeinen kann der Hardkey, der auf dem mittigen Armaturenbrett 33 des Armaturenbretts 32 angeordnet ist, bedient werden, um einen Steuerbefehl für die Klimatisierungsvorrichtung 300 einzugeben. Jedoch kann das Fahrzeug 10 nach der beispielhaften Ausführungsform den Steuerbefehl für die Klimatisierungsvorrichtung 300 unter Verwendung der Fahrzeugsteuervorrichtung 100 empfangen. Beispielsweise kann ein Menübildschirm in Bezug auf die Betätigung der Klimatisierungsvorrichtung 300 auf dem Display 210 angezeigt werden. Wie oben beschrieben wurde, kann der Benutzer die Bedienungseinheit 110 mit dem Finger (F) bedienen, um den Steuerbefehl einzugeben.
  • Selbst wenn der Menübildschirm in Bezug auf die Betätigung der Klimatisierungsvorrichtung 300 nicht auf dem Display 210 angezeigt wird, kann der Benutzer jedoch die Bedienungseinheit 110 bedienen, um den Steuerbefehl einzugeben. Wenn ein Teil der Bedienungseinheit 110 mit der Betätigung der Klimatisierungsvorrichtung 300 abgebildet wird und die Hand den abgebildeten Teil bedeckt, kann sich die Fahrzeugsteuervorrichtung 100 insbesondere in einem Zustand befinden, in dem der Steuerbefehl für die Klimatisierungsvorrichtung 300 empfangen werden kann. Wenn sich die Fahrzeugsteuervorrichtung 100 in dem Zustand befindet, in dem der Steuerbefehl für die Klimatisierungsvorrichtung 300 empfangen werden kann, kann der Benutzer die Bedienungseinheit 110 bedienen, um die Klimatisierungsvorrichtung 300 zu betätigen. Beispielsweise kann sich der Finger (F), wie in 26 veranschaulicht, wenn der Finger (F) einen Teil des Pads 111 drückt, nach oben bewegen, um eine Temperatur zu erhöhen, oder nach unten bewegen, um eine Temperatur zu verringern, während das Drücken anhält oder das Pad 111 berührt wird.
  • Zudem kann die Fahrzeugsteuervorrichtung 100, die innerhalb des Fahrzeugs 10 installiert ist, zum Einstellen von Positionen oder Winkeln von Sitzen verwendet werden. Des Weiteren können die verschiedenen Vorrichtungen zum Komfort, die innerhalb des Fahrzeugs 10 angeordnet sind, durch die Fahrzeugsteuervorrichtung 100 betätigt werden. Wenn das Fahrzeug unter Verwendung der oben beschriebenen Fahrzeugsteuervorrichtung betätigt wird, können sich das Bedienungsgefühl des Benutzers und der Komfort erhöhen. Durch Versorgen des Benutzers mit visuellen und taktilen Rückmeldungen kann es möglich sein, die Genauigkeit der Bedienung zu verbessern.
  • Durch Durchführen der Hotkey-Funktion unter Verwendung eines vereinfachten Bedienungsverfahrens kann zudem eine Vielzahl von Hardkeys weggelassen werden. Daher kann ein Effekt der Platzeinsparung erhalten werden und der Steuerbefehl kann während des Fahrens stabiler eingegeben werden. Bei der Fahrzeugsteuervorrichtung und dem Fahrzeug, das dieselbe aufweist, nach den beispielhaften Ausführungsformen der vorliegenden Erfindung kann der Benutzer die Bedienungseinheit während des Fahrens leichter bedienen, so dass der Steuerbefehl verschiedener Vorrichtungen zum Komfort, die innerhalb des Fahrzeugs angeordnet sind, eingegeben werden kann.
  • Zwar wurden ein paar beispielhafte Ausführungsformen der vorliegenden Erfindung gezeigt und beschrieben, aber es wird wohl von jemandem mit technischen Fähigkeiten eingesehen werden, dass Änderungen an diesen beispielhaften Ausführungsformen vorgenommen werden können, ohne von den Prinzipien und dem Wesen der Erfindung abzuweichen, deren Bereich in den Ansprüchen und Äquivalenten derselben definiert ist.

Claims (32)

  1. Fahrzeugsteuervorrichtung, aufweisend: eine Bedienungseinheit, die eine Objekterfassungseinheit enthält, die zum Erfassen eines Objektes auf kontaktlose Weise auf einem Pad, das Elastizität aufweist, unter Verwendung einer Objekterfassungseinheit konfiguriert ist und innerhalb des Fahrzeugs angeordnet ist; und eine Steuerung, die zum Generieren eines Steuersignals, um das Fahrzeug zu betätigen, basierend auf einem Ausgangssignal von der Objekterfassungseinheit konfiguriert ist.
  2. Vorrichtung nach Anspruch 1, wobei das Pad aus einem gelartigen, elastischen Körper besteht.
  3. Vorrichtung nach Anspruch 1, wobei die Objekterfassungseinheit zumindest einen Sensor enthält, der aus einer aus Folgendem bestehenden Gruppe ausgewählt wird: einem kapazitiven Näherungssensor, einem Ultraschall-Näherungssensor und einem optischen Näherungssensor.
  4. Vorrichtung nach Anspruch 1, wobei die Objekterfassungseinheit eine Vielzahl von zweidimensional angeordneten Sensoren enthält.
  5. Vorrichtung nach Anspruch 1, wobei die Steuerung zum Berechnen einer Position oder einer Höhe des Objektes auf dem Pad basierend auf einem Ausgangssignal der Objekterfassungseinheit konfiguriert ist.
  6. Vorrichtung nach Anspruch 1, wobei die Steuerung konfiguriert ist, um basierend auf einer Höhe des Objektes auf dem Pad zu bestimmen, ob das Pad durch das Objekt gedrückt wird.
  7. Vorrichtung nach Anspruch 1, wobei das Pad ferner eine Druckerfassungseinheit enthält, die unter der Objekterfassungseinheit angeordnet und zum Erfassen eines Drucks konfiguriert ist.
  8. Fahrzeug, aufweisend: eine Bedienungseinheit, die eine Objekterfassungseinheit, die zum Erfassen eines Objektes auf kontaktlose Weise konfiguriert ist, und ein Pad enthält, das über der Objekterfassungseinheit angeordnet ist und Elastizität aufweist; eine Audio-Video-Navigationsvorrichtung (AVN-Vorrichtung), die ein Display enthält; und eine Steuerung, die zum Erzeugen eines Steuersignals zum Betätigen der AVN-Vorrichtung basierend auf einem Ausgangssignal von der Objekterfassungseinheit konfiguriert ist.
  9. Fahrzeug nach Anspruch 8, wobei das Pad aus einem gelartigen, elastischen Körper besteht.
  10. Fahrzeug nach Anspruch 8, wobei die Objekterfassungseinheit zumindest einen Sensor enthält, der aus einer aus Folgendem bestehenden Gruppe ausgewählt wird: einem kapazitiven Näherungssensor, einem Ultraschall-Näherungssensor und einem optischen Näherungssensor.
  11. Fahrzeug nach Anspruch 8, wobei die Objekterfassungseinheit eine Vielzahl von zweidimensional angeordneten Sensoren enthält.
  12. Fahrzeug nach Anspruch 8, wobei die Steuerung zum Berechnen einer Position oder einer Höhe des Objektes auf der Bedienungseinheit basierend auf einem Ausgangssignal der Objekterfassungseinheit konfiguriert ist.
  13. Fahrzeug nach Anspruch 12, wobei die Steuerung konfiguriert ist, um basierend auf der Höhe des Objektes auf der Bedienungseinheit zu bestimmen, ob die Bedienungseinheit durch das Objekt gedrückt wird.
  14. Fahrzeug nach Anspruch 8, wobei die Bedienungseinheit ferner eine Druckerfassungseinheit enthält, die unter der Objekterfassungseinheit angeordnet und zum Erfassen eines Drucks konfiguriert ist.
  15. Fahrzeug nach Anspruch 12, wobei das Display zum Anzeigen eines Zeigeobjektes an einer Position, die der Position des Objektes auf der Bedienungseinheit entspricht, konfiguriert ist.
  16. Fahrzeug nach Anspruch 15, wobei das Display zum unterschiedlichen Anzeigen von visuellen Eigenschaften des Zeigeobjektes gemäß der Höhe des Objektes auf der Bedienungseinheit konfiguriert ist.
  17. Fahrzeug nach Anspruch 15, wobei das Display zum Anzeigen von zumindest einem Menübutton konfiguriert ist und die Steuerung zum Generieren eines Steuersignals zum Auswählen eines Menübuttons, in dem das Zeigeobjekt positioniert ist, unter der Vielzahl von Menübuttons konfiguriert ist, wenn die Bedienungseinheit gedrückt wird.
  18. Fahrzeug nach Anspruch 8, wobei die Steuerung zum Erhalten eines Benutzerbildes anhand eines Ausgangssignals der Objekterfassungseinheit konfiguriert ist.
  19. Fahrzeug nach Anspruch 18, wobei die Steuerung konfiguriert ist, um basierend auf dem Benutzerbild zu bestimmen, ob ein vorbestimmter Bereich der Bedienungseinheit bedeckt ist.
  20. Fahrzeug nach Anspruch 19, wobei das Display zum Anzeigen einer Menüliste konfiguriert ist, die mit dem vorbestimmten Bereich abgebildet wird, wenn der vorbestimmte Bereich der Bedienungseinheit bedeckt ist.
  21. Fahrzeug nach Anspruch 19, wobei das Display zum Anzeigen einer Menüliste konfiguriert ist, die mit dem vorbestimmten Bereich abgebildet wird, wenn der vorbestimmte Bereich der Bedienungseinheit für eine Bezugszeit oder länger bedeckt ist.
  22. Fahrzeug nach Anspruch 21, wobei das Display zum Anzeigen eines Bezugsbalkens konfiguriert ist, der ein Verhältnis einer Zeit, für die der vorbestimmte Bereich der Bedienungseinheit bedeckt ist, relativ zu der Bezugszeit angibt.
  23. Fahrzeug nach Anspruch 19, wobei das Display zum Anzeigen einer Menüliste konfiguriert ist, die mit dem vorbestimmten Bereich abgebildet wird, wenn der vorbestimmte Bereich der Bedienungseinheit gedrückt wird.
  24. Fahrzeug nach Anspruch 19, wobei das Display durch die Steuerung ausgeschaltet wird, wenn der vorbestimmte Bereich der Bedienungseinheit bedeckt ist.
  25. Fahrzeug nach Anspruch 19, wobei das Display durch die Steuerung ausgeschaltet wird, wenn der vorbestimmte Bereich der Bedienungseinheit gedrückt wird.
  26. Fahrzeug nach Anspruch 19, wobei die AVN-Vorrichtung durch die Steuerung ausgeschaltet wird, wenn der vorbestimmte Bereich der Bedienungseinheit gedrückt wird.
  27. Fahrzeug nach Anspruch 18, wobei das Display zum Anzeigen von Kartendaten zum Durchführen einer Navigationsfunktion konfiguriert ist.
  28. Fahrzeug nach Anspruch 27, wobei die Steuerung zum Berechnen eines Winkels eines Fingers, der das Pad berührt, basierend auf dem Benutzerbild konfiguriert ist.
  29. Fahrzeug nach Anspruch 28, wobei das Display zum unterschiedlichen Anzeigen eines Ansichtwinkels der Kartendaten gemäß dem berechneten Winkel des Fingers konfiguriert ist.
  30. Fahrzeug nach Anspruch 29, wobei das Display zum Anzeigen der Kartendaten gemäß einer vertikalen Ansicht konfiguriert ist, wenn der berechnete Winkel des Fingers ein Bezugswinkel oder größer ist.
  31. Fahrzeug nach Anspruch 29, wobei das Display zum Anzeigen der Kartendaten gemäß einer Vogelperspektive, die dem berechneten Winkel des Fingers entspricht, konfiguriert ist, wenn der berechnete Winkel des Fingers ein Bezugswinkel oder kleiner ist.
  32. Fahrzeug nach Anspruch 12, wobei die Bedienungseinheit mit einem Ende einer zwischen einem Fahrersitz und einem Beifahrersitz angeordneten Armlehne verbunden ist.
DE102014225694.1A 2014-02-05 2014-12-12 Fahrzeugsteuervorrichtung und Fahrzeug Pending DE102014225694A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140013082A KR20150092561A (ko) 2014-02-05 2014-02-05 차량용 제어 장치 및 차량
KR10-2014-0013082 2014-02-05

Publications (1)

Publication Number Publication Date
DE102014225694A1 true DE102014225694A1 (de) 2015-08-06

Family

ID=53547128

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014225694.1A Pending DE102014225694A1 (de) 2014-02-05 2014-12-12 Fahrzeugsteuervorrichtung und Fahrzeug

Country Status (4)

Country Link
US (1) US10046772B2 (de)
KR (1) KR20150092561A (de)
CN (1) CN104816726B (de)
DE (1) DE102014225694A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431866A (zh) * 2015-12-25 2018-08-21 株式会社电装 显示控制装置以及显示控制方法
DE102019103752A1 (de) * 2019-02-14 2020-08-20 Trw Automotive Safety Systems Gmbh Lenkvorrichtung, Gassackmodul für diese Lenkvorrichtung sowie Verfahren zur Auslösung eines Hupsignals bei einer solchen Lenkvorrichtung

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD755232S1 (en) * 2014-06-20 2016-05-03 Google Inc. Portion of a display screen with icon
DE102014019040B4 (de) * 2014-12-18 2021-01-14 Audi Ag Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs bei einer Mehrfingerbedienung
EP3040842B1 (de) * 2015-01-02 2019-08-07 Volkswagen AG Anwenderschnittstelle und Verfahren zur hybriden Nutzung einer Anzeigeeinheit eines Fortbewegungsmittels
FR3047932B1 (fr) * 2016-02-19 2018-03-16 Peugeot Citroen Automobiles Sa Dispositif et procede d'estimation du niveau d'attention d'un conducteur d'un vehicule
TR201606370A2 (de) * 2016-05-13 2017-11-21 Sensobright Ind Llc
TR201606363A2 (tr) * 2016-05-13 2017-11-21 Sensobright Ind Llc Çok işlevli bir algılama sistemi.
KR101882202B1 (ko) * 2016-07-11 2018-08-24 현대자동차주식회사 사용자 인터페이스 장치, 이를 포함하는 차량 및 차량의 제어 방법
US10449907B2 (en) * 2016-08-03 2019-10-22 Ford Global Technologies, Llc Storage compartment and hanging storage module having illuminated tab
KR101856937B1 (ko) * 2016-10-14 2018-06-19 현대자동차주식회사 자동차의 레인 센서 및 그 제어 방법
CN110109562A (zh) * 2018-02-01 2019-08-09 鸿富锦精密工业(深圳)有限公司 微型led触控显示面板
JPWO2019163372A1 (ja) * 2018-02-20 2021-04-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111433095A (zh) * 2018-10-26 2020-07-17 深圳市大疆创新科技有限公司 自动化车辆动作以及相关的系统和方法
JP2020160786A (ja) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 入力装置
CN111610927A (zh) * 2020-05-26 2020-09-01 福建捷联电子有限公司 近场式按键显示系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5923096A (en) * 1997-04-18 1999-07-13 Manak Dynamics Engineering Corp. All-electric vehicle control system
JP4357980B2 (ja) 2004-02-10 2009-11-04 信越ポリマー株式会社 座標入力装置
EP1745350A2 (de) * 2004-04-29 2007-01-24 Koninklijke Philips Electronics N.V. Optische eingabe- und/oder steuereinrichtung
US7159471B2 (en) * 2005-03-02 2007-01-09 Delphi Technologies, Inc. Capacitive load cell apparatus having silicone-impregnated foam dielectric pads
KR100735376B1 (ko) 2006-03-29 2007-07-04 삼성전자주식회사 이동 통신 단말기에서의 빠른 어플리케이션 실행 방법
US8659554B2 (en) * 2007-04-27 2014-02-25 Chrysler Group Llc Touch pad control panel located in the center console of a vehicle
US9063627B2 (en) * 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US8547339B2 (en) * 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
JP2010026693A (ja) 2008-07-17 2010-02-04 Sony Corp 情報入力装置、画像表示装置およびスタイラスペン
KR101091515B1 (ko) * 2009-09-14 2011-12-08 대성전기공업 주식회사 차량의 원격 터치 패드 장치 및 그 제어 방법
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
KR20140031369A (ko) * 2011-06-17 2014-03-12 로베르트 보쉬 게엠베하 도로 위 차량의 차선 안내 시에 운전자를 보조하기 위한 방법 및 장치
KR20130015362A (ko) 2011-08-03 2013-02-14 현대자동차주식회사 시프트 바이 와이어용 자동변속레버
US8885240B2 (en) * 2011-08-04 2014-11-11 Gentex Corporation Rearview assembly for a vehicle
CN103782259A (zh) * 2011-09-08 2014-05-07 戴姆勒股份公司 机动车用操控装置及操作该机动车用操控装置的方法
JP2013114481A (ja) * 2011-11-29 2013-06-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US9451004B2 (en) * 2012-02-06 2016-09-20 Crytek Gmbh Timer-based initiation of server-based actions
JP2015520455A (ja) * 2012-05-16 2015-07-16 タクタス テクノロジー, インコーポレイテッドTactus Technology, Inc. ユーザインターフェース及び方法
JP6017026B2 (ja) * 2012-06-04 2016-10-26 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 車両の制御システム、当該制御システムのための入力装置およびその動作方法、ならびに、当該制御システムを備えたラジオモジュール、空調モジュールおよびナビゲーションモジュール
CN103455209B (zh) * 2012-06-04 2016-09-28 原相科技股份有限公司 光学感测装置
US9319044B2 (en) * 2012-08-22 2016-04-19 Hyundai Motor Company Switch system and method for vehicle
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431866A (zh) * 2015-12-25 2018-08-21 株式会社电装 显示控制装置以及显示控制方法
DE102019103752A1 (de) * 2019-02-14 2020-08-20 Trw Automotive Safety Systems Gmbh Lenkvorrichtung, Gassackmodul für diese Lenkvorrichtung sowie Verfahren zur Auslösung eines Hupsignals bei einer solchen Lenkvorrichtung

Also Published As

Publication number Publication date
CN104816726B (zh) 2019-01-01
KR20150092561A (ko) 2015-08-13
CN104816726A (zh) 2015-08-05
US10046772B2 (en) 2018-08-14
US20150217781A1 (en) 2015-08-06

Similar Documents

Publication Publication Date Title
DE102014225694A1 (de) Fahrzeugsteuervorrichtung und Fahrzeug
DE102015211358A1 (de) Eingabevorrichtung für fahrzeuge und fahrzeugcockpitmodul
DE102015215644B4 (de) Knopfanordnung und knopfsteuerung für fahrzeug mit derselben
DE102011121715A1 (de) Erweitertes Strassenszenen-Darstellungssystem auf einer Headup-Anzeige für die volle Windschutzscheibe
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE102011121747A1 (de) Virtueller Sucher in einer Headup-Anzeige für die volle Windschutzscheibe
DE112014004305T5 (de) Bildgenerierungsvorrichtung; Bildanzeigesystem; Bildgenerierungsverfahren und Bildanzeigeverfahren
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
DE102011122541A1 (de) Virtueller Cursor für die Strassenszenen-Objektauswahl auf einer Headup-Anzeige für die volle Windschutzscheibe
DE102009047406A1 (de) Fernbedienfeldvorrichtung für ein Fahrzeug und Steuerungsverfahren derselben
DE112009004948T5 (de) Anzeige mit einem optischen Sensor
EP2653335B1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE112010005947T5 (de) Stereoskopische Dreidimensionen-Anzeigevorrichtung
DE112009004947T5 (de) Anzeige mit einem optischen Sensor
US20170001567A1 (en) Rearview mirror angle setting system, method, and program
DE102013225503A1 (de) System und Verfahren zum Bedienen einer Benutzerschnittstelle unter Verwendung eines Handgelenkwinkels in einem Fahrzeug
DE112020001431T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
EP2876526A1 (de) Verfahren zur Erkennung von Gesten und Vorrichtung zur Gestenerkennung
DE102013000066A1 (de) Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung
DE102013114794A1 (de) Gekrümmter Bildschirm
DE112020003146T5 (de) Anzeigesteuerungsvorrichtung, bildanzeigesystem, mobiler körper, anzeigesteuerungsverfahren und programm
DE112022002985T5 (de) Verfahren, system und computerprogramm zur berührungsstabilisierung
DE102017106578A1 (de) Fahrzeuganzeigevorrichtung
DE102017208343A1 (de) Anzeigesystem für ein Fahrzeug
EP3911532B1 (de) Bediensystem mit portabler schnittstelleneinheit sowie kraftfahrzeug mit dem bediensystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication