DE102019105764B3 - Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle - Google Patents

Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle Download PDF

Info

Publication number
DE102019105764B3
DE102019105764B3 DE102019105764.7A DE102019105764A DE102019105764B3 DE 102019105764 B3 DE102019105764 B3 DE 102019105764B3 DE 102019105764 A DE102019105764 A DE 102019105764A DE 102019105764 B3 DE102019105764 B3 DE 102019105764B3
Authority
DE
Germany
Prior art keywords
user
user interface
input
display
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019105764.7A
Other languages
English (en)
Inventor
Florian Hartmann
Marcus Muttersbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gestigon GmbH
Original Assignee
Gestigon GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gestigon GmbH filed Critical Gestigon GmbH
Priority to DE102019105764.7A priority Critical patent/DE102019105764B3/de
Application granted granted Critical
Publication of DE102019105764B3 publication Critical patent/DE102019105764B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (100) zum Kalibrieren einer Benutzerschnittstelle (1) sowie eine entsprechende Benutzerschnittstelle (1). Es wird, mittels einer Darstellungseinrichtung (20), ein virtuelles Kalibrationsobjekt (10) an einer Objektposition in einem Darstellungsbereich (21) dargestellt (S1). Zudem wird die Objektposition, an der das Kalibrationsobjekt (10) dargestellt wird, in der Weise geändert (S2), dass für den Benutzer der Eindruck entsteht, dass das Kalibrationsobjekt (10) näher an den Benutzer heranrückt. Es wird eine Position eines dem Benutzer zugeordneten Eingabeobjekts (31) im Darstellungsbereich (21) mittels einer Erfassungseinrichtung (30) erfasst (S3) und entsprechende Positionsdaten, welche die Position des Eingabeobjekts (31) im Darstellungsbereich (21) repräsentieren, erzeugt. Schließlich wird, wenn eine vorbestimmte Benutzereingabe an der Benutzerschnittstelle (1) erfasst wird, eine Zuordnungsvorschrift zwischen der gegenwärtigen Objektposition und der durch die Positionsdaten repräsentierten Position des Eingabeobjekts (31) ermittelt (S5) und die Abbildungsvorschrift zur späteren Verwendung gespeichert (S6).

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie eine entsprechende Benutzerschnittstelle.
  • Benutzerschnittstellen sind aus vielen Bereichen des alltäglichen Lebens bekannt. Nahezu jedes elektronische Gerät weist eine Benutzerschnittstelle auf, über die ein Benutzer mit dem Gerät interagieren bzw. es steuern kann. An einem herkömmlichen Personalcomputer bilden beispielsweise Tastatur und Maus eine Benutzerschnittstelle, an einem Smartphone bildet ein berührungssensitiver Bildschirm und/oder ein Spracherkennungsmodul eine Benutzerschnittstelle, und in einem Fahrzeug werden Benutzerschnittstellen üblicherweise durch verschiedene Dreh- und/oder Druckknöpfe sowie Schieberegler und/oder Schalter gebildet. Moderne Fahrzeuge weisen alternativ oder zusätzlich ebenfalls berührungssensitive Bildschirme oder Spracherkennungsmodule, in einigen Fällen sogar auf optischer Erfassung des Benutzers basierende Gestenerkennungsmodule, auf.
  • Solche Benutzerschnittstellen weisen in der Regel eine statische Struktur auf, das heißt ihre einzelnen Eingabeelemente wie Regler, Schalter oder Tasten sind in einem bestimmten, festen Muster angeordnet, dass sich nicht oder nur mit viel Aufwand ändern bzw. anpassen lässt. Zudem sind solche Benutzerschnittstellen in der Regel fest verortet, beispielsweise an der Mittelkonsole eines Fahrzeugs und/oder an zumindest einem Teil des Armatu ren brettes.
  • Die US 2014/0354602 A1 offenbart offenbart die Kalibration einer virtuellen Benutzerschnittstelle indem eine Zuordnungsvorschrift zwischen der detektierten Benutzerhand und der Anzeige am Bildschirm bestimmt wird. Dadurch werden Interaktionen mit virtuellen Objekten ermöglicht.
  • Die Veröffentlichung „TODOHOSH-I, Takayuki, et al.: Noncontact tactile display based on radiation pressure of airborne ultrasound. IEEE Transactions on Haptics, 2010, 3. Jg., Nr. 3, S. 155-165“ offenbart haptisches Feedback in Form von Ultraschallwellen bei Interaktion mit virtuellen Objekten.
  • Die Druckschriften US 6243054 B1 , WO 2012/054231 A2 sowie die Veröffentlichung „LU, Gan, et al. Dynamic hand gesture tracking and recognition for real-time immersive virtual object manipulation. In: 2009 International Conference on CyberWorlds. IEEE, 2009. S. 29-35“ offenbaren die Interaktion der Hand des Nutzers mit einem virtuellen Objekt.
  • Aus EP 2 372 512 A1 ist eine Fahrzeugbenutzerschnittstelleneinheit mit einer 3-D-Displayeinheit, einer Display-Steuerungseinheit und einer Eingabeeinheit bekannt. Die 3-D-Displayeinheit weist dabei eine Anzeige auf und ist dazu eingerichtet, ein Bild darzustellen, so dass das Bild von einem Benutzer als ein virtuelles 3-D Bild wahrgenommen wird, welches vom Benutzer zumindest teilweise vor der Anzeige wahrgenommen wird. Zudem ist die Eingabeeinheit dazu eingerichtet, die Position eines benutzergesteuerten Objekts zu erfassen und die Erfassung einer vordefinierten Änderung des benutzergesteuerten Objekts als eine Auswahl eines Interaktionselements, welches in dem virtuellen 3-D Bild enthalten ist, zu interpretieren.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Verwendung einer Benutzerschnittstelle zu verbessern, insbesondere die Zuverlässigkeit der Benutzerschnittstelle zu erhöhen.
  • Die Lösung dieser Aufgabe wird gemäß der Lehre der unabhängigen Ansprüche erreicht. Verschiedene Ausführungsformen und Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Kalibrieren einer virtuellen Benutzerschnittstelle, insbesondere für ein Fahrzeug, aufweisend: (i) Darstellen, mittels einer Darstellungseinrichtung, eines virtuellen Kalibrationsobjekts in drei Raumdimensionen an einer durch die Darstellungseinrichtung bestimmten Objektposition in einem der Darstellungseinrichtung zugeordneten räumlichen Darstellungsbereich; (ii) Verändern der Objektposition, an der das Kalibrationsobjekt dargestellt wird, in der Weise, dass für den Benutzer der Eindruck entsteht, dass das Kalibrationsobjekt innerhalb des Darstellungsbereichs näher an den Benutzer heranrückt; (iii) Erfassen einer Position eines dem Benutzer zugeordneten Eingabeobjekts im Darstellungsbereich mittels einer Erfassungseinrichtung und Erzeugen entsprechender Positionsdaten, welche die Position des Eingabeobjekts im Darstellungsbereich repräsentieren; und (iv) wenn eine vorbestimmte Benutzereingabe an der Benutzerschnittstelle erfasst wird, Ermitteln einer Zuordnungsvorschrift zwischen der gegenwärtigen Objektposition und der durch die Positionsdaten repräsentierten Position des Eingabeobjekts und Speichern der Abbildungsvorschrift zur späteren Verwendung zur Erkennung einer Benutzereingabe an der Benutzerschnittstelle auf Basis einer Zuordnung gemäß der Zuordnungsvorschrift eines von der Darstellungseinrichtung an einer Objektposition dargestellten Benutzerschnittstellenobjekts zu einer dazu korrespondierenden Benutzereingabe mittels des Eingabeobjekts an einer der Objektposition gemäß der Zuordnungsvorschrift zugeordneten Eingabeposition.
  • Unter einer „Darstellungseinrichtung“ im Sinne der Erfindung ist insbesondere eine Einrichtung zu verstehen, welche virtuelle Objekte derart darstellen kann, dass für einen Benutzer der Eindruck entsteht, das virtuelle Objekt sei dreidimensional ausgebildet und/oder in einem Abstand zur Darstellungseinrichtung angeordnet. Die Darstellungseinrichtung kann insbesondere ausgebildet sein, virtuelle Objekte in einem räumlichen Darstellungsbereich, der insbesondere durch einen Raum vor der Darstellungseinrichtung definiert ist, in der Wahrnehmung des Benutzers in der Luft schwebend darzustellen. Vorzugsweise sind dazu keine weiteren Hilfsmittel für den Benutzer wie etwa eine spezielle 3D-Brille, ein Head-Mounted-Display und/oder dergleichen notwendig. Eine Darstellungseinrichtung kann insbesondere eine autostereoskopische Anzeige aufweisen, etwa mit Parallaxenbarrieren oder Linsenrastern oder einer Holographieanordnung.
  • Unter einem „virtuellen Kalibrationsobjekt“ im Sinne der Erfindung kann insbesondere ein durch die Darstellungseinrichtung dargestelltes virtuelles Objekt, das eigens zur Kalibrierung der Benutzerschnittstelle vorgesehen ist, verstanden werden. Alternativ kann das virtuelle Kalibrationsobjekt aber auch ein durch die Darstellungseinrichtung dargestelltes virtuelles Benutzerschnittstellenobjekt sein, dass auch nach der Kalibrierung der Benutzerschnittstelle zur Interaktion mit dem Benutzer vorgesehen ist und über das er nach der Kalibrierung Benutzereingaben tätigen kann.
  • Unter einer „Erfassungseinrichtung“ im Sinne der Erfindung ist insbesondere eine Einrichtung zu verstehen, welche reale Objekte, insbesondere in dem der Darstellungseinrichtung zugeordneten Darstellungsbereich, erkennen und deren Position bestimmen kann. Eine Erfassungseinrichtung weist vorzugsweise wenigstens einen Sensor auf, etwa einen optischen Flugzeitsensor (time-of-flight-Sensor), um die realen Objekte in drei Raumdimensionen zu erfassen und entsprechende Sensordaten zu erzeugen, welche vorzugsweise zumindest die Position des erfassten Objektes charakterisierende Positionsdaten enthalten. Eine Erfassungseinrichtung kann beispielsweise als TOF-Kamera (time-of-flight-Kamera), Stereokamera oder dergleichen ausgebildet sein.
  • Unter einer „Zuordnungsvorschrift“ im Sinne der Erfindung ist insbesondere eine Abbildung oder Transformation zu verstehen, mit der sich zumindest einem Teil der möglichen Objektpositionen von virtuellen Benutzerschnittstellenobjekten jeweils eine Position des Eingabeobjekts, an der die Anwesenheit des Eingabeobjekts als Interaktion mit dem entsprechenden Benutzerschnittstellenobjekt bzw. Benutzereingabe identifiziert wird, zuordnen lässt. Die Zuordnungsvorschrift kann beispielsweise einem linearen Versatz (offset) zwischen einer Position des Eingabeobjekts und einer Objektposition entsprechen. Die Zuordnungsvorschrift kann andererseits aber auch einer nichtlinearen Funktion entsprechen. Die Zuordnungsvorschrift kann insbesondere einer Transformation entsprechen, mit der eine Position in einem Koordinatensystem in ein anderes Koordinatensystem abgebildet bzw. überführt werden kann. Eine solche Abbildungsvorschrift kann z.B. eine Transformationsmatrix sein.
  • Unter einer „vorbestimmte Benutzereingabe“ im Sinne der Erfindung ist insbesondere eine vom Benutzer durchgeführte Handlung zu verstehen, die von der Benutzerschnittstelle, insbesondere von der Erfassungseinrichtung, erfasst und durch die das Ermitteln der Zuordnungsvorschrift ausgelöst wird. Eine Benutzereingabe kann beispielsweise das Betätigen eines Eingabeelements wie etwa eines Knopfes oder Schalters, das Ausführen einer vorgegebenen Geste wie etwa das Innehalten aus einer Bewegung heraus, ein Sprachkommando und/oder oder dergleichen, insbesondere eine Kombination daraus, sein.
  • Das erfindungsgemäße Verfahren zum Kalibrieren einer Benutzerschnittstelle erlaubt es auf einfache und zuverlässige Weise, die Wirkung und/oder Funktion verschiedener Komponenten der Benutzerschnittstelle aufeinander abzustimmen. Das Ermitteln der Zuordnungsvorschrift, insbesondere auf Grundlage der gegenwärtigen virtuellen Objektposition und den Positionsdaten, welche die gegenwärtige Position des dem Benutzer zugeordneten Eingabeobjekts charakterisieren, hat insbesondere den Vorteil, dass sich virtuelle Objekte besonders präzise an einer in Bezug auf den Benutzer bzw. dessen Wahrnehmung optimalen Position innerhalb des Darstellungsbereichs darstellen lassen.
  • Dabei ist insbesondere von Vorteil, dass die Wirkung und/oder Funktion verschiedener Komponenten der Benutzerschnittstelle für verschiedene Benutzer jeweils individuell aufeinander abgestimmt werden kann. Beispielsweise werden aufgrund von Unterschieden in der Wahrnehmung bzw. Wahrnehmungsfähigkeit verschiedener Benutzer virtuelle Benutzerschnittstellenobjekte, die durch die Darstellungseinrichtung an einer virtuellen Objektposition im Darstellungsbereich dargestellten werden, durch die verschiedenen Benutzer in unterschiedlichen Abständen zur Darstellungseinrichtung wahrgenommen. Beim Ermitteln der Zuordnungsvorschrift wird vorzugsweise eine Beziehung zwischen der von dem gegenwärtigen Benutzer wahrgenommenen Position des virtuellen Kalibrationsobjekts, welche der durch die Positionsdaten repräsentierten Position des dem Benutzer zugeordneten Eingabeobjekts entspricht, und der virtuellen Objektposition, an der das virtuelle Kalibrationsobjekt von der Darstellungseinrichtung dargestellt wird, hergestellt. Diese Beziehung, etwa ein einfacher Versatz, kann beispielsweise beim zukünftigen Darstellen von virtuellen Benutzerschnittstellenobjekten, mit denen der Benutzer interagieren und die er zum Bedienen z.B. von Fahrzeugfunktionen nutzen kann, und/oder beim Auswerten von zukünftig erfassten Positionen des Eingabeobjekts in Bezug auf virtuelle Objektpositionen berücksichtigt werden. Dadurch kann etwa der Darstellungsbereich der Darstellungseinrichtung optimal ausgenutzt werden, insbesondere um virtuelle Objekte in einem maximalen Abstand von der Darstellungseinrichtung für den Nutzer deutlich darstellen zu können. Darüber hinaus kann dadurch auch die Präzision, mit der eine Interaktion des dem Benutzer zugeordneten Eingabeobjekts mit einem dargestellten virtuellen Benutzerschnittstellenobjekt festgestellt wird, erhöht und damit die Zuverlässigkeit der Benutzerschnittstelle gesteigert werden.
  • Das erfindungsgemäße Verfahren könnte beispielsweise folgendermaßen ablaufen: es kann eine virtuelle Kugel sequenziell an mehreren Objektpositionen im Darstellungsbereich dargestellt werden, so dass für einen Benutzer der Eindruck entsteht, dass sich die virtuelle Kugel auf ihn zubewegt. Gleichzeitig kann der Benutzer etwa seinen ausgestreckten Zeigefinger auf die virtuelle Kugel zubewegen, wobei die Bewegung des Fingers von der Erfassungseinheit erfasst wird. Hat der Benutzer den (visuellen) Eindruck, dass seine Fingerspitze die virtuelle Kugel berührt, kann er die vorbestimmte Benutzereingabe ausführen, zum Beispiel die Bewegung seines ausgestreckten Fingers stoppen, oder auch mit der anderen Hand einen Knopf drücken, eine vorgegebene Geste ausführen oder ein Sprachkommando geben. Die gegenwärtige Position seiner Fingerspitze, welche durch beim Erfassen der Bewegung des Fingers sequenziell erzeugte Positionsdaten repräsentiert ist, kann dann mit der gegenwärtigen Objektposition der virtuellen Kugel in Beziehung gesetzt werden.
  • Beispielsweise kann auf Grundlage der gegenwärtigen Position der Fingerspitze bzw. der entsprechenden Positionsdaten und der gegenwärtigen Objektposition der virtuellen Kugel eine Transformationsmatrix ermittelt werden, auf deren Grundlage durch die Darstellungseinrichtung bestimmte Objektpositionen in von der Erfassungseinrichtung erfasste Positionen bzw. dementsprechende Positionsdaten und/oder umgekehrt transformiert werden können.
  • Nachfolgend werden bevorzugte Ausführungsformen der Erfindung und deren Weiterbildungen beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird, beliebig miteinander sowie mit den im Weiteren beschriebenen Aspekten der Erfindung kombiniert werden können.
  • In einer bevorzugten Ausführungsform erzeugt eine Rückmeldeeinrichtung ein vom Benutzer wahrnehmbares Rückmeldesignal, wenn sich das Eingabeobjekt, zumindest im Wesentlichen, an einer Eingabeposition im Darstellungsbereich befindet, die gemäß der Zuordnungsvorschrift einer Objektposition, an der ein Benutzerschnittstellenobjekt dargestellt ist, zugeordnet ist. Mit anderen Worten wird nicht nur die Darstellung von virtuellen Benutzerschnittstellenobjekten durch die Darstellungseinrichtung und das Erfassen des Eingabeobjekts durch die Erfassungseinrichtung durch Ermitteln und Abspeichern der Zuordnungsvorschrift aufeinander abgestimmt, sondern auch das Erzeugen von Rückmeldungen durch eine Rückmeldeeinrichtung. Das Rückmeldesignal kann auf diese Weise insbesondere in Bezug auf diejenige Position erzeugt werden, an welcher der Benutzer ein virtuelles Benutzerschnittstellenobjekt wahrnimmt. Das Auftreten einer irritierenden Diskrepanz in der Wahrnehmung zwischen der Position des Benutzerschnittstellenobjekts und dem Rückmeldesignal kann somit zuverlässig vermieden werden.
  • Beispielsweise ist es denkbar, dass das Eingabeobjekt als Stab oder stiftartiges Objekt ausgebildet ist, mit dem, insbesondere mit dessen Spitze, der Benutzer virtuelle Benutzerschnittstellenobjekte bedienen kann. Die Rückmeldeeinrichtung kann in diesem Fall etwa eine im Eingabeobjekt angeordnete Vibrationseinheit aufweisen, welche dazu eingerichtet ist, das Eingabeobjekt bei Erreichen einer Position im Darstellungsbereich, die gemäß der Zuordnungsvorschrift einer Objektposition, an der ein Benutzerschnittstellenobjekt dargestellt ist, zugeordnet ist, zumindest kurzzeitig in Vibration zu versetzen, was der Benutzer als Rückmeldesignal wahrnimmt.
  • Alternativ oder zusätzlich ist es auch denkbar, dass die Rückmeldeeinrichtung einen optischen Signalgeber, z.B. eine LED, zur Erzeugung eines optischen Rückmeldesignals aufweist.
  • In einer weiteren bevorzugten Ausführungsform erzeugt die Rückmeldeeinrichtung ein Ultraschallfeld, das an der der Objektposition gemäß der Zuordnungsvorschrift zugeordneten Eingabeposition ein Intensitätsmaximum aufweist. Dabei muss es sich beim Intensitätsmaximum nicht um ein globales Maximum handeln, sondern es kann sich beim Intensitätsmaximum auch um ein lokales Maximum handeln. Mit anderen Worten kann die Intensität des Ultraschallfelds an einer oder mehreren anderen Positionen höher sein als an der der Objektposition gemäß der Zuordnungsvorschrift zugeordneten Eingabeposition.
  • Entscheidend ist, dass die Intensität unmittelbar um die Eingabeposition herum abfällt, so dass der Benutzer das virtuelle Benutzerschnittstellenobjekt an der Eingabeposition räumlich wahrnehmen kann. Das Erzeugen eines Ultraschallfelds mit wenigstens einem Intensitätsmaximum an einer Eingabeposition als Rückmeldesignal ist besonders vorteilhaft, da dem Benutzer die Position des virtuellen Benutzerschnittstellenobjekts unmittelbar verdeutlicht werden kann. Insbesondere ermöglicht dies, dass der Benutzer das virtuelle Benutzerschnittstellenobjekt ertasten bzw. erfühlen kann. Somit ist es denkbar, dass der Benutzer die entsprechend kalibrierte Benutzerschnittstelle, bzw. die Benutzerschnittstellenobjekte auch ohne Hinsehen bedienen kann.
  • Die Rückmeldeeinrichtung weist in diesem Fall vorzugsweise einen Ultraschallgeber (transducer) oder eine Anordnung (array) aus solchen Ultraschallgebern auf. Dabei kann ein einzelner Ultraschallgeber als fokussierter Ultraschallgeber ausgebildet sein, der ein Ultraschallfeld mit Intensitätsmaximum an einem dem Ultraschallgeber zugeordneten Fokuspunkt erzeugt. In der Anordnung aus mehreren Ultraschallgebern können die Ultraschallgeber auch einzeln derart ansteuerbar sein, dass sich das Intensitätsmaximum an einem künstlich erzeugten Fokuspunkt ausbildet, der sich aus einer Überlagerung von Utraschallwellen, die von den einzelnen Ultraschallgebern ausgesendet werden, erzeugt wird.
  • In einer weiteren bevorzugten Ausführungsform wird die Ausprägung des Intensitätsmaximums dynamisch geändert, insbesondere an die Funktionalität eines dargestellten Benutzerschnittstellenobjekts und/oder eine Charakteristik des dargestellten Benutzerschnittstellenobjekts angepasst. Zu diesem Zweck kann die Rückmeldeeinrichtung etwa dazu eingerichtet sein, das erzeugte Ultraschallfeld entsprechend zu ändern bzw. anzupassen, etwa indem die Frequenz, Intensität, die Modulationsform (d.h. die Wellenform, mit der die Modulation durchgeführt wird) bzw. der Modulationspuls entsprechend geändert bzw. angepasst wird. Die Änderung bzw. Anpassung kann dabei, zumindest im Wesentlichen, kontinuierlich, z.B. über den Zeitraum, in dem der Benutzer mit dem Benutzerschnittstellenobjekt interagiert, und/oder inkrementell, insbesondere stufenartig, erfolgen. Dadurch ist es möglich, dass der Benutzer zwischen verschiedenen Zuständen des Benutzerschnittstellenobjekts aufgrund der haptischen Rückmeldung unterscheiden kann, z.B. zwischen zwei verschiedenen Schalterstellungen.
  • Beispielsweise könnte für ein Benutzerschnittstellenobjekt, das einen Schieberegler simuliert, ein Ultraschallfeld erzeugt werden, dass in einer ersten Position des Schiebereglers mit einer, zumindest im Wesentlichen, reinen Sinuswellenform moduliert wird. Wird der simulierte Schieberegler mittels des Eingabeobjekts aus der ersten Position heraus in eine zweite Position überführt, kann das Ultraschallfeld zunehmend mit Wellenformanteilen, die einer Rechteckwellenform entsprechen, moduliert werden. Somit ändert sich die für den Benutzer als Oberfläche des Schiebereglers wahrgenommene Ausprägung des Ultraschallfelds und der Benutzer erhält eine haptische Rückmeldung in Bezug auf die Stellung des virtuellen Schiebereglers.
  • Das Regeln der Intensität des Ultraschallfelds oder das Aufprägen von Modulationen erlaubt es insbesondere, die Charakteristik einer Funktionalität eines Benutzerschnittstellenobjekts nachzubilden. So kann etwa für einen virtuellen Lautstärkeregler ein Ultraschallfeld geringer Intensität erzeugt werden, um eine niedrige Musiklautstärke darzustellen, und ein Ultraschallfeld hoher Intensität erzeugt werden, um eine hohe Musiklautstärke darzustellen. Weiterhin ist es denkbar, für einen virtuellen Temperaturregler die Wellenfronten des Ultraschallfelds weich und gerundet auszubilden, um Wärme darzustellen, und die Wellenfronten dagegen kantig und/oder mit hohen Intensitäten auszubilden, um Kälte darzustellen.
  • In einer weiteren bevorzugten Ausführungsform wird der dynamischen Änderung der Ausprägung des Intensitätsmaximums, insbesondere des Ultraschallfelds und/oder des Intensitätsmaximums, vorzugsweise durch die Rückmeldeeinrichtung, ein physikalisches Modell des korrespondierenden Benutzerschnittstellenobjekts zu Grunde gelegt. Dadurch kann beispielsweise die Oberfläche eines Objekts, etwa eines Drehknopfes oder Schiebereglers, besonders realistisch mittels des Ultraschallfelds simuliert werden. Zudem kann auch die haptische Wahrnehmung durch den Benutzer bei der Interaktion mit dem Benutzerschnittstellenobjekt auf eine Weise beeinflusst werden, die dem Benutzer besonders realistisch erscheint, z.B. dass zum Drücken eines Knopfes oder Verschieben eines Schiebereglers zunächst ein Wiederstand überwunden werden muss.
  • In einer weiteren bevorzugten Ausführungsform wird das Kalibrationsobjekt an der Objektposition in Bezug auf ein Darstellungskoordinatensystem der Darstellungseinrichtung in drei Raumdimensionen dargestellt, und die Position des Eingabeobjekts wird in Bezug auf ein Erfassungskoordinatensystem der Erfassungseinrichtung erfasst. Beim Ermitteln der Zuordnungsvorschrift zwischen der gegenwärtigen Objektposition und der durch die Positionsdaten repräsentierten Position des Eingabeobjekts wird vorzugsweise eine Transformationsvorschrift für die Transformation aus dem Erfassungskoordinatensystem in das Darstellungskoordinatensystem und/oder andersherum ermittelt. In bevorzugter Weise wird alternativ oder zusätzlich das Rückmeldesignal, insbesondere das Intensitätsmaximum des Ultraschallfelds, in Bezug auf ein Rückmeldekoordinatensystem der Rückmeldeeinrichtung erzeugt, und eine Transformationsvorschrift für die Transformation aus dem Erfassungskoordinatensystem in ein Rückmeldekoordinatensystem und/oder andersherum und/oder eine Transformationsvorschrift für die Transformation aus dem Darstellungskoordinatensystem in das Rückmeldekoordinatensystem und/oder andersherum ermittelt. Dadurch können die Darstellungseinrichtung, die Erfassungseinrichtung und/oder die Rückmeldeeinrichtung, z.B. in Bezug auf Ihre räumliche Anordnung, aufeinander abgestimmt werden. Dies ist insbesondere nützlich, wenn etwa eine der Einrichtungen ausgetauscht wurde oder grundlegend neu eingerichtet werden muss.
  • In einer weiteren bevorzugten Ausführung wird auf Basis von, zumindest im Wesentlichen, kontinuierlich erzeugten Positionsdaten ein Bewegungsmaß für die Bewegung des Eingabeobjekts, insbesondere innerhalb des Erfassungsbereichs, ermittelt. Dabei ist die vorbestimmte Benutzereingabe vorzugsweise dadurch definiert, dass das Bewegungsmaß einen vorbestimmten Bewegungsschwellenwert erreicht oder unterschreitet. Somit ist seitens des Benutzers nur noch eine einzige Aktion notwendig, um die Benutzerschnittstelle zu Kalibrieren, nämlich die Bewegung des Eingabeobjekts bis an die Stelle, an der das virtuelle Kalibrationsobjekt vom Benutzer wahrgenommen wird. Die Kalibration der Benutzerschnittstelle kann somit besonders komfortabel durchgeführt werden.
  • In einer weiteren bevorzugten Ausführungsform wird die Objektposition kontinuierlich entlang einer Bewegungsrichtung geändert. Dabei kann die Bewegungsrichtung vorbestimmt sein und z.B. mit einer Richtung senkrecht zur Darstellungseinrichtung, insbesondere zu einer autostereoskopischen Anzeige der Darstellungseinrichtung, korrespondieren. Alternativ kann die Bewegungsrichtung auch dynamisch ermittelt werden, und zwar auf Grundlage der Positionsdaten, welche die gegenwärtige Position des Erfassungsobjekts im Darstellungsbereich repräsentieren. Insbesondere kann die Bewegungsrichtung dabei in der Weise festgelegt werden, dass sich durch die Änderung der Objektposition das Kalibrationsobjekt auf das Eingabeobjekt zu bewegt bzw. dies vom Benutzer so wahrgenommen wird. Die kontinuierliche Bewegung des virtuellen Kalibrationsobjekts stimuliert die visuelle Wahrnehmung des Benutzers dabei in der Weise, dass der Benutzer der Position des Kalibrationsobjekt besonders hohe Aufmerksamkeit widmet. Zudem ermöglicht dies dem Benutzer, die Position zu identifizieren, an welcher er das Kalibrationsobjekt deutlich wahrnehmbar als im Darstellungsbereich in der Luft schwebend, d.h. in einem Abstand zur Darstellungseinrichtung, wahrnimmt, wobei dieser Abstand als Teil der Zuordnungsvorschrift gespeichert und beim Darstellen von Benutzerschnittstellenobjekten berücksichtigt werden kann.
  • In einer weiteren bevorzugten Ausführungsform werden die Verfahrensschritte, insbesondere das Darstellen des virtuellen Kalibrationsobjekts an der Objektposition, das Ändern der Objektposition und das Erfassen der Position des Eingabeobjekts, sequentiell für wenigstens zwei verschiedene Objektpositionen an unterschiedlichen Stellen des Darstellungsbereichs, insbesondere in verschiedenen Rand- und/oder Eckbereichen des Darstellungsbereichs, durchgeführt. Beispielsweise können diese Verfahrensschritte, wenn die Darstellungseinrichtung eine rechteckige autostereoskopische Anzeige aufweist, an zwei Stellen, die jeweils einer von zwei diagonal gegenüberliegenden Ecken der Anzeige zugeordnet sind, durchgeführt werden. Selbstverständlich ist es auch denkbar, die Verfahrensschritte an mehr Stellen, insbesondere an vier Stellen, die jeweils einer der Ecken der Anzeige zugeordnet sind, durchzuführen. Dabei können die Objektpositionen, für welche die Verfahrensschritte durchgeführt werden, in einem vorbestimmten Muster vorliegen bzw. ein vorbestimmtes Muster bilden. Dadurch kann die individuelle Wahrnehmung des Benutzers, die sich insbesondere bei einer größeren autostereoskopischen Anzeige aufgrund des unterschiedlichen Blickwinkels in unterschiedliche Bereiche der Anzeige ändern kann, über die gesamte Fläche der Anzeige berücksichtigt werden.
  • Vorzugsweise werden die bei jeder Durchführung der Verfahrensschritte ermittelten Zuordnungsvorschriften in einer globalen Zuordnungsvorschrift zusammengefasst, was den Betrieb der kalibrierten Benutzerschnittstelle technisch vereinfacht. Alternativ ist es aber auch denkbar, für unterschiedliche Abschnitte der Anzeige, die jeweils mit einer Objektposition korrespondieren, für die die Verfahrensschritte durchgeführt wurden, verschiedene Zuordnungsvorschriften zur späteren Verwendung abzuspeichern.
  • Ein zweiter Aspekt der Erfindung betrifft eine Benutzerschnittstelle, insbesondere für ein Fahrzeug, wobei die Benutzerschnittstelle eine Darstellungseinrichtung, die zum Darstellen von Benutzerschnittstellenobjekten in drei Raumdimensionen an einer durch die Darstellungseinrichtung bestimmten Objektposition in einem der Darstellungseinrichtung zugeordneten räumlichen Darstellungsbereich eingerichtet ist, und eine Erfassungseinrichtung, die ausgebildet ist, ein einem Benutzer zugeordnetes Eingabeobjekt im Darstellungsbereich zu erfassen und entsprechende Positionsdaten, welche die Position des Eingabeobjektes im Darstellungsbereich repräsentieren, zu erzeugen, aufweist. Zudem weist die Benutzerschnittstelle eine Steuerungseinrichtung auf, die dazu eingerichtet ist, ein Verfahren zum Kalibrieren der Benutzerschnittstelle nach dem ersten Aspekt der Erfindung auszuführen und die Darstellungseinrichtung und die Erfassungseinrichtung entsprechend zu steuern.
  • Ein dritter Aspekt der Erfindung betrifft ein Computerprogramm, das bei seiner Ausführung durch eine Benutzerschnittstelle nach dem zweiten Aspekt der Erfindung eine Kalibrierung der Benutzerschnittstelle gemäß einem Verfahren nach dem dritten Aspekt der Erfindung bewirkt.
  • Das Computerprogramm kann insbesondere in Form eines Computerprogrammprodukts, etwa als Datenträger, vorliegen, auf dem ein oder mehrere Programme zur Ausführung des Verfahrens gespeichert sind. Bevorzugt ist dies ein Datenträger, wie etwa eine CD, eine DVD oder ein Flashspeichermodul. Dies kann insbesondere vorteilhaft sein, wenn das Computerprogramm als solches handelbar oder durch den Benutzer des Systems selbst zu Programmierung dessen verwendet werden soll. Alternativ oder zusätzlich kann das Computerprogramm auch als eine Datei auf einer Datenverarbeitungseinheit, insbesondere auf einem Server vorliegen, und über eine Datenverbindung in das System ladbar sein (z.B. per Download über das Internet oder eine dedizierte Datenverbindung).
  • Die in Bezug auf den ersten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung beschriebenen Merkmale und Vorteile gelten, zumindest wo technisch sinnvoll, auch für den zweiten und dritten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung sowie umgekehrt.
  • Weitere Merkmale, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung im Zusammenhang mit den Figuren. Es zeigen wenigstens teilweise schematisch:
    • 1 eine Benutzerschnittstelle mit einer Darstellungseinrichtung, die ein virtuelles Kalibrationsobjekt darstellt; und
    • 2 ein bevorzugtes Ausführungsbeispiel eines Verfahrens zum Kalibrieren einer Benutzerschnittstelle.
  • 1 zeigt eine Benutzerschnittstelle 1, insbesondere für ein Fahrzeug, mit einer Darstellungseinrichtung 20, eine Erfassungseinrichtung 30 und einer Rückmeldeeinrichtung 40, über die ein Benutzer beispielsweise ein elektronisches Gerät, insbesondere ein Fahrzeug oder zumindest Komponenten eines Fahrzeugs wie etwa ein Multimediasystem, ein Klimatisierungssystem und/oder dergleichen, steuern bzw. konfigurieren kann.
  • Die Darstellungseinrichtung 20 ist dabei eingerichtet, virtuelle Benutzerschnittstellenobjekte in einem der Darstellungseinrichtung 20 zugeordneten Darstellungsbereich 21 in der Weise darzustellen, dass sie von dem Benutzer als dreidimensional ausgebildet wahrgenommen werden. Die Darstellungseinrichtung 20 kann die virtuellen Benutzerschnittstellenobjekte dabei insbesondere in der Weise darstellen, dass sie innerhalb des Darstellungsbereichs 21 von dem Benutzer als in der Luft schwebend wahrgenommen werden. Zu diesem Zweck weist sie vorzugsweise eine, insbesondere flächige, Anzeige 22 auf, die beispielsweise eine Oberfläche einer Mittelkonsole und/oder eines Armaturenbretts eines Fahrzeugs bilden kann. Bei der Anzeige 22 kann es sich etwa um eine autostereoskopische Anzeige handeln, welche die virtuellen Benutzerschnittstellenobjekte in einer Weise darstellt, die es dem Benutzer ermöglicht, die virtuellen Objekte visuell ohne weitere Hilfsmittel, insbesondere ohne eine spezielle 3-D-Brille oder ein Head-Mounted-Display und/oder dergleichen, in drei Raumdimensionen und im Abstand zur Oberfläche der Anzeige 22 wahrzunehmen.
  • Der Darstellungsbereich 21 wird dabei in bevorzugter Weise durch einen Raum bzw. ein Volumen unmittelbar vor der Anzeige 22 definiert, wobei die laterale Ausdehnung des Darstellungsbereichs 21 von den Abmessungen der Anzeige 22 und die dazu senkrechte Ausdehnung des Darstellungsbereichs 21 vom maximalen Abstand zur Anzeige 22 abhängt, in dem die Anzeige 22 ein virtuelles Benutzerschnittstellenobjekt für den Benutzer deutlich darstellen kann.
  • Die virtuellen Benutzerschnittstellenobjekte werden durch die Darstellungseinrichtung 20 im Darstellungsbereich 21 insbesondere bezüglich eines Darstellungskoordinatensystems 20a der Darstellungseinrichtung 20 dargestellt, über das sich virtuelle Objektpositionen der dargestellten virtuellen Objekte definieren lassen.
  • Die Erfassungseinrichtung 30 ist eingerichtet, ein dem Benutzer zugeordnetes Eingabeobjekt 31, etwa die Fingerspitze seines ausgestreckten Fingers, zu erfassen und die Position des Eingabeobjekts 31, insbesondere relativ zur Erfassungseinrichtung 30, zu ermitteln. Zu diesem Zweck kann die Erfassungseinrichtung 30 etwa als TOF-Kamera (time-of-flight-Kamera), Stereokamera oder dergleichen ausgebildet sein. Es ist auch denkbar, alternativ oder zusätzlich z.B. einen Laserscanner und/oder dergleichen vorzusehen, der zum dreidimensionalen Abtasten des Eingabeobjekts 31 eingerichtet ist.
  • Der Erfassungseinrichtung 30 kann dabei ein räumlicher Erfassungsbereich (nicht dargestellt) zugeordnet werden, innerhalb dem das Eingabeobjekt 31 erfasst werden kann. Vorzugsweise korrespondiert der Erfassungsbereich oder zumindest ein Teil des Erfassungsbereichs, zumindest im Wesentlichen, mit dem Darstellungsbereich 21 der Darstellungseinrichtung 20.
  • Bei der Erfassung des Eingabeobjekts 31 bzw. der Ermittlung seiner Position erzeugt die Erfassungseinrichtung 30 Positionsdaten, welche die Position des Erfassungsobjekts 31 repräsentieren. Die ermittelte Position bzw. die Positionsdaten beziehen sich dabei vorzugsweise auf ein Erfassungskoordinatensystem 30a der Erfassungseinrichtung 30.
  • Bei dem Eingabeobjekt 31 muss es sich nicht zwangsweise um eine Fingerspitze des Benutzers handeln. Das Eingabeobjekt 31 kann ebenso durch ein anderes Körperteil des Benutzers gebildet werden. Alternativ oder zusätzlich kann das Eingabeobjekt 31 auch durch ein speziell zum Interagieren mit der Benutzerschnittstelle 1 ausgebildetes Interaktionselement gebildet werden, etwa durch einen Stab oder ein stiftartiges Objekt. An einem solchen Interaktionselement können auch eine oder mehrere Markierungen vorgesehen sein, etwa optische Markierungen in Form von Strichen, Strichcodes und/oder dergleichen und/oder elektronische Markierungen in Form von RFID-Chips und/oder dergleichen, welche die Erfassung des Interaktionselements durch die Erfassungseinrichtung 30, die zu diesem Zweck weitere Sensorik wie etwa eine RFID-Leseanordnung aufweisen kann, erleichtern und/oder präziser machen kann. Es ist in diesem Fall auch denkbar, dass solche Sensorik zum Tracken des Eingabeobjekts 31 die optische Sensorik wie TOF-Kamera, Stereokamera oder dergleichen zumindest teilweise ersetzt.
  • Die Rückmeldeeinrichtung 40 ist eingerichtet, ein Ultraschallfeld 41 zu erzeugen, dass an wenigstens einer vorgebbaren Position ein Intensitätsmaximum 42 hat, welches durch den Benutzer, insbesondere durch das Eingabeobjekt 31, wenn es sich dabei um ein Körperteil des Benutzers handelt, haptisch wahrnehmbar ist. Die Rückmeldeeinrichtung 40 kann zu diesem Zweck als, vorzugsweise fokussierter, Ultraschallgeber ausgebildet sein oder eine Anordnung von mehreren, vorzugsweise unfokussierten und einzeln ansteuerbaren, Ultraschallgebern aufweisen.
  • Der Rückmeldeeinrichtung 40 ist dabei in bevorzugter Weise ein Fokusbereich zugeordnet, innerhalb dem das Intensitätsmaximum 42 des Ultraschallfelds 41 erzeugt werden kann. Vorzugsweise korrespondiert der Fokusbereich, zumindest im Wesentlichen, mit dem Darstellungsbereich 21 der Darstellungseinrichtung 20.
  • Dem Benutzer kann mittels der Rückmeldeeinrichtung 40 das Gefühl von Berührungen an verschiedenen Positionen innerhalb des Fokusbereichs, insbesondere innerhalb des Darstellungsbereichs 21, vermittelt werden. Dazu kann das Intensitätsmaximum 42 des Ultraschallfelds an wenigstens einer Position, z.B. durch entsprechende, insbesondere phasenverschobene, Ansteuerung einzelner Ultraschallgeber einer Anordnung (array), beispielsweise in der Weise moduliert werden, dass der an der wenigstens einen Position entstehende Schalldruck eine Oberfläche eines Benutzerschnittstellenobjekts simuliert.
  • Die Positionen, an denen das Ultraschallfeld 41 ein Intensitätsmaximum 42 aufweist, korrespondieren vorzugsweise mit den Positionen, an denen der Benutzer die durch die Darstellungseinrichtung 20 dargestellten Benutzerschnittstellenobjekte visuell wahrnimmt. Dem Benutzer kann so das Gefühl vermittelt werden, die virtuellen Objekte berühren zu können. Alternativ oder zusätzlich kann dem Benutzer so auch eine haptische Rückmeldung bei der Interaktion mit einem virtuellen Benutzerschnittstellenobjekt, d.h. bei der Bedienung dieses Objekts, gegeben werden. Insbesondere ist es denkbar, der Benutzer auf diese Weise auch ohne hinzusehen mit den virtuellen Benutzerschnittstellenobjekten interagieren kann, indem er die virtuellen Objekte „ertastet“.
  • Die Benutzerschnittstelle 1 weist in bevorzugter Weise zudem eine Steuerungseinrichtung 50 auf, welche mit der Darstellungseinrichtung 20, der Erfassungseinrichtung 30 und der Rückmeldeeinrichtung 40 signalverbunden und vorzugsweise eingerichtet ist, die Darstellung von virtuellen Benutzerschnittstellenobjekten durch die Darstellungseinrichtung 20, das Erfassen des Eingabeobjekts 31 durch die Erfassungseinrichtung 30 sowie das Erzeugen eines Ultraschallfelds 41 mit wenigstens einem Intensitätsmaximum 42 durch die Rückmeldeeinrichtung 40 zu steuern. Die Steuerungseinrichtung 50 ist vorzugsweise auch eingerichtet, die beim Erfassen des Eingabeobjekts 31 durch die Erfassungseinrichtung 30 erzeugten Positionsdaten auszuwerten und gegebenenfalls die Anzeigeeinrichtung 20 und/oder die Rückmeldeeinrichtung 40 auf Grundlage der Positionsdaten zu steuern. Alternativ oder zusätzlich kann die Steuerungseinrichtung 50 auch eingerichtet sein, auf Grundlage der Positionsdaten Steuersignale für ein mit der Benutzerschnittstelle 1 ausgestattetes elektronisches Gerät, insbesondere für ein Fahrzeug bzw. eine Fahrzeugfunktion, zu erzeugen.
  • Beispielsweise kann die Steuerungseinrichtung 50 eingerichtet sein, die Position des Eingabeobjekts 31 anhand der beim Erfassen erzeugten Positionsdaten mit virtuellen Objektpositionen der dargestellten virtuellen Benutzerschnittstellenobjekte zu vergleichen und dabei die Erfüllung eines Interaktionskriteriums als Betätigung des entsprechenden virtuellen Benutzerschnittstellenobjekts zu interpretieren und daraufhin eine entsprechende Steuersignal für das Fahrzeug bzw. eine Fahrzeugfunktion zu erzeugen. Das Interaktionskriterium kann dabei etwa erfüllt sein, wenn ein Abstand zwischen dem Eingabeobjekt 31 und dem virtuellen Benutzerschnittstellenobjekt einen Abstandsschwellenwert erreicht oder unterschreitet, wobei der Abstand auf Grundlage der Positionsdaten und der virtuellen Objektposition ermittelt werden kann.
  • Da unterschiedliche Benutzer, z.B. aufgrund unterschiedlicher Augenabstände oder unterschiedlicher Konditionierung, an Objektpositionen dargestellte Benutzerschnittstellenobjekte an unterschiedlichen Positionen wahrnehmen, ist es bevorzugt, die Benutzerschnittstelle zu kalibrieren, d.h. die Erfassung des Eingabeobjekts 31, die Darstellung von Benutzerschnittstellenobjekten und auch die Ausgabe eines Rückmeldesignals in Form eines entsprechenden Ultraschallfelds 41 aufeinander abzustimmen.
  • Zu diesem Zweck kann die Steuerungseinrichtung 50 eingerichtet sein, die Darstellung eines virtuellen Kalibrationsobjekts 10 an einer Objektposition durch die Darstellungseinrichtung 20 und eine Bewegung des Kalibrationsobjekts 10 entlang einer Bewegungsrichtung B zu veranlassen. Die Bewegungsrichtung B kann von der Steuerungseinrichtung 50 beispielsweise auf Grundlage von Positionsdaten, die beim Erfassen des Erfassungsobjekts 31 im Darstellungsbereich 21 erzeugt werden, in der Weise festgelegt werden, dass sich das virtuelle Kalibrationsobjekt 10 auf das Eingabeobjekt 31 zubewegt. Alternativ oder zusätzlich kann die Bewegungsrichtung B auch in der Weise vorgegeben sein oder zumindest festgelegt werden, dass sich das Kalibrationsobjekt 10 von der Darstellungseinrichtung 20 weg, insbesondere senkrecht zur Anzeige 22, bewegt.
  • Zudem kann die Steuerungseinrichtung 50 eingerichtet sein, eine vorbestimmte Benutzereingabe, vorzugsweise mittels der Erfassungseinrichtung 30, zu erfassen und die Benutzerschnittstelle 1 auf Grundlage der zum Zeitpunkt der beim Erfassen der vorbestimmten Benutzereingabe aktuellen, durch die Positionsdaten repräsentierte Position des Eingabeobjekts 31 und virtuellen Objektposition zu kalibrieren, insbesondere eine Zuordnungsvorschrift zwischen der gegenwärtigen virtuellen Objektposition und der durch die Positionsdaten repräsentierten Position des Eingabeobjekts 31 zu ermitteln. Dabei wird die vorbestimmte Benutzereingabe vom Benutzer z.B. dann getätigt, wenn er den Eindruck hat, dass das Eingabeobjekt 31 das virtuelle Kalibrationsobjekt 10 berührt bzw. mit ihm interagieren sollte.
  • Die vorbestimmte Benutzereingabe kann beispielsweise einem Stoppen der Bewegung des Eingabeobjekts 31 durch den Benutzer entsprechen. Dabei ist die Steuerungseinrichtung 50 vorzugsweise dazu eingerichtet, auf Grundlage der insbesondere kontinuierlich erzeugten Positionsdaten ein Maß für die Bewegung des Eingabeobjekts 31 innerhalb des Darstellungsbereichs 21 zu ermitteln und das Erreichen oder Unterschreiten eines vorbestimmten Bewegungsschwellenwerts als vorbestimmte Benutzereingabe zu interpretieren.
  • Durch das Ermitteln einer Zuordnungsvorschrift zwischen der durch die Positionsdaten repräsentierten Position und der virtuellen Objektposition, beispielsweise dem Berechnen einer entsprechenden Transformationsmatrix, kann die Funktionalität bzw. Zuverlässigkeit der Benutzerschnittstelle 1, insbesondere die Präzision, mit den Interaktionen zwischen dem Eingabeobjekt 31 und virtuellen Benutzerschnittstellenobjekten erfasst und beurteilt werden können, erweitert bzw. erhöht werden. Wenn der Benutzer aufgrund seiner individuellen, insbesondere visuellen, Wahrnehmung das virtuelle Kalibrationsobjekt 10 z.B. leicht versetzt sieht und so die Position des Eingabeobjekts 31 im Darstellungskoordinatensystem 20a zu dem Zeitpunkt, an dem der Benutzer eine Berührung zwischen dem Eingabeobjekt 31 und dem virtuellen Kalibrationsobjekt 10 wahrnimmt, nicht mit der Objektposition des Kalibrationsobjekts 10 im Darstellungskoordinatensystem 20a übereinstimmt, kann die Auswertung der Positionsdaten auf diesen „Versatz“ zwischen der tatsächlichen Position des Eingabeobjekts 31 und der von der Darstellungseinrichtung 20 bestimmten Objektposition des Kalibrationsobjekts 10 hin angepasst werden. Ebenso kann auch die Erzeugung des Ultraschallfelds 41, insbesondere die Ausbildung des Intensitätsmaximums 42, auf diesen Versatz hin angepasst werden.
  • 2 zeigt ein bevorzugtes Ausführungsbeispiel eines Verfahrens 100 zum Kalibrieren einer Benutzerschnittstelle.
  • In einem Verfahrensschritt S1 wird ein Kalibrationsobjekt durch eine Darstellungseinrichtung an einer durch die Darstellungseinrichtung bestimmten Objektposition in einem der Darstellungseinrichtung zugeordneten Darstellungsbereich in drei Raumdimensionen dargestellt, insbesondere so dass bei einem Benutzer ein Tiefeneindruck entsteht. Die Darstellung des Kalibrationsobjekts durch die Darstellungseinrichtung kann dabei etwa durch eine Steuerungseinrichtung veranlasst werden, welche das Kalibrationsverfahren 100 koordiniert.
  • In einem weiteren Verfahrensschritt S2 ändert die Darstellungseinrichtung die Objektposition, an der das Kalibrationsobjekt dargestellt wird, in der Weise, dass der Benutzer den Eindruck erhält, das Kalibrationsobjekt rücke innerhalb des Darstellungsbereichs näher an ihn heran. Dabei kann die Objektposition inkrementell geändert werden, d.h. schrittweise, oder aber, zumindest im Wesentlichen, kontinuierlich, so dass der Benutzer den Eindruck einer flüssigen Bewegung des virtuellen Kalibrationsobjekts auf ihn zu erhält.
  • In einem weiteren Verfahrensschritt S3 wird ein dem Benutzer zugeordnetes Eingabeobjekt, z.B. ein ausgestreckter Finger des Benutzers, durch eine Erfassungseinrichtung erfasst und entsprechende Positionsdaten, welche die Position des erfassten Eingabeobjekts im Darstellungsbereich repräsentieren, erzeugt. Der Verfahrensschritt S3 kann dabei, zumindest im Wesentlichen, zeitgleich bzw. parallel zum Verfahrensschritt S2, durchgeführt werden.
  • In einem weiteren Verfahrensschritt S4 wird überwacht, ob eine vorbestimmte Benutzereingabe an der Benutzerschnittstelle erfasst wird. Ist die Benutzereingabe bisher noch nicht erfasst worden, werden die Verfahrensschritte S2 und S3 vorzugsweise erneut durchgeführt. Dies wird in bevorzugter Weise solange wiederholt, bis die Benutzereingabe an der Benutzerschnittstelle erfasst wird oder ein vorgegebenes Abbruchkriterium erfüllt ist. Dies kann z.B. der Fall sein, wenn ein Abstand zwischen der Objektposition, an der das Kalibrationsobjekt dargestellt wird, und der Darstellungseinrichtung einen Abbruchschwellenwert erreicht oder überschreitet.
  • Bei der vorbestimmten Benutzereingabe kann es sich etwa um eine vorbestimmte Bewegung oder Änderung der Bewegung, insbesondere des Bewegungszustands, des Eingabeobjekts handeln. Alternativ oder zusätzlich kann es sich auch um ein Sprachkommando oder um das Betätigen eines Schalters handeln.
  • Wurde die vorbestimmte Benutzereingabe an der Benutzerschnittstelle erfasst, wird in einem weiteren Verfahrensschritt S5 eine Zuordnungsvorschrift zwischen der gegenwärtigen Objektposition, d.h. der Objektposition, an der das Kalibrationsobjekt gegenwärtig dargestellt wird oder zuletzt dargestellt wurde, und der gegenwärtig durch die Positionsdaten repräsentierten Position des Eingabeobjekts, d.h. der zuletzt erfassten Positionen des Eingabeobjekts, ermittelt. Diese Zuordnungsvorschrift kann beispielsweise ein Vektor oder eine Transformationsmatrix sein, mit der sich die Objektposition mit der Position des Eingabeobjekts verknüpfen lässt.
  • In einem weiteren Verfahrensschritt S6 wird die ermittelte Zuordnungsvorschrift zur späteren Verwendung gespeichert, etwa in einer Speichereinrichtung der Benutzerschnittstelle.
  • Anhand der gespeicherten Zuordnungsvorschrift kann, wenn das Eingabeobjekt an einer Eingabeposition, die gemäß der Zuordnungsvorschrift einer Objektposition zugeordnet ist, an der ein Benutzerschnittstellenobjekt dargestellt wird, auf eine durch den Benutzer beabsichtigte Betätigung des Benutzerschnittstellenobjekts oder eine sonstige gewünschte Interaktion mit dem Benutzerschnittstellenobjekt geschlossen werden.
  • Bezugszeichenliste
  • 1
    Benutzerschnittstelle
    20
    Darstellungseinrichtung
    20a
    Darstellungskoordinatensystem
    21
    Darstellungsbereich
    22
    Anzeige
    30
    Erfassungseinrichtung
    30a
    Erfassungskoordinatensystem
    31
    Eingabeobjekt
    40
    Rückmeldeeinrichtung
    41
    Ultraschallfeld
    42
    Intensitätsmaximum
    50
    Steuerungseinrichtung
    100
    Verfahren
    S1-S6
    Verfahrensschritte

Claims (9)

  1. Verfahren (100) zum Kalibrieren einer virtuellen Benutzerschnittstelle (1), insbesondere für ein Fahrzeug, aufweisend: Darstellen (S1), mittels einer Darstellungseinrichtung (20), eines virtuellen Kalibrationsobjekts (10) in drei Raumdimensionen an einer durch die Darstellungseinrichtung (20) bestimmten Objektposition in einem der Darstellungseinrichtung (20) zugeordneten räumlichen Darstellungsbereich (21); Verändern (S2) der Objektposition, an der das Kalibrationsobjekt (10) dargestellt wird, in der Weise, dass für den Benutzer der Eindruck entsteht, dass das Kalibrationsobjekt (10) innerhalb des Darstellungsbereichs (21) näher an den Benutzer heranrückt; Erfassen (S3) einer Position eines dem Benutzer zugeordneten Eingabeobjekts (31) im Darstellungsbereich (21) mittels einer Erfassungseinrichtung (30) und Erzeugen entsprechender Positionsdaten, welche die Position des Eingabeobjekts (31) im Darstellungsbereich (21) repräsentieren; und wenn eine vorbestimmte Benutzereingabe an der Benutzerschnittstelle (1) erfasst wird, Ermitteln (S5) einer Zuordnungsvorschrift zwischen der gegenwärtigen Objektposition und der durch die Positionsdaten repräsentierten Position des Eingabeobjekts (31) und Speichern (S6) der Abbildungsvorschrift zur späteren Verwendung zur Erkennung einer Benutzereingabe an der Benutzerschnittstelle (1) auf Basis einer Zuordnung gemäß der Zuordnungsvorschrift eines von der Darstellungseinrichtung (20) an einer Objektposition dargestellten Benutzerschnittstellenobjekts zu einer dazu korrespondierenden Benutzereingabe mittels des Eingabeobjekts (31) an einer der Objektposition gemäß der Zuordnungsvorschrift zugeordneten Eingabeposition.
  2. Verfahren (100) nach Anspruch 1, wobei eine Rückmeldeeinrichtung (40) ein vom Benutzer wahrnehmbares Rückmeldesignal erzeugt, wenn sich das Eingabeobjekt (31), zumindest im Wesentlichen, an einer Eingabeposition im Darstellungsbereich (21) befindet, die gemäß der Zuordnungsvorschrift einer Objektposition, an der ein Benutzerschnittstellenobjekt dargestellt ist, zugeordnet ist.
  3. Verfahren (100) nach Anspruch 2, wobei die Rückmeldeeinrichtung (40) ein Ultraschallfeld (41) erzeugt, das an der der Objektposition gemäß der Zuordnungsvorschrift zugeordneten Eingabeposition ein Intensitätsmaximum (42) aufweist.
  4. Verfahren (100) nach einem der vorangehenden Ansprüche, wobei das Kalibrationsobjekt (10) an der Objektposition in Bezug auf ein Darstellungskoordinatensystem (20a) der Darstellungseinrichtung (20) in drei Raumdimensionen dargestellt und die Position des Eingabeobjekts (31) in Bezug auf ein Erfassungskoordinatensystem (30a) der Erfassungseinrichtung (30) erfasst wird, und wobei beim Ermitteln der Zuordnungsvorschrift zwischen der gegenwärtigen Objektposition und der durch die Positionsdaten repräsentierten Position des Eingabeobjekts (31) eine Transformationsvorschrift für die Transformation aus dem Erfassungskoordinatensystem (30a) in das Darstellungskoordinatensystem (20a) und/oder andersherum ermittelt wird.
  5. Verfahren (100) nach einem der vorangehenden Ansprüche, wobei auf Basis von, zumindest im Wesentlichen, kontinuierlich erzeugten Positionsdaten ein Bewegungsmaß für die Bewegung des Eingabeobjekts (31) ermittelt wird und die vorbestimmte Benutzereingabe dadurch definiert ist, dass das Bewegungsmaß einen vorbestimmten Bewegungsschwellenwert erreicht oder unterschreitet.
  6. Verfahren (100) nach einem der vorangehenden Ansprüche, wobei die Objektposition kontinuierlich entlang einer Bewegungsrichtung (B) geändert wird.
  7. Verfahren (100) nach einem der vorangehenden Ansprüche, wobei die Verfahrensschritte (S1-S5) sequentiell für wenigstens zwei verschiedene Objektpositionen an unterschiedlichen Stellen des Darstellungsbereichs (21) durchgeführt werden.
  8. Benutzerschnittstelle (1), insbesondere für ein Fahrzeug, aufweisend: eine Darstellungseinrichtung (20), die zum Darstellen von Benutzerschnittstellenobjekten in drei Raumdimensionen an einer durch die Darstellungseinrichtung (20) bestimmten Objektposition in einem der Darstellungseinrichtung (20) zugeordneten räumlichen Darstellungsbereich (21) eingerichtet ist; einer Erfassungseinrichtung (30), die ausgebildet ist, ein einem Benutzer zugeordnetes Eingabeobjekt (31) im Darstellungsbereich (21) zu erfassen und entsprechende Positionsdaten, welche die Position des Eingabeobjektes (31) im Darstellungsbereich (21) repräsentieren, zu erzeugen; eine Steuerungseinrichtung (50), die dazu eingerichtet ist, ein Verfahren (100) zum Kalibrieren der Benutzerschnittstelle (1) nach einem der vorangehenden Ansprüche auszuführen und insbesondere die Darstellungseinrichtung (20) und die Erfassungseinrichtung (30) entsprechend zu steuern.
  9. Computerprogramm, das bei seiner Ausführung durch eine Benutzerschnittstelle (1) nach Anspruch 8 eine Kalibrierung der Benutzerschnittstelle (1) gemäß einem Verfahren (100) nach einem der Ansprüche 1 bis 7 bewirkt.
DE102019105764.7A 2019-03-07 2019-03-07 Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle Active DE102019105764B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019105764.7A DE102019105764B3 (de) 2019-03-07 2019-03-07 Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019105764.7A DE102019105764B3 (de) 2019-03-07 2019-03-07 Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle

Publications (1)

Publication Number Publication Date
DE102019105764B3 true DE102019105764B3 (de) 2020-08-06

Family

ID=71615290

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019105764.7A Active DE102019105764B3 (de) 2019-03-07 2019-03-07 Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle

Country Status (1)

Country Link
DE (1) DE102019105764B3 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243054B1 (en) 1998-07-01 2001-06-05 Deluca Michael Stereoscopic user interface method and apparatus
EP2372512A1 (de) 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Fahrzeug-Benutzeroberflächeneinheit für eine elektronische Fahrzeugvorrichtung
WO2012054231A2 (en) 2010-10-04 2012-04-26 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
US20140354602A1 (en) 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243054B1 (en) 1998-07-01 2001-06-05 Deluca Michael Stereoscopic user interface method and apparatus
EP2372512A1 (de) 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Fahrzeug-Benutzeroberflächeneinheit für eine elektronische Fahrzeugvorrichtung
WO2012054231A2 (en) 2010-10-04 2012-04-26 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
US20140354602A1 (en) 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LU, Gan, et al. Dynamic hand gesture tracking and recognition for real-time immersive virtual object manipulation. In: 2009 International Conference on CyberWorlds. IEEE, 2009. S. 29-35 *
TODOHOSHI, Takayuki, et al.: Noncontact tactile display based on radiation pressure of airborne ultrasound. IEEE Transactions on Haptics, 2010, 3. Jg., Nr. 3, S. 155-165 *

Similar Documents

Publication Publication Date Title
EP2272055B1 (de) Fernbedienung
DE102014215662A1 (de) Elektronisches Gerät und Koordinatenerfassungsverfahren
EP3807119B1 (de) Verfahren zum betreiben einer anzeige- und bedienvorrichtung, anzeige- und bedienvorrichtung, und kraftfahrzeug
DE102015115526A1 (de) Verfahren zur Zielerfassung von Zielobjekten, insbesondere zur Zielerfassung von Bedienelementen in einem Fahrzeug
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102014006776A1 (de) Bedienvorrichtung für ein elektronisches Gerät
DE102015208804A1 (de) Vorrichtung und Verfahren zum rechnergestützten Simulieren von chirurgischen Eingriffen
DE112017004242T5 (de) Berührungsempfindliche objekte
DE102014114742A1 (de) Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben
DE102019105764B3 (de) Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle
DE102012219129B4 (de) Verfahren zum Betreiben einer Vorrichtung, die eine Benutzerschnittstelle mit einem Berührungssensor aufweist, sowie entsprechende Vorrichtung
WO2019242908A1 (de) Verfahren zur taktilen interaktion eines benutzers mit einem elektronischen gerät sowie ein computerprogrammprodukt und ein elektronisches gerät
DE102019216411B4 (de) Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts und Verfahren zum Betreiben einer Vorrichtung zum Erfassen einer Eingabe
EP2977855A1 (de) Virtuelle Tastatur und Eingabeverfahren für eine virtuelle Tastatur
WO2020058233A1 (de) Verfahren, vorrichtung und system zur erzeugung eines zeitab-hängigen signals auf einem kapazitiven flächensensor
DE102012208355A1 (de) Anordnung und Verfahren zum Erzeugen einer Tastsinnreizung eines Benutzers
DE102018221795A1 (de) Vorrichtung zur Erzeugung eines haptisch wahrnehmbaren Bereiches sowie Konfigurations- und Steuerverfahren einer solchen Vorrichtung
DE102019002884A1 (de) Bedienvorrichtung
DE102019131740A1 (de) Verfahren und Anzeigevorrichtung zur Erzeugung eines Tiefeneffekts in der Perspektive eines Beobachters auf einem flachen Anzeigemedium sowie Kraftfahrzeug
DE102014224102A1 (de) Verfahren zur taktilen Interaktion eines Benutzers mit einem elektronischen Gerät und elektronisches Gerät hierzu
AT520234B1 (de) Vorrichtung zur interaktiven Präsentation von visuellen Inhalten
AT525369B1 (de) Testumfeld für urbane Mensch-Maschine Interaktion
Fontana et al. Importance of force feedback for following uneven virtual paths with a stylus
DE102015225839A1 (de) Verfahren und Steuergerät zum Erzeugen eines Signals, das eine Änderung einer Bewegungsrichtung eines eine berührungssensitive Schaltfläche berührenden Objektes auf einem Teilabschnitt einer Oberfläche einer Vorrichtung repräsentiert
DE29719995U1 (de) System zum Umwandlung von visuell aufgenommenen Raumdaten in erfühl- und ertastbare Informationen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final