DE102012208733A1 - Verfahren und Vorrichtung zum Ermitteln zumindest eines Objekts - Google Patents

Verfahren und Vorrichtung zum Ermitteln zumindest eines Objekts Download PDF

Info

Publication number
DE102012208733A1
DE102012208733A1 DE201210208733 DE102012208733A DE102012208733A1 DE 102012208733 A1 DE102012208733 A1 DE 102012208733A1 DE 201210208733 DE201210208733 DE 201210208733 DE 102012208733 A DE102012208733 A DE 102012208733A DE 102012208733 A1 DE102012208733 A1 DE 102012208733A1
Authority
DE
Germany
Prior art keywords
vehicle
determined
predetermined
obj
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201210208733
Other languages
English (en)
Inventor
Chadly Marouane
Sonja Rümelin
Christopher Rölle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE201210208733 priority Critical patent/DE102012208733A1/de
Publication of DE102012208733A1 publication Critical patent/DE102012208733A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities

Abstract

Zum Ermitteln zumindest eines Objektes werden zunächst Daten berührungslos erfasst, die repräsentativ sind für eine vorgegebene Richtungszeigegestik zumindest eines vorgegebenen Körperteils, die ein Fahrzeugnutzer in einem vorgegebenen Erfassungsbereich in einem Fahrzeug (5) ausführt. Es wird ein Richtungsvektor ermittelt bezogen auf einen vorgegebenen Bezugspunkt in dem Fahrzeug (5) abhängig von den erfassten Daten, die repräsentativ sind für die Richtungszeigegestik. Des Weiteren wird zumindest ein Objekt aus einer vorgegebenen Menge an Objekten ermittelt abhängig von dem ermittelten Richtungsvektor, wobei den Objekten jeweils Positionsdaten zugeordnet sind, die repräsentativ sind für eine relative Position des jeweiligen Objekts in Bezug auf den vorgegebenen Bezugspunkt und/oder die repräsentativ sind für eine absolute Position in einem geografischen Koordinatensystem.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Ermitteln zumindest eines Objekts.
  • Viele heutige Fahrzeuge weisen Fahrzeug-Navigationssysteme auf, welche den Fahrzeuginsassen Informationen hinsichtlich eines Ortes bereitstellen, an dem sich das Fahrzeug befindet oder in dessen unmittelbarer Umgebung sich das Fahrzeug befindet. Oftmals stellen die Navigationssysteme auch Listen bereit, welche verschiedene interessante beziehungsweise sehenswerte Punkte (points of interest) oder Orte umfassen. Beispielsweise beinhalten solche Listen oftmals Listen von in der Nähe befindlichen Restaurants, Tankstellen beziehungsweise Werkstätten, Hotels, Geschäften oder von anderen Orten. Diese interessante beziehungsweise sehenswerte Punkte (points of interest) oder Orte können teilweise auch in einer Karte angezeigt werden beispielsweise als Informationsfähnchen und/oder Informationsstecknadel.
  • Die Aufgabe, die der Erfindung zu Grunde liegt, ist es, ein Verfahren und eine Vorrichtung zum Ermitteln zumindest eines Objektes zu schaffen, das beziehungsweise die ein zuverlässiges Ermitteln eines Objekts außerhalb und/oder innerhalb eines Fahrzeugs ermöglicht, und das beziehungsweise die einen Beitrag leistet, eine Bereitstellung von Informationen und/oder das Bedienen von Funktionen, insbesondere von Fahrzeugfunktionen, zu vereinfachen.
  • Die Aufgabe wird gelöst durch die Merkmale der unabhängigen Patentansprüche. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
  • Die Erfindung zeichnet sich aus durch ein Verfahren und eine korrespondierende Vorrichtung zum Ermitteln zumindest eines Objektes. Hierbei werden Daten berührungslos erfasst, die repräsentativ sind für eine vorgegebene Richtungszeigegestik zumindest eines vorgegebenen Körperteils, die ein Fahrzeugnutzer in einem vorgegebenen Erfassungsbereich in einem Fahrzeug ausführt. Es wird ein Richtungsvektor ermittelt bezogen auf einen vorgegebenen Bezugspunkt in dem Fahrzeug abhängig von den erfassten Daten, die repräsentativ sind für die Richtungszeigegestik. Des Weiteren wird zumindest ein Objekt aus einer vorgegebenen Menge an Objekten ermittelt abhängig von dem ermittelten Richtungsvektor, wobei den Objekten jeweils Positionsdaten zugeordnet sind, die repräsentativ sind für eine relative Position des jeweiligen Objekts in Bezug auf den vorgegebenen Bezugspunkt und/oder die repräsentativ sind für eine absolute Position in einem geografischen Koordinatensystem.
  • Vorteilhafterweise ermöglicht dies ein einfaches und zuverlässiges Ermitteln von Objekten innerhalb und/außerhalb des Fahrzeugs. Dies kann einen Beitrag leisten, eine Bereitstellung von Informationen in einem Fahrzeug und/oder das Bedienen von Funktionen, insbesondere von Fahrzeugfunktionen, zu vereinfachen. Die Menge an Objekte kann Objekte umfassen, die im Fahrzeug angeordnet sind und/oder die sich in einer vorgegebenen Umgebung des Fahrzeugs befinden und/oder denen geografische Koordinaten zugeordnet sind.
  • In einer vorteilhaften Ausgestaltung wird das zumindest eine Objekt ermittelt abhängig von einer ermittelten aktuellen Position des Fahrzeugs und/oder des Fahrzeugnutzers im Fahrzeug. Dies ermöglicht ein einfaches Ermitteln des Objektes.
  • In einer weiteren vorteilhaften Ausgestaltung sind die Objekte jeweils zumindest einer vorgegebenen Klasse zugeordnet, und das Objekt wird ermittelt abhängig von einer vorgegebenen Klasse für das zu ermittelnde Objekt. Vorteilhafterweise kann dies einen Beitrag leisten, einen Rechenaufwand zu reduzieren, da nicht sämtliche Objekte, die in einer gleichen Richtung angeordnet sind, ermittelt werden, sondern bereits eine Vorauswahl getroffen werden kann. Die Klasse kann von dem Fahrzeugnutzer oder einem weiteren Fahrzeugnutzer durch Spracheingabe und/oder eine Bedieneingabe vorgegeben werden. Die Bedieneingabe kann berührungslos, durch Ausführung einer vorgegebenen Bediengestik, und/oder durch ein vorgegebnes Betätigen von vorgegebenen Bedienelementen erfolgen.
  • In einer weiteren vorteilhaften Ausgestaltung wird, wenn eines der Objekte aus der vorgegebenen Menge ermittelt wurde, dieses Objekt als signifikantes Objekt klassifiziert und, wenn mehrere Objekte aus der Menge ermittelt wurden, wird zumindest eines der ermittelten Objekte als signifikantes Objekt klassifiziert abhängig von einer vorgegebenen Regel und/oder abhängig von einem vorgegebenen ersten Auswahlsteuersignal. Das erste Auswahlsteuersignal kann von einer Bedieneinrichtung ermittelt und erzeugt werden, abhängig von einer Spracheingabe und/oder einer Bedieneingabe von dem Fahrzeugnutzer oder dem weiteren Fahrzeugnutzer. Dies hat den Vorteil, dass eine einfache Auswahl des signifikanten Objekts erfolgen kann. Zum einen kann die Auswahl zumindest teilweise automatisch erfolgen, zusätzlich oder alternativ kann die Auswahl manuell von dem Fahrzeugnutzer vorgenommen werden.
  • In einer weiteren vorteilhaften Ausgestaltung ist zumindest einem ersten Teil an Objekten der Menge jeweils zumindest ein Objektattribut zugeordnet, das repräsentativ ist für eine vorgegebene Objektinformation. Falls dem zumindest einen signifikanten Objekt das Objektattribut zugeordnet ist, das repräsentativ ist für die vorgegebene Objektinformation, wird die dem signifikanten Objekt zugeordnete Objektinformation optisch und/oder akustisch und/oder haptisch signalisiert. Durch die Ausführung der Richtungszeigegestik, insbesondere durch ein Zeigen mit einem vorgegebenen Körperteil auf das Objekt innerhalb und/oder außerhalb des Fahrzeugs, kann der Fahrzeugnutzer das Objekt einfach und schnell auswählen und sich die mit dem Objekt verknüpfte Objektinformation anzeigen lassen.
  • In einer weiteren vorteilhaften Ausgestaltung ist zumindest einem zweiten Teil an Objekten der Menge jeweils zumindest ein Objektattribut zugeordnet, das repräsentativ ist für eine vorgegebene Funktion. Falls dem zumindest einen signifikanten Objekt das Objektattribut zugeordnet ist, das repräsentativ ist für eine vorgegebene Funktion, wird die dem signifikanten Objekt zugeordnete Funktion ausgeführt. Der erste Teil an Objekten und der zweite Teil an Objekten können unterschiedlich oder gleich sein. Durch die Ausführung der Richtungszeigegestik, insbesondere durch ein Zeigen mit einem vorgegebener. Körperteil auf das Objekt innerhalb und/oder außerhalb des Fahrzeugs, kann der Fahrzeugnutzer das Objekt einfach und schnell auswählen und die mit dem Objekt verknüpfte Funktion zur Ausführung bringen. Dies kann die Auswahl der Funktion für den Fahrzeugnutzer vereinfachen und einen Beitrag leisten dazu, dass die Auswahl der Funktion und/oder die Bedienung von Funktionssystemen für den Fahrzeugnutzer intuitiver erfolgen kann.
  • In einer weiteren vorteilhaften Ausgestaltung wird, falls dem signifikanten Objekt mehrere Objektattribute zugeordnet sind, abhängig von einem zweiten Auswahlsteuersignal eines der Objektattribute ausgewählt und die Objektinformation signalisiert beziehungsweise die Funktion des ausgewählten Objektattributs ausgeführt. Das zweite Auswahlsteuersignal kann von einer Bedienrichtung ermittelt und erzeugt werden, abhängig von einer Spracheingabe und/oder einer Bedieneingabe von dem Fahrzeugnutzer oder dem weiteren Fahrzeugnutzer. Dies hat den Vorteil, dass eine einfache Auswahl des gewünschten Objektattributs erfolgen kann durch den Fahrzeugnutzer.
  • In einer weiteren vorteilhaften Ausgestaltung wird die Funktion eines aktuell ermittelten signifikanten Objekts ausgeführt und/oder die Objektinformation des aktuell ermittelten signifikanten Objekts signalisiert abhängig von einem zuvor ermittelten signifikanten Objekt. Dies hat den Vorteil, dass das aktuell ermittelte signifikante Objekt automatisch vorgegeben verknüpft werden kann mit einem zuvor, insbesondere unmittelbar zuvor, ermittelten signifikanten Objekt. Hierfür kann den jeweiligen Objekten beispielsweise eine vorgegebene Verknüpfungsregel zugeordnet sein.
  • In einer weiteren vorteilhaften Ausgestaltung wird die Funktion des aktuell ermittelten signifikanten Objekts ausgeführt und/oder die Objektinformation des aktuell ermittelten signifikanten Objekts signalisiert abhängig von einem vorgegebenen Verknüpfungssteuersignal. Dies hat den Vorteil, dass das aktuell ermittelte signifikante Objekt verknüpft werden kann mit einem zuvor, insbesondere unmittelbar zuvor, ermittelten signifikanten Objekt, wobei eine gewünschte Verknüpfung beispielsweise durch den Fahrzeugnutzer vorgegeben werden kann. Die gewünschte Verknüpfung kann von dem Fahrzeugnutzer oder einem weiteren Fahrzeugnutzer durch Spracheingabe und/oder eine Bedieneingabe vorgegeben werden. Die Bedieneingabe kann berührungslos, durch Ausführung einer vorgegebenen Bediengestik, und/oder durch ein vorgegebenes Betätigen von vorgegebenen Bedienelementen erfolgen. Das Verknüpfungssteuersignal kann von einer geeignet ausgebildeten Bedieneinrichtung erzeugt werden, die ausgebildet ist, abhängig von einer vorgegebenen Bedienbetätigung, das Verknüpfungssignal zu ermitteln und zu erzeugen.
  • In einer weiteren vorteilhaften Ausgestaltung werden die Daten optisch erfasst, die repräsentativ sind für eine Richtungszeigegestik des zumindest einen vorgegebenen Körperteils. Dies hat den Vorteil, dass die Daten einfach erfasst werden können und die Daten einen hohen Informationsgehalt hinsichtlich einer Körperstellung des zumindest einen Körperteils aufweisen, der einfach ausgewertet werden kann.
  • In einer weiteren vorteilhaften Ausgestaltung umfasst das zumindest eine vorgegebene Körperteil eine Hand und/oder zumindest einen Finger. Die Hand hat den Vorteil, dass sie eine ausreichende Größe aufweist, um einfach optisch erkannt zu werden. Ein oder mehrere verschiedene Finger können genutzt werden, um eine Zuverlässigkeit der Erkennung der Richtungszeigegestik zu erhöhen. Ein Finger ist üblicherweise ein sehr bewegliches Körperteil und ein Fahrzeugnutzer kann mit einem oder mehreren Fingern eine gewünschte Fingerstellung sehr präzise einnehmen.
  • In einer weiteren vorteilhaften Ausgestaltung umfasst die Richtungszeigegestik eine vorgegebene Hand- und/oder Fingerstellung und eine vorgegebene Kopfstellung. Vorteilhafterweise kann dies genutzt werden, um eine Zuverlässigkeit der Erkennung der Richtungszeigegestik zu erhöhen. Abhängig von der Kopfstellung kann beispielsweise eine Blickrichtung des Fahrzeugnutzers ermittelt werden. Wenn ein ermittelter Richtungsvektor beispielsweise mit der ermittelten Blickrichtung übereinstimmt, kann der ermittelte Richtungsvektor als gültig klassifiziert werden.
  • Ausführungsbeispiele der Erfindung sind im Folgenden anhand der schematischen Zeichnungen erläutert.
  • Es zeigen:
  • 1 ein Ausführungsbeispiel für ein Bedien- und Ausgabesystem und
  • 2 ein Ausführungsbeispiel für eine Signalisierung einer Objektinformation.
  • Elemente gleicher Konstruktion oder Funktion sind figurenübergreifend mit den gleichen Bezugszeichen versehen.
  • 1 zeigt ein Ausführungsbeispiel eines Bedien- und Ausgabesystems 1. Das Bedien- und Ausgabesystem kann insbesondere für ein Fahrzeug 5 (siehe 2) genutzt werden. Wie in 1 gezeigt umfasst das Bedien- und Ausgabesystem 1 eine Vorrichtung 10 zum Ermitteln zumindest eines Objekts. Die Vorrichtung 10 ist beispielsweise in dem Fahrzeug 5 angeordnet. Alternativ ist es möglich, dass die Vorrichtung 10 außerhalb des Fahrzeugs 5 angeordnet ist und beispielsweise ihr zugeordnete Komponenten, beispielsweise eine Erfassungseinheit 20, in dem Fahrzeug 5 angeordnet ist.
  • Die Vorrichtung 10 zum Ermitteln des zumindest einen Objekts ist ausgebildet, berührungslos Daten zu erfassen, die repräsentativ sind für eine vorgegebene Richtungszeigegestik zumindest eines vorgegebenen Körperteils, die ein Fahrzeugnutzer in einem vorgegebenen Erfassungsbereich in dem Fahrzeug 5 ausführt. Der Nutzer kann beispielsweise ein Fahrzeugführer und/oder ein Beifahrer sein.
  • Die Vorrichtung 10 kann eine Erfassungseinheit 20 umfassen. Alternativ kann der Vorrichtung 10 die Erfassungseinheit 20 zugeordnet sein. Die Erfassungseinheit 20 umfasst beispielsweise eine optische Aufnahmeeinheit, beispielsweise eine Tiefenkamera und/oder eine Videokamera und/oder eine Infrarot-Kamera. Die Erfassungseinheit 20 ist beispielsweise an einer Innenseite eines Fahrzeugdachs angeordnet. Die Erfassungseinheit 20 ist beispielsweise ausgebildet, Bilddaten eines Bildes und/oder einer zeitlichen Bildfolge zu erfassen.
  • Die Erfassungseinheit 20 kann auch mehrere optische Aufnahmeeinheiten aufweisen, die im Fahrzeug 5 beispielsweise an unterschiedlichen Stellen angeordnet sind. Die verschiedenen optischen Aufnahmeeinheiten können verschiedene Teilerfassungsbereiche aufweisen und so beispielsweise Bilddaten von verschiedenen Körperteilen des Fahrzeugnutzers erfassen. Beispielsweise kann eine optische Aufnahmeeinheit für die Erfassung von Bilddaten eines ersten Körperteils, zum Beispiel einer Hand und/oder eines oder mehrerer Finger genutzt werden und eine weitere optische Aufnahmeeinheit kann genutzt werden, Bilddaten eines zweiten Körperteils, zum Beispiel eines Kopfes, zu erfassen.
  • Die Vorrichtung 10 zum Ermitteln des Objekts ist ferner ausgebildet, einen Richtungsvektor bezogen auf einen vorgegebenen Bezugspunkt in dem Fahrzeug 5 abhängig von den erfassten Daten zu ermitteln, die repräsentativ sind für die Richtungszeigegestik. Des Weiteren ist die Vorrichtung 10 ausgebildet, zumindest ein Objekt aus einer vorgegebenen Menge an Objekten abhängig von dem ermittelten Richtungsvektor zu ermitteln, wobei den Objekten jeweils Positionsdaten zugeordnet sind, die repräsentativ sind für eine relative Position des jeweiligen Objekts in Bezug auf den vorgegebenen Bezugspunkt und/oder die repräsentativ sind für eine absolute Position in einem geografischen Koordinatensystem.
  • Das zumindest eine Objekt kann beispielsweise ermittelt werden abhängig von einer ermittelten aktuellen Position des Fahrzeugs 5 und/oder des Fahrzeugnutzers im Fahrzeug 5. Hierzu kann das Bedien- und Ausgabesystem 1 beispielsweise eine Positionsermittlungseinheit 30 umfassen, die signaltechnisch mit der Vorrichtung 10 gekoppelt ist. Die Positionsermittlungseinheit 30 ist beispielsweise ausgebildet, eine aktuelle Position des Fahrzeugs 5 zu ermitteln und diese Daten an die Vorrichtung 10 weiterzuleiten. Die Positionsermittlungseinheit 30 kann beispielsweise ein Global Positioning System (GPS) nutzen für ein Ermitteln von aktuellen Positionskoordinaten des Fahrzeugs 5.
  • Die Vorrichtung 10 kann ferner ausgebildet sein, wenn eines der Objekte aus der vorgegebenen Menge ermittelt wurde, dieses Objekt als signifikantes Objekt Obj zu klassifizieren, und, wenn mehrere Objekte aus der Menge ermittelt wurden, zumindest eines der ermittelten Objekte als signifikantes Objekt Obj zu klassifizieren abhängig von einer vorgegebenen Regel und/oder abhängig von einem vorgegebenen ersten Auswahlsteuersignal.
  • Beispielsweise kann die Regel umfassen, jeweils das ermittelte Objekt, das den geringsten Abstand zu dem Fahrzeug 5 aufweist, wird als das signifikante Objekt Obj klassifiziert. Dies ermöglicht eine automatische Auswahl des signifikanten Objekts Obj.
  • Alternativ oder zusätzlich kann vorgesehen sein, dass die ermittelten Objekte mittels einer Ausgabeeinheit 37 des Bedien- und Ausgabesystems 1 angezeigt werden und ein Fahrzeugnutzer mittels einer Bedieneinheit 32 eines der ermittelten Objekte auswählen kann, das dann als signifikantes Objekt Obj klassifiziert wird. Die Vorrichtung 10 ist hierzu beispielsweise signaltechnisch gekoppelt mit der Ausgabeeinheit 37. Die Ausgabeeinheit 37 kann beispielsweise ein Display und/oder eine Sprachausgabeeinheit umfassen. Beispielsweise können die ermittelten Objekte auf dem Display in einer Liste sortiert nach dem jeweiligen Abstand von dem Fahrzeug 5 angezeigt werden. Das Bedien- und Ausgabesystem 1 kann hierzu beispielsweise die Bedieneinheit 32 aufweisen, die mit der Vorrichtung 10 signaltechnisch gekoppelt ist. Die Bedieneinheit 32 kann ausgebildet sein, das erste Auswahlsteuersignal zu erzeugen, abhängig von einer Spracheingabe und/oder einer Bedieneingabe des Fahrzeugnutzers oder eines weiteren Fahrzeugnutzers. Die Bedieneingabe kann berührungslos, durch Ausführung einer vorgegebenen Bediengestik, und/oder durch ein vorgegebenes Betätigen von vorgegebenen Bedienelementen erfolgen. Die Bediengestik kann beispielsweise eine Kreisbewegung der Hand umfassen. Die Bedienbetätigung kann beispielsweise das vorgegebene Berühren eines Touchscreens umfassen.
  • Die Menge an Objekten kann Objekte umfassen, die im Fahrzeug 5 angeordnet sind und/oder die sich in einer vorgegebenen Umgebung des Fahrzeugs 5 befinden und/oder denen geografische Koordinaten zugeordnet sind.
  • Die Objekte der Menge, denen geografische Koordinaten zugeordnet sind, können beispielsweise in zumindest einer vorgegebenen Datenbank 35 gespeichert sein. Hierzu kann das Bedien- und Ausgabesystem 1 beispielsweise die Datenbank 35 umfassen, die signaltechnisch gekoppelt ist mit der Vorrichtung 10. Die zumindest eine Datenbank 35 kann in dem Fahrzeug 5 angeordnet sein und/oder außerhalb des Fahrzeugs 5.
  • Die Menge an Objekten kann somit beispielsweise Restaurants und/oder Tankstellen und/oder Werkstätten und/oder Hotels und/oder Geschäfte und/oder Sehenswürdigkeiten umfassen. Die Daten können beispielsweise in einer Kartendatenbank gespeichert sein.
  • Zumindest einem ersten Teil der Objekte der Menge kann zumindest ein Objekttattribut zugeordnet sein, das beispielsweise repräsentativ ist für eine Objektinformation. Diese Objektinformation kann in der gleichen Datenbank 35 wie zum Beispiel die geografischen Koordinaten gespeichert sein und/oder in einer weiteren Datenbank. Die Objektinformation kann beispielsweise eine Beschreibung, Öffnungszeiten und/oder Kundenbewertungen des Objekts umfassen.
  • Die Vorrichtung 10 ist zum Beispiel ausgebildet, die Objektinformationen, die dem zumindest einen als signifikant klassifizierten Objekt Obj, von der Datenbank 35 anzufordern, und einzulesen und mittels einer geeigneten Ausgabeeinheit 37 das Bedien- und Ausgabesystem 1 zu signalisieren.
  • Die Vorrichtung 10 ist hierzu beispielsweise signaltechnisch gekoppelt mit einer Kommunikationsschnittstelle 39. Die Vorrichtung 10 ist beispielsweise ausgebildet, über die Kommunikationsschnittstelle 39 mit fahrzeugexternen und/oder fahrzeugunabhängigen Einrichtung über eine drahtlose Verbindung Daten auszutauschen.
  • Zumindest einem zweiten Teil an Objekten der Menge kann beispielsweise jeweils zumindest ein Objektattribut zugeordnet sein, das repräsentativ ist für eine vorgegebene Funktion. Beispielsweise können den Objekten der Menge, die im Fahrzeug 5 angeordnet sind, beispielsweise vorgegebene Fahrzeugfunktionssysteme 50 zugeordnet sein. Die Vorrichtung 10 kann beispielsweise mit einem oder mehreren Funktionssystemen steuerungstechnisch gekoppelt sein. Die Vorrichtung 10 kann beispielsweise über einen Fahrzeugdatenbus steuerungstechnisch gekoppelt sein mit den im Fahrzeug 5 angeordneten Fahrzeugfunktionssystemen 50. Solch ein Fahrzeugfunktionssystem kann beispielsweise eine Fahrzeugkamera und/oder eine Navigationseinrichtung und/oder ein Radio und/oder ein Head-up-Display und/oder die im Fahrzeug 5 angeordnete Ausgabeeinheit 37 und/oder eine weitere Ausgabeeinheit umfassen.
  • Die Vorrichtung 10 kann alternativ oder zusätzlich mit zumindest einem fahrzeugunabhängigen Funktionssystem 50a steuerungstechnisch gekoppelt sein. Die Vorrichtung 10 kann über eine drahtlose und/oder drahtgebundene Verbindung beispielweise mit fahrzeugunabhängigen Funktionssystemen 50a, zum Beispiel mit einem mobilen Endgerät und/oder mit einem Computer, steuerungstechnisch gekoppelt sein.
  • Die Vorrichtung 10 kann ausgebildet sein, falls dem jeweils ermittelten zumindest einen signifikanten Objekt Obj das Objektattribut zugeordnet ist, das repräsentativ ist für die vorgegebene Funktion, die Ausführung der Funktion zu steuern, die dem signifikanten Objekt Obj ist. Die Vorrichtung 10 kann beispielsweise ausgebildet sein, das jeweilige Fahrzeugfunktionssystem und/oder fahrzeugunabhängige Funktionssystem 50a derart anzusteuern, dass das Fahrzeugfunktionssystem die Funktion ausführt, die dem als signifikant klassifizierten Objekt Obj zugeordnet ist.
  • Die Menge an Objekten kann beispielsweise weitere Objekte umfassen, die in einem vorgegebenen Umfeld des Fahrzeugs 5 von einer geeigneten Sensoreinheit 40 erkannt wurden. Die Vorrichtung ist hierzu beispielsweise signaltechnisch gekoppelt mit zumindest einer Sensoreinheit 40 des Fahrzeugs 5. Die zumindest eine Sensoreinheit 40 ist beispielsweise ausgebildet, Umfeldobjekte in einem vorgegebenen Umfeld des Fahrzeugs 5 zu erkennen und/oder zu klassifizieren. Die Sensoreinheit 40 kann beispielsweise ausgebildet sein, einen Abstand des jeweiligen Umfeldobjekts von dem Fahrzeug 5 zu ermitteln und/oder eine relative Position des Umfeldobjekts bezogen auf das Fahrzeug 5 zu ermitteln. Ferner kann die Sensoreinheit 40 ausgebildet sein, das Umfeldobjekt zu klassifizieren.
  • Solch ein weiteres Objekt kann beispielsweise ein Garagentor und/oder eine Schranke und/oder ein weiteres Fahrzeug und/oder ein Fußgänger und/oder eine Baustelle und/oder ein Verkehrszeichen und/oder einen Stau umfassen. Diesen weiteren Objekten der Menge kann zumindest ein Objekttattribut zugeordnet sein, das beispielsweise repräsentativ ist für eine Objektinformation. Diese Objektinformation kann in einer weiteren vorgegebenen Datenbank gespeichert sein. Für eine Datenbankabfrage für die Objektinformation kann eine geeignete Datenbank beispielsweise abhängig von der Klassifizierung des Objekts durch die Sensoreinheit 40 ermittelt werden.
  • Diesen weiteren Objekten der Menge kann alternativ oder zusätzlich zumindest ein Objekttattribut zugeordnet sein, das beispielsweise repräsentativ ist für eine vorgegebene Funktion.
  • 2 zeigt ein Ausführungsbeispiel für eine Signalisierung der Objektinformation des signifikanten Objekts Obj, beispielsweise einer Kirche. In diesem Fall wird die Objektinformation des als signifikant klassifizierten Objekts Obj mittels der Ausgabeeinheit 37 signalisiert.
  • Die Vorrichtung 10 kann ausgebildet sein, die Objekte jeweils zumindest einer vorgegebenen Klasse zuzuordnen und das Objekt zu ermitteln abhängig von einer vorgegebenen Klasse für das zu ermittelnde Objekt. Die Klasse kann von dem Fahrzeugnutzer oder einem weiteren Fahrzeugnutzer durch Spracheingabe und/oder eine Bedieneingabe vorgegeben werden. Die Bedieneingabe kann berührungslos, durch Ausführung einer vorgegebenen Bediengestik, und/oder durch ein vorgegebnes Betätigen von vorgegebenen Bedienelementen erfolgen. Beispielsweise kann mittels einer Spracheingabe eine Klasse akustisch vorgegeben werden. Eine geeignet ausgebildete Spracheingabeeinrichtung kann abhängig von der akustisch vorgegebenen Klasse ein Auswahlsignal ermitteln, das repräsentativ ist für die vorgegebene Klasse. Abhängig von dem ermittelten Auswahlsignal kann das Objekt ermittelt werden. Die jeweilige Klasse kann beispielsweise eine Objektkategorie, zum Beispiel Café, Restaurant oder Tankstelle charakterisieren. Ferner kann die jeweilige Klasse eine Objekteigenschaft, zum Beispiel eine Farbe, oder eine Größe, charakterisieren, und/oder die jeweilige Klasse kann eine Kontexteigenschaft des Objekts charakterisieren, zum Beispiel eine Distanz zu dem Fahrzeug 5 oder eine Lage zu einem anderen Objekt.
  • Die Vorrichtung 10 kann ferner ausgebildet sein, eine Ausführung der Funktion eines aktuell ermittelten signifikanten Objekts Obj zu steuern und/oder eine Signalisierung der Objektinformation des aktuell ermittelten signifikanten Objekts Obj zu steuern abhängig von einem zuvor ermittelten signifikanten Objekt Obj. Zeigt beispielsweise der Fahrzeugnutzer zunächst auf ein Objekt außerhalb des Fahrzeugs 5, zum Beispiel auf eine Sehenswürdigkeit, und dann mit einer weiteren Richtungszeigegestik auf eine im Fahrzeug 5 befindliche Erfassungseinheit 20, wird die Erfassungseinheit 20 derart angesteuert, dass sie beispielsweise ein Bild von dem Objekt außerhalb des Fahrzeugs 5 erfasst und speichert. Zeigt beispielsweise der Fahrzeugnutzer zunächst auf das Objekt außerhalb des Fahrzeugs 5 und dann mit einer weiteren Richtungszeigegestik auf ein im Fahrzeug 5 befindliche Ausgabeeinheit 37, wird die Ausgabeeinheit 37 derart angesteuert, dass sie die Objektinformation, die dem zuvor ermittelten Objekt zugeordnet ist, anzeigt.
  • Die Vorrichtung 10 kann ferner ausgebildet sein, falls dem signifikanten Objekt Obj mehrere Objektattribute zugeordnet sind, abhängig von einem zweiten Auswahlsteuersignal eines der Objektattribute auszuwählen und die Signalisierung der Objektinformation des ausgewählten Objektattributs zu steuern beziehungsweise die Ausführung der Funktion des ausgewählten Objektattributs zu steuern. Beispielsweise kann das signifikante Objekt Obj ein im Fahrzeug 5 angeordnetes Smartphone sein, das sowohl eine optische Erfassungseinheit 20 aufweist, als auch eine optische Ausgabeeinheit 37.
  • Die Vorrichtung 10 kann ferner ausgebildet sein, die Ausführung der Funktion des aktuell ermittelten signifikanten Objekts Obj zu steuern und/oder die Signalisierung der Objektinformation des aktuell ermittelten signifikanten Objekts Obj abhängig von einem vorgegebenen Verknüpfungssteuersignal. Zeigt beispielsweise der Fahrzeugnutzer zunächst auf ein Objekt außerhalb des Fahrzeugs 5, zum Beispiel auf eine Sehenswürdigkeit, führt der Fahrzeugnutzer dann eine vorgegebene Bedieneingabe aus, die repräsentativ ist für die gewünschte Verknüpfung, und anschließend zeigt er mit einer weiteren Richtungszeigegestik auf eine im Fahrzeug 5 befindliche Erfassungseinheit 20, wird die Erfassungseinheit 20 derart angesteuert, dass sie beispielsweise ein Bild von dem Objekt außerhalb des Fahrzeug 5 erfasst und speichert.
  • Beispielsweise kann ferner vorgesehen sein, dass während einer Fahrt des Fahrzeugs 5 die gefahrene Route erfasst, die ermittelten signifikanten Objekte Obj sowie erfasste Fotos von den signifikanten Objekten Obj inklusive ihrer geografischen Koordinaten gespeichert werden. Dies ermöglicht einem Fahrzeugnutzer beispielsweise ein einfache Dokumentation einer Reise.
  • Bezugszeichenliste
  • 1
    Bedien- und Ausgabesystem
    5
    Fahrzeug
    10
    Vorrichtung
    20
    Erfassungseinheit
    30
    Positionsermittlungseinheit
    32
    Bedieneinheit
    35
    Datenbank
    37
    Ausgabeeinheit
    39
    Kommunikationsschnittstelle
    40
    Sensoreinheit
    50
    Fahrzeugfunktionssysteme
    50a
    Funktionssysteme
    Obj
    signifikantes Objekt

Claims (13)

  1. Verfahren zum Ermitteln zumindest eines Objekts, umfassend: – Berührungsloses Erfassen von Daten, die repräsentativ sind für eine vorgegebene Richtungszeigegestik zumindest eines vorgegebenen Körperteils, die ein Fahrzeugnutzer in einem vorgegebenen Erfassungsbereich in einem Fahrzeug (5) ausführt, – Ermitteln eines Richtungsvektors bezogen auf einen vorgegebenen Bezugspunkt in dem Fahrzeug (5) abhängig von den erfassten Daten, die repräsentativ sind für die Richtungszeigegestik, – Ermitteln zumindest eines Objekts aus einer vorgegebenen Menge an Objekten abhängig von dem ermittelten Richtungsvektor, wobei den Objekten jeweils Positionsdaten zugeordnet sind, die repräsentativ sind für eine relative Position des jeweiligen Objekts in Bezug auf den vorgegebenen Bezugspunkt und/oder die repräsentativ sind für eine absolute Position in einem geografischen Koordinatensystem.
  2. Verfahren nach Anspruch 1, bei dem das zumindest eine Objekt ermittelt wird abhängig von einer ermittelten aktuellen Position des Fahrzeugs (5) und/oder des Fahrzeugnutzers im Fahrzeug (5).
  3. Verfahren nach Anspruch 1 oder 2, bei dem die Objekte jeweils zumindest einer vorgegebenen Klasse zugeordnet sind und das Objekt ermittelt wird abhängig von einer vorgegebenen Klasse für das zu ermittelnde Objekt.
  4. Verfahren nach einem der vorstehenden Ansprüche, bei dem, wenn eines der Objekte aus der vorgegebenen Menge ermittelt wurde, dieses Objekt als signifikantes Objekt (Obj) klassifiziert wird und wenn mehrere Objekte aus der Menge ermittelt wurden, zumindest eines der ermittelten Objekte als signifikantes Objekt (Obj) klassifiziert wird abhängig von einer vorgegebenen Regel und/oder abhängig von einem vorgegebenen ersten Auswahlsteuersignal.
  5. Verfahren nach Anspruch 4, bei dem – zumindest einem ersten Teil an Objekten der Menge jeweils zumindest ein Objektattribut zugeordnet ist, das repräsentativ ist für eine vorgegebene Objektinformation und – falls dem zumindest einen signifikanten Objekt (Obj) das Objektattribut zugeordnet ist, das repräsentativ ist für die Objektinformation, die dem signifikanten Objekt (Obj) zugeordnete Objektinformation optisch und/oder akustisch und/oder haptisch signalisiert wird.
  6. Verfahren nach Anspruch 4 oder 5, bei dem – zumindest einem zweiten Teil an Objekten der Menge jeweils zumindest ein Objektattribut zugeordnet ist, das repräsentativ ist für eine vorgegebene Funktion, und – falls dem zumindest einen signifikanten Objekt (Obj) das Objektattribut zugeordnet ist, das repräsentativ ist für eine vorgegebene Funktion, die dem signifikanten Objekt (Obj) zugeordnete Funktion ausgeführt wird.
  7. Verfahren nach Anspruch 5 oder 6, bei dem, falls dem signifikanten Objekt (Obj) mehrere Objektattribute zugeordnet sind, abhängig von einem zweiten Auswahlsteuersignal eines der Objektattribute ausgewählt wird und die Objektinformation des ausgewählten Objektattributs signalisiert beziehungsweise die Funktion des ausgewählten Objektattributs ausgeführt wird.
  8. Verfahren nach einem der vorstehenden Ansprüche 5 bis 7, bei dem die Funktion eines aktuell ermittelten signifikanten Objekts (Obj) ausgeführt wird und/oder die Objektinformation des aktuell ermittelten signifikanten Objekts (Obj) signalisiert wird abhängig von einem zuvor ermittelten signifikanten Objekt (Obj).
  9. Verfahren nach Anspruch 8, bei dem die Funktion des aktuell ermittelten signifikanten Objekts (Obj) ausgeführt wird und/oder die Objektinformation des aktuell ermittelten signifikanten Objekts (Obj) signalisiert wird abhängig von einem vorgegebenen Verknüpfungssteuersignal.
  10. Verfahren nach einem der vorstehenden Ansprüche, bei dem die Daten, die repräsentativ sind für eine Richtungszeigegestik des zumindest einen vorgegebenen Körperteils, optisch erfasst werden.
  11. Verfahren nach einem der vorstehenden Ansprüche, bei dem das zumindest eine vorgegebene Körperteil eine Hand und/oder zumindest einen Finger umfasst.
  12. Verfahren nach einem der vorstehenden Ansprüche, bei dem die Richtungszeigegestik eine vorgegebene Hand- und/oder Fingerstellung und eine vorgegebene Kopfstellung umfasst.
  13. Vorrichtung (10), die ausgebildet ist, eines der Verfahren nach den Ansprüchen 1 bis 12 auszuführen.
DE201210208733 2012-05-24 2012-05-24 Verfahren und Vorrichtung zum Ermitteln zumindest eines Objekts Pending DE102012208733A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210208733 DE102012208733A1 (de) 2012-05-24 2012-05-24 Verfahren und Vorrichtung zum Ermitteln zumindest eines Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210208733 DE102012208733A1 (de) 2012-05-24 2012-05-24 Verfahren und Vorrichtung zum Ermitteln zumindest eines Objekts

Publications (1)

Publication Number Publication Date
DE102012208733A1 true DE102012208733A1 (de) 2013-11-28

Family

ID=49547035

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210208733 Pending DE102012208733A1 (de) 2012-05-24 2012-05-24 Verfahren und Vorrichtung zum Ermitteln zumindest eines Objekts

Country Status (1)

Country Link
DE (1) DE102012208733A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014001304A1 (de) * 2014-01-31 2015-08-06 Audi Ag Fahrzeug mit einer Informationseinrichtung
DE102014208663A1 (de) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh Vorrichtung und verfahren zur bereitstellung von informationsdaten zu einem in einem videobildstrom enthaltenen objekt einer fahrzeugumgebung
DE102014014602A1 (de) * 2014-10-07 2016-04-07 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102014019157A1 (de) * 2014-12-19 2016-06-23 Audi Ag Verfahren und Einstellen von fahrdynamischen Eigenschaften eines Fahrzeugs
DE102015015510A1 (de) * 2015-11-30 2017-06-01 Audi Ag Verfahren zum Erkennen eines Objekts anhand einer Lage des Objekts in einem Bild, Vorrichtung und Kraftfahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090315766A1 (en) * 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
DE102010017931A1 (de) * 2009-04-27 2010-12-23 GM Global Technology Operations, Inc., Detroit Gestenbetätigte Informationssysteme und -verfahren für interessante Details
US20110006977A1 (en) * 2009-07-07 2011-01-13 Microsoft Corporation System and method for converting gestures into digital graffiti

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090315766A1 (en) * 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
DE102010017931A1 (de) * 2009-04-27 2010-12-23 GM Global Technology Operations, Inc., Detroit Gestenbetätigte Informationssysteme und -verfahren für interessante Details
US20110006977A1 (en) * 2009-07-07 2011-01-13 Microsoft Corporation System and method for converting gestures into digital graffiti

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014001304A1 (de) * 2014-01-31 2015-08-06 Audi Ag Fahrzeug mit einer Informationseinrichtung
DE102014208663A1 (de) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh Vorrichtung und verfahren zur bereitstellung von informationsdaten zu einem in einem videobildstrom enthaltenen objekt einer fahrzeugumgebung
US10227042B2 (en) 2014-05-08 2019-03-12 Conti Temic Microelectronic Gmbh Device and method for providing information data with respect to an object of a vehicle environment contained in a video image stream
DE102014014602A1 (de) * 2014-10-07 2016-04-07 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102014019157A1 (de) * 2014-12-19 2016-06-23 Audi Ag Verfahren und Einstellen von fahrdynamischen Eigenschaften eines Fahrzeugs
DE102014019157B4 (de) * 2014-12-19 2020-02-13 Audi Ag Verfahren und Einstellen von fahrdynamischen Eigenschaften eines Fahrzeugs und Fahrzeug zum Durchführen eines entsprechenden Verfahrens
DE102015015510A1 (de) * 2015-11-30 2017-06-01 Audi Ag Verfahren zum Erkennen eines Objekts anhand einer Lage des Objekts in einem Bild, Vorrichtung und Kraftfahrzeug

Similar Documents

Publication Publication Date Title
DE102012208733A1 (de) Verfahren und Vorrichtung zum Ermitteln zumindest eines Objekts
EP3022528B1 (de) Verfahren zum betrieb einer navigationseinrichtung, navigationseinrichtung und kraftfahrzeug
DE102015108498A1 (de) Bereitstellen einer fahrzeugbenutzerhandbuchinformation unter verwendung einer objekterkennung an einer mobilen einrichtung
DE102010017931A1 (de) Gestenbetätigte Informationssysteme und -verfahren für interessante Details
DE102014204237A1 (de) Verfahren und vorrichtung für erweiterte fahrerfahrung unter einbeziehung dynamischer poi-erkennung
DE102012213344A1 (de) Verkehrszeichenerkennung
DE102008011876A1 (de) Anzeigevorrichtung
DE112016005798T5 (de) Fahrzeuginternes system und verfahren zur bereitstellung von informationen in bezug auf punkte von interesse
DE102014014242A1 (de) Verfahren zum Betrieb eines Assistenzsystems zur Unterstützung eines Parkvorgangs eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102016201932A1 (de) Verfahren zur Assistenz für einen Parkvorgang und Parkassistenzvorrichtung
WO2019170387A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE102012213466A1 (de) Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens
DE102019122266A1 (de) Systeme und Verfahren zur Parkverwaltung
DE102019118595A1 (de) Beifahrer-frontanzeigen für fahrzeuge
EP2516965A1 (de) Navigationssystem, insbesondere für ein kraftfahrzeug
DE102015005696A1 (de) Einblenden eines Objekts oder Ereignisses in einer Kraftfahrzeugumgebung
DE102014207398A1 (de) Objektassoziation zur kontaktanalogen Anzeige auf einem HMD
EP2629054A2 (de) Verfahren zur Bereitstellung von Umgebungsinformationen
DE102013210729A1 (de) Verfahren und Vorrichtung zum Signalisieren eines visuell zumindest teilweise verdeckten Verkehrsobjekts für einen Fahrer eines Fahrzeugs
DE102013212916A1 (de) Einblendung von Kollisionswarnungen auf einem Head-mounted Display
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs
DE102015205044A1 (de) Eingabe von Navigationszieldaten in ein Navigationssystem
DE102014017179A1 (de) Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste
DE102017215163A1 (de) System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
DE102019128691A1 (de) Verfahren und vorrichtungen zum erleichtern der navigation unter verwendung einer windschutzscheibenanzeige

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed