DE102017211089A1 - Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs - Google Patents

Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs Download PDF

Info

Publication number
DE102017211089A1
DE102017211089A1 DE102017211089.9A DE102017211089A DE102017211089A1 DE 102017211089 A1 DE102017211089 A1 DE 102017211089A1 DE 102017211089 A DE102017211089 A DE 102017211089A DE 102017211089 A1 DE102017211089 A1 DE 102017211089A1
Authority
DE
Germany
Prior art keywords
motor vehicle
user
tracking
eye
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017211089.9A
Other languages
English (en)
Inventor
Dorin Aiteanu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102017211089.9A priority Critical patent/DE102017211089A1/de
Publication of DE102017211089A1 publication Critical patent/DE102017211089A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird eine Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs, welche eine Fokussiereinheit und eine Auswerteeinheit aufweist, vorgeschlagen. Die Fokussiereinheit ist dazu eingerichtet, zumindest ein Auge eines Benutzers und/oder eine Zeigegeste einer Hand und/oder eines Fingers des Benutzers zu erfassen. Die Auswerteeinheit ist dazu eingerichtet, in Abhängigkeit von dem erfassten Auge und/oder der erfassten Zeigegeste ein weiteres Kraftfahrzeug in einer Umgebung des Kraftfahrzeugs auszuwählen und eine Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug und/oder ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs zu initiieren.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs. Des Weiteren betrifft die vorliegende Erfindung ein Kraftfahrzeug, insbesondere einen Personenkraftwagen, mit einer solchen Vorrichtung sowie ein Verfahren für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs.
  • Bei autonomen Kraftfahrzeugen kann es gewünscht sein, einem bestimmten vorausfahrenden Fahrzeug zu folgen, beispielsweise im Rahmen einer Kolonnenfahrt. Hierbei gibt es die Möglichkeit, einem bestimmten Fahrzeug zu folgen, indem dieses durch eine vorhandene Sensorik erkannt wird. Während einer Fahrt kann durch Aktivierung eines Systems zur Nachverfolgung ein Fahrer-Assistenz-System des eigenen Fahrzeugs vom Fahrer darüber informiert werden, dass es dem in der gleichen Fahrspur erkannten Fahrzeug folgen soll. Hierbei ist es jedoch nicht möglich, ein beliebiges Fahrzeug auszuwählen, sondern es kann lediglich dem direkt vorausfahrenden Fahrzeug gefolgt werden. Wechselt das vorausfahrende Fahrzeug die Spur, ist ein Nachverfolgen dieses Fahrzeugs nicht mehr möglich. Stattdessen hält das eigene Fahrzeug die bisherige Fahrspur und die vorab eingestellte Fahrgeschwindigkeit, bis ein anderes Fahrzeug in der Spur erkannt wird.
  • In anderen Nachverfolgungssystemen kann wiederum durch Austausch per Mobilfunk und mittels einer direkten Kommunikation zwischen zwei Fahrzeugen eine Kolonne gebildet werden und einem Leitfahrzeug der Kolonne über eine beliebige Strecke, einschließlich Abbiegevorgängen und Spurwechseln, gefolgt werden. Während des Nachverfolgens ist jedoch in jedem Fall eine direkte Kommunikation, beispielsweise über verschiedene Sensoren, zwischen den beiden Fahrzeugen, nämlich dem Leitfahrzeug und dem verfolgenden Fahrzeug, nötig. Es kann hierbei nur einem bestimmten Leitfahrzeug gefolgt werden. Eine Auswahl beliebiger Fahrzeuge ist nicht möglich.
  • Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, eine vereinfachte und intuitive Auswahl von beliebigen Kraftfahrzeugen zu ermöglichen, denen auch bei einem Spurwechsel gefolgt werden kann.
  • Dementsprechend wird eine Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs vorgeschlagen, wobei die Vorrichtung eine Auswerteeinheit aufweist, die dazu eingerichtet ist, eine Kommunikation mit einem ausgewählten weiteren Kraftfahrzeug und/oder ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs zu initiieren.
  • Um ein beliebiges Fahrzeug in der Umgebung des eigenen Fahrzeugs auszuwählen, weist die Vorrichtung eine Fokussiereinheit und eine Auswerteeinheit auf. Zunächst erfasst die Fokussiereinheit zumindest ein Auge eines Benutzers und/oder eine Zeigegeste einer Hand und/oder eines Fingers des Benutzers. Basierend auf dieser Erfassung kann die Auswerteeinheit ein weiteres Kraftfahrzeug in einer Umgebung des Kraftfahrzeugs auswählen und eine Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug und/oder ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs initiieren.
  • Auf diese Weise kann jedem beliebigen Kraftfahrzeug in der Umgebung des eigenen Kraftfahrzeugs gefolgt werden, da die Auswahl nicht durch eine Sensorik erfolgt, die nur direkt vorausfahrende Fahrzeuge erfassen kann, sondern durch Interaktion des Fahrers ein beliebiges Fahrzeug in der Umgebung des eigenen Fahrzeugs ausgewählt kann. Des Weiteren ist keine direkte Kommunikation zwischen dem Kraftahrzeug und dem weiteren Kraftfahrzeug zur Auswahl des weiteren Kraftfahrzeugs erforderlich, da die Auswahl innerhalb des eigenen Kraftfahrzeugs erfolgt.
  • Die Auswahl des Kraftfahrzeugs erfolgt dabei entweder durch eine Erfassung des Auges des Benutzers, beispielsweise als erkannte Blickrichtung, durch Erfassung einer Zeigegeste oder einer Kombination aus diesen. Unter einer Zeigegeste kann allgemein eine Bewegung der Hand oder des Fingers in Richtung eines weiteren Kraftfahrzeugs verstanden werden. Grundsätzlich ist eine Gestensteuerung in Kraftfahrzeugen beispielsweise aus der DE 10 2015 210 735 A1 und der DE 10 2012 219 280 A1 bereits an sich bekannt.
  • Die Fokussiereinheit kann hierzu Kameras oder sonstige Sensoren aufweisen, die den Innenraum des Kraftfahrzeugs überwachen, um ein Auge oder eine Hand/Finger des Benutzers, bevorzugt des Fahrers, zu erfassen. Bei der Erfassung des Auges kann zum einen ein Auge an sich erfasst werden. Zusätzlich kann auch eine Blickrichtung des Auges erfasst werden.
  • Alternativ oder zusätzlich kann die Fokussiereinheit einen Touchscreen oder ein anderes Bedienelement, z.B. eine virtuelle berührungslose Fläche aufweisen, über welches eine Zeigegeste des Benutzers, beispielsweise die Position der Spitze des Indexfingers, erfasst werden kann. Eine Zeigegeste kann in diesem Fall als Auswahl eines Elements auf einem Touchscreen oder Bedienelement durch Berührung des Touchscreens oder Bedienelements durch einen Finger verstanden werden. Die auswählbaren Kraftfahrzeuge können dabei auf den Touchscreen oder Bedienelement angezeigt werden. Handelt es sich bei dem Touchscreen um einen virtuellen Touchscreen, wird die Zeigegeste als virtuelle Berührung durch einen Finger verstanden, die durch die im Fahrzeuginnenraum vorhandenen Sensoren erfasst wird.
  • Durch die Fokussiereinheit wird eine für den Benutzer sehr einfache und intuitive Auswahl eines Fahrzeugs ermöglicht. Diese Auswahl kann auch jederzeit erneut durchgeführt werden, indem entweder die Fokussiereinheit eine neue Auswahl durch das Auge und/oder die Zeigegeste erfasst. Somit wird eine flexible Nachverfolgung von anderen Fahrzeugen ermöglicht.
  • Basierend auf der Auswahl des weiteren Kraftfahrzeugs kann ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs initiiert werden, wobei dem ausgewählten weiteren Kraftfahrzeug auch bei Spurwechseln oder Abbiegevorgängen gefolgt werden kann. Hierbei befindet sich das Kraftfahrzeug in einem (teil-)autonomen Modus, bei dem die Fahrt durch Sensoren des Kraftfahrzeugs ohne den Benutzer durchgeführt wird. Die Sensoren verfolgen dabei das ausgewählte Fahrzeug und setzen alle Fahrmanöver des ausgewählten Kraftfahrzeugs ebenfalls um. Bevorzugt werden durch die vorhandenen Sensoren gleichzeitig die aktuellen Umgebungsbedingungen (z.B. Verkehr, Hindernisse, Fahrbahnen etc.) überwacht, um Unfälle zu vermeiden.
  • Alternativ oder zusätzlich zu dem Nachverfolgen kann eine Kommunikation des Kraftfahrzeugs mit dem ausgewählten weiteren Kraftfahrzeug initiiert werden. Beispielsweise kann hierdurch automatisiert dem weiteren Kraftfahrzeug eine Nachricht im Rahmen einer benutzerdefinierten Fahrzeug-zu-Fahrzeug-Kommunikation übermittelt werden. Dies kann beispielsweise hilfreich sein, um direkt weiteren Kraftfahrzeugen Nachrichten zu übermitteln. Eine solche Nachricht kann beispielsweise eine Information darüber enthalten, dass bei dem weiteren Kraftfahrzeug vergessen wurde, eine Nebelschlussleuchte nach einer Auflösung des Nebels auszuschalten.
  • Die jeweilige Einheit, zum Beispiel Fokussiereinheit oder Auswerteeinheit, kann hardwaretechnisch und/oder auch softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
  • Gemäß einer Ausführungsform ist die Fokussiereinheit dazu eingerichtet, basierend auf dem Auge des Benutzers und/oder der Zeigegeste eine Peilachse zu bestimmen, die auf ein weiteres Kraftfahrzeug gerichtet ist.
  • Hierbei kann durch die Fokussiereinheit eine Achse zwischen dem Auge des Benutzers und der Zeigegeste, beispielsweise einer Hand oder einem Finger, gebildet werden. Alternativ kann eine Peilachse nur basierend auf der Zeigegeste gebildet werden, wobei hierbei eine Achse durch einen ausgestreckten Finger gebildet wird. Eine Fortsetzung der Achse in Richtung der Kraftfahrzeuge in der Umgebung des eigenen Kraftfahrzeugs zeigt dabei auf ein bestimmtes Kraftfahrzeug, welches dann durch die Auswerteeinheit ausgewählt wird.
  • Kann durch die Peilung kein weiteres Kraftfahrzeug ermittelt werden oder zumindest nicht eindeutig, kann die Peilung wiederholt werden. Alternativ oder zusätzlich kann dem Benutzer ein Hinweis gegeben werden, dass die Auswahl nicht erfolgreich war. Dieser kann darauf seine Zeigegeste feinjustieren.
  • Die Fokussiereinheit kann dazu eingerichtet sein, basierend auf dem Auge des Benutzers eine Blickrichtung zu bestimmen.
  • In dieser Ausführungsform kann die Bestimmung durch die Zeigegeste und das Auge des Benutzers um die Blickrichtung des Auges erweitert werden, wodurch eine verbesserte Auswahl eines Kraftfahrzeugs ermöglicht wird. Wird beispielsweise durch die Fokussiereinheit erkannt, dass die Blickrichtung nicht zu der Zeigegeste passt, kann die Fokussiereinheit erkennen, dass es sich bei der Zeigegeste lediglich um eine versehentliche Handlung handelt. In einem solchen Fall wird keine Auswahl eines weiteren Kraftfahrzeugs vorgenommen.
  • Alternativ kann die Auswahl des weiteren Kraftfahrzeugs basierend auf der Blickrichtung ohne Berücksichtigung einer Zeigegeste erfolgen. Hierbei erfassen die vorhandenen Sensoren der Fokussiereinheit das Auge des Benutzers und bestimmen ausgehend von dem Auge eine Blickrichtung. Diese Blickrichtung bildet ebenfalls eine Peilachse, die auf ein weiteres Kraftfahrzeug gerichtet ist, welches dann durch die Auswerteeinheit ausgewählt wird.
  • Gemäß einer weiteren Ausführungsform weist die Vorrichtung eine Anzeigeeinheit auf, die dazu eingerichtet ist, auswählbare Kraftfahrzeuge in der Umgebung des Kraftfahrzeugs anzuzeigen.
  • Die Anzeigeeinheit kann eine transparente Projektionsfläche, beispielsweise ein Head-Up-Display, sein. Die Anzeigeeinheit kann dabei bevorzugt derart angeordnet sein, dass sie Kraftfahrzeuge überlagert, die sich in der Umgebung des eigenen Kraftfahrzeugs befinden. Insbesondere können diejenigen Kraftfahrzeuge, die sich in der Umgebung des eigenen Kraftfahrzeugs befinden, durch eine besondere Markierung hervorgehoben werden, wenn sie auswählbar sind. Die Markierung kann beispielsweise ein Rahmen um Kraftfahrzeuge sein, wobei die Kraftfahrzeuge selbst nicht in dem Head-Up-Display dargestellt werden, sondern sich im Blickfeld des Benutzers auf der Straße befinden.
  • Weist die Fokussiereinheit einen virtuellen Touchscreen auf, kann dieser so definiert werden, dass seine Grenzen den Grenzen der Projektionsfläche entsprechen. Zeigt der Fahrer innerhalb des virtuellen Touchscreens auf einen Punkt, kann diese Position proportional auf die Projektionsfläche skaliert und entsprechend eingezeichnet werden, beispielsweise als Cursor. Eine Bewegung der Fingerspitze innerhalb des virtuellen Touchscreens erzeugt dabei eine entsprechende Bewegung des Cursors innerhalb der Projektionsfläche.
  • Alternativ kann die Anzeigeeinheit ein Bildschirm und/oder ein Bordcomputer sein.
  • Gemäß einer weiteren Ausführungsform ist die Anzeigeeinheit dazu eingerichtet, das ausgewählte Kraftfahrzeug zu markieren.
  • Sobald die Auswerteeinheit ein Kraftfahrzeug auswählt, kann dieses ausgewählte Kraftfahrzeug speziell markiert werden. Dies kann beispielsweise durch eine Hervorhebung des Rahmens um das Kraftfahrzeug oder durch eine farbige Hervorhebung des Kraftfahrzeugs erfolgen.
  • Die Anzeigeeinheit kann des Weiteren dazu eingerichtet sein, die auswählbaren Kraftfahrzeuge anzuzeigen, sobald die Fokussiereinheit eine Zeigegeste des Benutzers erfasst.
  • Gemäß dieser Ausführungsform werden erst dann die auswählbaren Kraftfahrzeuge hervorgehoben, sobald die Fokussiereinheit eine Zeigegeste erfasst, die auf einen Wunsch des Benutzers hinweist, eine Kommunikation mit einem weiteren Kraftfahrzeug zu initiieren oder ein autonomes Nachverfolgen eines weiteren Kraftfahrzeugs zu initiieren. Das bedeutet, dass die Fokussiereinheit eine tatsächliche oder virtuelle Berührung eines Bedienelements oder Touchscreens erfasst oder erfasst, dass der Benutzer mit seiner Hand in eine Richtung zeigt, die eine Auswahl eines Kraftfahrzeugs sein kann.
  • Gemäß einer weiteren Ausführungsform ist die Auswerteeinheit dazu eingerichtet, die Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug und/oder das Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs zu initiieren, wenn die Fokussiereinheit die Zeigegeste über einen vorbestimmten Zeitraum erfasst.
  • Wird die Zeigegeste vor Ablauf des vorbestimmten Zeitraums beendet, wird kein Kraftfahrzeug ausgewählt. Wird hingegen die Zeigegeste über den vorbestimmten Zeitraum, beispielsweise eine Sekunde, hinweg erfasst, wird das Kraftfahrzeug ausgewählt und eine Kommunikation mit dem Kraftfahrzeug oder ein Nachverfolgendes Kraftfahrzeug initiiert. Eine weitere Aktivierung bzw. Initiierung der Kommunikation oder Nachverfolgung ist nicht erforderlich.
  • Gemäß einer weiteren Ausführungsform ist die Auswerteeinheit dazu eingerichtet, die Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug und/oder das Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs zu initiieren, wenn die Fokussiereinheit eine Blickrichtung des Auges über einen vorbestimmten Zeitraum erfasst.
  • Erfasst die Fokussiereinheit, dass der Blick des Benutzers über einen vorbestimmten Zeitraum auf ein weiteres Kraftfahrzeug gerichtet ist, wird dieses Kraftfahrzeug ausgewählt. Wechselt die Blickrichtung vor Ablauf des vorbestimmten Zeitraums, wird kein Kraftfahrzeug ausgewählt.
  • Gemäß einem weiteren Aspekt wird ein Kraftfahrzeug mit einer wie oben beschriebenen Vorrichtung zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs vorgeschlagen. Das Kraftfahrzeug kann insbesondere ein Personenkraftwagen sein.
  • Gemäß einem weiteren Aspekt wird ein Verfahren für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs vorgeschlagen. Das Verfahren weist die folgenden Schritte auf: Erfassen von zumindest einem Auge eines Benutzers und/oder einer Zeigegeste einer Hand und/oder eines Fingers des Benutzers, Auswählen eines weiteren Kraftfahrzeugs in einer Umgebung des Kraftfahrzeugs in Abhängigkeit von dem erfassten Auge und/oder der erfasstem Zeigegeste, und Initiieren einer Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug und/oder ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs.
  • Die für die vorgeschlagene Vorrichtung beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Verfahren entsprechend.
  • Weiterhin wird ein Computerprogrammprodukt vorgeschlagen, welches einen Programmcode aufweist, der dazu ausgebildet ist, auf einem Computer die Durchführung des wie oben erläuterten Verfahrens zu veranlassen.
  • Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
  • Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.
  • Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
    • 1 zeigt ein schematisches Blockdiagramm eines Kraftfahrzeugs mit einer Vorrichtung zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs,
    • 2 zeigt eine Auswahl eines Kraftfahrzeugs mittels einer Peilachse aus Sicht des Benutzers,
    • 3 zeigt eine Auswahl eines Kraftfahrzeugs mittels einer Peilachse durch einen Benutzer in einer Seitenansicht,
    • 4 zeigt eine Auswahl eines Kraftfahrzeugs mittels eines Touchscreens aus Sicht des Benutzers,
    • 5 zeigt eine Auswahl eines Kraftfahrzeugs mittels eines Touchscreens durch einen Benutzer in einer Seitenansicht,
    • 6 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs.
  • In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
  • 1 zeigt ein Kraftfahrzeug 1 mit einer Vorrichtung 10 zur Kommunikation mit einem weiteren Kraftfahrzeug 2 und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs 2. Die Vorrichtung 10 weist eine Fokussiereinheit 11, eine Auswerteeinheit 12 sowie eine Anzeigeeinheit 13 auf.
  • Die Funktionsweise der Vorrichtung 10 wird nun zunächst in Zusammenhang mit den 1 bis 3 für eine Ausführungsform beschrieben, in der die Auswahl eines weiteren Kraftfahrzeugs 2 über eine Erfassung eines Auges des Benutzers erfolgt.
  • Durch im Kraftfahrzeug 1 vorhandene Sensorsysteme, beispielsweise Kameras, können weitere Kraftfahrzeuge 2, die sich im Umfeld des Kraftfahrzeugs 1 befinden, erkannt werden. Diese werden durch die Anzeigeeinheit 13, die als transparente Projektionsfläche, beispielsweise als Head-Up-Display, realisiert sein kann, als auswählbare Fahrzeuge 21 markiert.
  • Wenn nun die Fokussiereinheit 11 über im Fahrzuginnenraum vorhandene Sensoren, z.B. Kameras, eine Zeigegeste 20 erkennt, beispielsweise wenn sich die Hand des Benutzers in einem bestimmten Raum zwischen den Augen des Benutzers und der Anzeigeeinheit 13 befindet, beginnt die Fokussiereinheit 11, zumindest ein Auge des Benutzers und die Zeigegeste 20 zu erfassen.
  • Durch die Auswerteeinheit 12 wird nach Erfassung des Auges und der Zeigegeste 20 eine Peilachse 23 erzeugt und ermittelt, auf welches auswählbare Kraftfahrzeug 2 die Peilachse zeigt. Dieses Kraftfahrzeug 2 wird dann durch die Anzeigeeinheit 13 als ausgewähltes Fahrzeug 22 hervorgehoben.
  • In 2 und 3 erfolgt die Markierung von Kraftfahrzeugen durch Anzeige eines Rahmens um diese Kraftfahrzeuge. Alternativ könnten die Kraftfahrzeuge auch farblich oder anderweitig markiert werden.
  • Wurde ein Kraftfahrzeug 2 ausgewählt, kann die Auswerteeinheit 12 eine Kommunikation mit diesem Kraftfahrzeug 2 oder eine Nachverfolgung dieses Kraftfahrzeugs 2 initiieren. Hierbei kann die Nachverfolgung auch bei einem Spurwechsel oder einem Abbiegevorgang des Kraftfahrzeugs 2 fortgesetzt werden. In dem Fall der Nachverfolgung befindet sich das Kraftfahrzeug 1 bevorzugt in einem autonomen Fahrmodus, bei die Fahrvorgänge automatisiert durch das Fahrzeug 1 gesteuert werden.
  • In einer alternativen Ausführungsform, die in den 4 und 5 beschrieben ist, erfolgt die Auswahl eines weiteren Kraftfahrzeugs 2 über eine Erfassung einer Zeigegeste des Benutzers erfolgt.
  • Auch in dieser Ausführungsform werden durch im Kraftfahrzeug 1 vorhandene Sensorsysteme weitere Kraftfahrzeuge 2, die sich im Umfeld des Kraftfahrzeugs 1 befinden, erkannt und durch die Anzeigeeinheit 13 als auswählbare Fahrzeuge 21 markiert.
  • Ein Touchscreen 25, der virtuell oder physikalisch vorhanden sein kann, wird auf die Anzeigeeinheit 13 gemappt. Das bedeutet, dass die Grenzen des Touchscreens 25 den Grenzen der Anzeigeeinheit 13 entsprechen. Wird nun durch die Fokussiereinheit 11 eine Zeigegeste 20 erkannt, die auf einen Punkt des Touchscreen 25 zeigt, wird diese Position proportional auf die Anzeigeeinheit 13 skaliert und dort als Kreis oder Cursor 24 angezeigt. Eine Bewegung der Fingerspitze innerhalb dieser Fläche 25 erzeugt eine entsprechende Bewegung des Cursors 24 innerhalb der Anzeigeeinheit 13. Befindet sich der Cursor 24 auf einem auswählbaren Fahrzeug 21, kann dieses als ausgewähltes Fahrzeug 22 hervorgehoben werden.
  • Die Darstellung der transparenten Überlagerung der auswählbaren Fahrzeuge 21 kann aktiviert werden, wenn die Fokussiereinheit 11 erkennt, dass sich die Hand des Benutzers in der Nähe des Touchscreens 25 befindet.
  • Zusätzlich zu der Zeigegeste 20 kann auch eine Blickrichtung 23 oder eine Achse, die von einem Auge des Benutzers ausgeht, berücksichtigt werden. Beispielsweise, wenn sich der Cursor 24 auf der Achse 23 zwischen dem Auge des Benutzers und einem auswählbaren Fahrzeug 21 befindet, dieses Fahrzeug 21 durch eine Hervorhebung 22 markiert werden.
  • Auch in dieser Ausführungsform kann die Auswerteeinheit 12 eine Kommunikation mit dem ausgewählten Kraftfahrzeug 2 oder eine Nachverfolgung des ausgewählten Kraftfahrzeugs 2 initiieren.
  • 6 zeigt ein Verfahren zur Kommunikation mit einem weiteren Kraftfahrzeug 2 und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs 2.
  • Nach dem Start 601 des Verfahrens werden zunächst die Augen des Benutzers sowie die Hände im Innenraum des Kraftfahrzeugs 1 erkannt (Schritt 602). Diese Anfangserkennung dient dazu, dass die Fokussiereinheit 11 sowohl die Augen als auch die Hände überwachen kann, um Zeigegesten zu detektieren.
  • In Schritt 603 werden Kraftfahrzeuge 2 im Umfeld des Kraftfahrzeugs 1 erkannt, aber zunächst durch die Anzeigeeinheit 13 noch nicht als auswählbare Fahrzeuge 21 markiert.
  • Erst wenn die Fokussiereinheit in Schritt 604 detektiert, dass sich die Hand des Benutzers in einem vordefinierten Raum befindet, wird dies als Zeigegeste 20 interpretiert und die auswählbaren Fahrzeuge 21 werden als solche in Schritt 405 angezeigt. Der vordefinierte Raum kann beispielsweise eine bestimmte Nähe zu einem Touchscreen 25 sein.
  • Wird keine Zeigegeste 20 detektiert, wiederholt das Verfahren die Schritte 602 bis 604.
  • Nach dem Markieren der auswählbaren Fahrzeuge 20 in Schritt 605 wird in Schritt 606 eine Peilachse 23 zwischen dem Auge des Benutzers, der Zeigegeste 20 und den auswählbaren Fahrzeugen 21 bestimmt. Zeigt die Peilachse 23 auf kein auswählbares Fahrzeug 21, kehrt das Verfahren zu Schritt 602 zurück.
  • Wird ein Touchscreen 25 verwendet, wird in Schritt 606 die Position der Zeigegeste 20 in Bezug auf den Touchscreen 25 bestimmt und diese Position als Cursor 24 auf die Anzeigeeinheit 13 übertragen. Stimmt die Position des Cursors 24 auf der Anzeigeeinheit 13 mit keinem auswählbaren Kraftfahrzeug 21 überein, kehrt das Verfahren zu Schritt 602 zurück
  • Trifft die Peilachse 23 oder die Position des Cursors 24 auf ein auswählbares Fahrzeug 21, wird dieses durch die Anzeigeeinheit 13 in Schritt 607 hervorgehoben. Wenn diese Auswahl durch die Zeigegeste 20 über einen bestimmten Zeitraum aufrechterhalten wird (Schritt 608), wird dieses Fahrzeug durch die Auswerteeinheit 12 in Schritt 609 ausgewählt und in Schritt 610 zur weiteren Verwendung, beispielsweise Nachverfolgung oder Kommunikation, freigegeben.
  • Wird in Schritt 608 diese Auswahl durch die Zeigegeste 20 nicht über einen bestimmten Zeitraum aufrechterhalten, so wird dies als Timeout gewertet, und das Verfahren kehrt zu Schritt 602 zurück.
  • Durch die vorgeschlagene Vorrichtung ist es möglich, auf intuitive und einfache Art ein beliebiges Kraftfahrzeug auszuwählen, ohne dass eine direkte Kommunikation zwischen dem eigenen Fahrzeug und einem anderen Fahrzeug erforderlich ist.
  • Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar.
  • Bezugszeichenliste
  • 1
    Kraftfahrzeug
    2
    weiteres Kraftfahrzeug
    10
    Vorrichtung
    11
    Fokussiereinheit
    12
    Auswerteeinheit
    13
    Anzeigeeinheit
    20
    Zeigegeste
    21
    auswählbare Kraftfahrzeuge
    22
    ausgewähltes Kraftfahrzeug
    23
    Peilachse
    24
    Cursor
    25
    Touchscreen
    401-410
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015210735 A1 [0008]
    • DE 102012219280 A1 [0008]

Claims (10)

  1. Vorrichtung (10) für ein Kraftfahrzeug (1) zur Kommunikation mit einem weiteren Kraftfahrzeug (2) und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs (2) mit einer Auswerteeinheit (12), welche dazu eingerichtet ist, eine Kommunikation mit einem ausgewählten weiteren Kraftfahrzeug (2) und/oder ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs (2) zu initiieren, gekennzeichnet durch eine Fokussiereinheit (11), welche dazu eingerichtet ist, zumindest ein Auge eines Benutzers und/oder eine Zeigegeste (20) einer Hand und/oder eines Fingers des Benutzers zu erfassen, wobei die Auswerteeinheit (12) dazu eingerichtet ist, in Abhängigkeit von dem erfassten Auge und/oder der erfassten Zeigegeste (20) ein weiteres Kraftfahrzeug (2) in einer Umgebung des Kraftfahrzeugs (1) auszuwählen und eine Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug (2) und/oder ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs (2) zu initiieren.
  2. Vorrichtung (10) nach Anspruch 1, dadurch gekennzeichnet, dass die Fokussiereinheit (11) dazu eingerichtet ist, basierend auf dem Auge des Benutzers und/oder der Zeigegeste (20) eine Peilachse (23) zu bestimmen, die auf ein weiteres Kraftfahrzeug (2) gerichtet ist.
  3. Vorrichtung (10) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Fokussiereinheit (11) dazu eingerichtet ist, basierend auf dem Auge des Benutzers eine Blickrichtung zu bestimmen.
  4. Vorrichtung (10) nach einem der vorhergehenden Ansprüche, gekennzeichnet durch eine Anzeigeeinheit (13), wobei die Anzeigeeinheit (13) dazu eingerichtet ist, auswählbare Kraftfahrzeuge (21) in der Umgebung des Kraftfahrzeugs (1) anzuzeigen.
  5. Vorrichtung (10) nach Anspruch 4, dadurch gekennzeichnet, dass die Anzeigeeinheit (13) ein Bildschirm, ein Head-Up-Display und/oder ein Bordcomputer ist.
  6. Vorrichtung (10) nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Anzeigeeinheit (13) dazu eingerichtet ist, das ausgewählte Kraftfahrzeug zu markieren (22).
  7. Vorrichtung (10) nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die Anzeigeeinheit (13) dazu eingerichtet ist, die auswählbaren Kraftfahrzeuge (21) anzuzeigen, sobald die Fokussiereinheit (11) eine Zeigegeste des Benutzers (20) erfasst.
  8. Vorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit (12) dazu eingerichtet ist, die Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug (2) und/oder das Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs (2) zu initiieren, wenn die Fokussiereinheit (11) die Zeigegeste (20) über einen vorbestimmten Zeitraum erfasst.
  9. Vorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit (12) dazu eingerichtet ist, die Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug (2) und/oder das Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs (2) zu initiieren, wenn die Fokussiereinheit (11) eine Blickrichtung des Auges über einen vorbestimmten Zeitraum erfasst.
  10. Verfahren für ein Kraftfahrzeug (1) zur Kommunikation mit einem weiteren Kraftfahrzeug (2) und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs (2), gekennzeichnet durch Erfassen (402) von zumindest einem Auge eines Benutzers und/oder einer Zeigegeste (20) einer Hand und/oder eines Fingers des Benutzers, Auswählen (409) eines weiteren Kraftfahrzeugs (2) in einer Umgebung des Kraftfahrzeugs (1) in Abhängigkeit von dem erfassten Auge und/oder der erfassten Zeigegeste (20), und Initiieren (410) einer Kommunikation mit dem ausgewählten weiteren Kraftfahrzeug (2) und/oder ein Nachverfolgen des ausgewählten weiteren Kraftfahrzeugs (2).
DE102017211089.9A 2017-06-29 2017-06-29 Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs Pending DE102017211089A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017211089.9A DE102017211089A1 (de) 2017-06-29 2017-06-29 Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017211089.9A DE102017211089A1 (de) 2017-06-29 2017-06-29 Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs

Publications (1)

Publication Number Publication Date
DE102017211089A1 true DE102017211089A1 (de) 2019-01-03

Family

ID=64662144

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017211089.9A Pending DE102017211089A1 (de) 2017-06-29 2017-06-29 Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs

Country Status (1)

Country Link
DE (1) DE102017211089A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066269A1 (ja) * 2018-09-28 2020-04-02 株式会社デンソー ジェスチャ入力装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219280A1 (de) 2012-10-23 2014-04-24 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren
DE102013010019B3 (de) * 2013-06-14 2014-10-23 Audi Ag Verfahren zum Betreiben eines Verkehrsschilderfassungssystems eines Kraftwagens und Kraftwagen mit einem Verkehrsschilderfassungssystem
DE102013215370A1 (de) * 2013-08-05 2015-02-05 Continental Automotive Gmbh Steuerungseinrichtung zur Verwendung in einem Kraftfahrzeug
US20160139762A1 (en) * 2013-07-01 2016-05-19 Inuitive Ltd. Aligning gaze and pointing directions
DE102015210735A1 (de) 2015-06-11 2016-12-15 M & A - Dieterle GmbH Maschinen- und Apparatebau Verfahren zur Herstellung eines Faser-Kunststoff-Verbunds, Verfahren zur Herstellung eines Laminats, Faser-Kunststoff-Verbund sowie Enderzeugnis
DE102015010135B3 (de) * 2015-08-01 2017-01-12 Audi Ag Verfahren zur Auswahl eines Auswertungsobjekts für eine Funktion in einem Kraftfahrzeug und Kraftfahrzeug

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219280A1 (de) 2012-10-23 2014-04-24 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren
DE102013010019B3 (de) * 2013-06-14 2014-10-23 Audi Ag Verfahren zum Betreiben eines Verkehrsschilderfassungssystems eines Kraftwagens und Kraftwagen mit einem Verkehrsschilderfassungssystem
US20160139762A1 (en) * 2013-07-01 2016-05-19 Inuitive Ltd. Aligning gaze and pointing directions
DE102013215370A1 (de) * 2013-08-05 2015-02-05 Continental Automotive Gmbh Steuerungseinrichtung zur Verwendung in einem Kraftfahrzeug
DE102015210735A1 (de) 2015-06-11 2016-12-15 M & A - Dieterle GmbH Maschinen- und Apparatebau Verfahren zur Herstellung eines Faser-Kunststoff-Verbunds, Verfahren zur Herstellung eines Laminats, Faser-Kunststoff-Verbund sowie Enderzeugnis
DE102015010135B3 (de) * 2015-08-01 2017-01-12 Audi Ag Verfahren zur Auswahl eines Auswertungsobjekts für eine Funktion in einem Kraftfahrzeug und Kraftfahrzeug

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066269A1 (ja) * 2018-09-28 2020-04-02 株式会社デンソー ジェスチャ入力装置

Similar Documents

Publication Publication Date Title
DE112015004218B4 (de) Fahrassistenzvorrichtung
EP3084564B1 (de) Vorrichtung und verfahren zum navigieren innerhalb eines menüs zur fahrzeugsteuerung sowie auswählen eines menüeintrags aus dem menü
DE102012219280A1 (de) Fahrerassistenzsystem und Verfahren
DE102012210145A1 (de) Verfahren und Vorrichtung zur Unterstützung eines Fahrers bei einer Spurführung eines Fahrzeugs auf einer Fahrbahn
WO2019170387A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE102014214514A1 (de) Vorrichtung und Verfahren zum Austausch von Daten zwischen Fahrzeugen zum Einrichten einer Kolonnenfahrt
DE102014013960A1 (de) Verfahren zum Betreiben wenigstens einer Fahrerassistenzeinrichtung eines Kraftwagens und System mit einer Fahrerassistenzeinrichtung
DE102011087459A1 (de) Fahrerassistenzsystem für ein Kraftfahrzeug
DE102011122616A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug
DE102014105374B4 (de) Fahrerassistenzsystem
DE102017122543A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem
DE102017204254A1 (de) Verfahren und Vorrichtung zur Erinnerung eines Fahrers an ein Anfahren an einer Lichtsignaleinrichtung
DE112019007195T5 (de) Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
DE102014107302A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs entlang einer benutzerseitig vorgebbaren Fahrtrajektorie sowie Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102018002239A1 (de) Verfahren zur Ausgabe eines Warnhinweises
DE102017219440A1 (de) Beeinflussungssystem für ein pilotiert fahrendes Fahrzeug
DE102017211089A1 (de) Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs
EP3802191B1 (de) Verfahren und system zum betreiben einer automatischen fahrfunktion in einem fahrzeug
DE102017221202B3 (de) Fahrzeugsteuersystem für autonom fahrendes Kraftfahrzeug
EP2688768B1 (de) Fahrerassistenzsystem und fahrerassistenzverfahren für ein fahrzeug
DE102014213020A1 (de) Übernahmeaufforderung bei hochautomatisierter Fahrt auf Datenbrille
WO2018166780A1 (de) Verfahren und vorrichtung zur erinnerung eines fahrers an ein anfahren an einer lichtsignaleinrichtung mit variabler ausgabefunktion
EP3347804A1 (de) Bedienvorrichtung mit zeicheneingabe und löschfunktion
DE102019215308A1 (de) Verfahren zum Freischalten und/oder Anpassen einer automatisierten Fahrfunktion für ein zumindest teilautomatisiert betreibbares Fahrzeug
DE102014214698B3 (de) Benutzerschnittstelle und Bedienverfahren zur blickbasierten Bedienung eines Geschwindigkeitsregelungssystems

Legal Events

Date Code Title Description
R163 Identified publications notified