-
Stand der Technik
-
Die Erfindung betrifft ein Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine Schnittstelle in einem Fahrerassistenzsystem. Die Erfindung betrifft weiterhin ein derartiges Computerprogrammprodukt sowie ein derartiges Fahrassistenzsystem.
-
Fahrassistenzsysteme sind Zusatzeinrichtungen in einem Fahrzeug, die den Fahrer beim Manövrieren des Fahrzeuges unterstützen. Typischerweise umfassen Fahrassistenzsysteme unterschiedliche Subsysteme, beispielsweise einen Einparkassistenten, ein Navigationssystem oder eine Totwinkelüberwachung, die mit Hilfe von einer Sensorik das Umfeld des Fahrzeuges überwachen. Derartige Sensorik kann beispielsweise optische Sensoren, Ultraschallsensoren, Radarsensoren oder LIDAR-Sensoren umfassen, die einzeln oder in Kombination Daten betreffend das Fahrzeugumfeld bereitstellen.
-
Fahrassistenzsysteme umfassen typischerweise eine Mensch-Maschine-Schnittstelle (HMI), die dem Fahrer Informationen unterschiedlicher Subsysteme, beispielsweise eines Navigationssystems oder eines Unterhaltungssystems, bereitstellt und/oder durch die der Fahrer mit unterschiedlichen Subsystemen interagieren kann. Aus Dokument
DE 10 2008 025 124 A1 ist ein Anzeigesystem für ein Fahrzeug bekannt, das eine Anzeige zur graphischen Darstellung veränderlicher Informationen in Kombination mit einer berührungssensitiven Oberfläche umfasst. Dabei erzeugt die berührungssensitive Oberfläche in Abhängigkeit einer Betätigung der Oberfläche durch den Benutzer eine Bedieninformation.
-
DE 10 2009 057 081 A1 beschreibt eine Benutzerschnittstelle, die Eingabegesten auf einer berührungsempfindlichen Oberfläche erfasst und in Abhängigkeit von erfassten Parametern betreffend die Eingabegeste eine graphische Darstellung auf einer Anzeigefläche verändert.
-
Aus
DE 10 2006 060 904 ist ein Flughafenverkehrsinformations-Anzeigesystem bekannt, das mit Hilfe einer Bildverarbeitungseinheit einen zu beobachtenden Flughafenbereich anzeigt. Zur Darstellung ist die Bildverarbeitungseinheit mit einem berührungsempfindlichen Eingabegerät ausgerüstet, um ein Panoramasegment in Abhängigkeit von einer Fingerbewegung auf dem Eingabegerät auszuwählen.
-
An die Mensch-Maschine-Schnittstelle eines Fahrassistenzsystems werden hohe Anforderungen gestellt. So muss die Schnittstelle intuitiv erfassbar und schnell bedienbar sein, damit die Aufmerksamkeit des Fahrers nicht negativ beeinflusst wird. Daher besteht ein anhaltendes Interesse daran, die Bereitstellung von Informationen an den Fahrer sowie die Interaktion mit dem Fahrer möglichst einfach und unkompliziert zu gestalteten.
-
Offenbarung der Erfindung
-
Erfindungsgemäß wird ein Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle eines Fahrerassistenzsystems mit folgenden Schritten vorgeschlagen:
- – Erfassen von Umfelddaten mit Hilfe von Umfeldsensorik;
- – Berechnen einer Umfelddarstellung in der Vogelperspektive auf Basis der erfassten Umfelddaten;
- – Ausgabe der Umfelddarstellung auf einer berührungsempfindlichen Anzeigevorrichtung; und
- – Steuern einer Ansicht auf das Umfeld in der Umfelddarstellung durch Gesten des Benutzers auf der berührungsempfindlichen Anzeigevorrichtung.
-
Im Rahmen der Erfindung bezeichnet ein Fahrassistenzsystem eine elektronische, in einem Fahrzeug integrierte Zusatzeinrichtung, die den Fahrer in verschiedenen Fahrsituationen unterstützt. Fahrassistenzsysteme umfassen üblicherweise verschiedene Subsysteme, die insbesondere zur Steigerung der Sicherheit oder des Komforts des Fahrzeuges eingesetzt werden. Beispielsweise kann ein Fahrassistenzsystem einen Einparkassistenten umfassen, der den Fahrer beim Manövrieren in Parksituationen unterstützt.
-
Zur Ausgabe von Informationen an den Fahrer umfasst ein Fahrassistenzsystem üblicherweise eine Mensch-Maschine-Schnittstelle (HMI), die Informationen in haptischer, optischer und/oder akustischer Form ausgeben kann. Beispielsweise entsprechen Ruckeln am Lenkrad, Darstellen von Bildern auf einem Display oder Ausgeben von Tönen über einen Lautsprecher solchen Ausgaben. Weiterhin kann die Mensch-Maschine-Schnittstelle mit dem Fahrer interagieren, wobei dem Fahrer Mittel zur haptischen, optischen und/oder akustischen Eingabe bereitgestellt werden. Beispielsweise kann eine Sprach- oder Videosteuerung vorgesehen sein. Auch eine berührungsempfindliche Einrichtung, die Berührungen des Benutzers, etwa dem Fahrer oder dem Beifahrer, registriert, kann für Eingaben des Fahrers eingesetzt werden. Beispiele hierfür sind Tastaturen oder berührungsempfindliche Anzeigevorrichtungen.
-
Zur Charakterisierung des Fahrzeugumfeldes umfasst das Fahrassistenzsystem Umfeldsensorik, die Umfelddaten erfasst. Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen. Zusätzlich oder alternativ können aber auch ein Ultraschallsystem, Radarsystem, etc. eingesetzt werden, um Umfelddaten zu sammeln. Die Umfelddarstellung vereinigt die erfassten Umfelddaten zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung. So kann die Umfelddarstellung etwa auf dem Kamerasystem basierende Videoansichten des Fahrzeugumfeldes zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung umfassen. Weiterhin kann die Umfelddarstellung Visualisierungen von Ultraschalldaten, Radardaten, etc. enthalten.
-
Die Umfelddarstellung, die eine Vereinigung von erfassten Umfelddaten darstellt, kann in die Vogelperspektive transformiert werden. Dazu können die erfassten Umfelddaten in einer Datenverarbeitungseinrichtung auf eine Ebene projiziert werden, die das Fahrzeugumfeld, von einem über dem Fahrzeug gelegenen Punkt gesehen, darstellt. Die Projektionsebene kann dabei in Ihrer Form beliebig gewählt werden. Bevorzugt werden die Umfelddaten auf eine flache oder eine schüsselförmige Ebene projiziert. So können insbesondere auf dem Kamerasystem basierende Videoansichten, die unterschiedliche Ausschnitte des Fahrzeugumfeldes zeigen, in einer Ebenen zusammengeführt werden. Dabei können das Fahrzeug und dessen Umfeld so dargestellt werden, dass das Fahrzeug beispielsweise im Zentrum mit dem um das Fahrzeug herum liegende Umfeld wiedergegeben wird.
-
Im Falle einer schüsselförmigen Projektionsebene kann der Übergang zwischen horizontalem Bereich und vertikalem Bereich der Ebene so gewählt werden, dass dieser mit dem Übergang zwischen flachen Bereichen, wie der Straße, und erhabenen Objekten, beispielsweise Gebäuden, übereinstimmt. Vorzugsweise wird die Umfelddarstellung in der Vogelperspektive aus Videoansichten des Kamerasystems, projiziert auf eine schüsselförmige Ebene, generiert.
-
Die berührungsempfindliche Anzeigevorrichtung kann eine Anzeige umfassen, die mit mindestens einem Detektionselement gekoppelt ist, um Berührungen des Benutzers zu registrieren. Beispielsweise kann die Anzeige eine berührungsempfindliche Oberfläche als Detektionselement umfassen. Das Detektionselement erfasst dabei einen Kontakt zwischen der berührungsempfindlichen Anzeigevorrichtung und einem Finger oder einem Stift des Benutzers. So können Finger- und/oder Stiftbewegungen des Benutzers als Geste detektiert werden und basierend auf der detektierten Geste ein Steuersignal an eine Datenverarbeitungseinheit gesendet wird, die die Transformation von einer Ansicht in eine andere Ansicht beziehungsweise von einem Blickwinkel in einen anderen Blickwinkel auf das Umfeld in der Umfelddarstellung durchführt.
-
Die Gesten und deren Wirkung im Bezug auf das Verändern der Ansicht auf das Umfeld in der Umfelddarstellung können vordefiniert sein. So können Veränderungen der Ansicht durch vordefinierte Gesten des Benutzers gesteuert werden. Beispielsweise kann der Blickwinkel oder die Skalierung der Umfelddarstellung verändert werden, wenn die Geste des Benutzers zu der entsprechenden vordefinierten Geste korrespondiert.
-
Die Veränderung der Ansicht kann dabei je nach Geste des Benutzers gleichmäßig oder sprunghaft erfolgen. So kann eine Blickwinkeländerung in der Umfelddarstellung gleichmäßig erfolgen, indem die Ansicht auf das Umfeld in der Umfelddarstellung beispielsweise einem Ziehen des Fingers oder Stifts über die berührungsempfindliche Anzeigevorrichtung als Geste folgt. Auch eine Skalierung der Ansicht oder ein Zoom in die Ansicht kann gleichmäßig durch beispielsweise Strecken und Stauchen von beispielsweise zwei Fingern als Geste erfolgen.
-
Sprunghafte Veränderungen der Ansicht können etwa das Umschalten zwischen vordefinierten Blickwinkeln umfassen. Dazu können etwa ein oder mehrere Symbole in die Ansicht der Umfelddarstellung aufgenommen sein. Zum Umschalten zwischen den Ansichten kann ein Tippen oder Doppeltippen mit dem Stift oder dem Finger auf ein Symbol als Geste vordefiniert sein. Alternativ kann auch Ziehen oder Schubsen mit ein oder mehreren Fingern über die berührungsempfindliche Anzeigevorrichtung als Geste die Auswahl verschiedener vordefinierter Blickwinkel steuern.
-
Erfindungsgemäß wird weiterhin ein Computerprogramm vorgeschlagen, gemäß dem eines der hierin beschriebenen Verfahren durchgeführt wird, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei der Computereinrichtung kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrerassistenzsystems, oder eines Subsystems hiervon, in einem Fahrzeug handeln. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer entfernbaren CD-ROM, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung wie etwa einem Server zum Herunterladen bereitgestellt werden, z.B. über ein Datennetzwerk wie etwa das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung.
-
Schließlich wird erfindungsgemäß ein Fahrassistenzsystem zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle in einem Fahrerassistenzsystem vorgeschlagen, das vorzugsweise zur Durchführung des vorstehend beschriebenen Verfahrens dient. Das erfindungsgemäße Fahrassistenzsystem umfasst dazu folgende Komponenten:
- – Umfeldsensorik zum Erfassen von Umfelddaten;
- – mindestens eine Komponente zum Berechnen einer Umfelddarstellung in der Vogelperspektive auf Basis der erfassten Umfelddaten;
- – mindestens eine berührungsempfindliche Anzeigevorrichtung zum Ausgeben der Umfelddarstellung; und
- – mindestens eine Komponente, die in Reaktion auf Gesten des Benutzers eine Ansicht auf das Umfeld in der Umfelddarstellung ändert.
-
Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen. Zusätzlich oder alternativ können aber auch ein Ultraschallsystem, Radarsystem, etc. eingesetzt werden, um Umfelddaten zu sammeln.
-
Die Berechnung der Umfelddarstellung in der Vogelperspektive sowie die Transformation der Umfelddarstellung von einer Ansicht in eine andere Ansicht können durch eine oder unterschiedliche Komponenten des Fahrassistenzsystems erfolgen. So kann beispielsweise eine Datenverarbeitungseinrichtung des Fahrassistenzsystems ausgebildet sein, diese Berechnungen und Transformationen durchzuführen.
-
Die berührungsempfindliche Anzeigevorrichtung kann eine Anzeige umfassen, die mit einem Detektionselement gekoppelt ist, um Berührungen des Benutzers zu registrieren. Beispielsweise kann die Anzeige eine berührungsempfindliche Oberfläche als Detektionselement umfassen. wobei je nach Geste auf der berührungsempfindlichen Oberfläche ein Steuersignal erzeugt wird, anhand dessen die Ansicht auf das Umfeld in der Umfelddarstellung gemäß einer vordefinierten Veränderung transformiert wird.
-
Vorteile der Erfindung
-
Die Erfindung ermöglicht es, dem Fahrer insbesondere in schwierigen und unübersichtlichen Fahrsituationen, wie dem Einparken, möglichst schnell, individuell an die Situation angepasste Informationen zur Verfügung zu stellen. So kann sich der Fahrer schnell einen umfassenden Überblick über das Umfeld des Fahrzeuges verschaffen, um die Fahrsituation zu beurteilen und das Fahrmanöver sicher durchführen zu können. Weiterhin stellt die Erfindung eine besonders intuitive Lösung dar, die ohne Schwierigkeiten bedient werden kann und damit unnötige Ablenkungen des Fahrers durch das Fahrassistenzsystem vermeidet. Auf diese Weise kann der Nutzwert und die Akzeptanz von entsprechenden Assistenten erhöht werden.
-
Situationen, bei denen insbesondere das Sichtfeld des Fahrers eingeschränkt ist, treten im städtischen Verkehr, beispielsweise beim Einparken, häufig auf und ein erfindungsgemäß weitergebildetes Fahrassistenzsystem kann somit zu einer relevanten Verbesserung beitragen.
-
Kurze Beschreibung der Zeichnungen
-
Weitere Aspekte und Vorteile der Erfindung werden nunmehr anhand der beigefügten Figuren eingehender beschrieben. Hierbei zeigt:
-
1 ein mit einem erfindungsgemäßen Fahrassistenzsystem ausgerüstetes Fahrzeug in einer beispielhaften Fahrsituation;
-
2 eine schematische Darstellung der Projektionsebene zur Erzeugung einer Umfelddarstellung in der Vogelperspektive;
-
3 eine beispielhafte Umfelddarstellung ausgegeben auf einer berührungsempfindlichen Anzeigevorrichtung des HMI eines Fahrassistenzsystems aus 1;
-
4 in Form eines Flussdiagramms eine Arbeitsweise des Fahrassistenzsystems aus 1.
-
Ausführungsformen der Erfindung
-
In 1 ist schematisch ein Fahrzeug 10 in einer Fahrsituation dargestellt, die ein Einparken in eine Parklücke 12 zwischen begrenzenden Objekten (z.B. Fahrzeugen 14 und 16) betrifft, die aber auch ein Ausparken aus der Parklücke 12 betreffen kann. Beim Manövrieren wird der Fahrer von erfindungsgemäßem Fahrassistenzsystem 26 unterstützt, indem ein HMI 18 dem Fahrer das Umfeld des Fahrzeuges 10 auf einer Anzeigevorrichtung 40 darstellt. Dazu umfasst das Fahrassistenzsystem 26 ein Kamerasystem mit einer Frontkamera 20, einer Rückfahrkamera 24 und zwei Seitenkameras 22, die als Weitwinkelkameras ausgelegt sein können. Neben dem Kamerasystem kann das Fahrassistenzsystem 11 weitere Umfeldsensorik umfassen, die in 1 nicht gezeigt ist.
-
Von dem Kamerasystem 20, 22, 24 wird das Umfeld des Fahrzeuges 10 in Ausschnitten aus unterschiedlichen Perspektiven aufgezeichnet und stellt so unterschiedliche Videoansichten bereit. Um dem Fahrer einen möglichst vollständigen Überblick über sein unmittelbares Umfeld, das heißt innerhalb der Reichweite der verbauten Kameras 20, 22, 24, zu verschaffen, können die unterschiedlichen Videoansichten in einer Datenverarbeitungseinheit 25 in eine Umfelddarstellung 42 aus der Vogelperspektive transformiert werden und auf einer Anzeigevorrichtung 18 ausgeben werden. Dazu werden die unterschiedlichen Videoansichten auf eine Ebene 30 projiziert, die das Fahrzeug 10 und dessen Umfeld, von einem Punkt über dem Fahrzeug 10 gesehen, darstellt.
-
In 2 ist beispielhaft ein Schnitt einer schüsselartigen Ebene 30 gezeigt, auf die Videoansichten des Fahrzeugumfeldes projiziert werden können. Dabei wird der Übergang zwischen dem horizontalen Bereich 34 und dem vertikalen Bereich 32 der schüsselförmigen Ebene 30 möglichst so gewählt, dass dieser mit dem Übergang zwischen flachen Bereichen, wie der Straße 27 auf der sich das Fahrzeug 10 befindet, und erhabenen Objekten, wie Gebäuden 28, im Umfeld des Fahrzeuges 10 übereinstimmen. Auf diese Weise entsteht in der angezeigten Umfelddarstellung 42 ein realer Eindruck, der für den Fahrer intuitiver zu beurteilen ist.
-
Die resultierende Umfelddarstellung 42 zur Ausgabe auf einer der Anzeigevorrichtung 40 eines HMI ist in 3 dargestellt. Dort sind das Fahrzeug 10 und dessen Umfeld aus der Vogelperspektive dargestellt. Die Anzeigevorrichtung 40 ist als berührungsempfindliche Anzeigevorrichtung 40 ausgestaltet, wobei in die Anzeige eine berührungsempfindliche Oberfläche integriert ist, um einen Kontakt mit beispielsweise einem oder mehreren Fingern 44 des Benutzers oder einem Stift zu detektieren. Dabei wird die Position des Kontakts auf der Anzeigevorrichtung 40 sowie etwaige Finger- oder Stiftbewegungen des Benutzers als Geste registriert. Solche Gesten können beispielsweise Fingerbewegungen wie einfaches Tippen, Doppeltippen, Ziehen, Strecken oder Stauchen auf der Oberfläche der Anzeigevorrichtung 40 umfassen. Hierdurch kann eine intuitive Unterstützung des Fahrers erreicht werden, da der Fahrer die Ansicht auf das Umfeld in der Umfelddarstellung 42 individuell angepasst an die Fahrsituation steuern kann. Zusätzlich ist die Steuerung schnell und einfach zu bedienen. So wird der Fahrer nicht unnötig abgelenkt und kann sich auf die vorliegende Fahrsituation konzentrieren.
-
In 3 sind beispielhafte Wirkungen von Gesten auf der Anzeige 40 des HMI 18 angedeutet. Dabei sind Gesten und deren Wirkung im Bezug auf die Steuerung der Ansicht auf das Umfeld in der Umfelddarstellung 42 vordefiniert. Im Folgenden seien nur einige der möglichen Ausführungsformen zur Gestensteuerung in der vogelperspektivischen Ansicht des Fahrzeuges 10 erwähnt. Die folgenden Beispiele sind nicht abschließend und im Rahmen fachmännischen Handelns ist eine Vielzahl von Abwandlungen möglich.
-
In einem Beispiel zur Steuerung des Blickwinkels kann der Benutzer als Geste zum Beispiel den Finger oder den Stift, wie mit Bezugszeichen 56 angedeutet, über die berührungsempfindliche Anzeigevorrichtung 40 ziehen und so mit der Bewegung des Fingers den Blickwinkel auf das Umfeld des Fahrzeuges 10, dargestellt in der Umfelddarstellung 42, steuern. Dazu wird basierend auf der detektierten Geste ein Steuersignal an eine Datenverarbeitungseinheit 25 des Fahrassistenzsystems 26 gesendet, die die Transformation der Umfelddarstellung 42 in verschiedene Ansichten auf das Umfeld durchführt.
-
In einem weiteren Beispiel kann die Blickwinkeländerung durch Tippen oder Doppeltippen sprunghaft realisiert werden. So können, wie in 3 dargestellt, Symbole 46, 48, 50 für vordefinierte Ansichten auf das Fahrzeugumfeld, dargestellt in der Umfelddarstellung 42, eingeblendet werden. Bei Antippen dieser Symbole wird automatisch die Ansicht mit vordefiniertem Blickwinkel und möglicherweise vordefinierter Skalierung angezeigt. Neben Tippen als Geste könnte dies auch durch Schubsen zwischen den Symbolen 46, 48, 50, wie mit Bezugszeichen 58 angedeutet, realisiert werden. Schubsen beschreibt dabei eine Finger- beziehungsweise Stiftbewegung, die ein schnelles Ziehen über die berührungsempfindliche Anzeige mit nur kurzzeitigem Kontakt darstellt. Dabei ist kurz und schnell relativ zu anderen Gesten mit anderen Wirkungen, etwa dem Ziehen zur Blickwinkeländerung, zu verstehen.
-
Eine weitere Möglichkeit besteht darin, dass der Benutzer als Geste zum Beispiel einen oder mehrere Finger, wie mit Bezugszeichen 52, 54 und 55 angedeutet, in Rotationsbewegungen über die berührungsempfindliche Anzeigevorrichtung 40 zieht. Auf diese Weise kann der Benutzer den Blickwinkel auf das Umfeld des Fahrzeuges 10, dargestellt in der Umfelddarstellung 42, der Bewegung des Fingers folgend um eine von drei Raumachsen 52, 54, 55 rotieren.
-
Neben der Streuung des Blickwinkels durch Gesten können auch Gesten zur Skalierung oder zum Ein- und Auszoomen in die Ansicht des Fahrzeugumfeldes, gezeigt in der Umfelddarstellung 42, definiert werden. Beispielsweise kann Strecken und Stauchen von mindestens zwei Fingern als Geste definiert werden. Es sein an dieser Stelle nochmals explizit darauf hingewiesen, dass zu den konkret genannten Beispielen eine Vielzahl von Abwandlungen zur Gestensteuerung in der vogelperspektivischen Ansicht möglich sind.
-
4 zeigt ein Flussdiagramm 60 zur Durchführung von erfindungsgemäßem Verfahren, wobei das Zusammenwirken der Komponenten gemäß 1 illustriert ist. In Schritt 62 werden zunächst Umfelddaten mit Hilfe von Umfeldsensorik erfasst. Dabei dient insbesondere ein Kamerasystem 20, 22, 24 als Umfeldsensorik, das Videoansichten aus verschiedenen Perspektiven als Umfelddaten zur Verfügung stellt.
-
In Schritt 62 wird aus den Umfelddaten eine Umfelddarstellung 42 in der Vogelperspektive berechnet, wobei die Umfelddaten auf eine Ebene 30 projiziert werden, die das Fahrzeug 10 und dessen Umfeld aus der Vogelperspektive zeigt.
-
In Schritt 64 wird die berechnete Umfelddarstellung 42 auf einer berührungsempfindlichen Anzeigevorrichtung 40 ausgeben. Dabei erkennt die Anzeigevorrichtung 40 Gesten des Benutzers auf einer berührungsempfindlichen Oberfläche und wandelt diese in Steuersignale um, die von einer Datenverarbeitungseinheit 25 interpretiert werden. Auf diese Weise kann der Benutzer die Ansicht auf das Umfeld in der Umfelddarstellung 42 durch Gesten auf der berührungsempfindlichen Anzeigevorrichtung 40, wie in Schritt 66 ausgeführt, steuern.
-
Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr sind innerhalb des durch die anhängenden Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102008025124 A1 [0003]
- DE 102009057081 A1 [0004]
- DE 102006060904 [0005]