DE102020127049B4 - Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver - Google Patents

Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver Download PDF

Info

Publication number
DE102020127049B4
DE102020127049B4 DE102020127049.6A DE102020127049A DE102020127049B4 DE 102020127049 B4 DE102020127049 B4 DE 102020127049B4 DE 102020127049 A DE102020127049 A DE 102020127049A DE 102020127049 B4 DE102020127049 B4 DE 102020127049B4
Authority
DE
Germany
Prior art keywords
steering
autonomous
human
driver
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020127049.6A
Other languages
German (de)
Other versions
DE102020127049A1 (en
Inventor
Omkar Karve
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Steering Solutions IP Holding Corp
Continental Automotive Systems Inc
Original Assignee
Steering Solutions IP Holding Corp
Continental Automotive Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/066,983 external-priority patent/US11608088B2/en
Application filed by Steering Solutions IP Holding Corp, Continental Automotive Systems Inc filed Critical Steering Solutions IP Holding Corp
Publication of DE102020127049A1 publication Critical patent/DE102020127049A1/en
Application granted granted Critical
Publication of DE102020127049B4 publication Critical patent/DE102020127049B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation

Abstract

Produkt aufweisend:• ein autonomes Lenksystem, welches eine Lenkschnittstelle aufweist und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegebenen werden und autonome Lenkanweisungen eines autonomen Lenksystems zu akzeptieren und zu interpretieren, wobei• das autonome Lenksystem in der Lage ist, wenigstens zwischen einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln,• der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden,• der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden,• das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, eine Position und/oder Haltung einer menschlichen Gliedmaße zu verfolgen,• das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße,• der wenigstens eine optische Sensor oder die Kamera zum Verfolgen der Position oder der Haltung der wenigstens einen menschlichen Gliedmaße wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst, und• das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern.Product comprising:• an autonomous steering system which has a steering interface and which is constructed and set up to simultaneously accept and interpret steering instructions from a human driver, which are entered by a human driver via at least one steering interface, and autonomous steering instructions from an autonomous steering system, wherein • the autonomous steering system is capable of switching at least between a first steering mode and a second steering mode,• the first steering mode is a steering mode in which steering is exclusively based on autonomous steering instructions generated by the autonomous steering system,• the second steering mode is a steering mode in which steering takes place exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via the operation of the at least one steering interface,• the product also has at least one camera or one optical sensor , which is configured to track a position and/or posture of a human limb,• the autonomous steering system is configured to switch between steering modes based at least on the tracked position or posture of the at least one human limb,• the at least an optical sensor or the camera for tracking the position or posture of the at least one human limb has at least one camera positioned to capture images of at least one of the human driver's hands on or near a steering wheel, and• the The autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one human driver's hand has been moved from a grasping or clasping posture to a fully extended position and to change steering modes based at least on this determination.

Description

Technisches Gebiettechnical field

Das Gebiet, auf welches sich die Offenbarung allgemein bezieht, umfasst Produkte und Verfahren für autonome Lenksysteme, welche insbesondere für einen Wechsel zwischen unterschiedlichen Lenkmodi vorgesehen sind.The field to which the disclosure generally relates includes products and methods for autonomous steering systems, which are intended in particular for switching between different steering modes.

Hintergrundbackground

Fahrzeuge umfassen typischerweise Lenksysteme. Die Verbreitung einer kamerabasierten Handerkennung zusammen mit weiteren Sensoren in einem Lenksystem oder einem anderen Überwachungssystem zur Interpretierung einer Absicht eines Fahrers ist bekannt. Es sind kapazitive Streifen bekannt, die an einem Lenkrad installiert werden können, welche eine verbesserte Leistungsfähigkeit bereitstellen können, aber diese können auch von einer physikalischen Berührung abhängen und eine Interpretation einer Absicht eines Fahrers ist unter deren Verwendung schwierig. Eine Absicht des Fahrers rein auf Basis eines Berührungsmomentes zu interpretieren stellt keine notwendige Eingabe bereit, um autonome Fahrassistenzsysteme derart zu initialisieren oder vorzubereiten, dass diese auf zuverlässige Art und Weise funktionieren.Vehicles typically include steering systems. The proliferation of camera-based hand recognition along with other sensors in a steering system or other monitoring system to interpret a driver's intention is known. Capacitive strips that can be installed on a steering wheel are known, which can provide improved performance, but these can also depend on physical touch and interpretation of a driver's intention is difficult using them. Interpreting a driver's intent purely based on a moment of touch does not provide a necessary input to initialize or prepare autonomous driving assistance systems to function in a reliable manner.

„https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehiclesrevolution“ offenbart eine kamerabasierte Hände-dran/weg Überwachung für ein Lenkrad eines Fahrzeugs."https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehiclesrevolution" discloses camera-based hands-on/off monitoring for a vehicle's steering wheel.

„https://www.elektroniknet.de/automotive/haende-am-lenker. 110699.html“ beschreibt Handerkennungssysteme für ein Lenkrad auf Basis kapazitiver oder resistiver Sensoren."https://www.elektroniknet.de/automotive/haende-am-lenker. 110699.html” describes hand recognition systems for a steering wheel based on capacitive or resistive sensors.

DE 10 2016 210 452 A1 offenbart ein Verfahren und eine Vorrichtung für ein Fahrzeug, das autonom und manuell betrieben werden kann, wobei ein Übergang zwischen einem autonomen oder manuellen Fahrbetrieb erfolgt, wenn ein Fahrer ein Mittel zur Lenkung des Fahrzeugs loslässt bzw. wieder in die Hand nimmt, und wenn zudem eine Fahrerabsicht zum Wechsel des Fahrbetriebs plausibilisiert wird. Hierfür wird beispielsweise eine Haltung von Händen des Fahrers mittels einer Innenraumkamera überwacht. DE 10 2016 210 452 A1 discloses a method and apparatus for a vehicle capable of autonomous and manual operation, wherein a transition between autonomous and manual driving operation occurs when a driver releases and resumes a means for steering the vehicle, respectively, and when also a driver's intention to change driving operations is checked for plausibility. For this purpose, for example, the position of the driver's hands is monitored by means of an interior camera.

DE 11 2017 005 199 T5 offenbart eine Fahrmodus-Umschaltsteuerung, ein Fahrmodus-Umschaltsteuerverfahren und ein Fahrmodus-Steuerprogramm zum Umschalten des Fahrmodus eines Fahrzeugs zwischen einem manuellen Fahrmodus und einem automatischen Fahrmodus und insbesondere zum angemessenen Steuern der Umschaltung des Fahrmodus trotz eines Versagens einer Überwachung eines Fahrerzustands. DE 11 2017 005 199 T5 discloses a driving mode switching controller, a driving mode switching control method and a driving mode control program for switching the driving mode of a vehicle between a manual driving mode and an automatic driving mode, and in particular for appropriately controlling the switching of the driving mode despite a failure of monitoring a driver's condition.

DE 10 2014 107 194 A1 offenbart u. a. ein Verfahren zum Betreiben eines Lenksystems eines Kraftfahrzeugs, wobei ein Lenkmittel über eine Überlagerungslenkung mit einem Lenkgetriebe verbunden ist, dadurch gekennzeichnet, dass während eines autonomen Fahrbetriebs des Kraftfahrzeugs ein Fahrereingriff des Fahrers in das Lenkmittel ermittelt wird, und dass die Überlagerungslenkung derart betrieben wird, dass eine Kopplung zwischen einem Lenkmittelwinkel und einem in das Lenkgetriebe eingebrachten Winkel in Abhängigkeit von dem ermittelten Fahrereingriff eingestellt wird. DE 10 2014 107 194 A1 discloses, among other things, a method for operating a steering system of a motor vehicle, wherein a steering means is connected to a steering gear via a superimposed steering system, characterized in that during autonomous driving operation of the motor vehicle, driver intervention in the steering means is determined, and that the superimposed steering is operated in this way that a coupling between a steering center angle and an introduced into the steering gear angle is set depending on the determined driver intervention.

DE 10 2011 111 897 A1 offenbart u. a. ein Kraftfahrzeug mit wenigstens einem Fahrerassistenzsystem und einem Navigationsmittel, das wenigstens mit einem Sensor zur Erfassung von Druckkräften, Zugkräften oder Torsionskräften versehen ist, der mit einer Auswerteeinheit zur Auswertung seiner Signale verbunden ist, die bei Über- oder Unterschreiten eines Schwellenwertes der Signale das Fahrerassistenzsystem in Betrieb nimmt oder außer Betrieb setzt. DE 10 2011 111 897 A1 discloses, among other things, a motor vehicle with at least one driver assistance system and a navigation device, which is provided with at least one sensor for detecting compressive forces, tensile forces or torsional forces, which is connected to an evaluation unit for evaluating its signals, which, when the signals exceed or fall below a threshold value, Driver assistance system puts into operation or puts out of operation.

US 2017/0344838 A1 offenbart u. a. eine Objekterkennung auf Basis eines computerimplementierten Verfahrens, bei welchem Bilddaten von einem oder mehreren Sensoren empfangen werden und ein oder mehrere Objekte anhand der Bilddaten detektiert werden. Das Objekt repräsentiert potentiell Extremitäten eines Benutzers einer sich bewegenden Plattform. Das Verfahren verarbeitet die Objekte auf Basis von Prozessoren, wobei wenigstens zwei Konfidenzwerte für jedes der Objekte ermittelt werden. U.S. 2017/0344838 A1 discloses, among other things, object recognition based on a computer-implemented method, in which image data are received from one or more sensors and one or more objects are detected using the image data. The object potentially represents extremities of a user of a moving platform. The method processes the objects based on processors, with at least two confidence values being determined for each of the objects.

Ausgehend von dem vorstehend genannten Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, einen besonders zuverlässigen Wechsel zwischen einem manuellen und einem autonomen Fahrmodus für ein Fahrzeug zu erzielen.Proceeding from the prior art mentioned above, it is an object of the present invention to achieve a particularly reliable change between a manual and an autonomous driving mode for a vehicle.

Die Lösung der Aufgabe erfolgt durch ein Produkt mit den Merkmalen des Anspruchs 1, durch ein Verfahren mit den Merkmalen des Anspruchs 10, durch ein Produkt mit den Merkmalen des Anspruchs 16 sowie durch ein Verfahren mit den Merkmalen des Anspruchs 18. Vorteilhafte Weiterbildungen ergeben sich aus den Unteransprüchen.The object is achieved by a product with the features of claim 1, by a method with the features of claim 10, by a product with the features of claim 16 and by a method with the features of claim 18. Advantageous developments result from the subclaims.

Übersicht über veranschaulichende VariationenOverview of illustrative variations

Einige veranschaulichende Variationen können ein Verfahren oder ein Produkt zum Erfassen eines Fahrereingriffs in ein autonomes Lenksystem aufweisen.Some illustrative variations may include a method or product for detecting driver intervention in an autonomous steering system.

Weitere veranschaulichende Variationen innerhalb des Schutzbereichs der Erfindung werden anhand der nachfolgend bereitgestellten detaillierten Beschreibung deutlicher. Es sollte verstanden werden, dass die detaillierte Beschreibung und konkrete Beispiele, während diese Variationen der Erfindung offenbaren, lediglich zum Zweck der Veranschaulichung gedacht sind und nicht dazu gedacht sind, den Schutzbereich der Erfindung einzuschränken.Further illustrative variations within the scope of the invention will become more apparent from the detailed description provided below. It should be understood that the detailed description and specific examples, while disclosing variations of the invention, are intended for purposes of illustration only and are not intended to limit the scope of the invention.

Figurenlistecharacter list

Variationen innerhalb des Schutzbereichs der Erfindung werden anhand der detaillierten Beschreibung und der begleitenden Figuren umfassender verstanden, wobei:

  • 1 eine veranschaulichende Variation darstellt, in der ein Bild, welches ein Bild einer Kamera oder Daten eines optischen Sensors repräsentiert, welches einen menschlichen Fahrer darstellt, der mit einer Lenkschnittstelle eines autonomen Lenksystems interagiert, mittels eines Verfolgungsmoduls für eine menschliche Gliedmaße analysiert und markiert wird. In dieser veranschaulichenden Variation verwendet das Verfolgungsmodul für eine menschliche Gliedmaße Daten von wenigstens einem optischen Sensor oder einem Bild von wenigstens einer Kamera, um zu ermitteln, dass ein menschlicher Fahrer wünscht, die Kontrolle einer Lenkschnittstelle zu übernehmen, basierend wenigstens auf wenigstens einer Handposition oder Handhaltungscharakteristik des menschlichen Fahrers, gemäß einigen Variationen.
  • 2 eine veranschaulichende Variation darstellt, in der ein Bild, welches ein Bild einer Kamera oder Daten eines optischen Sensors repräsentiert, welches einen menschlichen Fahrer darstellt, der mit einer Lenkschnittstelle eines autonomen Lenksystems interagiert, mittels eines Verfolgungsmoduls für eine menschliche Gliedmaße analysiert und markiert wird. In dieser veranschaulichenden Variation verwendet das Verfolgungsmodul für eine menschliche Gliedmaße Daten von wenigstens einem optischen Sensor oder ein Bild von wenigstens einer Kamera um zu ermitteln, dass ein menschlicher Fahrer wünscht, die Kontrolle über eine Lenkschnittstelle abzugeben, basierend wenigstens auf einer Handposition oder einer Handhaltungscharakteristik des menschlichen Fahrers, gemäß einigen Variationen.
  • 3A eine Veranschaulichung einer Hand des Fahrers an einem Lenkrad ist, während eine Mehrzahl von Fingern um das Lenkrad gelegt ist und/oder diese greift, gemäß einigen Variationen.
  • 3B die Hand des Fahrers veranschaulicht, wie zum Beispiel in 3A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er eine vordere Fläche 200 des Lenkrades sieht, gemäß einigen Variationen.
  • 3C die Hand des Fahrers veranschaulicht, wie zum Beispiel in 3A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, gemäß einigen Variationen.
  • 4A eine Veranschaulichung einer Hand eines Fahrers im Sichtfeld eines optischen Sensors ist, welcher derart positioniert ist, dass er eine vordere Fläche des Lenkrades sieht, wobei der Fahrer eine Handgeste ausführt, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem eine Mehrzahl von Fingern der Hand des Fahrers bewegt wird, wobei die Mehrzahl von Fingern gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen.
  • 4B die Hand des Fahrers veranschaulicht, wie zum Beispiel in 4A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er eine vordere Fläche des Lenkrades sieht, gemäß einigen Variationen.
  • 4C eine Veranschaulichung einer Hand des Fahrers im Sichtfeld eines optischen Sensors ist, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei der Fahrer eine Handgeste ausführt, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs abzugeben, indem eine Mehrzahl von Fingern des Fahrers bewegt wird, wobei die Mehrzahl von Fingern gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen.
  • 4D Daten veranschaulicht, die ein optischer Sensor bezüglich einer Hand eines Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei der Fahrer eine Handgeste ausführt, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem eine Mehrzahl von Fingern des Fahrers bewegt wird, wobei die Mehrzahl von Fingern gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen.
  • 4E eine Veranschaulichung eines Fahrers ist, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem die Hände des Fahrers vollständig vom Lenkrad entfernt werden, gemäß einigen Variationen.
  • 5A eine Hand eines Fahrers im Sichtfeld eines optischen Sensors veranschaulicht, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei die Mehrzahl von Fingern einer Hand des Fahrers um das Lenkrad gelegt ist, was anzeigt, dass es die Absicht des Fahrers ist, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen.
  • 5B Daten veranschaulicht, die ein optischer Sensor bezüglich einer Hand des Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern einer Hand des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen.
  • 6 eine Hand eines Fahrers im Sichtfeld eines optischen Sensors veranschaulicht, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern der Hände des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen.
  • 6B Daten veranschaulicht, die ein optischer Sensor bezüglich einer Hand des Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern jeder der Hände des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen.
  • 7 das Sichtfeld eines optischen Sensors veranschaulicht, welcher derart positioniert ist, dass er eine vordere Fläche des Lenkrades sieht und eine Detektierungszone zeigt, in welcher der Fahrer seine Hände platziert hat, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen.
  • 8 das Sichtfeld eines optischen Sensors gemäß einigen Variationen veranschaulicht.
Variations within the scope of the invention will be more fully understood from the detailed description and accompanying figures, wherein:
  • 1 Figure 12 shows an illustrative variation in which an image representing a camera image or optical sensor data depicting a human driver interacting with a steering interface of an autonomous steering system is analyzed and tagged using a human limb tracking module. In this illustrative variation, the human limb tracking module uses data from at least one optical sensor or an image from at least one camera to determine that a human driver desires to take control of a steering interface based on at least one hand position or hand posture characteristic of the human driver, according to some variations.
  • 2 Figure 12 shows an illustrative variation in which an image representing a camera image or optical sensor data depicting a human driver interacting with a steering interface of an autonomous steering system is analyzed and tagged using a human limb tracking module. In this illustrative variation, the human limb tracking module uses data from at least one optical sensor or an image from at least one camera to determine that a human driver desires to relinquish control of a steering interface based at least on a hand position or hand posture characteristic of the driver human driver, according to some variations.
  • 3A Figure 14 is an illustration of a driver's hand on a steering wheel while a plurality of fingers wrap around and/or grasp the steering wheel, according to some variations.
  • 3B the driver's hand illustrated, as for example in 3A 12, in the field of view of an optical sensor positioned to view a front face 200 of the steering wheel, according to some variations.
  • 3C the driver's hand illustrated, as for example in 3A 12, in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel, according to some variations.
  • 4A Figure 13 is an illustration of a driver's hand in the field of view of an optical sensor positioned to view a front surface of the steering wheel, the driver performing a hand gesture indicating the driver's intention to turn steering control to the vehicle's autonomous driving system handed over by moving a plurality of fingers of the driver's hand, wherein the plurality of fingers are extended and not wrapped around or grasping the steering wheel, according to some variations.
  • 4B the driver's hand illustrated, as for example in 4A 1, in the field of view of an optical sensor positioned to view a front face of the steering wheel, according to some variations.
  • 4C Figure 14 is an illustration of a driver's hand in the field of view of an optical sensor positioned to view a lateral edge of the steering wheel, with the driver performing a hand gesture indicating the driver's intent to relinquish steering control to the vehicle's autonomous driving system by moving a plurality of fingers of the driver, wherein the plurality of fingers are stretched and not wrapped around or gripping the steering wheel, according to some variations.
  • 4D Illustrates data that an optical sensor can generate regarding a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel, the driver performing a hand gesture indicating the driver's intention to control the steering to hand over to the vehicle's autonomous driving system by moving a plurality of fingers of the driver, wherein the plurality of fingers are extended and not wrapped around or grasping the steering wheel, according to some variations.
  • 4E is an illustration of a driver indicating the driver's intention that Passing steering control to the vehicle's autonomous driving system by completely removing the driver's hands from the steering wheel, according to some variations.
  • 5A Figure 13 illustrates a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel, with the plurality of fingers of a driver's hand wrapped around the steering wheel indicating that it is the driver's intention to take control of the vehicle's steering system, according to some variations.
  • 5B Figure 12 illustrates data that an optical sensor can generate regarding a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel with a plurality of fingers of a driver's hand wrapped around the steering wheel, which indicates the driver's intention to take control of the vehicle's steering system.
  • 6 Figure 12 illustrates a driver's hand in the field of view of an optical sensor positioned to view a lateral edge of the steering wheel, with a plurality of fingers of the driver's hands wrapped around the steering wheel indicating the driver's intent to gain control take over the steering system of the vehicle, according to some variations.
  • 6B Figure 12 illustrates data that an optical sensor can generate regarding a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel with a plurality of fingers of each of the driver's hands wrapped around the steering wheel, indicating the driver's intent to take control of the vehicle's steering system, according to some variations.
  • 7 Figure 12 illustrates the field of view of an optical sensor positioned to see a front surface of the steering wheel and showing a detection zone in which the driver has placed his hands, indicating the driver's intent to take control of the vehicle's steering system .
  • 8th Figure 12 illustrates the field of view of an optical sensor according to some variations.

Detaillierte Beschreibung veranschaulichender VariationenDetailed Description of Illustrative Variations

Die nachfolgende Beschreibung der Variationen ist ausschließlich veranschaulichender Natur und ist in keiner Weise dazu gedacht, den Schutzbereich der Erfindung, ihre Anwendung, oder Verwendungen zu beschränken.The following description of the variations is merely illustrative in nature and is in no way intended to limit the scope of the invention, its application, or uses.

In einigen veranschaulichenden Variationen kann ein Fahrzeug für Fracht oder Passagiere durch eine Kraftfahrzeugkraft vorwärts bewegt werden, welche von einem Motor bezogen wird, der eine Quelle einer gespeicherten Energie in eine Antriebskraft für das Fahrzeug umwandelt, wie, aber nicht beschränkt auf einen Verbrennungsmotor, einen batteriebetriebenen Motor, einen brennstoffzellenbetriebenen Motor, oder einen beliebigen anderen bekannten Motor zum Bereitstellen einer Kraftfahrzeugantriebskraft für ein Passagier- oder ein Frachtfahrzeug. Die Antriebskraft, welche aus der Umwandlung der gespeicherten Energie durch den Motor resultiert, kann vom Motor auf ein Fahrmedium übertragen werden, entlang dessen sich das Fahrzeug fortbewegt, wie, aber nicht beschränkt auf ein Gelände, eine Straße, einen Wasserweg, einen Luftweg, oder ein beliebiges anderes Medium, welches dafür bekannt ist, dass sich Fahrzeuge entlang dessen durch den Raum bewegen. Die Übertragung der Antriebskraft vom Motor auf das Fahrmedium kann über beliebige Mittel einer angetriebenen Kraftfahrzeugbewegung erfolgen, wie, aber nicht beschränkt auf Straßenräder, Laufflächen, Laufrollen, Rollen, Propeller, Gastriebwerke, Flüssigkeitstriebwerke, ionengetriebene Triebwerke, oder beliebige andere Mittel einer angetriebenen Kraftfahrzeugbewegung.In some illustrative variations, a vehicle for cargo or passengers may be propelled by automotive power obtained from a motor that converts a source of stored energy into motive power for the vehicle, such as, but not limited to, an internal combustion engine, a battery powered one engine, a fuel cell powered engine, or any other known engine for providing automotive motive power to a passenger or cargo vehicle. The motive power resulting from the conversion of the stored energy by the engine may be transferred from the engine to a tractive medium along which the vehicle travels, such as but not limited to a terrain, road, waterway, airway, or any other medium known for vehicles to move along through space. The transmission of motive power from the engine to the traction medium may be via any means of automotive propulsion such as, but not limited to, road wheels, treads, casters, rollers, propellers, gas engines, liquid engines, ion propulsion engines, or any other means of automotive propulsion.

Wie hier verwendet, können sich „Räder“ oder „Rad“ selbst dann auf ein traditionelles Straßenrad oder eine Reifenanordnung beziehen, wenn diese durch ein beschreibendes Adjektiv modifiziert werden wie, aber nicht beschränkt auf die Nennung von „lenkbaren Straßenrädern“, „lenkbaren Rädern“, oder „Antriebsrädern“, sie können sich aber auch auf eine beliebige Modifikation der traditionellen Straßenräder oder Reifenanordnungen beziehen wie, aber nicht beschränkt auf randlose Maglev-Reifen, Kugelreifen, oder beliebige andere Mittel zur Kraftfahrzeugbewegung wie, aber nicht beschränkt auf, Laufflächen, Laufrollen, Rollen, Propeller, Gastriebwerke, Flüssigkeitstriebwerke, oder ionengetriebene Triebwerke.As used herein, "wheels" or "wheel" can refer to a traditional road wheel or tire assembly even when modified by a descriptive adjective such as, but not limited to, naming "steerable road wheels," "steerable wheels." , or "drive wheels", but may also refer to any modification of traditional road wheels or tire assemblies such as, but not limited to, rimless maglev tires, spherical tires, or any other means of automotive movement such as, but not limited to, treads, casters , rollers, propellers, gas engines, liquid engines, or ion-powered engines.

Wie hier verwendet, kann sich „Straße“ selbst bei einer Modifizierung durch ein beschreibendes Adjektiv auf eine traditionelle Fahrbahnoberfläche wie, aber nicht beschränkt auf eine Beton- oder eine Asphaltstraße beziehen, sie kann sich aber auch auf eine beliebige Oberfläche oder ein Medium beziehen, entlang derer oder dessen ein Fahrzeug für Fracht oder Passagiere fährt, wie, aber nicht beschränkt auf Wasser, Eis, Schnee, Schmutz, Luft oder andere Gase, oder ein Raum im Allgemeinen.As used herein, even when modified by a descriptive adjective, "road" can refer to a traditional road surface such as, but not limited to, a concrete or asphalt road, but can also refer to any surface or medium along which a vehicle for cargo or passengers travels, such as but not limited to water, ice, snow, dirt, air or other gases, or space in general.

Wie hier verwendet, kann sich „Gliedmaße“ selbst bei einer Modifizierung durch ein beschreibendes Adjektiv auf eine Hand, einen Finger, einen Unterarm, einen Ellbogen, einen Arm, eine Schulter, einen Hals, einen Kopf, einen Oberschenkel, ein Knie, einen Unterschenkel, einen Fuß, einen Zeh, oder einen beliebigen weiteren Körperteil beziehen.As used herein, "limb," even when modified by a descriptive adjective, can mean a hand, finger, forearm, elbow, arm, shoulder, neck, head, thigh, knee, lower leg , a foot, a toe, or any other body part.

Wie hier verwendet, kann sich die „Beobachtungszone“ auf einen Punkt, einen Bereich, oder eine Zone beziehen, bezüglich dessen/derer wenigstens ein Sensor oder eine Kamera eingerichtet ist, von diesem/dieser Daten zu akquirieren. Als nicht einschränkendes Beispiel kann sich, falls eine Kamera allgemein dazu bestimmt ist, Bilder eines Handrades zu erfassen, „Beobachtungszone“ auf das Handrad beziehen, sie kann sich aber auch auf einen beliebigen Ort beziehen, welcher in dem Bild erfasst ist. Als weiteres nicht einschränkendes Beispiel kann, falls ein Sensor eingerichtet ist, Daten am Ort des Sensors oder Daten an einem vom Sensor entfernten Ort zu erfassen, der Ort, bezüglich dessen die Daten erfasst werden, als „Beobachtungszone“ bezeichnet werden. Wie hier verwendet, kann sich „Beobachtungszone“ auch auf den Bereich eines Bildes beziehen, für welchen wenigstens ein Modul eingerichtet ist, diesen zu analysieren, oder auf den Datensatz, welcher von Sensoren erfasst wird, für den wenigstens ein Modul eingerichtet ist, diesen zu analysieren. Hierfür kann sich wie hier verwendet „beobachten“ auf die Verwendung einer Kamera oder die Fähigkeit eines Sensors beziehen, Daten am Ort des Sensors oder an einem vom Sensoren entfernten Ort zu erfassen.As used herein, the “observation zone” may refer to a point, area, or zone from which at least one sensor or camera is configured to acquire data. As a non-limiting example, if a camera is generally designed to capture images of a hand wheel, "observation zone" may refer to the hand wheel, but it may also refer to any location captured in the image. As a further non-limiting example, if a sensor is configured to collect data at the location of the sensor or data at a location remote from the sensor, the location about which the data is collected may be referred to as an "observation zone." As used herein, “observation zone” may also refer to the area of an image that at least one module is configured to analyze, or to the data set captured by sensors that at least one module is configured to analyze analyze. As used herein, “observe” may refer to the use of a camera or a sensor's ability to collect data at the sensor's location or at a location remote from the sensor.

Wie hier verwendet, kann sich „Geste“ selbst bei einer Modifizierung durch ein beschreibendes Adjektiv auf die Haltung oder Position wenigstens einer Gliedmaße eines menschlichen Fahrers beziehen.As used herein, even when modified by a descriptive adjective, "gesture" may refer to the pose or position of at least one limb of a human driver.

In einigen veranschaulichenden Variationen kann ein Fahrzeug ein Lenksystem aufweisen, welches einem Fahrer ermöglicht, eine Richtung des Fahrzeugs zu ändern oder dieses von einem Pfad abzulenken, auf welchem es sich bewegt. Dieses Lenksystem kann in Verbindung mit einer Quelle einer Bewegung eines angetriebenen Kraftfahrzeugs wie einem Paar angetriebener Straßenräder arbeiten. Als nicht einschränkendes Beispiel kann ein Fahrzeug mit einem Verbrennungsmotor ausgestattet sein, welcher ein Paar hinterer Straßenräder mechanisch antreibt, um das Fahrzeug entlang einer Straße nach vorne zu bewegen. In einem solchen Beispiel kann das Fahrzeug zusätzlich mit einem Satz lenkbarer vorderer Straßenräder ausgestattet sein, welcher mittels des Lenksystems über eine Lenkschnittstelle wie, aber nicht beschränkt auf ein Handrad betätigt werden kann, um das Fahrzeug nach links und nach rechts zu lenken, während sich das Fahrzeug entlang der Straße bewegt. In solch einem Beispiel dienen die angetriebenen hinteren Straßenräder als Mittel zur Bewegung eines angetriebenen Kraftfahrzeugs, und das lenkbare Paar vorderer Straßenräder, welches über die Lenkschnittstelle betätigt wird, dient als das Lenksystem. Es ist wichtig, dass dies nicht das einzige Mittel ist, durch welches ein Fahrzeug in dieser Offenbarung als angetrieben oder gelenkt betrachtet wird. Tatsächlich können in einigen veranschaulichenden Variationen die vorderen Straßenräder sowohl die angetriebenen Straßenräder, als auch die lenkbaren Straßenräder sein. Ebenso muss das Mittel der angetriebenen Kraftfahrzeugbewegung nicht von der derselben Art sein, wie das Mittel zur Lenkung. Das heißt, falls das Mittel zur angetriebenen Kraftfahrzeugbewegung Straßenräder aufweist, muss das Lenkmittel nicht ebenfalls Straßenräder aufweisen. Hierzu wird als nicht einschränkendes Beispiel in Betracht gezogen, dass ein Schneemobil durch einen Satz von Laufflächen in Richtung des Hecks des Fahrzeugs angetrieben wird und durch einen Satz von lenkbaren Skiern in Richtung der Vorderseite des Fahrzeugs gelenkt werden kann. Zusätzlich kann in Betracht gezogen werden, dass das Mittel der angetriebenen Kraftfahrzeugbewegung wie, aber nicht beschränkt auf angetriebene Straßenräder, und das Lenkmittel wie, aber nicht beschränkt auf lenkbare Straßenräder, im Betrieb eine Funktion ändern kann oder bezüglich der Funktion wechseln kann. Als nicht einschränkendes Beispiel kann ein Fahrzeug, welches ein Paar angetriebener Straßenräder in der Nähe des Hecks des Fahrzeugs aufweist und darüber hinaus ein Paar lenkbarer Straßenräder in der Nähe der Front des Fahrzeugs aufweist, Fahrmodi ändern und damit beginnen, jedes verfügbare Straßenrad, einschließlich der vorderen lenkbaren Straßenräder, als angetriebene Straßenräder einzusetzen, während die Eigenschaft der Lenkbarkeit und die Lenkfunktion der vorderen lenkbaren Straßenräder aufrechterhalten wird. Auf ähnliche Weise kann in einigen Fällen in Betracht gezogen werden, dass angetriebene Straßenräder mit Unterbrechungen oder optional als lenkbare Straßenräder verwendet werden.In some illustrative variations, a vehicle may include a steering system that allows a driver to change a direction of the vehicle or steer it off a path in which it is traveling. This steering system may operate in conjunction with a source of powered vehicle motion, such as a pair of powered road wheels. As a non-limiting example, a vehicle may be equipped with an internal combustion engine that mechanically drives a pair of rear road wheels to propel the vehicle forward along a road. In such an example, the vehicle may be additionally equipped with a set of steerable front road wheels which may be actuated by the steering system via a steering interface such as, but not limited to, a handwheel to steer the vehicle left and right while the Vehicle moving along the road. In such an example, the powered rear road wheels serve as the means for moving a powered motor vehicle, and the steerable pair of front road wheels, operated via the steering interface, serve as the steering system. Importantly, this is not the only means by which a vehicle is considered to be propelled or steered in this disclosure. Indeed, in some illustrative variations, the front road wheels can be both the driven road wheels and the steerable road wheels. Likewise, the means of powered vehicle movement need not be of the same type as the means of steering. That is, if the means for powered vehicle movement includes road wheels, the steering means need not also include road wheels. To this end, as a non-limiting example, it is contemplated that a snowmobile is propelled toward the rear of the vehicle by a set of treads and may be steered toward the front of the vehicle by a set of steerable skis. Additionally, it can be contemplated that the means of powered vehicle movement, such as but not limited to powered road wheels, and the steering means, such as but not limited to steerable road wheels, may change function or change function during operation. As a non-limiting example, a vehicle that has a pair of powered road wheels near the rear of the vehicle and also has a pair of steerable road wheels near the front of the vehicle can change driving modes and begin using every available road wheel, including the front steerable road wheels as driven road wheels while maintaining the steerability property and steering function of the front steerable road wheels. Similarly, in some cases it can be considered that driven road wheels are used intermittently or optionally as steerable road wheels.

In einigen veranschaulichenden Variationen kann ein Lenksystem eines Fahrzeugs auch dahingehend autonom sein, dass das Fahrzeug sich selbst in Richtung eines vordefinierten Ortes lenkt, welcher an dieses ohne eine Unterstützung oder einen Eingriff eines Fahrers kommuniziert wurde. Das Fahrzeug kann ein Hindernisvermeidungssystem aufweisen, welches dem Fahrzeug ermöglicht, Objekte auf dessen Pfad zu erfassen und diese zu vermeiden. In einigen Fällen kann ein menschlicher Fahrer des Fahrzeugs wünschen, das Fahrzeug beim Vermeiden eines Objektes zu unterstützten, oder die Bewegungsrichtung des Fahrzeugs zu ändern. In einem solchen Fall kann der Fahrer die Kontrolle über wenigstens eine fahrerseitige Lenksystemsteuerung oder wenigstens eine Lenkschnittstelle übernehmen und das autonome Lenksystem unterstützen. Wenn der Fahrer sich bewegt, um wenigstens eine Gliedmaße des menschlichen Fahrers auf der Lenkschnittstelle zu platzieren, kann ein optisches Erfassungssystem oder ein Bildgebungssystem, welches wenigstens einen optischen Sensor oder eine Kamera aufweist, Bilder oder optische Daten erfassen, welche durch ein Verfolgungsmodul für eine menschliche Gliedmaße analysiert werden, um zu ermitteln, ob der menschliche Fahrer beabsichtigt, die Aufgabe des Lenkens oder Fahrens vom autonomen Lenksystem zu übernehmen. Falls das Verfolgungsmodul für eine menschliche Gliedmaße allein nicht in der Lage ist, die Absicht des Fahrers zu ermitteln, kann das Verfolgungsmodul für eine menschliche Gliedmaße die analysierten Bilder oder optischen Daten mit Sensordaten von Sensoren korrelieren, die in eine beliebige Lenkschnittstelle eingebettet oder mit dieser verbunden sind, welche der Fahrer offensichtlich versucht zu übernehmen, ausgehend von der Analyse der optischen Sensor- oder Bilddaten. In einigen solcher Fälle können die Sensordaten von Sensoren, welche eingebettet sind in oder verbunden sind mit einer beliebigen Lenkschnittstelle, welche der menschliche Fahrer offensichtlich versucht zu übernehmen, Sensordaten umfassen wie, aber nicht beschränkt auf Druckdaten von einem Drucksensor, welcher in einer Lenkschnittstelle eingebettet ist, Berührungsdaten von einem Berührungssensor, welcher in einer Lenkschnittstelle eingebettet ist, Drehmomentdaten von beliebigen Drehmomentsensoren, welche mit einer Lenkschnittstelle verbunden sind wie, aber nicht beschränkt auf einen Drehmomentsensor, der eingebettet ist oder verbunden ist mit einer Lenksäule für ein Handrad, einen Positionssensor, welcher mit einer Lenkschnittstelle verbunden ist wie, aber nicht beschränkt auf einen Positionssensor, welcher eingebettet ist oder verbunden ist mit einer Lenksäule für ein Handrad, oder einen beliebigen anderen Sensor von dem bekannt ist, dass er verwendet wird, um geeignete Daten bezüglich der Betätigung einer Lenkschnittstelle durch einen menschlichen Benutzer bereitzustellen.In some illustrative variations, a vehicle's steering system may also be autonomous in that the vehicle steers itself toward a predefined location communicated to it without driver assistance or intervention. The vehicle may include an obstacle avoidance system that allows the vehicle to detect and avoid objects in its path. In In some cases, a human driver of the vehicle may wish to assist the vehicle in avoiding an object or to change the vehicle's direction of travel. In such a case, the driver can take control of at least one driver-side steering system controller or at least one steering interface and support the autonomous steering system. When the driver moves to place at least one limb of the human driver on the steering interface, an optical capture system or an imaging system, which includes at least one optical sensor or camera, can capture images or optical data that are processed by a human tracking module Limbs are analyzed to determine whether the human driver intends to take over the task of steering or driving from the autonomous steering system. If the human limb tracking module alone is not able to determine the driver's intention, the human limb tracking module can correlate the analyzed images or optical data with sensor data from sensors embedded in or connected to any steering interface are which the driver is obviously trying to take over, based on the analysis of the optical sensor or image data. In some such cases, the sensor data from sensors embedded in or connected to any steering interface that the human driver is obviously attempting to adopt may include sensor data such as, but not limited to, pressure data from a pressure sensor embedded in a steering interface , touch data from a touch sensor embedded in a steering interface, torque data from any torque sensor connected to a steering interface such as, but not limited to, a torque sensor embedded or connected to a steering column for a hand wheel, a position sensor, which connected to a steering interface such as, but not limited to, a position sensor embedded or connected to a steering column for a handwheel, or any other sensor known to be used to provide appropriate data regarding the operation of a steering interface provided by a human user.

In einigen veranschaulichenden Variationen kann ein optisches Erfassungssystem oder Bildgebungssystem, welches wenigstens einen optischen Sensor oder eine Kamera aufweist, oberhalb oder hinter einem menschlichen Fahrer innerhalb der Fahrzeugkabine positioniert sein. In einigen Fällen kann ein optisches Erfassungssystem oder Bildgebungssystem auf einer der Seiten des menschlichen Fahrers oder vor dem menschlichen Fahrer an der Decke der Fahrzeugkabine positioniert sein, so lange die Beobachtungszone für das optische Erfassungssystem oder Bildgebungssystem immer noch ordnungsgemäß eingerichtet ist, Gesten einer menschlichen Gliedmaße durch einen menschlichen Fahrer oder Interaktionen mit einer Lenkschnittstelle durch einen menschlichen Fahrer zu beobachten. In einigen Fällen muss das optische Erfassungssystem oder Bildgebungssystem nicht direkt auf eine verbundene Beobachtungszone fokussiert sein, sondern kann durch die Verwendung wenigstens eines Spiegels indirekt fokussiert sein. Als nicht einschränkendes Beispiel kann ein optisches Erfassungssystem oder ein Bildgebungssystem in der Nähe des rückwärtigen Bereichs der Fahrzeugkabine positioniert und auf einen Spiegel ausgerichtet sein, welcher an der Decke des Fahrzeugs positioniert ist. In einem solchen Fall kann der Spiegel derart positioniert sein, dass es dem optischen Erfassungssystem oder dem Bildgebungssystem möglich ist, eine verbundene Beobachtungszone zu beobachten.In some illustrative variations, an optical sensing system or imaging system, including at least one optical sensor or camera, may be positioned above or behind a human operator within the vehicle cabin. In some cases, a sensing optical system or imaging system may be positioned on one of the human driver's sides or in front of the human driver on the ceiling of the vehicle cabin, as long as the zone of observation for the sensing optical system or imaging system is still properly established, gestures of a human limb through observing a human driver or interactions with a steering interface by a human driver. In some cases, the detection optical system or imaging system need not be directly focused on an associated observation zone, but may be indirectly focused through the use of at least one mirror. As a non-limiting example, an optical detection system or an imaging system may be positioned near the rear of the vehicle cabin and aligned with a mirror positioned on the ceiling of the vehicle. In such a case, the mirror may be positioned to allow the detection optical system or the imaging system to observe a connected observation zone.

Um ein kooperatives Lenksystem zu unterstützen, können die Sensoren eines autonomen Lenksystems in einigen veranschaulichenden Variationen eingerichtet sein, eine Lenkeingabe als eine Fahrereingabe zu detektieren und zu identifizieren. Eine genaue Identifikation einer Fahrereingabe kann die Verwendung eines neuronalen Netzes zur Bildanalyse beinhalten, um eine Bewegung, Positionen, Haltungen, und Gesten, wie hier beschrieben, einer Gliedmaße eines menschlichen Fahrers zu identifizieren und zu verfolgen, in Kombination mit der Verwendung einfacherer Erfassungsmethoden wie das Detektieren eines Griffs eines menschlichen Fahrers an einer Lenkschnittstelle oder eine von einem menschlichen Fahrer stammende Kraft, Betätigung, oder Berührung an einer Lenkschnittstelle durch die Verwendung dedizierter Sensoren, welche in die Lenkschnittstelle eingebettet sind oder indirekt mit der Lenkschnittstelle verbunden sind. Eine Korrelation der Bildanalyse mit Daten der vorgenannten einfacheren Erfassungsmethoden, ergibt eine vorteilhaft verbesserte Methode zum Ermitteln einer Absicht des menschlichen Fahrers zur Verwendung bei einer genauen Interpretation der Eingabe des menschlichen Fahrers innerhalb eines autonomen Lenksystems.To support a cooperative steering system, in some illustrative variations, the sensors of an autonomous steering system may be configured to detect and identify a steering input as a driver input. Accurate identification of driver input may involve the use of an image analysis neural network to identify and track movement, positions, postures, and gestures, as described herein, of a human driver's limb, in combination with the use of simpler detection methods such as that Detecting a human driver's grip on a steering interface or a human driver-originated force, actuation, or touch on a steering interface through the use of dedicated sensors embedded in the steering interface or indirectly connected to the steering interface. Correlating the image analysis with data from the aforementioned simpler acquisition methods yields an advantageously improved method for determining human driver intent for use in accurately interpreting human driver input within an autonomous steering system.

In einigen veranschaulichenden Variationen kann die Logik eines beliebigen autonomen Lenkmoduls sowohl auf eine autonome Eingabe, als auch auf eine Fahrereingabe reagieren. Die Eingabe des menschlichen Fahrers kann mit einer Absicht des menschlichen Fahrers in Verbindung gebracht werden. In einigen Fällen kann die volle Lenkkontrolle an den menschlichen Fahrer übergeben werden, falls die Absicht des menschlichen Fahrers eine bestimmte Schwelle erreicht. In einigen Fällen kann die volle Lenkkontrolle ausschließlich für die autonome Eingabe reserviert sein, wenn das Lenksystem oder ein anderes System, welches über das Lenksystem herrscht, ermittelt, dass der Fahrereingabe kein Vorrang erteilt werden sollte oder entscheidet, dass die Absicht des menschlichen Fahrers gering oder nicht anwesend ist. Als nicht einschränkendes Beispiel kann der autonomen Eingabe unter Ausschluss der Eingabe durch den menschlichen Fahrer, die alleinige Kontrolle des Lenksystems übertragen werden, in einer Situation, in welcher durch das autonome Lenkmodul ermittelt wurde, dass der menschliche Fahrer mit hoher Wahrscheinlichkeit versehentlich mit einer Lenkschnittstelle interagiert hat oder versehentlich eine erkannte Geste ausgeführt hat.In some illustrative variations, the logic of any autonomous steering module may be responsive to both autonomous input and driver input. The human driver's input may be associated with a human driver's intent. In some cases, full steering control can be handed over to the human driver if the human driver's intent reaches a certain threshold. In some cases it can Full steering control may be reserved exclusively for autonomous input when the steering system, or another system controlling the steering system, determines that driver input should not be given priority or decides that the human driver's intent is low or absent. As a non-limiting example, the autonomous input, excluding human driver input, may be given sole control of the steering system in a situation where it has been determined by the autonomous steering module that the human driver has a high probability of inadvertently interacting with a steering interface or accidentally performed a recognized gesture.

In einigen veranschaulichenden Variationen kann ein Fahrzeug ein Lenksystem umfassen, welches eine Lenkschnittstelle aufweist, und einen Satz lenkbarer Straßenräder. Das Lenksystem kann vom Typ einer elektrischen Servolenkung sein, wobei physikalische Verbindungen eine Betätigung der Lenkschnittstelle mechanisch an die lenkbaren Räder übertragen. Das Lenksystem kann vom „steer-by-wire“-Typ sein, wobei physikalische Mechanismen eine Betätigung der Lenkschnittstelle nicht mechanisch an die lenkbaren Straßenräder übertragen und wobei eine Betätigung der Lenkschnittstelle eine verbundene Betätigung der lenkbaren Straßenräder über die Kommunikation elektronischer Vorrichtungen beeinflusst, wie, aber nicht beschränkt auf Sensoren, Transceiver und elektronisch angeregte Aktoren. In einem solchen System kann ein Lenkschnittstellenbetätigungssystem Aktoren oder Elektromagneten oder dergleichen aufweisen, um wenigstens in dem Fall eine visuelle Lenkrückkopplung zu erzeugen, in dem die betätigte Lenkschnittstelle eine mechanisch betätigbare Lenkschnittstelle ist wie, aber nicht beschränkt auf ein Handrad. In einem Lenksystem mit einer digitalen Lenkschnittstelle, kann ein Lenkschnittstellenbetätigungssystem beliebige Logikmodule aufweisen, welche verwendet werden beim Ermitteln, wie beliebige digitale Daten in einem beliebigen digitalen Display für die digitale Lenkschnittstelle aktualisiert werden. Falls der Fahrer wünscht, mit der autonomen Lenkung zu kooperieren oder in diese einzugreifen, kann der Fahrer dementsprechend weniger desorientiert sein beim Versuch, eine Lenkschnittstelle zu übernehmen, da die Lenkschnittstelle in einer Weise autonom betätigt wurde, welche proportional zum tatsächlichen Lenkmanöver des Fahrzeugs ist.In some illustrative variations, a vehicle may include a steering system having a steering interface and a set of steerable road wheels. The steering system may be of the electric power steering type, where physical connections mechanically transmit actuation of the steering interface to the steerable wheels. The steering system may be of the "steer-by-wire" type, wherein physical mechanisms do not mechanically transmit actuation of the steering interface to the steerable road wheels, and wherein actuation of the steering interface affects associated actuation of the steerable road wheels via communication of electronic devices, such as, but not limited to sensors, transceivers and electronically excited actuators. In such a system, a steering interface actuation system may include actuators or solenoids or the like to provide visual steering feedback at least in the case where the actuated steering interface is a mechanically actuable steering interface such as, but not limited to, a hand wheel. In a steering system with a digital steering interface, a steering interface actuation system may include any logic modules used in determining how to update any digital data in any digital display for the digital steering interface. Accordingly, if the driver desires to cooperate or intervene with the autonomous steering, the driver may be less disoriented when attempting to take over a steering interface since the steering interface has been autonomously actuated in a manner that is proportional to the vehicle's actual steering maneuver.

In einigen veranschaulichenden Variationen weist ein Fahrzeug ein elektronisches Servolenksystem auf. In einem solchen Fall kommuniziert die Lenkschnittstelle mechanisch mit einem beliebigen Mechanismus, der verwendet wird, um das Fahrzeug in Übereinstimmung mit einer Lenkübersetzung zu lenken. Falls ein Fahrzeug, welches ein elektronisches Servolenksystem aufweist, eine vollautonome Lenkung oder eine halbautonome Lenkung aufweist, welche eine Kooperation oder einen Eingriff des Fahrers erlaubt, kann das Lenksystem dementsprechend eine visuelle Rückkopplung von der Lenkung an eine beliebige Schnittstelle kommunizieren, durch welche der Fahrer das Fahrzeug lenken kann. Wenn sich ein Fahrzeug in einem nicht einschränkenden Beispiel im vollautonomen Lenkbetrieb befindet, kann es ein Handrad des Fahrzeugs automatisch drehen in Verbindung mit dem autonomen Lenksystem, welches die lenkbaren Straßenräder des Fahrzeugs derart dreht, dass ein nicht eingreifender oder nicht kooperierender Fahrer das automatische Drehen des Handrades des Fahrzeugs mit dem Drehen der lenkbaren Straßenräder des Fahrzeugs in Verbindung bringt und die Lenkbefehle des autonomen Lenksystems intuitiv erkennt, vermutet oder abschätzt. Falls der Fahrer wünscht, mit der automatisierten Lenkung zu kooperieren oder in diese einzugreifen, ist es folglich möglich, dass der Fahrer weniger desorientiert ist, als beim Versuch eine Lenkschnittstelle zu übernehmen, die mit den Straßenrädern des Fahrzeugs nicht verbunden oder fehlausgerichtet zu sein scheint.In some illustrative variations, a vehicle includes an electronic power steering system. In such a case, the steering interface mechanically communicates with any mechanism used to steer the vehicle in accordance with a steering ratio. Accordingly, if a vehicle having an electronic power steering system has fully autonomous steering or semi-autonomous steering that allows for driver cooperation or intervention, the steering system can communicate visual feedback from the steering to any interface through which the driver can can steer the vehicle. By way of non-limiting example, when a vehicle is in fully autonomous steering mode, it may automatically rotate a vehicle's handwheel in conjunction with the autonomous steering system, which rotates the vehicle's steerable road wheels such that a non-intervening or uncooperative driver may prevent the vehicle's automatic rotating connects the vehicle's hand wheel to the turning of the vehicle's steerable road wheels and intuitively recognizes, assumes or estimates the steering commands of the autonomous steering system. Thus, if the driver desires to cooperate or intervene with the automated steering, the driver may be less disoriented than attempting to take over a steering interface that appears disconnected or misaligned with the vehicle's road wheels.

In einigen veranschaulichenden Variationen ist eine Lenkübersetzung definiert als das Verhältnis, welches eine Beziehung zwischen der Beeinflussung einer Lenkschnittstelle zu einer Beeinflussung einer Lenkvorrichtung beschreibt. Als nicht einschränkendes Beispiel kann eine Lenkübersetzung für ein Boot als das Verhältnis definiert sein, welches sich darauf bezieht, wie weit sich ein Ruder des Boots im Ansprechen auf eine Drehung eines Steuers dreht. Als weiteres nicht einschränkendes Beispiel kann eine Lenkübersetzung für ein Luftfahrzeug definiert sein als ein Verhältnis, welches sich darauf bezieht, wie weit sich ein Querruder des Luftfahrzeugs im Ansprechen auf eine Drehung eines Steuerrades des Piloten anhebt oder absenkt. Als noch weiteres nicht einschränkendes Beispiel kann eine Lenkübersetzung für ein Radfahrzeug definiert sein als ein Verhältnis, welches sich darauf bezieht, wie weit sich ein lenkbares Straßenrad des Fahrzeugs im Ansprechen auf eine Drehung eines Handrades dreht.In some illustrative variations, a steering ratio is defined as the ratio that describes a relationship between manipulation of a steering interface and manipulation of a steering device. As a non-limiting example, a steering ratio for a boat may be defined as the ratio related to how far a rudder of the boat turns in response to a turn of a rudder. As a further non-limiting example, a steering ratio for an aircraft may be defined as a ratio related to how far an aircraft's aileron raises or lowers in response to rotation of a pilot's steering wheel. As a still further non-limiting example, a steering ratio for a wheeled vehicle may be defined as a ratio related to how far a steerable road wheel of the vehicle turns in response to rotation of a hand wheel.

In einigen veranschaulichenden Variationen kann ein beliebiges autonomes Betätigen einer beliebigen Lenkschnittstelle durch das autonome Lenksystem gesteuert werden, um die Fahr- und Mitfahrerfahrung für einen Fahrer während eines Übergangs von oder zu einem autonomen Fahren, einem kooperativen Fahren, oder einem vollständig fahrergesteuerten Fahren komfortabler und intuitiver zu machen. In solchen veranschaulichenden Variationen kann ein autonomes Betätigen der Lenkschnittstelle als eine visuelle Lenkrückkopplung fungieren, welche es dem Fahrer erlaubt, die Lenkanweisungen, welche an das autonome Lenksystem übertragen und durch dieses interpretiert werden und wie diese Anweisungen die Lenkung des Fahrzeugs über ein gleichzeitiges, verbundenes, autonomes Betätigen der Lenkschnittstelle beeinflussen, intuitiv zu erkennen oder zu erahnen. Um die intuitive Fahr- und Mitfahrerfahrung für den Fahrer weiter zu vereinfachen, können autonome Lenkanweisungen durch die Systeme interpretiert werden, welche die autonome Betätigung der Lenkschnittstelle in einer Weise beeinflussen, die dazu gedacht ist, für einen menschlichen Fahrer besonders zugänglich, angenehm, oder ergonomisch zu sein. Als nicht einschränkendes Beispiel kann ein Dämpfungsfaktor auf eine beliebige Rohanweisung der Lenkschnittstelle angewendet werden, um eine beliebige Betätigung der Lenkschnittstelle zu verlangsamen, wenn eine Betätigung der Lenkschnittstelle durch den Fahrer beendet wird, sowie einen Zeitpunkt der Anpassung der Position und der Kraft, welche durch das Lenksystem auf die Lenkschnittstelle über eine Lenkschnittstellenbetätigungsvorrichtung einwirkt zu steuern, so dass die Betätigung der Lenkschnittstelle synchron mit der Bewegung des Fahrzeugs erfolgt. Auf diese Weise kann es wahrscheinlicher sein, dass der Fahrer in einem autonom gelenkten Fahrzeug Komfort findet, wenn die visuelle Lenkrückkopplung, welche der Lenkschnittstelle durch das autonome Lenksystem bereitgestellt wird, weniger ruckartig, roboterhaft, oder unmenschlich erscheint und folglich weniger befremdlich für einen menschlichen Beobachter ist, insbesondere, beim Versuch die Lenkschnittstelle zu übernehmen.In some illustrative variations, any autonomous actuation of any steering interface may be controlled by the autonomous steering system to make a driver's driving and ride-sharing experience more comfortable and intuitive during a transition from or to autonomous driving, cooperative driving, or fully driver-controlled driving close. In such illustrative variations, autonomous actuation of the steering interface may function as visual steering feedback which allows the driver to intuitively recognize or anticipate the steering instructions transmitted to and interpreted by the autonomous steering system and how these instructions affect the steering of the vehicle via a simultaneous, connected, autonomous actuation of the steering interface. To further simplify the driver's intuitive driving and ride-sharing experience, autonomous steering instructions may be interpreted by the systems affecting the autonomous actuation of the steering interface in a manner intended to be particularly accessible, comfortable, or ergonomic for a human driver to be. As a non-limiting example, a damping factor may be applied to any raw command of the steering interface to slow down any actuation of the steering interface when actuation of the steering interface is terminated by the driver, as well as a timing of the adjustment of the position and force generated by the Steering system acts on the steering interface via a steering interface actuator to control so that the actuation of the steering interface is synchronous with the movement of the vehicle. In this way, the driver may be more likely to find comfort in an autonomously guided vehicle when the visual steering feedback provided to the steering interface by the autonomous steering system appears less jerky, robotic, or inhuman and consequently less alienating to a human observer is, in particular, when attempting to take over the steering interface.

Falls ein Fahrzeug in einigen veranschaulichenden Variationen ein steer-by-wire-Lenksystem aufweist, kann es für die visuelle Rückkopplung von der Lenkung erforderlich sein, für den Fahrer simuliert zu werden, um eine intuitive halbautonome Lenkerfahrung für den Fahrer bereitzustellen. Falls ein Fahrzeug ein steer-by-wire-Lenksystem aufweist, welches eine vollautonome Lenkung oder eine halbautonome Lenkung aufweist, welche eine Kooperation oder ein Eingreifen eines Fahrers erlaubt, kann das Lenksystem eine visuelle Rückkopplung von der Lenkung an einer beliebigen Schnittstelle simulieren, durch welche der Fahrer das Fahrzeug lenken kann. Wenn sich das Fahrzeug als nicht einschränkendes Beispiel im vollautonomen Lenkbetrieb befindet, kann es ein Handrad des Fahrzeugs automatisch drehen in Verbindung mit dem autonomen Lenksystem, welches die lenkbaren Straßenräder des Fahrzeugs derart dreht, dass ein nicht eingreifender oder nicht kooperierender Fahrer das automatische Drehen des Handrades des Fahrzeugs mit dem Drehen der lenkbaren Straßenräder des Fahrzeugs in Verbindung bringt und eine Lenkübersetzung intuitiv erkennt, vermutet oder abschätzt. Falls der Fahrer wünscht, mit der automatisierten Lenkung zu kooperieren oder in diese einzugreifen, ist es folglich möglich, dass der Fahrer weniger desorientiert ist, als beim Versuch eine Lenkschnittstelle zu übernehmen, die mit den Straßenrädern des Fahrzeugs nicht verbunden oder fehlausgerichtet zu sein scheint. Dieses Konzept kann bei jedem Ermitteln einer Absicht eines Fahrers durch das Verfolgungsmodul für eine menschliche Gliedmaße berücksichtigt werden.In some illustrative variations, if a vehicle has a steer-by-wire steering system, the visual feedback from the steering may need to be simulated for the driver to provide an intuitive semi-autonomous steering experience for the driver. If a vehicle has a steer-by-wire steering system that has fully autonomous steering or semi-autonomous steering that allows for driver cooperation or intervention, the steering system can simulate visual feedback from the steering at any interface through which the driver can steer the vehicle. By way of non-limiting example, when the vehicle is in fully autonomous steering mode, it may automatically rotate a vehicle handwheel in conjunction with the autonomous steering system, which rotates the vehicle's steerable road wheels such that an uninterrupted or uncooperative driver prevents the vehicle from automatically rotating the handwheel of the vehicle to the turning of the steerable road wheels of the vehicle and intuitively recognizes, guesses or estimates a steering ratio. Thus, if the driver desires to cooperate or intervene with the automated steering, the driver may be less disoriented than attempting to take over a steering interface that appears disconnected or misaligned with the vehicle's road wheels. This concept can be taken into account each time the human limb tracking module detects a driver's intention.

In einigen veranschaulichenden Variationen kann ein autonomes Lenksystem wenigstens eine Lenkschnittstelle, wenigstens einen Sensor oder eine Kamera, welche eingerichtet ist, optische Daten zu messen oder zu erfassen, sowie wenigstens ein Logikmodul zum Ermitteln auf Basis beliebiger Roh- oder verarbeiteter, erfasster oder akquirierter optischer Daten, ob ein menschlicher Fahrer wünscht, die Kontrolle der wenigstens einen Lenkschnittstelle zu übernehmen, aufweisen. Solche Daten können Daten umfassen wie, aber nicht beschränkt auf eine Bewegungsgeschwindigkeit (engl. „movement velocity“), eine Bewegungsgeschwindigkeit (engl. „movement speed“), eine Bewegungsrichtung, eine Bewegungsbeschleunigung einer menschlichen Gliedmaße, eine Gliedmaßenposition, eine Gliedmaßenhaltung, eine Gliedmaßenform, oder beliebige andere Daten, welche die Erscheinung, Bewegung, oder Position einer Gliedmaße betreffen. In einigen Fällen kann eine beliebige verfolgte menschliche Gliedmaße als eine bestimmte menschliche Gliedmaße wie, aber nicht beschränkt auf eine Hand, ein Knie, einen Finger, einen Ellbogen, oder eine beliebige andere menschliche Gliedmaße identifiziert und klassifiziert werden, indem ein neuronales Netz oder eine Datenbasis wie eine lokale oder eine Cloud-Datenbasis verwendet wird. Eine beliebige derartige Identifizierung oder Klassifizierung kann mit beliebigen Erscheinungs-, Bewegungs-, oder Positionsdaten einer Gliedmaße korreliert werden, um einen genauen Kontext für Daten bereitzustellen, welche durch Kameras oder Sensoren erhoben wurden. Beliebige Logikmodule, die einen Kontext oder eine Analyse für Daten bereitstellen, welche durch beliebige solche Kameras oder Sensoren erfasst wurden, können als Verfolgungsmodul für eine menschliche Gliedmaße bezeichnet werden.In some illustrative variations, an autonomous steering system may include at least one steering interface, at least one sensor or camera configured to measure or collect optical data, and at least one logic module to determine based on any raw or processed, sensed or acquired optical data whether a human driver desires to take control of the at least one steering interface. Such data may include data such as, but not limited to, a movement velocity, a movement speed, a movement direction, a movement acceleration of a human limb, a limb position, a limb posture, a limb shape , or any other data relating to the appearance, movement, or position of a limb. In some cases, any tracked human limb may be identified and classified as a particular human limb such as, but not limited to, a hand, knee, finger, elbow, or any other human limb using a neural network or database how to use a local or cloud database. Any such identification or classification may be correlated with any limb appearance, motion, or position data to provide accurate context for data collected by cameras or sensors. Any logic module that provides context or analysis for data captured by any such cameras or sensors may be referred to as a human limb tracking module.

Um ein kooperatives Lenksystem zu unterstützen, können die Sensoren eines autonomen Lenksystems in einigen veranschaulichenden Variationen eingerichtet sein, eine Lenkeingabe als eine Fahrereingabe zu detektieren und zu identifizieren. In einigen Fällen kann das Detektieren einer Eingabe eines menschlichen Fahrers bewirken, dass das autonome Lenksystem sämtliche Fahraufgaben an einen menschlichen Fahrer abgibt, wie, aber nicht beschränkt auf ein Beschleunigen, Bremsen, und Lenken. In einigen Fällen kann das autonome Lenksystem nur eine oder mehrere, aber nicht sämtliche Fahraufgaben im Ansprechen auf eine Eingabe eines menschlichen Fahrers abgeben. In einigen Fällen kann das Detektieren einer Eingabe eines menschlichen Fahrers bewirken, dass die Lenkschnittstelle ihre Position oder Orientierung anpasst. In Fällen, in denen wenigstens eine Lenkschnittstelle ein Handrad aufweist, kann das Handrad als nicht einschränkendes Beispiel seine Teleskop- oder Neigungskonfiguration automatisch anpassen, um für den menschlichen Fahrer beim Detektieren einer Eingabe des menschlichen Fahrers zugänglicher zu sein. Es kann auch erwogen werden, dass eine beliebige Veränderung der Steuerung oder der Übergabe der Steuerung bezüglich des autonomen Lenksystems von Veränderungen der Steuerung oder einer weiteren Übergabe in anderen Fahrzeugsystemen begleitet werden kann, wie, aber nicht beschränkt auf Motorsteuerungssysteme, Bremssteuerungssysteme, oder Antriebsstrangsysteme.To support a cooperative steering system, in some illustrative variations, the sensors of an autonomous steering system may be configured to detect and identify a steering input as a driver input. In some cases, detecting human driver input may cause the autonomous steering system to delegate all driving tasks to a human driver, such as, but not limited to, acceleration, braking, and steering. In some cases, the autonomous steering system can issue only one or more, but not all, of the driving tasks in response to input from a human driver. In some cases, detecting human driver input may cause the steering interface to adjust its position or orientation. By way of non-limiting example, in cases where at least one steering interface includes a handwheel, the handwheel may automatically adjust its telescoping or tilting configuration to be more accessible to the human driver upon detecting human driver input. It may also be contemplated that any change in control or transfer of control related to the autonomous steering system may be accompanied by changes in control or further transfer in other vehicle systems, such as, but not limited to, engine control systems, brake control systems, or powertrain systems.

In einigen veranschaulichenden Variationen kann ein autonomes Fahrzeug wenigstens ein Verfolgungsmodul für eine menschliche Gliedmaße aufweisen, um auf Basis beliebiger Roh-, oder verarbeiteter, erfasster oder erhobener optischer Daten zu ermitteln, ob ein menschlicher Fahrer wünscht, die Kontrolle über die Lenkschnittstelle zu übernehmen. In einigen solcher Fälle kann das Logikmodul wenigstens eine Handposition oder eine Handgestencharakteristik eines menschlichen Fahrers ermitteln und auf deren Basis ermitteln, ob der menschliche Fahrer beabsichtigt, die Kontrolle über die Lenkschnittstelle zu übernehmen. In einigen veranschaulichenden Variationen können beliebige optische Daten zusammen mit beliebigen verfügbaren Daten über einen ausgeübten Druck auf eine Lenkschnittstelle, kapazitive Berührungsdaten von der Lenkschnittstelle, Lenkschnittstellendrehmomentdaten, Lenkschnittstellenpositionsdaten, Lenkschnittstellenbewegungsdaten, oder mit beliebigen weiteren Daten bezüglich der Bewegung oder Position einer Lenkschnittstelle verarbeitet oder mit diesen korreliert werden.In some illustrative variations, an autonomous vehicle may include at least one human limb tracking module to determine whether a human driver desires to take control of the driving interface based on any raw, or processed, sensed, or collected optical data. In some such cases, the logic module may determine at least one hand position or hand gesture characteristic of a human driver and based thereon determine whether the human driver intends to take control of the steering interface. In some illustrative variations, any optical data may be processed or correlated with any available data about applied pressure on a steering interface, capacitive touch data from the steering interface, steering interface torque data, steering interface position data, steering interface movement data, or any other data relating to movement or position of a steering interface become.

In einigen veranschaulichenden Variationen kann ein neuronales Netz verwendet werden, um eine Bibliothek über Positionen oder Haltungen von Gliedmaßen eines menschlichen Fahrers, welche eine Fahrerabsicht anzeigen, zu trainieren und aufzubauen. In solchen Fällen kann das neuronale Netz mit der Aufgabe zur Bildanalyse betraut werden, mit dem Ziel der Identifizierung und Markierung wenigstens einer menschlichen Hand innerhalb des Bildes. Ebenso kann das neuronale Netz darüber hinaus mit der Aufgabe betraut werden, die Haltung der identifizierten und markierten menschlichen Hand zu klassifizieren, sowie mit dem Ermitteln der Position der menschlichen Hand bezüglich einer Lenkschnittstelle. Solch ein neuronales Netz kann trainiert werden, indem tausende Bilder vieler unterschiedlicher menschlicher Fahrer gesammelt werden und indem in jedem der Bilder jeweils die Hand des menschlichen Fahrers manuell markiert wird. Die markierten Bilder können anschließend verwendet werden, um das neuronale Netz zu trainieren, um die Hände eines menschlichen Fahrers zu erkennen und um die Haltung und Position einer beliebigen Hand des menschlichen Fahrers bezüglich der Lenkschnittstelle zu erkennen. Ein beliebiges System oder Modul, welches mit einem solchen neuronalen Netz in Kommunikation steht, kann die Identifizierungen, Klassifizierungen, und Bestimmungen anhand der Bildanalyse überwachen und kann eine Betriebslogik verwenden, um eine Absicht eines Fahrers zu ermitteln und um diese an das autonome Fahrsystem zu kommunizieren. Ebenso kann das neuronale Netz selbst trainiert werden, um diese Kommunikation durchzuführen. Als nicht einschränkendes Beispiel kann eine Bewegung aller fünf Finger an einer Hand oder an beiden Händen eine Geste sein, welche als eine Geste erkannt werden soll, die eine Absicht eines menschlichen Fahrers kennzeichnet, die Aufgabe des Lenkens an ein autonomes Lenksystem abzugeben. In einem solchen nicht einschränkenden Beispiel kann ein neuronales Netz verwendet werden, um eine bestimmte Handgeste, sowie auch andere, innerhalb eines Satzes akquirierter optischer Daten zu erkennen und um über ein Logikmodul an das autonome Lenksystem zu kommunizieren, dass der menschliche Fahrer die Aufgabe des Lenksystems zum exklusiven Ausführen des Lenkens an das autonome Lenksystem abgeben möchte. Beim Empfangen einer solchen Kommunikation kann das autonome Lenksystem eine exklusive Kontrolle bezüglich der Aufgabe des Lenkens des Fahrzeugs durchsetzen. Es kann darüber hinaus in Betracht gezogen werden, dass ein neuronales Netz trainiert werden kann, um die Position oder Haltung einer beliebigen anderen Gliedmaße eines menschlichen Fahrers zu identifizieren und zu verfolgen wie, aber nicht beschränkt auf ein Knie, einen Ellbogen, oder einen Unterarm. In einigen Variationen kann das Lenksystem mit Drehmomentdaten kombiniert werden, um die Zuverlässigkeit der Hände-dran/-weg-Erkennung weiter zu verbessern. Die Position der Hände kann zusammen mit weiteren Sensoren im Lenksystem oder weiteren Überwachungssystemen verwendet werden, um die Absicht des Fahrers zu verstehen und ein Agieren von Funktionen eines autonomem Fahrassistenzsystems (ADAS) vor einem physikalischen Kontakt mit der Lenkschnittstelle vorzubereiten, um eine Latenzzeit zu reduzieren. Eine Sensorfusion der Handdetektion mittels anderer Fahrerüberwachungstechniken kann ebenfalls eingesetzt werden, um die Absichten des Fahrers zu verstehen, um eine bessere Aufnahme von ADAS-Funktionen zu unterstützten. Das Hinzunehmen einer Handdetektion auf Basis ihrer Position bezüglich der Lenkschnittstelle wie einem Lenkrad, und da diese mit weiteren physikalischen Lenksensoren und Fahrerüberwachungssystemen fusioniert wird, stellt einen viel besseren Stellvertreter für die Absicht des Fahrers bereit. Solch ein System stellt einen frühen Hinweis vor dem physikalischen Kontakt mit dem Lenkrad bereit. Der aktuelle Fahrer oder die Demonstration welche Ihre Bedürfnisse zum Vornehmen zusätzlicher Handlungen wie einem Drücken von Tasten auf einer graphischen Benutzerschnittstelle oder einer physikalischen Taste aufnimmt, zum Starten des autonomen Modus' in einem selbstfahrenden Fahrzeug. Dies ist nicht sehr intuitiv und verursacht Verzögerungen zwischen dem Zeitpunkt, zu dem der Fahrer die Hände vom Lenkrad nimmt bis das Fahrzeug autonom fährt. Einige Variationen und Gesten, welche sehr ähnlich oder identisch sein können zu einem Wegnehmen der Hände von der Lenkschnittstelle und in einigen Variationen kann das System ein Auftreten dieser Geste verwenden, um in den autonomen Modus zu wechseln.In some illustrative variations, a neural network may be used to train and build a library about human driver limb positions or postures indicative of driver intent. In such cases, the neural network can be entrusted with the task of image analysis with the aim of identifying and marking at least one human hand within the image. Likewise, the neural network can also be assigned the task of classifying the posture of the identified and marked human hand and determining the position of the human hand with respect to a steering interface. Such a neural network can be trained by collecting thousands of images of many different human drivers and manually marking the human driver's hand in each of the images. The tagged images can then be used to train the neural network to recognize a human driver's hands and to recognize the pose and position of any human driver's hand relative to the steering interface. Any system or module in communication with such a neural network can monitor the identifications, classifications, and determinations based on image analysis and can use operational logic to determine a driver's intent and communicate it to the autonomous driving system . Likewise, the neural network itself can be trained to perform this communication. As a non-limiting example, a movement of all five fingers on one or both hands may be a gesture to be recognized as a gesture indicating a human driver's intention to delegate the task of steering to an autonomous steering system. In one such non-limiting example, a neural network may be used to recognize a particular hand gesture, as well as others, within a set of acquired visual data and to communicate via a logic module to the autonomous steering system that the human driver is the steering system's task would like to hand over to the autonomous steering system for the exclusive execution of the steering. Upon receiving such a communication, the autonomous steering system can assert exclusive control over the task of steering the vehicle. It can also be contemplated that a neural network can be trained to identify and track the position or posture of any other limb of a human driver, such as but not limited to a knee, an elbow, or a forearm. In some variations, the steering system can be combined with torque data to further improve the reliability of the hands-on/off detection. Hand position may be used in conjunction with other sensors in the steering system or other monitoring systems to understand driver intent and prepare autonomous driving assistance system (ADAS) functions to act prior to physical contact with the steering interface to reduce latency. Sensor fusion of hand detection using other driver monitoring techniques may also be employed to understand driver intentions to support better ADAS uptake. Adding hand detection based on its position relative to the steering interface such as a steering wheel, and as this is fused with other physical steering sensors and driver monitoring systems, provides a much better proxy for driver intent. Such a system provides an early indication of physical contact with the steering wheel. The current driver or demonstration that captures your needs for taking additional actions such as pressing buttons on a graphical user interface or a physical button to start 'autonomous mode' in a self-driving vehicle. This is not very intuitive and causes delays between the driver taking his hands off the wheel and the vehicle driving autonomously. Some variations and gestures that may be very similar or identical to removing hands from the steering interface, and in some variations the system may use an occurrence of that gesture to transition to autonomous mode.

Um in einigen Variationen die Absichten des Fahrers zu interpretieren, kann die Position der Hand des Fahrers bezüglich der Lenkschnittstelle, wie einem Lenkrad, verfolgt werden. Die Zone der Lenkschnittstelle wird ebenfalls durch ein ähnlich vortrainiertes neuronales Netz erfasst und die Zone bewegt sich mit der Neigung und dem Ineinanderschieben des Lenksystems. Falls sich die Hände des Fahrers für eine bestimmte Zeitdauer und/oder mit einer bestimmten Geste innerhalb der Zone befinden, kann dies als die Absicht des Fahrers interpretiert werden, die Kontrolle des Fahrzeugs umfassend das Lenksystem zu übernehmen oder abzugeben. Dies Signal kann sensorfusioniert werden mit physikalischen Sensoren wie einem Drehmoment, um die Fahrerübergabe mittels eines Drehmomentstoßes vorzubereiten, wird eliminiert, um eine sanfte Übergabe an den Fahrer zu ermöglichen. Durch das Detektieren der Absicht des Fahrers auf Basis ihrer Lage bezüglich des Lenkrades, können schnellere Reaktionen durch ADAS-Funktionen erreicht werden, indem bestimmte Funktionen basierend auf der Interpretation der Absicht des Fahrers vorverarbeitet werden.In some variations, to interpret the driver's intentions, the position of the driver's hand relative to the steering interface, such as a steering wheel, may be tracked. The steering interface zone is also captured by a similar pre-trained neural network and the zone moves with the tilt and telescoping of the steering system. If the driver's hands are within the zone for a certain length of time and/or with a certain gesture, this can be interpreted as the driver's intention to take over or relinquish control of the vehicle including the steering system. This signal can be sensor fused with physical sensors such as torque to prepare for driver handover by means of a torque burst being eliminated to allow for a smooth handover to the driver. By detecting the driver's intention based on their location relative to the steering wheel, faster responses can be achieved through ADAS functions by pre-processing certain functions based on the interpretation of the driver's intention.

In einigen veranschaulichenden Variationen kann ein Verfolgungsmodul für eine menschliche Gliedmaße in der Lage sein, optische Daten zu analysieren und zu ermitteln, dass ein menschlicher Fahrer wünscht, die Kontrolle über eine Lenkschnittstelle zu übernehmen, indem eine andere Erweiterung des Körpers des menschlichen Fahrers wie, aber nicht beschränkt auf ein Knie oder einen Oberschenkel, verwendet wird. In einigen solcher Fälle kann das Verfolgungsmodul für eine menschliche Gliedmaße ein neuronales Netz aufweisen, welches trainiert wurde, um die Haltung oder Position wenigstens einer Gliedmaße eines menschlichen Fahrers zu verfolgen, oder welches in der Lage ist, trainiert zu werden, um die Haltung oder Position wenigstens einer Gliedmaße des menschlichen Fahrers zu verfolgen. Solch ein Verfolgungsmodul für eine menschliche Gliedmaße kann eingerichtet sein, wenigstens eine Gliedmaße eines menschlichen Fahrers bezüglich einer konkreten Beobachtungszone innerhalb der Kabine des Fahrzeugs zu verfolgen. Als nicht einschränkendes Beispiel können die Haltung und die Position wenigstens einer Gliedmaße eines menschlichen Fahrers in Bezug auf den Mittelpunkt eines Handrades oder bezüglich eines Emblems des Handrades verfolgt werden. Auf diese Weise kann das Verfolgungsmodul für eine menschliche Gliedmaße eingerichtet sein zu ermitteln, dass wenigstens eine verfolgte Gliedmaße eines menschlichen Fahrers ihre Position verändert hat und den Mittelpunkt des Handrades überquert hat. Das Verfolgungsmodul für eine menschliche Gliedmaße kann diese Bewegung der Gliedmaße des menschlichen Fahrers als eine für das Verfolgungsmodul für eine menschliche Gliedmaße beabsichtigte Geste identifizieren, welche als eine Anforderung durch den menschlichen Fahrer an ein autonomes Lenksystem interpretiert werden sollte, eine Aktion autonom auszuführen, wie, aber nicht beschränkt auf ein autonomes Wechseln der Spuren. In einigen solcher Fälle kann, falls das Ineinanderschieben, Neigen, oder falls die Position des Mittelpunktes eines Handrades oder Emblems bewegt oder angepasst wird, die Beobachtungszone durch wenigstens einen optischen Sensor oder eine Kamera zum Zwecke der Bild- oder Datenakquise und Analyse eingesetzt werden und auch mit dem Handrad bewegt werden. Gegebenenfalls kann die Notwendigkeit oder der Wunsch an einen solchen Sensor oder eine Kamera zur Anpassung der Perspektive oder des Fokus' zur Unterstützung einer angepassten Beobachtungszone durch das Verfolgungsmodul für eine menschliche Gliedmaße an einen beliebigen geeigneten Mechanismus, ein System oder ein Modul zur Anpassung solch einer Kamera oder eines Sensors kommuniziert werden.In some illustrative variations, a human limb tracking module may be able to analyze optical data and determine that a human driver desires to take control of a steering interface by using a different extension of the human driver's body like, but not limited to a knee or a thigh. In some such cases, the human limb tracking module may comprise a neural network that has been trained to track the posture or position of at least one limb of a human driver, or capable of being trained to determine the posture or position to track at least one limb of the human driver. Such a human limb tracking module may be configured to track at least one limb of a human driver relative to a specific observation zone within the cabin of the vehicle. As a non-limiting example, the posture and position of at least one limb of a human driver may be tracked with respect to the center point of a handwheel or with respect to an emblem of the handwheel. In this way, the human limb tracking module may be configured to determine that at least one tracked limb of a human driver has changed position and crossed the center point of the handwheel. The human limb tracking module may identify this movement of the human driver's limb as a gesture intended for the human limb tracking module, which should be interpreted as a request by the human driver to an autonomous steering system to perform an action autonomously, such as, but not limited to autonomous lane changing. In some such cases, if telescoping, tilting, or if the position of the center of a handwheel or emblem is moved or adjusted, the observation zone may be employed by at least one optical sensor or camera for the purpose of image or data acquisition and analysis, and also be moved with the handwheel. Where appropriate, the need or desire for such a sensor or camera to adjust perspective or focus to support an adjusted observation zone by the human limb tracking module may be mapped to any suitable mechanism, system or module for adjusting such a camera or a sensor can be communicated.

In einigen veranschaulichenden Variationen können die Geschwindigkeit und die Richtung der Bewegung der Gliedmaße des menschlichen Fahrers durch ein Verfolgungsmodul für eine menschliche Gliedmaße verfolgt werden. In einigen solcher veranschaulichende Variationen kann wenigstens eines der Verfahren der Verfolgungsmodule für eine menschliche Gliedmaße einen Verfolgungsalgorithmus aufweisen, der Gegenstände berücksichtigt, welche die verfolgte Gliedmaße teilweise oder vollständig überdecken wie, aber nicht beschränkt auf Handschuhe, Uhren, Hosen, Schuhe, oder ein beliebiges anderes Kleidungsstück, ein Accessoire, ein Werkzeug, oder ein Objekt, welches eine vollständige Sicht eines optischen Erfassungssystems oder Bildgebungssystems auf eine menschliche Gliedmaße vollständig oder teilweise verdeckt.In some illustrative variations, the speed and direction of movement of the human driver's limb may be tracked by a human limb tracking module. In some such illustrative variations, at least one of the methods of the human limb tracking modules may include a tracking algorithm that accounts for objects partially or completely covering the tracked limb, such as, but not limited to, gloves, watches, pants, shoes, or any other An article of clothing, an accessory, a tool, or an object that requires a complete view of an optical detection system or Imaging system on a human limb fully or partially obscured.

In einigen veranschaulichenden Variationen kann ein optisches Erfassungssystem oder Bildgebungssystem wie, aber nicht beschränkt auf ein Kamerasystem, ein Infraroterfassungs- oder Bildgebungssystem, ein Schallerfassungs- oder Bildgebungssystem, ein Lasererfassungs- oder Bildgebungssystem, oder ein beliebiges anderes optisches Erfassungs- oder Bildgebungssystem verwendet werden, um wenigstens eine Gliedmaße eines menschlichen Fahrers wie, aber nicht beschränkt auf Hände, Unterarme, Ellbogen, Arme, Schultern, einen Hals, einen Kopf, Oberschenkel, Knie, Unterschenkel, Füße, oder einen beliebigen anderen Körperteil zu verfolgen. Ein Bildverarbeitungsalgorithmus kann verwendet werden, um Rauschen aus beliebigen erfassten Bildern oder optischen Daten zu entfernen, wie, aber nicht beschränkt auf Beleuchtungsunterschiede, Farbunterschiede, oder beliebiges weiteres Bildrauschen, welches eine Fähigkeit eines Verfolgungsmoduls für eine menschliche Gliedmaße zur Erkennung, Klassifizierung, oder Verfolgung einer menschlichen Gliedmaße beeinflusst.In some illustrative variations, an optical detection system or imaging system such as, but not limited to, a camera system, an infrared detection or imaging system, an acoustic detection or imaging system, a laser detection or imaging system, or any other optical detection or imaging system can be used to track at least one limb of a human driver such as but not limited to hands, forearms, elbows, arms, shoulders, neck, head, thighs, knees, lower legs, feet, or any other body part. An image processing algorithm may be used to remove noise from any captured images or optical data, such as, but not limited to, lighting differences, color differences, or any other image noise that impairs a human limb tracking module's ability to detect, classify, or track a human limb tracking module human limb affected.

In einigen veranschaulichenden Variationen kann, während das Fahrzeug autonom lenkt, der Fahrer durch Interagieren mit wenigstens einer Lenkschnittstelle versuchen, mit der Lenkung des Fahrzeugs zu kooperieren oder in diese einzugreifen. Beim Ermitteln der Absicht des Fahrers auf Basis wenigstens einer hier offenbarten Bild- oder optischen Datenanalyse, kann das Lenksystem dem Fahrer in einigen Fällen ermöglichen, in das Lenken des Fahrzeugs vorübergehend einzugreifen oder mit diesem zu kooperieren. Dieses vorübergehende Eingreifen kann ermöglicht werden auf Basis eines Ermittelns durch ein Verfolgungsmodul für eine menschliche Gliedmaße, in Kombination mit weiteren Sensoren, welche die wenigstens eine Lenkschnittstelle betreffen, dass ein Fahrer nur vorübergehend beabsichtigt, in die Aufgabe des Lenkens einzugreifen. In solchen Fällen kann das autonome Lenksystem auch die Abweichung zur Bewegungsrichtung oder zum Pfad des Fahrzeugs berechnen und kann kontinuierlich neue Bewegungsrichtungen oder Pfade des Fahrzeugs berechnen, wenn der Fahrer eingreift, so dass, wenn der Fahrer das Eingreifen beendet, das Fahrzeug autonom mit dem Lenken gemäß einer der neuen Bewegungsrichtungen oder einem der Pfade beginnen kann.In some illustrative variations, while the vehicle is steering autonomously, the driver may attempt to cooperate or interfere with the steering of the vehicle by interacting with at least one steering interface. In some cases, upon determining the driver's intent based on at least one image or visual data analysis disclosed herein, the steering system may allow the driver to temporarily override or cooperate with the steering of the vehicle. This temporary intervention may be enabled based on a determination by a human limb tracking module, in combination with other sensors related to the at least one steering interface, that a driver only temporarily intends to intervene in the task of steering. In such cases, the autonomous steering system can also calculate the deviation from the direction of movement or path of the vehicle, and can continuously calculate new directions of movement or paths of the vehicle when the driver intervenes, so that when the driver stops intervening, the vehicle can continue steering autonomously according to one of the new directions of movement or one of the paths.

In einigen veranschaulichenden Variationen dient ein Handrad als die Lenkschnittstelle für ein autonomes Lenksystem für ein Fahrzeug, welches lenkbare Straßenräder aufweist. Falls der Fahrer in einigen solcher Variationen in die Lenkung eingreift oder mit dieser kooperiert, kann ein beliebiger Mechanismus, welcher verwendet wird, um das Handrad des Fahrzeugs automatisch zu drehen in Verbindung mit dem autonomen Lenksystem, welches die lenkbaren Straßenräder des Fahrzeugs dreht, erfordern, dass der Fahrer eine Lenkanstrengung mit oder gegen diesen ausführt, während das autonome Lenksystem zeitgleich mit dem Lenken des Fahrzeugs fortfährt. In einigen Fällen kann das autonome Lenksystem die Fahrereingabe und eine autonome Lenkeingabe aushandeln, um eine Netto-Lenkeingabe zu ermitteln und kann die Netto-Lenkeingabe als Steuersignal für ein beliebiges Drehen der lenkbaren Straßenräder und eine verbundene Kraftrückkopplung für die Lenkschnittstelle verwenden, wie, aber nicht beschränkt auf ein automatisches Drehen eines Handrades. Falls ein Fahrer in einem nicht einschränkenden Beispiel beginnt, ein Handrad eines Fahrzeugs locker zu greifen, während sich das Fahrzeug im autonomen Lenkmodus befindet, kann das autonome Lenksystem mit dem autonomen Lenken des Fahrzeugs fortfahren und kann dem Fahrer seine Absicht nach rechts zu lenken andeuten, indem das Handrad nach rechts gedreht wird, in Verbindung mit einem Drehen der lenkbaren Straßenräder des Fahrzeugs nach rechts, während der Fahrer das Lenkrad jedoch nach wie vor locker greift, kann der Fahrer diese Absicht des autonomen Lenksystems nach rechts zu fahren spüren und kann entscheiden, einzugreifen, indem das Handrad vor dem dem Erhöhen des Ausmaßes des Lenkens fester gegriffen wird. Falls der Fahrer in einigen solcher Fälle versucht, das Handrad daran zu hindern sich nach rechts zu drehen, kann das autonome Lenksystem dies erfassen und eine Absicht des Fahrers auf Basis dessen ermitteln, indem die Absicht des Fahrers, welche durch eine Analyse von Bilddaten oder optischen Daten ermittelt wurde, welche den Griff des Fahrers am Handrad betreffen, die innerhalb der Fahrzeugkabine erfasst wurden, mit anderen Sensordaten korreliert wird, welche für ein Ermitteln einer Absicht des Fahrers geeignet sind, wie, aber nicht beschränkt auf Druckdaten von einem beliebigen Drucksensor, der in das Handrad eingebettet ist, oder von einem beliebigen ähnlichen eingebetteten oder verbundenen Berührungssensor einer beliebigen Art, oder Drehmomentsensoren, welche trainiert sind auf, verbunden sind mit, oder eingebettet sind in eine mit dem Handrad verbundene Lenksäule. In einigen solcher Fälle kann das autonome Lenksystem als nicht einschränkendes Beispiel das Ausmaß einer Kraft, welche es auf das Handrad als eine Komponente des autonomen Lenksystems ausübt, deutlich reduzieren aber nicht eliminieren, wodurch es dem Fahrer erleichtert wird, das Fahrzeug zu übernehmen, ohne dem Fahrer den Eindruck zu vermitteln, dass das autonome Lenksystem die Kontrolle vollständig an den Fahrer abgegeben hat. Auf diese Weise kann dem Fahrer versichert werden, dass das autonome Lenksystem nach wie vor versucht das Fahrzeug zu steuern und zur Steuerung des Fahrzeugs zurückkehren wird, nachdem der Fahrer das Handrad losgelassen hat. Als weiteres nicht einschränkendes Beispiel kann das autonome System in einigen solcher Fälle das Ausmaß der Kraft, welche es auf das Handrad als eine Komponente des autonomen Lenksystems ausübt, vollständig eliminieren, wodurch es dem Fahrer erleichtert wird, das Fahrzeug zu übernehmen und um dem Fahrer zusätzlich anzuzeigen, dass das autonome Lenksystem die Kontrolle vollständig an den Fahrer abgegeben hat. In einigen solcher Fälle kann der Fahrer dadurch mittels einer hörbaren oder sichtbaren Warnung informiert werden, dass das autonome Lenksystem deaktiviert ist und nicht länger versucht, das Fahrzeug zu steuern. In solchen Fällen kann der Fahrer dadurch zusätzlich darüber informiert werden, dass das Lenksystem nicht zur Steuerung des Fahrzeugs zurückkehren wird, nachdem der Fahrer das Handrad losgelassen hat, bis die autonome Lenkung wieder aktiviert wird. In einigen solcher Fälle kann das Reaktivieren der autonomen Lenkung oder des Fahrens durchgeführt werden durch eine Verwendung einer erkannten Bewegung oder Haltung einer Gliedmaße durch einen menschlichen Fahrer. In einigen solcher Fälle kann der menschliche Fahrer zum Beispiel eine erkannte Handgeste einsetzen wie, aber nicht beschränkt auf eine Geste, in welcher jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde. Diese fünf-Finger-Bewegung kann durch ein Verfolgungssystem für eine menschliche Gliedmaße verfolgt werden und kann durch ein trainiertes neuronales Netz erkannt werden, sowie mit weiteren Sensordaten korreliert werden, um die Absicht des Fahrers zu ermitteln, das autonome Fahren oder Lenken ausgehend von dieser Geste zu reaktivieren.In some illustrative variations, a hand wheel serves as the steering interface for an autonomous steering system for a vehicle having steerable road wheels. In some such variations, if the driver intervenes or cooperates with the steering, any mechanism used to automatically rotate the vehicle's handwheel in conjunction with the autonomous steering system that rotates the vehicle's steerable road wheels may require that the driver carries out a steering effort with or against him, while the autonomous steering system continues to steer the vehicle at the same time. In some cases, the autonomous steering system can negotiate the driver input and an autonomous steering input to determine a net steering input and can use the net steering input as a control signal for any turning of the steerable road wheels and associated force feedback for the steering interface, like, but not limited to an automatic turning of a hand wheel. As a non-limiting example, if a driver begins to loosely grip a vehicle's handwheel while the vehicle is in autonomous steering mode, the autonomous steering system may continue to steer the vehicle autonomously and may indicate to the driver his intention to steer to the right, by turning the hand wheel to the right in conjunction with turning the vehicle's steerable road wheels to the right while the driver still has a loose grip on the steering wheel, the driver can sense this intention of the autonomous steering system to turn to the right and can decide to intervene by gripping the handwheel more firmly before increasing the amount of steering. In some such cases, if the driver tries to prevent the hand wheel from turning to the right, the autonomous steering system can detect this and determine a driver's intention based on the driver's intention obtained through analysis of image data or optical Correlates data pertaining to the driver's grip on the handwheel sensed within the vehicle cabin with other sensor data suitable for determining driver intent, such as, but not limited to, pressure data from any pressure sensor used embedded in the handwheel, or any similar embedded or connected touch sensor of any type, or torque sensors trained on, connected to, or embedded in a steering column connected to the handwheel. In some such cases, as a non-limiting example, the autonomous steering system can significantly reduce, but not eliminate, the amount of force it applies to the hand wheel as a component of the autonomous steering system, making it easier for the driver to take control of the vehicle without the To give the driver the impression that the autonomous steering system has completely handed over control to the driver. In this way, the driver can be assured that the autonomous steering system is still trying to control the vehicle and to control the driving vehicle will return after the operator releases the hand wheel. As a further non-limiting example, in some such cases, the autonomous system may completely eliminate the amount of force it applies to the hand wheel as a component of the autonomous steering system, thereby making it easier for the driver to take control of the vehicle and providing additional driver comfort indicate that the autonomous steering system has fully relinquished control to the driver. In some such cases, this may inform the driver via an audible or visual warning that the autonomous steering system is disabled and no longer attempting to steer the vehicle. In such cases, this can provide additional information to the driver that the steering system will not return to control the vehicle after the driver releases the handwheel until autonomous steering is reactivated. In some such cases, the reactivation of autonomous steering or driving may be performed through use of a detected movement or posture of a limb by a human driver. In some such cases, the human driver may employ a recognized hand gesture, such as, but not limited to, a gesture in which each finger of the human driver's at least one hand has been moved from a grasping or clasping posture to a fully extended position. This five-finger movement can be tracked by a human limb tracking system and can be detected by a trained neural network and correlated with other sensor data to determine the driver's intention to autonomously drive or steer based on that gesture to reactivate.

Falls das Fahrzeug in einigen veranschaulichenden Variationen autonom lenkt und kein Eingriff oder keine Kooperation des Fahrers vorliegt, und der Fahrer versucht, in die Lenkung einzugreifen oder mit dieser zu kooperieren, kann das Lenksystem ermitteln, dass die Absicht des Fahrers gering oder nicht vorhanden ist, das Lenksystem kann beliebige unbeabsichtigte Eingaben des Fahrers bezüglich des Lenkens ignorieren und das Fahrzeug stattdessen durch Ignorieren der unbeabsichtigten Fahrereingabe lenken. Im Falle eines nicht einschränkenden Beispiels eines steer-by-wire-Systems kann das Fahrzeug, in dem Fall, in dem die Fahrzeugsensoren und -systeme, oder ein beliebiges anderes das Fahrzeug informierendes System ermitteln, dass ein Lenkmanöver aus Sicherheitsgründen erforderlich ist, jegliche unbeabsichtigte Fahrereingabe ignorieren und das Lenkmanöver autonom ausführen, unabhängig von einer beliebigen unbeabsichtigten Fahrereingabe.In some illustrative variations, if the vehicle steers autonomously and there is no driver intervention or cooperation, and the driver attempts to intervene or cooperate with the steering, the steering system may determine that the driver's intention is low or absent. the steering system may ignore any unintended driver input regarding steering and instead steer the vehicle by ignoring the unintended driver input. In the case of a non-limiting example of a steer-by-wire system, in the event that the vehicle sensors and systems, or any other system informing the vehicle that a steering maneuver is required for safety reasons, the vehicle may determine any unintended Ignore driver input and perform the steering maneuver autonomously, regardless of any unintended driver input.

In einigen veranschaulichenden Variationen kann das Verfolgungssystem für eine menschliche Gliedmaße einer verfolgten Gliedmaße wenigstens ein Konfidenzniveau zuweisen. Dieses Konfidenzniveau kann die Konfidenz des Verfolgungssystems für eine menschliche Gliedmaße betreffen, dass die verfolgte Gliedmaße eine erkannte Geste ausführt oder diese ausgeführt hat. In einem solchen Fall ist es möglich eine Geste nur dann zu registrieren, wenn das Konfidenzniveau für diese bestimmte Geste einer bestimmten Gliedmaße einen bestimmten Schwellenwert überschreitet. Andere Sensordaten wie, aber nicht beschränkt auf Sensordaten, welche die Lenkschnittstelle betreffen oder von Sensoren, die in die Lenkschnittstelle eingebettet sind, können mit Bild- oder optischen Daten korreliert werden, welche durch das Verfolgungssystem für eine menschliche Gliedmaße analysiert wurden und darüber hinaus über wenigstens ein Konfidenzniveau informieren. Als nicht einschränkendes Beispiel kann der Fall vorliegen, dass eine Spurwechselgeste nur erkannt wird, wenn die Konfidenz in diese Geste 90% überschreitet. In diesen Fällen sind einige Gliedmaßenbewegungen, die einer Hand-Wischbewegung-über-die-Mitte-des-Handrades Spurwechselgeste sehr ähnlich sind, aber nicht durch einen menschlichen Fahrer durchgeführt wurden, um einen Spurwechselwunsch anzuzeigen, wie wenn ein menschlicher Fahrer über seinen eigenen Körper hinweggreift, um ein Getränk aus der Mittelkonsole zu greifen, aber nicht beabsichtigt eine Spurwechselgeste auszuführen. In einigen Fällen kann mehr als eine menschliche Gliedmaße gleichzeitig verfolgen werden. In einigen solcher Fälle, wenn mehr als eine menschliche Gliedmaße verfolgt wird und durch das Verfolgungsmodul für eine menschliche Gliedmaße ermittelt wird, dass im Widerspruch stehende Gesten oder dieselbe Geste mit abweichenden Konfidenz-Niveaus ausgeführt wurden, kann das Lenksystem oder das Verfolgungssystem für eine menschliche Gliedmaße einen Priorisierungsalgorithmus oder einen Entscheidungsbaum verwenden, um zu ermitteln, welche Geste als Eingabe gewertet werden soll, falls überhaupt, und in welcher Reihenfolge die Gesteneingabe zu adressieren ist.In some illustrative variations, the human limb tracking system may assign at least one confidence level to a tracked limb. This confidence level may relate to the human limb tracking system's confidence that the tracked limb is performing or has performed a recognized gesture. In such a case it is possible to register a gesture only if the confidence level for that particular gesture of a particular limb exceeds a certain threshold. Other sensor data such as, but not limited to, sensor data related to the guidance interface or from sensors embedded in the guidance interface may be correlated with image or optical data analyzed by the human limb tracking system and beyond at least inform a confidence level. As a non-limiting example, a lane change gesture may only be recognized if the confidence in that gesture exceeds 90%. In these cases, some limb movements that are very similar to a hand-swipe-over-the-center-of-the-handwheel lane-change gesture, but were not performed by a human driver to indicate a lane-change request, as if a human driver were using their own body reaches over to grab a drink from the center console, but doesn't intend to perform a lane change gesture. In some cases, more than one human limb can be tracked at a time. In some such cases, when more than one human limb is being tracked and it is determined by the human limb tracking module that conflicting gestures or the same gesture were performed with different confidence levels, the guidance system or the human limb tracking system use a prioritization algorithm or decision tree to determine which gesture to count as input, if any, and in what order to address the gesture input.

In einigen veranschaulichenden Variationen kann die Lenkschnittstelle einen Joystick, einen Trackball, einen Schieberegler, eine Drossel, einen Drucktaster, einen Kippschalter, einen Hebel, einen Touchscreen, eine Maus oder ein beliebiges weiteres Mittel für eine Benutzereingabe aufweisen. In Fällen, in denen eine Fahrereingabe über eine Fahrerschnittstelle stattfindet, welche keine offensichtliche Möglichkeit für eine mechanisch angetriebene visuelle oder Kraftrückkopplung bietet, wie, aber nicht beschränkt auf Variationen, welche eine Maus oder einen Touchscreen als primäres Mittel für eine Fahrereingabe beinhalten, kann das automatische Lenksystem eine Reaktion auf eine Fahrereingabe über visuelle Hinweise wie, aber nicht beschränkt auf ein Aufleuchten oder eine Animation in einem Display, Audiohinweise wie, aber nicht beschränkt auf Klickgeräusche, Pieptöne, oder eine instruierende Stimmaufnahme, eine erzeugte Stimme, oder eine Live-Stimme, oder haptische Hinweise wie, aber nicht beschränkt auf eine Vibration eines Bildschirms, oder einen beliebigen anderen Hinweis, der dem Fahrer anzeigen kann wie einer Fahrereingabe - welche gleichzeitig mit einer autonomen Eingabe auftreten kann - durch das Lenksystem entgegnet wird, wie mit ihr kooperiert wird, wie diese integriert oder gehandhabt wird.In some illustrative variations, the steering interface may include a joystick, trackball, slider, throttle, push button, toggle switch, lever, touch screen, mouse, or any other means of user input. In cases where driver input is via a driver interface that does not offer an obvious facility for mechanically powered visual or force feedback, such as, but not limited to, variations that involve a mouse or touchscreen as the primary means of driver input, the automatic Steering system responsive to driver input via visual cues such as but not limited to a flash or animation in a display, audio cues such as but not limited to clicks, beeps, or an instructional voice recording, generated voice, or live voice, or haptic cues such as but not limited to a vibration of a screen, or any other indication that can indicate to the driver how a driver input - which may occur simultaneously with an autonomous input - is countered by the steering system, how it is cooperated with, how it is integrated or how it is handled .

Es wird nun Bezug genommen auf 1, welche eine veranschaulichende Variation ist, in der ein autonomes Lenksystem 101 ein Fahrzeug 102 entlang eines ersten autonomen Pfades 103 lenkt. In dieser veranschaulichenden Variation kann ein Verfolgungsmodul für eine menschliche Gliedmaße 115 Bilder oder optische Daten 116 analysieren oder markieren, welche durch ein optisches Erfassungssystem oder Bildgebungssystem 104 erfasst wurden, das in einem Rückspiegel 105 eingebettet ist. Das optische Erfassungssystem oder Bildgebungssystem 104 kann Bilder oder optische Daten 116 einer Beobachtungszone 106 kontinuierlich über einen Spiegel (nicht gezeigt) erfassen, welcher hinter einem menschlichen Fahrer 107 angeordnet ist. Wenn der menschliche Fahrer 107 versucht, in die Lenkung des Fahrzeugs 102 einzugreifen, indem eine Lenkschnittstelle 108 betätigt wird, kann das optische Erfassungssystem oder das Bildgebungssystem 104 Bilder oder optische Daten 116 dieses Versuchs beim Eingreifen durch den menschlichen Fahrer 107 erfassen, indem Bilder oder optische Daten 116 der Hände 109, 110 des menschlichen Fahrers 107 erfasst werden. Das Verfolgungsmodul für eine menschliche Gliedmaße 115 kann die Bilder oder optischen Daten 116 hinsichtlich erkennbarer Gliedmaßen und erkennbarer Positionen oder Haltungen bezüglich der Lenkschnittstelle 108 analysieren. In dieser veranschaulichenden Variation hat das Verfolgungsmodul für eine menschliche Gliedmaße 115 die Hände 109, 110 des menschlichen Fahrers 107 erkannt und diese mit Markierungen 111, 112 markiert und diesen Gestenkonfidenzbewertungen 113, 114 zugewiesen, indem die Bilder oder optischen Daten 116 mit dem Wissen eines neuronalen Netzes 117 korreliert werden, welches Bilder oder optische Daten erkennbarer menschlicher Handgesten im Zusammenhang mit dem Lenken eines Fahrzeugs über ein Handrad mittels menschlicher Hände betrachtet. Das Verfolgungsmodul für eine menschliche Gliedmaße 115 kann diese Gestenkonfidenzbewertungen 113, 114 mit Berührungs- oder Druckdaten 118, 119 korrelieren, welche von Berührungs- oder Drucksensoren 121, 122 erfasst wurden, die zum Zwecke des Ermittelns der Absicht 120 des menschlichen Fahrers 107 in die Lenkschnittstelle 108 eingebettet sind, während die Lenkschnittstelle 108 auf diese Weise betätigt wird. In dieser veranschaulichenden Variation kann das Verfolgungsmodul für eine menschliche Gliedmaße 115 durch Korrelieren der Gestenkonfidenzbewertungen 113, 114 mit den Berührungs- oder Druckdaten 118, 119 von den Berührungs- oder Drucksensoren 121, 122 ermitteln, dass es die Absicht 120 des menschlichen Fahrers 107 ist, in die Lenkung einzugreifen. Diese Absicht 120 kann durch das Verfolgungsmodul für eine menschliche Gliedmaße 115 an das autonome Lenksystem 101 kommuniziert werden, welches dann die Lenkkontrolle des Fahrzeugs an den menschlichen Fahrer 107 abgeben kann. Der menschliche Fahrer 107 kann anschließend das Fahrzeug 102 über die Lenkschnittstelle 108 manuell lenken, frei von dem Einfluss des autonomen Lenksystems 101.Reference is now made to 1 , which is an illustrative variation in which an autonomous guidance system 101 steers a vehicle 102 along a first autonomous path 103. FIG. In this illustrative variation, a human limb tracking module 115 may analyze or tag images or optical data 116 captured by an optical detection system or imaging system 104 embedded in a rearview mirror 105 . The optical acquisition system or imaging system 104 may acquire images or optical data 116 of an observation zone 106 continuously via a mirror (not shown) positioned behind a human driver 107 . When the human driver 107 attempts to intervene in the steering of the vehicle 102 by manipulating a steering interface 108, the visual capture system or imaging system 104 can capture images or visual data 116 of this human driver 107 intervention attempt by using images or visual Data 116 of the hands 109, 110 of the human driver 107 are recorded. The human limb tracking module 115 may analyze the images or optical data 116 for recognizable limbs and recognizable positions or postures relative to the guidance interface 108 . In this illustrative variation, the human limb tracking module 115 has recognized the hands 109, 110 of the human driver 107 and marked them with markers 111, 112 and assigned them gesture confidence scores 113, 114 by using the images or visual data 116 with the knowledge of a neural Network 117 viewing images or visual data of recognizable human hand gestures associated with steering a vehicle via a handwheel using human hands. The human limb tracking module 115 may correlate these gesture confidence scores 113, 114 with touch or pressure data 118, 119 sensed by touch or pressure sensors 121, 122 fed into the steering interface for the purpose of determining human driver 107 intent 120 108 are embedded while the steering interface 108 is operated in this way. In this illustrative variation, by correlating the gesture confidence scores 113, 114 with the touch or pressure data 118, 119 from the touch or pressure sensors 121, 122, the human limb tracking module 115 may determine that the intention 120 of the human driver 107 is to intervene in the steering. This intent 120 may be communicated through the human limb tracking module 115 to the autonomous steering system 101 , which may then relinquish steering control of the vehicle to the human driver 107 . The human driver 107 can then manually steer the vehicle 102 via the steering interface 108, free from the influence of the autonomous steering system 101.

Bezugnehmend auf 2 ist eine veranschaulichende Variation gezeigt, in welcher ein menschlicher Fahrer 207 ein Fahrzeug 202, das ein autonomes Lenksystem 201 aufweist, zunächst manuell lenkt. In dieser veranschaulichenden Variation kann ein Verfolgungsmodul für eine menschliche Gliedmaße 215 Bilder oder optische Daten 216 analysieren oder markieren, welche durch ein optisches Erfassungssystem oder Bildgebungssystem 204 erfasst wurden, das in einem Rückspiegel 205 eingebettet ist. Das optische Erfassungssystem oder Bildgebungssystem 204 kann Bilder oder optische Daten 216 einer Beobachtungszone 206 kontinuierlich über einen Spiegel (nicht gezeigt) erfassen, welcher hinter einem menschlichen Fahrer 207 angeordnet ist. Der menschliche Fahrer 207 kann damit beginnen, die Lenkschnittstelle 108 loszulassen, indem der Griff an der Lenkschnittstelle 208 gelöst wird. Das optische Erfassungssystem oder Bildgebungssystem 204 kann Bilder oder optische Daten 216 dieses Loslassens durch den menschlichen Fahrer 207 erfassen, indem Bilder oder optische Daten 216 der Hände 209, 210 des menschlichen Fahrers 207 erfasst werden. Das Verfolgungsmodul für eine menschliche Gliedmaße 215 kann die Bilder oder optischen Daten 216 hinsichtlich erkennbarer Gliedmaßen und erkennbarer Positionen oder Haltungen bezüglich der Lenkschnittstelle 208 analysieren. In dieser veranschaulichenden Variation hat das Verfolgungsmodul für eine menschliche Gliedmaße 215 die Hände 209, 210 des menschlichen Fahrers 207 erkannt und diese mit Markierungen 211, 212 markiert und diesen Gestenkonfidenzbewertungen 213, 214 zugewiesen, indem die Bilder oder optischen Daten 116 mit dem Wissen eines neuronalen Netzes 217 korreliert werden, welches Bilder oder optische Daten erkennbarer menschlicher Handgesten im Zusammenhang mit dem Lenken eines Fahrzeugs über ein Handrad mittels menschlicher Hände betrachtet. Das Verfolgungsmodul für eine menschliche Gliedmaße 215 kann diese Gestenkonfidenzbewertungen 213, 214 mit Berührungs- oder Druckdaten 218, 219 korrelieren, welche von Berührungs- oder Drucksensoren 221, 222 erfasst wurden, die zum Zwecke des Ermittelns der Absicht 220 des menschlichen Fahrers 207 in die Lenkschnittstelle 208 eingebettet sind, wenn die Lenkschnittstelle 208 auf diese Weise nicht mehr betätigt wird. In dieser veranschaulichenden Variation kann das Verfolgungsmodul für eine menschliche Gliedmaße 215 durch Korrelieren der Gestenkonfidenzbewertungen 213, 214 mit den Berührungs- oder Druckdaten 218, 219 von den Berührungs- oder Drucksensoren 221, 222 ermitteln, dass es die Absicht 220 des menschlichen Fahrers 207 ist, die Lenkschnittstelle 208 nicht mehr zu betätigen und die Aufgabe des Lenkens des Fahrzeugs 202 an das autonome Lenksystem 201 abzugeben. Diese Absicht 220 kann durch das Verfolgungsmodul für eine menschliche Gliedmaße 215 an das autonome Lenksystem 201 kommuniziert werden, welches anschließend die alleinige Kontrolle bezüglich der Aufgabe des Lenkens des Fahrzeugs 207 übernimmt. Das autonome Lenksystem 201 kann anschließend damit beginnen, das Fahrzeug 202 autonom entlang eines autonomen Pfades 203 zu lenken und jegliche Lenkeingaben durch den menschlichen Fahrer 207 ausschließen, für die bestimmt wurde, dass sie unbeabsichtigt sind.Referring to 2 1 shows an illustrative variation in which a human driver 207 initially manually steers a vehicle 202 having an autonomous steering system 201 . In this illustrative variation, a human limb tracking module 215 may analyze or tag images or optical data 216 captured by an optical detection system or imaging system 204 embedded in a rearview mirror 205 . The optical acquisition system or imaging system 204 may acquire images or optical data 216 of an observation zone 206 continuously via a mirror (not shown) positioned behind a human driver 207 . The human driver 207 can begin to let go of the steering interface 108 by releasing the grip on the steering interface 208 . The visual capture system or imaging system 204 may capture images or visual data 216 of this human driver 207 release by capturing images or visual data 216 of the human driver's 209 , 210 hands 209 , 210 . The human limb tracking module 215 may analyze the images or optical data 216 for recognizable limbs and recognizable positions or postures relative to the guidance interface 208 . In this illustrative variation, the human limb tracking module 215 has recognized the hands 209, 210 of the human driver 207 and marked them with markers 211, 212 and assigned them gesture confidence scores 213, 214 by using the images or visual data 116 with the knowledge of a neural Network 217 viewing images or visual data of recognizable human hand gestures associated with steering a vehicle via a handwheel using human hands. The human limb tracking module 215 can use this gesture confidence scores 213, 214 with touch or pressure data 218, 219 sensed by touch or pressure sensors 221, 222 embedded in the steering interface 208 for the purpose of determining intent 220 of the human driver 207 when the steering interface 208 is on is no longer operated in this way. In this illustrative variation, by correlating the gesture confidence scores 213, 214 with the touch or pressure data 218, 219 from the touch or pressure sensors 221, 222, the human limb tracking module 215 may determine that the intention 220 of the human driver 207 is to to no longer actuate the steering interface 208 and to hand over the task of steering the vehicle 202 to the autonomous steering system 201 . This intent 220 may be communicated by the human limb tracking module 215 to the autonomous steering system 201 , which then assumes sole control of the task of steering the vehicle 207 . The autonomous steering system 201 may then begin to autonomously steer the vehicle 202 along an autonomous path 203 and preclude any steering inputs by the human driver 207 that have been determined to be unintended.

3A ist eine Veranschaulichung einer Hand 110 eines Fahrers an einem Lenkrad 108 mit einer Mehrzahl von Fingern 123, welche um das Lenkrad 108 gelegt sind und/oder dieses fassen, gemäß einigen veranschaulichenden Variationen. 3A 11 is an illustration of a driver's hand 110 on a steering wheel 108 with a plurality of fingers 123 wrapped around and/or grasping the steering wheel 108, according to some illustrative variations.

3B veranschaulicht die Hand 110 des Fahrers, wie zum Beispiel in 3A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher gemäß einigen Variationen derart positioniert ist, dass er eine vordere Fläche 200 des Lenkrades sieht. 3B 11 illustrates the driver's hand 110, such as in FIG 3A 1, in the field of view of an optical sensor positioned to view a front surface 200 of the steering wheel, according to some variations.

3C veranschaulicht die Hand 110 des Fahrers, wie zum Beispiel in 3A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher gemäß einigen Variationen derart positioniert ist, dass er einen seitlichen Rand 201 des Lenkrades 110 sieht. 3C 11 illustrates the driver's hand 110, such as in FIG 3A 12, in the field of view of an optical sensor positioned to view a lateral edge 201 of the steering wheel 110, according to some variations.

4A ist eine Veranschaulichung einer Hand 110 des Fahrers im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er eine vordere Fläche 200 des Lenkrades 108 sieht, wobei der Fahrer eine Handgeste ausführt, die anzeigt, dass es die Absicht des Fahrers ist, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem eine Mehrzahl von Fingern 123 der Hand des Fahrers bewegt wird, wobei die Mehrzahl von Fingern 123 gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen. 4A 11 is an illustration of a driver's hand 110 in the field of view of an optical sensor positioned to view a front face 200 of the steering wheel 108, with the driver performing a hand gesture indicating the driver's intention is to have steering control to hand over to the vehicle's autonomous driving system by moving a plurality of fingers 123 of the driver's hand, wherein the plurality of fingers 123 are extended and not wrapped around or gripping the steering wheel, according to some variations.

4B veranschaulicht die Hand 110 des Fahrers, wie zum Beispiel in 4A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher gemäß einigen Variationen derart positioniert ist, dass er eine vordere Fläche des Lenkrades 200 sieht. 4B 11 illustrates the driver's hand 110, such as in FIG 4A 12, in the field of view of an optical sensor positioned to view a front surface of steering wheel 200, according to some variations.

4C ist eine Veranschaulichung einer Hand 110 einer Fahrers im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er einen seitlichen Rand 201 des Lenkrades 108 sieht, wobei der Fahrer eine Handgeste ausführt, die anzeigt, dass es die Absicht des Fahrers ist, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem eine Mehrzahl von Fingern 123 des Fahrers bewegt wird, wobei die Mehrzahl von Fingern 123 gestreckt ist und nicht zum Greifen des Lenkrades um das Lenkrad 108 gelegt ist, gemäß einigen Variationen. 4C 11 is an illustration of a driver's hand 110 in the field of view of an optical sensor positioned to view a lateral edge 201 of the steering wheel 108, with the driver performing a hand gesture indicating that the driver's intent is steering control to hand over to the vehicle's autonomous driving system by moving a plurality of fingers 123 of the driver, wherein the plurality of fingers 123 are extended and not wrapped around the steering wheel 108 to grasp the steering wheel, according to some variations.

4D veranschaulicht Daten, die ein optischer Sensor bezüglich einer Hand 110 des Fahrers in einem Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei der Fahrer eine Handgeste ausführt, die anzeigt, dass es die Absicht des Fahrers ist, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem eine Mehrzahl von Fingern 123 des Fahrers bewegt wird, wobei die Mehrzahl von Fingern gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen. 4D 11 illustrates data that an optical sensor may generate regarding a driver's hand 110 in a field of view of an optical sensor positioned to see a lateral edge of the steering wheel, with the driver performing a hand gesture indicating that there is intent of the driver is to hand over steering control to the vehicle's autonomous driving system by moving a plurality of fingers 123 of the driver, wherein the plurality of fingers are extended and not wrapped around or grasping the steering wheel, according to some variations.

4E ist eine Veranschaulichung eines Fahrers, welche anzeigt, dass es die Absicht des Fahrers ist, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übertragen, indem die Hand des Fahrers vollständig vom Lenkrad 108 entfernt wird, gemäß einigen Variationen. 4E 14 is an illustration of a driver indicating the driver's intention to transfer steering control to the vehicle's autonomous driving system by completely removing the driver's hand from the steering wheel 108, according to some variations.

5A veranschaulicht eine Hand 110 eines Fahrers im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er einen seitlichen Rand 201 des Lenkrades 108 sieht, wobei eine Mehrzahl von Fingern 123 einer Hand 110 des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Lenkkontrolle vom Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen. 5A 11 illustrates a driver's hand 110 in the field of view of an optical sensor positioned to view a lateral edge 201 of the steering wheel 108, with a plurality of fingers 123 of a driver's hand 110 wrapped around the steering wheel, indicating the driver's intention indicates to take steering control from the vehicle's steering system, subject to some variations.

5B veranschaulicht Daten, die ein optischer Sensor bezüglich einer Hand 110 eines Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern 123 einer Hand 110 des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Lenkkontrolle vom Lenksystem des Fahrzeugs zu übernehmen. 5B 12 illustrates data that an optical sensor may generate regarding a driver's hand 110 in the field of view of an optical sensor positioned to view a lateral edge of the steering wheel with a plurality of fingers 123 of a driver's hand 110 wrapped around the steering wheel is, indicating the driver's intent to take steering control from the vehicle's steering system.

6A veranschaulicht eine Hand 109, 110 eines Fahrers im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er einen seitlichen Rand 201 des Lenkrades 108 sieht, wobei eine Mehrzahl von Fingern 123 jeder Hand 109, 110 des Fahrers um das Lenkrad 108 gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle vom Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen. 6A Figure 12 illustrates a driver's hand 109, 110 in the field of view of an optical sensor positioned to view a lateral edge 201 of the steering wheel 108, with a plurality of fingers 123 of each driver's hand 109, 110 wrapped around the steering wheel 108, indicating the driver's intent to take control of the vehicle's steering system, according to some variations.

6B veranschaulicht Daten, die ein optischer Sensor bezüglich einer Hand 109, 110 des Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern 123 jeder Hand 109, 110 des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle vom Lenksystem des Fahrzeugs zu übernehmen. 6B Figure 12 illustrates data that an optical sensor can generate regarding a driver's hand 109, 110 in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel, a plurality of fingers 123 of each driver's hand 109, 110 wrapped around the steering wheel, indicating the driver's intent to take control of the vehicle's steering system.

7 veranschaulicht das Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er eine vordere Fläche 200 des Lenkrades 108 sieht und zeigt eine Detektierungszone 210, in welcher der Fahrer seine Hände 109, 110 platziert hat, was anzeigt, dass es die Absicht des Fahrers ist, die Kontrolle vom Lenksystem des Fahrzeugs zu übernehmen. Wie in 7 veranschaulicht, kann eine Objekterkennungs-Software eingesetzt werden, um innerhalb eines vordefinierten Niveaus einer Zulässigkeit/Konfidenz, zum Beispiel innerhalb eines 99% Konfidenz-Niveaus, zu ermitteln, dass sich die Hände 109, 110 des Fahrers innerhalb der Detektierungszone 210 befinden. Wie in den 7 und 8 gezeigt, kann die Detektierungszone 210 im Allgemeinen oval sein, sie kann aber auch rund, quadratisch, rechteckig, rhombenförmig oder von beliebiger anderer Form sein, welche ausreichend groß genug ist, dass ein vordefinierter Abschnitt oder ein ausreichender Abschnitt eines Ortes wenigstens einer Hand des Fahrers an einer Lenkschnittstelle innerhalb der Detektierungszone 210 liegt, was die Absicht des Fahrers anzeigt, die Kontrolle vom Lenksystem des Fahrzeugs zu übernehmen. 7 Figure 12 illustrates the field of view of an optical sensor positioned to see a front surface 200 of the steering wheel 108 and shows a detection zone 210 in which the driver has placed his hands 109, 110 indicating that it is the driver's intention to take control of the vehicle's steering system. As in 7 As illustrated, object detection software may be employed to determine within a predefined level of acceptance/confidence, for example within a 99% confidence level, that the driver's hands 109, 110 are within the detection zone 210. As in the 7 and 8th As shown, the detection zone 210 may be generally oval, but it may also be round, square, rectangular, diamond-shaped, or any other shape sufficiently large enough that a predefined portion or a sufficient portion of a location of at least one driver's hand is at a steering interface within the detection zone 210, indicating the driver's intent to take control of the vehicle's steering system.

8 veranschaulicht das Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er eine vordere Fläche des Lenkrades sieht und zeigt eine Detektierungszone, in welcher der Fahrer seine Hände nach außerhalb bewegt hat, was die Absicht des Fahrers anzeigt, die Kontrolle des Lenksystems des Fahrzeugs an das autonome Fahrsystem abzugeben, gemäß einigen Variationen. Wie in 8 veranschaulicht, kann eine Objekterkennungs-Software eingesetzt werden, um innerhalb eines vordefinierten Niveaus einer Zulässigkeit/Konfidenz, zum Beispiel innerhalb eines 99% Konfidenzniveaus, zu ermitteln, dass sich ein vordefinierter Abschnitt oder ein ausreichender Abschnitt jeder der Hände 109, 110 des Fahrers außerhalb der Detektierungszone 210 befindet, was die Absicht des Fahrers anzeigt, die Kontrolle des Lenksystems des Fahrzeugs an das autonome Fahrsystem abzugeben. 8th Figure 12 illustrates the field of view of an optical sensor positioned to see a front surface of the steering wheel and indicates a detection zone in which the driver has moved his hands outward, indicating the driver's intent to control the vehicle's steering system deliver the autonomous driving system, according to some variations. As in 8th As illustrated, object recognition software may be employed to determine within a predefined level of acceptance/confidence, for example within a 99% confidence level, that a predefined portion or sufficient portion of each of the driver's hands 109, 110 is outside of the Detection zone 210 is located, indicating the driver's intention to relinquish control of the vehicle's steering system to the autonomous driving system.

In einigen veranschaulichenden Variationen kann eine beliebige Anzahl von Modulen miteinander kombiniert werden oder in kleinere Module unterteilt werden.In some illustrative variations, any number of modules can be combined together or broken down into smaller modules.

Die nachfolgende Beschreibung von Varianten ist lediglich veranschaulichend für Komponenten, Elemente, Vorgänge, Produkte und Verfahren, welche als sich innerhalb des Schutzbereichs der Erfindung befindend betrachtet werden und ist keineswegs dazu gedacht, einen solchen Schutzbereich durch das zu beschränken, was konkret offenbart oder nicht ausdrücklich ausgeführt ist. Die wie hier beschriebenen Komponenten, Elemente, Vorgänge, Produkte und Verfahren können abweichend von der hier ausdrücklichen Beschreibung kombiniert und neu angeordnet werden und werden nach wie vor als sich innerhalb des Schutzbereichs der Erfindung befindend angesehen.The following description of variants is merely illustrative of components, elements, acts, products and methods which are considered to be within the scope of the invention and is in no way intended to limit such scope by what is specifically disclosed or not expressly disclosed is executed. The components, elements, acts, products, and methods as described herein may be combined and rearranged otherwise than as expressly described herein and are still considered to be within the scope of the invention.

Variation 1 kann ein Produkt beinhalten, welches aufweist: ein autonomes Lenksystem, welches eine Lenkschnittstelle aufweist und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingeben werden und autonome Lenkanweisungen eines autonomen Lenksystems zu akzeptieren und zu interpretieren, wobei das autonome Lenksystem in der Lage ist, wenigstens zwischen einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, wobei der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden und wobei der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung der wenigstens eine Lenkschnittstelle erzeugt werden, wobei das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, wenigstens eines aus der Position oder der Haltung einer menschlichen Gliedmaße zu verfolgen und wobei das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einer menschlichen Gliedmaße, wobei der wenigstens eine optische Sensor oder die Kamera zum Verfolgen der Position oder der Haltung der wenigstens einen menschlichen Gliedmaße wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst, und wobei das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern.Variation 1 may include a product comprising: an autonomous steering system having a steering interface and which is constructed and configured to simultaneously receive human driver steering instructions input by a human driver via at least one steering interface and autonomous steering instructions of an autonomous steering system accept and interpret, wherein the autonomous steering system is able to switch at least between a first steering mode and a second steering mode, wherein the first steering mode is a steering mode in which the steering takes place exclusively on the basis of autonomous steering instructions issued by the autonomous steering system are generated and wherein the second steering mode is a steering mode in which the steering takes place exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via the operation of the at least one steering interface, the product also having at least one camera or comprises an optical sensor configured to track at least one of the position or posture of a human limb and wherein the autonomous steering system is configured to switch between the steering modes based at least on the tracked position or posture of the at least one human limb, wherein the at least one optical sensor or camera for tracking the position or posture of the at least one human limb comprises at least one camera positioned to capture images of at least one of The human driver's hands are detected on or near a steering wheel, and the autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one human driver's hand has moved from a grasping or clasping posture to a fully extended position position has been moved and to change the steering modes based at least on this determination.

Variation 2 kann das Produkt einer der Variationen 1, oder 3-11 aufweisen, wobei das autonome Lenksystem darüber hinaus in der Lage ist, in einen dritten Lenkmodus zu wechseln, in welchem die wenigstens eine Lenkschnittstelle sowohl durch den menschlichen Fahrer, als auch durch das autonome Lenksystem betätigt wird.Variation 2 may comprise the product of any of Variations 1, or 3-11, wherein the autonomous steering system is further capable of transitioning to a third steering mode in which the at least one steering interface is managed by both the human driver and the autonomous steering system is operated.

Variation 3 kann das Produkt aus einer der Variationen 1-2, oder 4-11 aufweisen, wobei die wenigstens eine Kamera oder der optische Sensor eine Stereokameraanordnung aufweist.Variation 3 may include the product of either of variations 1-2, or 4-11, wherein the at least one camera or optical sensor includes a stereo camera assembly.

Variation 4 kann das Produkt einer der Variationen 1-3, oder 5-11 aufweisen, wobei das Produkt, wobei die wenigstens eine Kamera oder der optische Sensor eingerichtet ist, die Bewegungsgeschwindigkeit der wenigstens einen menschlichen Gliedmaße zu verfolgen.Variation 4 may include the product of any of variations 1-3, or 5-11, wherein the product wherein the at least one camera or optical sensor is configured to track the speed of movement of the at least one human limb.

Variation 5 kann das Produkt einer der Variationen 1-4, oder 6-11 aufweisen, wobei die wenigstens eine Kamera oder der optische Sensor eingerichtet ist, die Nähe der wenigstens einen menschlichen Gliedmaße bezüglich der wenigstens einen Lenkschnittstelle zu verfolgen.Variation 5 may include the product of any one of variations 1-4, or 6-11, wherein the at least one camera or optical sensor is configured to track the proximity of the at least one human limb relative to the at least one steering interface.

Variation 6 kann das Produkt einer der Variationen 1-5, oder 7-11 aufweisen, wobei das Produkt darüber hinaus wenigstens einen Drehmomentsensor zum Erfassen einer Drehmomenteingabe durch einen menschlichen Fahrer bezüglich der Lenkschnittstelle umfasst.Variation 6 may include the product of any one of variations 1-5, or 7-11, the product further comprising at least one torque sensor for sensing a torque input by a human driver with respect to the steering interface.

Variation 7 kann das Produkt der Variation 6 aufweisen, wobei die Drehmomenteingabe durch ein Drehmoment an der Lenksäule erfasst wird.Variation 7 may include the product of variation 6, where the torque input is sensed by torque on the steering column.

Variation 8 kann das Produkt einer der Variationen 1-7, oder 9-11 aufweisen, wobei das Produkt darüber hinaus wenigstens einen Drucksensor aufweist, welcher mit der Lenkschnittstelle gekoppelt ist, um einen durch den menschlichen Fahrer auf die Lenkschnittstelle ausgeübten Druck zu erfassen.Variation 8 may include the product of any of Variations 1-7, or 9-11, wherein the product further includes at least one pressure sensor coupled to the steering interface to sense pressure applied to the steering interface by the human driver.

Variation 9 kann das Produkt aus einer der Variationen 1-8, oder 10 aufweisen, wobei das Produkt darüber hinaus wenigstens einen kapazitiven Berührungssensor aufweist, welcher mit der Lenkschnittstelle gekoppelt ist, um eine Änderung bezüglich der Kapazität zu erfassen, die am kapazitiven Berührungssensor vorliegt, wenn der menschliche Fahrer die Lenkschnittstelle berührt.Variation 9 may include the product of any of Variations 1-8, or 10, wherein the product further includes at least one capacitive touch sensor coupled to the steering interface to detect a change in capacitance present at the capacitive touch sensor. when the human driver touches the steering interface.

Variation 10 kann ein Verfahren enthalten, welches aufweist: Verwenden wenigstens einer Kamera oder eines optischen Sensors zum Verfolgen wenigstens eines aus der Position oder Haltung wenigstens einer Gliedmaße, nämlich einer Hand, eines menschlichen Fahrers, wobei der wenigstens eine optische Sensor oder die Kamera wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst; Erzeugen von Korrelationsdaten durch Korrelieren des wenigstens einen aus der Position oder der Haltung der wenigstens einen Gliedmaße des menschlichen Fahrers mit Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen; Ändern eines Lenkmodus' eines autonomen Lenksystems basierend wenigstens auf den korrelierten Daten; Verwenden eines Bildanalysesystems, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde; und Ändern der Lenkmodi des autonomen Lenksystems basierend wenigstens auf diesem Ermitteln.Variation 10 may include a method comprising: using at least one camera or optical sensor to track at least one of the position or posture of at least one limb, namely a hand, of a human driver, wherein the at least one optical sensor or camera includes at least one a camera positioned to capture images of at least one of the human driver's hands on or near a steering wheel; generating correlation data by correlating the at least one of the position or posture of the at least one limb of the human driver with data acquired from at least one steering interface or from at least one sensor configured to allow interaction with the at least one steering interface by the capture human drivers; changing a steering mode of an autonomous steering system based at least on the correlated data; using an image analysis system to determine that each finger of the at least one hand of the human driver has been moved from a grasping or clasping posture to a fully extended position; and changing steering modes of the autonomous steering system based at least on said determining.

Variation 11 kann das Verfahren der Variation 10, oder 12-15 aufweisen, wobei die wenigstens eine Kamera oder der optische Sensor eine Stereokameraanordnung aufweist.Variation 11 may include the method of variation 10, or 12-15, wherein the at least one camera or optical sensor includes a stereo camera assembly.

Variation 12 kann das Verfahren einer der Variationen 10-11, oder 13-15 aufweisen, wobei die Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, Daten von wenigstens einem kapazitiven Berührungssensor umfassen, welcher in die wenigstens eine Lenkschnittstelle eingebettet ist.Variation 12 may include the method of any of Variations 10-11, or 13-15, wherein the data acquired from at least one steering interface or from at least one sensor configured to facilitate interaction with the at least one steering interface by the human driver include data from at least one capacitive touch sensor embedded in the at least one steering interface.

Variation 13 kann das Verfahren einer der Variationen 10-12 oder 14-15 aufweisen, wobei die Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, wenigstens einen Drehmomentsensor zum Erfassen einer Drehmomenteingabe in die Lenkschnittstelle durch den menschlichen Fahrer umfassen.Variation 13 may include the method of any of Variations 10-12 or 14-15, wherein the data acquired from at least one steering interface or from at least one sensor configured to allow interaction with the at least one steering interface by the human driver detect, comprise at least one torque sensor for detecting a torque input to the steering interface by the human driver.

Variation 14 kann das Verfahren der Variation 13 beinhalten, wobei die Drehmomenteingabe ein Drehmoment ist, welches an einer Lenksäule erfasst wird.Variation 14 may include the method of variation 13 wherein the torque input is torque sensed at a steering column.

Variation 15 kann das Verfahren einer der Variationen 10-14 aufweisen, wobei die Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, wenigstens einen Drucksensor aufweisen, zum Erfassen eines auf die Lenkschnittstelle ausgeübten Druckes durch den menschlichen Fahrer.Variation 15 may include the method of any of Variations 10-14, wherein the data acquired from at least one steering interface or from at least one sensor configured to detect interaction with the at least one steering interface by the human driver includes at least one Comprise a pressure sensor for detecting a pressure exerted on the steering interface by the human driver.

Variation 16 kann ein Produkt enthalten, welches aufweist: ein autonomes Lenksystem aufweisend eine Lenkschnittstelle und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegeben werden und autonome Lenkeingaben, welche durch ein autonomes Lenksystem eingegeben werden zu akzeptieren und zu interpretieren, wobei das autonome Lenksystem in der Lage ist, zwischen wenigstens einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, wobei der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden und wobei der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden, wobei das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, wenigstens eines aus der Position oder Haltung einer menschlichen Gliedmaße zu verfolgen und wobei das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße, wobei die wenigstens eine Kamera oder der optische Sensor positioniert ist, um eine vordere Fläche der Lenkschnittstelle zu sehen, und wobei das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern.Variation 16 may include a product comprising: an autonomous steering system having a steering interface and constructed and configured to simultaneously receive human driver steering instructions input by a human driver via at least one steering interface and autonomous steering inputs input by an autonomous steering system are entered to accept and interpret, wherein the autonomous steering system is able to switch between at least a first steering mode and a second steering mode, wherein the first steering mode is a steering mode in which the steering takes place exclusively on the basis of autonomous steering instructions, which are provided by the autonomous steering system can be generated and wherein the second steering mode is a steering mode in which the steering occurs exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via the operation of the at least one steering interface, the product also having at least one A camera or an optical sensor configured to track at least one of the position or posture of a human limb and wherein the autonomous steering system is configured to switch between the steering modes based at least on the tracked position or posture of the at least a human limb, wherein the at least one camera or optical sensor is positioned to view a front surface of the steering interface, and wherein the autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one hand of the human driver has been moved from a grasping or clutching posture to a fully extended position and changing steering modes based at least on this determination.

Variation 17 kann ein Produkt enthalten, wie es in Variation 16 dargelegt ist, wobei die menschliche Gliedmaße eine menschliche Hand aufweist.Variation 17 may include a product as set forth in variation 16 wherein the human limb comprises a human hand.

Variation 18 kann ein Verfahren beinhalten, welches aufweist: Bereitstellen eines autonomen Lenksystems umfassend eine Lenkschnittstelle und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegeben werden und Lenkanweisungen eines autonomen Lenksystems zu akzeptieren und zu interpretieren, welche durch ein autonomes Lenksystem eingegeben werden, wobei das autonome Lenksystem in der Lage ist, zwischen wenigstens einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, wobei der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis der autonomen Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden und der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis der Lenkanweisungen des menschlichen Fahrers erfolgt, welche durch den menschlichen Fahrer über die Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden, Verwenden wenigstens einer Kamera oder eines optischen Sensors, um wenigstens eines aus der Position oder der Haltung der menschlichen Gliedmaße zu verfolgen und wobei das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße, wobei die wenigstens eine Kamera oder der optische Sensor positioniert ist, um eine vordere Fläche der Lenkschnittstelle zu sehen, Verwenden eines Bildanalysesystems, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde, und Ändern der Lenkmodi des autonomen Lenksystems basierend wenigstens auf diesem Ermitteln.Variation 18 may include a method comprising: providing an autonomous steering system comprising a steering interface and which is constructed and configured to simultaneously accept steering instructions from a human driver input by a human driver via at least one steering interface and steering instructions from an autonomous steering system and to interpret, which are entered by an autonomous steering system, the autonomous steering system being able to switch between at least a first steering mode and a second steering mode, the first steering mode being a steering mode in which the steering is exclusively based on the autonomous steering instructions generated by the autonomous steering system and the second steering mode is a steering mode in which the steering occurs exclusively based on the human driver's steering instructions generated by the human driver via the operation of the at least one steering interface, using at least one camera or an optical sensor to track at least one of the position or posture of the human limb and wherein the autonomous steering system is configured to switch between steering modes based at least on the tracked position or posture of the at least one human limb, wherein the at least a camera or the optical sensor is positioned to view a front face of the steering interface, using an image analysis system to determine that each finger of the at least one human driver's hand has been moved from a grasping or clasping posture to a fully extended position, and changing steering modes of the autonomous steering system based at least on said determining.

Variation 19 kann ein Verfahren enthalten, wie es in Variation 18 dargelegt ist, wobei die menschliche Gliedmaße eine menschliche Hand aufweist.Variation 19 may include a method as set forth in variation 18 wherein the human limb comprises a human hand.

Die obige Beschreibung ausgewählter Variationen innerhalb des Schutzbereichs der Erfindung ist lediglich veranschaulichender Natur und, folglich sind Variationen oder Varianten davon nicht als eine Abkehr vom Geist und Schutzbereich der Erfindung anzusehen.The above description of selected variations within the scope of the invention is merely illustrative in nature and, consequently, variations or variants thereof are not to be regarded as a departure from the spirit and scope of the invention.

Claims (19)

Produkt aufweisend: • ein autonomes Lenksystem, welches eine Lenkschnittstelle aufweist und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegebenen werden und autonome Lenkanweisungen eines autonomen Lenksystems zu akzeptieren und zu interpretieren, wobei • das autonome Lenksystem in der Lage ist, wenigstens zwischen einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, • der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden, • der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden, • das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, eine Position und/oder Haltung einer menschlichen Gliedmaße zu verfolgen, • das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße, • der wenigstens eine optische Sensor oder die Kamera zum Verfolgen der Position oder der Haltung der wenigstens einen menschlichen Gliedmaße wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst, und • das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern. Product comprising: • an autonomous steering system, which has a steering interface and which is constructed and set up to simultaneously steering instructions from a human driver, which by a human driver via at least one steering interface and to accept and interpret autonomous steering instructions of an autonomous steering system, where • the autonomous steering system is able to switch at least between a first steering mode and a second steering mode, • the first steering mode is a steering mode in which steering is exclusive takes place on the basis of autonomous steering instructions generated by the autonomous steering system, • the second steering mode is a steering mode in which steering takes place exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via the actuation of the at least one steering interface are generated, • the product also has at least one camera or an optical sensor, which (r) is set up to track a position and / or posture of a human limb, • the autonomous steering system is set up to switch between the steering modes, based at least on the tracked position or posture of the at least one human limb, • the at least one optical sensor or camera for tracking the position or posture of the at least one human limb comprises at least one camera positioned to capture images of at least one of the The human driver's hands are detected on or near a steering wheel, and • the autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one human driver's hand has moved from a grasping or clasping posture to a fully extended position position has been moved and to change the steering modes based at least on this determination. Produkt nach Anspruch 1, wobei das autonome Lenksystem darüber hinaus in der Lage ist, in einen dritten Lenkmodus zu wechseln, wobei die wenigstens eine Lenkschnittstelle sowohl durch den menschlichen Fahrer, als auch durch das autonome Lenksystem betätigt wird.product after claim 1 , wherein the autonomous steering system is further capable of transitioning to a third steering mode wherein the at least one steering interface is actuated by both the human driver and the autonomous steering system. Produkt nach Anspruch 1 oder 2, wobei die wenigstens eine Kamera oder der optische Sensor eine Stereokameraanordnung aufweist.product after claim 1 or 2 , wherein the at least one camera or the optical sensor has a stereo camera arrangement. Produkt nach einem der vorstehenden Ansprüche, wobei die wenigstens eine Kamera oder der optische Sensor eingerichtet ist, die Bewegungsgeschwindigkeit der wenigstens einen menschlichen Gliedmaße zu erfassen.Product according to one of the preceding claims, wherein the at least one camera or the optical sensor is set up to detect the movement speed of the at least one human limb. Produkt nach einem der vorstehenden Ansprüche, wobei die wenigstens eine Kamera oder der optische Sensor eingerichtet ist, die Nähe der wenigstens einen menschlichen Gliedmaße bezüglich der wenigstens einen Lenkschnittstelle zu verfolgen.A product according to any one of the preceding claims, wherein the at least one camera or the optical sensor is arranged to track the proximity of the at least one human limb with respect to the at least one steering interface. Produkt nach einem der vorstehenden Ansprüche, wobei das Produkt ferner wenigstens einen Drehmomentsensor zum Erfassen einer Drehmomenteingabe durch den menschlichen Fahrer in die Lenkschnittstelle aufweist.The product of any preceding claim, wherein the product further comprises at least one torque sensor for detecting torque input by the human driver into the steering interface. Produkt nach Anspruch 6, wobei die Drehmomenteingabe durch ein Drehmoment an der Lenksäule erfasst wird.product after claim 6 , wherein the torque input is sensed by a torque on the steering column. Produkt nach einem der vorstehenden Ansprüche, wobei das Produkt ferner wenigstens einen Drucksensor aufweist, welcher mit der Lenkschnittstelle gekoppelt ist, um einen durch den menschlichen Fahrer auf die Lenkschnittstelle ausgeübten Druck zu erfassen.The product of any preceding claim, wherein the product further comprises at least one pressure sensor coupled to the steering interface to sense pressure applied to the steering interface by the human driver. Produkt nach einem der vorstehenden Ansprüche, wobei das Produkt ferner wenigstens einen kapazitiven Berührungssensor aufweist, welcher mit der Lenkschnittstelle gekoppelt ist, um eine Änderung der Kapazität zu erfassen, die am kapazitiven Berührungssensor vorliegt, wenn der menschliche Fahrer die Lenkschnittstelle berührt.The product of any preceding claim, wherein the product further comprises at least one capacitive touch sensor coupled to the steering interface to detect a change in capacitance present at the capacitive touch sensor when the human driver touches the steering interface. Verfahren aufweisend: • Verwenden wenigstens einer Kamera und/oder eines optischen Sensors, um wenigstens eines aus der Position und/oder der Haltung wenigstens einer Gliedmaße, nämlich eine Hand, eines menschlichen Fahrers zu erfassen, wobei der wenigstens eine optische Sensor oder die Kamera wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst, • Erzeugen von Korrelationsdaten durch Korrelieren wenigstens eines aus der Position oder der Haltung der wenigstens einen Gliedmaße des menschlichen Fahrers mit Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen; und • Ändern eines Lenkmodus' eines autonomen Lenksystems basierend wenigstens auf den Korrelationsdaten, • Verwenden eines Bildanalysesystems, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde, und • Ändern der Lenkmodi des autonomen Lenksystems basierend wenigstens auf diesem Ermitteln.Process comprising: • Using at least one camera and/or one optical sensor to detect at least one of the position and/or posture of at least one limb, namely a hand, of a human driver, wherein the at least one optical sensor or camera comprises at least one camera positioned to capture images of at least one of the human driver's hands on or near a steering wheel, • generating correlation data by correlating at least one of the position or posture of the at least one limb of the human driver with data acquired from at least one steering interface or from at least one sensor configured to allow interaction with the at least one steering interface by the capture human drivers; and • changing a steering mode of an autonomous steering system based at least on the correlation data, • using an image analysis system to determine that each finger of the at least one human driver's hand has been moved from a grasping or clasping posture to a fully extended position, and • Changing the steering modes of the autonomous steering system based at least on this determination. Verfahren nach Anspruch 10, wobei die wenigstens eine Kamera und/oder der optische Sensor eine Stereokameraanordnung aufweist.procedure after claim 10 , wherein the at least one camera and/or the optical sensor has a stereo camera arrangement. Verfahren nach Anspruch 10 oder 11, wobei die Daten, welche von der wenigstens einen Lenkschnittstelle oder dem wenigstens einen Sensors akquiriert werden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, Daten von wenigstens einem kapazitiven Berührungssensor aufweisen, welcher in die wenigstens einen Lenkschnittstelle eingebettet ist.procedure after claim 10 or 11 , wherein the data acquired from the at least one steering interface or the at least one sensor configured to detect an interaction with the at least one steering interface by the human driver comprises data from at least one capacitive touch sensor integrated into the at least one Steering interface is embedded. Verfahren nach einem der Ansprüche 10 bis 12, wobei die Daten, welche von der wenigstens einen Lenkschnittstelle oder von dem wenigstens einen Sensor akquiriert werden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, wenigstens einen Drehmomentsensor zum Erfassen einer Drehmomenteingabe in die Lenkschnittstelle durch den menschlichen Fahrer aufweisen.Procedure according to one of Claims 10 until 12 , wherein the data acquired from the at least one steering interface or from the at least one sensor configured to detect an interaction with the at least one steering interface by the human driver comprises at least one torque sensor for detecting a torque input into the steering interface by the have human drivers. Verfahren nach einem der Ansprüche 10 bis 13, wobei die Drehmomenteingabe durch ein Drehmoment an einer Lenksäule erfasst wird.Procedure according to one of Claims 10 until 13 , wherein the torque input is sensed by a torque on a steering column. Verfahren nach einem der Ansprüche 10 bis 14, wobei die Daten, welche von der wenigstens einen Lenkschnittstelle oder von dem wenigstens einen Sensor akquiriert werden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, wenigstens einen Drucksensor aufweisen, welcher mit der Lenkschnittstelle gekoppelt ist, um einen auf die Lenkschnittstelle ausgeübten Druck durch den menschlichen Fahrer zu erfassen.Procedure according to one of Claims 10 until 14 , wherein the data acquired from the at least one steering interface or from the at least one sensor configured to detect an interaction with the at least one steering interface by the human driver comprises at least one pressure sensor coupled to the steering interface, to detect a pressure exerted on the steering interface by the human driver. Produkt aufweisend: • ein autonomes Lenksystem aufweisend eine Lenkschnittstelle und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegeben werden und Lenkanweisungen einer autonomen Lenkung zu akzeptieren und zu interpretieren, welche durch ein autonomes Lenksystem eingegeben werden, wobei • das autonome Lenksystem in der Lage ist, wenigstens zwischen einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, • der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden, • der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über eine Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden, • das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, eine Position und/oder Haltung einer menschlichen Gliedmaße zu verfolgen, • das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße, • die wenigstens eine Kamera oder der optische Sensor positioniert ist, um eine vordere Fläche der Lenkschnittstelle zu sehen, und • das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern.Product having: • an autonomous steering system having a steering interface and which is constructed and configured to simultaneously accept and interpret human driver steering instructions input by a human driver via at least one steering interface and autonomous steering steering instructions input by an autonomous steering system , where • the autonomous steering system is able to switch at least between a first steering mode and a second steering mode, • the first steering mode is a steering mode in which steering takes place exclusively on the basis of steering instructions generated by the autonomous steering system, • the second steering mode is a steering mode in which steering takes place exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via an actuation of the at least one steering interface, • the product also has at least one camera or optical sensor that is set up to track a position and/or posture of a human limb, • the autonomous steering system is configured to switch between the steering modes based at least on the tracked position or posture of the at least one human limb, • the at least one camera or optical sensor is positioned to view a front face of the steering interface, and • the autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one hand of the human driver has been moved from a grasping or clasping posture to a fully extended position and to change steering modes based at least on this determination. Produkt nach Anspruch 16, wobei die menschliche Gliedmaße eine menschliche Hand aufweist.product after Claim 16 , wherein the human limb has a human hand. Verfahren aufweisend: • Bereitstellen eines autonomen Lenksystems aufweisend eine Lenkschnittstelle und welches konstruiert und eingerichtet ist, gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingebebenen werden und autonome Lenkanweisungen, welche durch ein autonomes Lenksystem eingegeben werden zu akzeptieren und zu interpretieren, wobei das autonome Lenksystem in der Lage ist, wenigstens zwischen einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, wobei der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden und wobei der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung wenigstens einer Lenkschnittstelle erzeugt werden, • Verwenden wenigstens einer Kamera oder eines optischen Sensors, um wenigstens eine Position und/oder eine Haltung einer menschlichen Gliedmaße zu verfolgen und wobei das autonome Lenksystem eingerichtet ist, zwischen Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße, wobei die wenigstens eine Kamera oder der optische Sensor positioniert ist, um eine vordere Fläche der Lenkschnittstelle zu sehen, • Verwenden eines Bildanalysesystems, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde, und • Ändern der Lenkmodi des autonomen Lenksystems basierend wenigstens auf • diesem Ermitteln. • Method comprising: • Providing an autonomous steering system having a steering interface and which is constructed and set up to simultaneously accept and accept steering instructions from a human driver entered by a human driver via at least one steering interface and autonomous steering instructions entered by an autonomous steering system interpret, wherein the autonomous steering system is able to switch at least between a first steering mode and a second steering mode, wherein the first steering mode is a steering mode in which the steering takes place exclusively on the basis of autonomous steering instructions, which are generated by the autonomous steering system and wherein the second steering mode is a steering mode in which the steering is exclusively based on human driver steering instructions generated by a human driver via the operation of at least one steering interface, • using at least one camera or an optical sensor to at least track a position and/or a posture of a human limb and wherein the autonomous guidance system is configured to switch between steering modes based at least on the tracked position or posture of the at least one human limb, wherein the at least one camera or the optical sensor is positioned to see a front face of the steering interface, • using an image analysis system to determine that each finger of the at least one human driver's hand has been moved from a grasping or clasping posture to a fully extended position, and • changing steering modes of the autonomous steering system based at least on this determination. • Verfahren nach Anspruch 18, wobei die menschliche Gliedmaße eine menschliche Hand umfasst.procedure after Claim 18 , wherein the human limb comprises a human hand.
DE102020127049.6A 2019-10-14 2020-10-14 Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver Active DE102020127049B4 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962914650P 2019-10-14 2019-10-14
US62/914,650 2019-10-14
US17/066,983 2020-10-09
US17/066,983 US11608088B2 (en) 2019-10-14 2020-10-09 Optics based detection of hands on-off and hand gesture based function selection for human driver

Publications (2)

Publication Number Publication Date
DE102020127049A1 DE102020127049A1 (en) 2021-04-15
DE102020127049B4 true DE102020127049B4 (en) 2023-08-24

Family

ID=75155682

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020127049.6A Active DE102020127049B4 (en) 2019-10-14 2020-10-14 Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver

Country Status (1)

Country Link
DE (1) DE102020127049B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11789412B2 (en) 2021-03-22 2023-10-17 Steering Solutions Ip Holding Corporation Functional limits for torque request based on neural network computing
DE102022116650A1 (en) 2022-07-05 2024-01-11 Valeo Schalter Und Sensoren Gmbh Improved determination of torque to be applied in an electric power steering system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011111897A1 (en) 2011-08-30 2013-02-28 Gm Global Technology Operations, Llc Motor vehicle, in particular passenger cars and method for controlling a motor vehicle, in particular a passenger car
DE102014107194A1 (en) 2014-05-22 2015-11-26 Robert Bosch Automotive Steering Gmbh Method for operating a steering system
US20170344838A1 (en) 2016-05-27 2017-11-30 Toyota Jidosha Kabushiki Kaisha Hierarchical Context-Aware Extremity Detection
DE102016210452A1 (en) 2016-06-13 2017-12-14 Conti Temic Microelectronic Gmbh Method and apparatus for a vehicle having an emergency assistance unit
DE112017005199T5 (en) 2016-10-14 2019-07-04 Omron Corporation TRAVEL MODE SWITCHING, METHOD AND PROGRAM

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011111897A1 (en) 2011-08-30 2013-02-28 Gm Global Technology Operations, Llc Motor vehicle, in particular passenger cars and method for controlling a motor vehicle, in particular a passenger car
DE102014107194A1 (en) 2014-05-22 2015-11-26 Robert Bosch Automotive Steering Gmbh Method for operating a steering system
US20170344838A1 (en) 2016-05-27 2017-11-30 Toyota Jidosha Kabushiki Kaisha Hierarchical Context-Aware Extremity Detection
DE102016210452A1 (en) 2016-06-13 2017-12-14 Conti Temic Microelectronic Gmbh Method and apparatus for a vehicle having an emergency assistance unit
DE112017005199T5 (en) 2016-10-14 2019-07-04 Omron Corporation TRAVEL MODE SWITCHING, METHOD AND PROGRAM

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Hände am Lenker", https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehicles-revolution
"Valeo lays the ground for the autonomous commercial vehicles revolution", https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehicles-revolution

Also Published As

Publication number Publication date
DE102020127049A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
EP3512754B1 (en) Device, operating method, and electronic control unit for controlling a vehicle which can be driven in an at least partly automated manner
US11608088B2 (en) Optics based detection of hands on-off and hand gesture based function selection for human driver
DE102013224118A1 (en) Method and system for controlling a vehicle
DE102015116960A1 (en) Trailer motion and parameter estimation system
DE102017205708A1 (en) INDEPENDENT DRIVING CONTROL DEVICE
DE102018114607A1 (en) Rear object approximation system of a vehicle with multiple cameras
DE102020127049B4 (en) Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver
DE102015203927A1 (en) Trailer backup system for vehicles using gesture commands and procedures
DE102016101070A1 (en) TRAILER RESET SUPPORT SYSTEM WITH ADAPTIVE STEERING ANGLE LIMITS
DE102019124152A1 (en) CLUTCH SUPPORT SYSTEM
DE102012205416A1 (en) Trailer curvature control for trailer backup assist
DE112013007403T5 (en) Device for automatic driving
EP2644477A1 (en) Assistance devices and method for operating an assistance device for controlling the driving of a traction vehicle with trailer
DE102019117270A1 (en) VEHICLE CLUTCH SUPPORT SYSTEM
DE102015120582A1 (en) SENSOR ERROR REDUCTION SYSTEM AND MODE MANAGEMENT
DE102019119159A1 (en) CLUTCH SUPPORT SYSTEM
DE102020129656A1 (en) AUTOMATED CLUTCH SYSTEM WITH VARIABLE RETURN PATHS
DE102015120915A1 (en) Mitigation of input device errors and mode management
DE102020124985A1 (en) DIFFERENCES BETWEEN CLOSE TRAILER AND CONNECTED TRAILER
DE102019127819A1 (en) CLUTCH SUPPORT SYSTEM
DE102019130550A1 (en) COMMON ACTIVATION BUTTON FOR TRAILER FUNCTIONS
DE102020122363A1 (en) DETECTION OF A CONSTANT TRAILER AND RESPONSE TO IT IN A SYSTEM-ASSISTED COUPLING PROCESS
DE102020103099A1 (en) AUTOMATED COUPLING SYSTEM WITH TAKEOVER AND HANDOVER OF THE STEERING
DE102021103652A1 (en) TRAILER SUPPORT SYSTEM WITH DYNAMIC VEHICLE CONTROL PROCESSING
DE112020004946T5 (en) RIDING MODE SHIFT DEVICE AND RIDING MODE SHIFTING METHOD

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division