DE102020127049B4 - Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver - Google Patents
Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver Download PDFInfo
- Publication number
- DE102020127049B4 DE102020127049B4 DE102020127049.6A DE102020127049A DE102020127049B4 DE 102020127049 B4 DE102020127049 B4 DE 102020127049B4 DE 102020127049 A DE102020127049 A DE 102020127049A DE 102020127049 B4 DE102020127049 B4 DE 102020127049B4
- Authority
- DE
- Germany
- Prior art keywords
- steering
- autonomous
- human
- driver
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
Abstract
Produkt aufweisend:• ein autonomes Lenksystem, welches eine Lenkschnittstelle aufweist und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegebenen werden und autonome Lenkanweisungen eines autonomen Lenksystems zu akzeptieren und zu interpretieren, wobei• das autonome Lenksystem in der Lage ist, wenigstens zwischen einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln,• der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden,• der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden,• das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, eine Position und/oder Haltung einer menschlichen Gliedmaße zu verfolgen,• das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße,• der wenigstens eine optische Sensor oder die Kamera zum Verfolgen der Position oder der Haltung der wenigstens einen menschlichen Gliedmaße wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst, und• das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern.Product comprising:• an autonomous steering system which has a steering interface and which is constructed and set up to simultaneously accept and interpret steering instructions from a human driver, which are entered by a human driver via at least one steering interface, and autonomous steering instructions from an autonomous steering system, wherein • the autonomous steering system is capable of switching at least between a first steering mode and a second steering mode,• the first steering mode is a steering mode in which steering is exclusively based on autonomous steering instructions generated by the autonomous steering system,• the second steering mode is a steering mode in which steering takes place exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via the operation of the at least one steering interface,• the product also has at least one camera or one optical sensor , which is configured to track a position and/or posture of a human limb,• the autonomous steering system is configured to switch between steering modes based at least on the tracked position or posture of the at least one human limb,• the at least an optical sensor or the camera for tracking the position or posture of the at least one human limb has at least one camera positioned to capture images of at least one of the human driver's hands on or near a steering wheel, and• the The autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one human driver's hand has been moved from a grasping or clasping posture to a fully extended position and to change steering modes based at least on this determination.
Description
Technisches Gebiettechnical field
Das Gebiet, auf welches sich die Offenbarung allgemein bezieht, umfasst Produkte und Verfahren für autonome Lenksysteme, welche insbesondere für einen Wechsel zwischen unterschiedlichen Lenkmodi vorgesehen sind.The field to which the disclosure generally relates includes products and methods for autonomous steering systems, which are intended in particular for switching between different steering modes.
Hintergrundbackground
Fahrzeuge umfassen typischerweise Lenksysteme. Die Verbreitung einer kamerabasierten Handerkennung zusammen mit weiteren Sensoren in einem Lenksystem oder einem anderen Überwachungssystem zur Interpretierung einer Absicht eines Fahrers ist bekannt. Es sind kapazitive Streifen bekannt, die an einem Lenkrad installiert werden können, welche eine verbesserte Leistungsfähigkeit bereitstellen können, aber diese können auch von einer physikalischen Berührung abhängen und eine Interpretation einer Absicht eines Fahrers ist unter deren Verwendung schwierig. Eine Absicht des Fahrers rein auf Basis eines Berührungsmomentes zu interpretieren stellt keine notwendige Eingabe bereit, um autonome Fahrassistenzsysteme derart zu initialisieren oder vorzubereiten, dass diese auf zuverlässige Art und Weise funktionieren.Vehicles typically include steering systems. The proliferation of camera-based hand recognition along with other sensors in a steering system or other monitoring system to interpret a driver's intention is known. Capacitive strips that can be installed on a steering wheel are known, which can provide improved performance, but these can also depend on physical touch and interpretation of a driver's intention is difficult using them. Interpreting a driver's intent purely based on a moment of touch does not provide a necessary input to initialize or prepare autonomous driving assistance systems to function in a reliable manner.
„https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehiclesrevolution“ offenbart eine kamerabasierte Hände-dran/weg Überwachung für ein Lenkrad eines Fahrzeugs."https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehiclesrevolution" discloses camera-based hands-on/off monitoring for a vehicle's steering wheel.
„https://www.elektroniknet.de/automotive/haende-am-lenker. 110699.html“ beschreibt Handerkennungssysteme für ein Lenkrad auf Basis kapazitiver oder resistiver Sensoren."https://www.elektroniknet.de/automotive/haende-am-lenker. 110699.html” describes hand recognition systems for a steering wheel based on capacitive or resistive sensors.
Ausgehend von dem vorstehend genannten Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, einen besonders zuverlässigen Wechsel zwischen einem manuellen und einem autonomen Fahrmodus für ein Fahrzeug zu erzielen.Proceeding from the prior art mentioned above, it is an object of the present invention to achieve a particularly reliable change between a manual and an autonomous driving mode for a vehicle.
Die Lösung der Aufgabe erfolgt durch ein Produkt mit den Merkmalen des Anspruchs 1, durch ein Verfahren mit den Merkmalen des Anspruchs 10, durch ein Produkt mit den Merkmalen des Anspruchs 16 sowie durch ein Verfahren mit den Merkmalen des Anspruchs 18. Vorteilhafte Weiterbildungen ergeben sich aus den Unteransprüchen.The object is achieved by a product with the features of
Übersicht über veranschaulichende VariationenOverview of illustrative variations
Einige veranschaulichende Variationen können ein Verfahren oder ein Produkt zum Erfassen eines Fahrereingriffs in ein autonomes Lenksystem aufweisen.Some illustrative variations may include a method or product for detecting driver intervention in an autonomous steering system.
Weitere veranschaulichende Variationen innerhalb des Schutzbereichs der Erfindung werden anhand der nachfolgend bereitgestellten detaillierten Beschreibung deutlicher. Es sollte verstanden werden, dass die detaillierte Beschreibung und konkrete Beispiele, während diese Variationen der Erfindung offenbaren, lediglich zum Zweck der Veranschaulichung gedacht sind und nicht dazu gedacht sind, den Schutzbereich der Erfindung einzuschränken.Further illustrative variations within the scope of the invention will become more apparent from the detailed description provided below. It should be understood that the detailed description and specific examples, while disclosing variations of the invention, are intended for purposes of illustration only and are not intended to limit the scope of the invention.
Figurenlistecharacter list
Variationen innerhalb des Schutzbereichs der Erfindung werden anhand der detaillierten Beschreibung und der begleitenden Figuren umfassender verstanden, wobei:
-
1 eine veranschaulichende Variation darstellt, in der ein Bild, welches ein Bild einer Kamera oder Daten eines optischen Sensors repräsentiert, welches einen menschlichen Fahrer darstellt, der mit einer Lenkschnittstelle eines autonomen Lenksystems interagiert, mittels eines Verfolgungsmoduls für eine menschliche Gliedmaße analysiert und markiert wird. In dieser veranschaulichenden Variation verwendet das Verfolgungsmodul für eine menschliche Gliedmaße Daten von wenigstens einem optischen Sensor oder einem Bild von wenigstens einer Kamera, um zu ermitteln, dass ein menschlicher Fahrer wünscht, die Kontrolle einer Lenkschnittstelle zu übernehmen, basierend wenigstens auf wenigstens einer Handposition oder Handhaltungscharakteristik des menschlichen Fahrers, gemäß einigen Variationen. -
2 eine veranschaulichende Variation darstellt, in der ein Bild, welches ein Bild einer Kamera oder Daten eines optischen Sensors repräsentiert, welches einen menschlichen Fahrer darstellt, der mit einer Lenkschnittstelle eines autonomen Lenksystems interagiert, mittels eines Verfolgungsmoduls für eine menschliche Gliedmaße analysiert und markiert wird. In dieser veranschaulichenden Variation verwendet das Verfolgungsmodul für eine menschliche Gliedmaße Daten von wenigstens einem optischen Sensor oder ein Bild von wenigstens einer Kamera um zu ermitteln, dass ein menschlicher Fahrer wünscht, die Kontrolle über eine Lenkschnittstelle abzugeben, basierend wenigstens auf einer Handposition oder einer Handhaltungscharakteristik des menschlichen Fahrers, gemäß einigen Variationen. -
3A eine Veranschaulichung einer Hand des Fahrers an einem Lenkrad ist, während eine Mehrzahl von Fingern um das Lenkrad gelegt ist und/oder diese greift, gemäß einigen Variationen. -
3B die Hand des Fahrers veranschaulicht, wie zum Beispiel in3A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er einevordere Fläche 200 des Lenkrades sieht, gemäß einigen Variationen. -
3C die Hand des Fahrers veranschaulicht, wie zum Beispiel in3A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, gemäß einigen Variationen. -
4A eine Veranschaulichung einer Hand eines Fahrers im Sichtfeld eines optischen Sensors ist, welcher derart positioniert ist, dass er eine vordere Fläche des Lenkrades sieht, wobei der Fahrer eine Handgeste ausführt, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem eine Mehrzahl von Fingern der Hand des Fahrers bewegt wird, wobei die Mehrzahl von Fingern gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen. -
4B die Hand des Fahrers veranschaulicht, wie zum Beispiel in4A veranschaulicht, im Sichtfeld eines optischen Sensors, welcher derart positioniert ist, dass er eine vordere Fläche des Lenkrades sieht, gemäß einigen Variationen. -
4C eine Veranschaulichung einer Hand des Fahrers im Sichtfeld eines optischen Sensors ist, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei der Fahrer eine Handgeste ausführt, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs abzugeben, indem eine Mehrzahl von Fingern des Fahrers bewegt wird, wobei die Mehrzahl von Fingern gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen. -
4D Daten veranschaulicht, die ein optischer Sensor bezüglich einer Hand eines Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei der Fahrer eine Handgeste ausführt, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem eine Mehrzahl von Fingern des Fahrers bewegt wird, wobei die Mehrzahl von Fingern gestreckt ist und nicht um das Lenkrad gelegt ist oder das Lenkrad greift, gemäß einigen Variationen. -
4E eine Veranschaulichung eines Fahrers ist, welche die Absicht des Fahrers anzeigt, die Lenkkontrolle an das autonome Fahrsystem des Fahrzeugs zu übergeben, indem die Hände des Fahrers vollständig vom Lenkrad entfernt werden, gemäß einigen Variationen. -
5A eine Hand eines Fahrers im Sichtfeld eines optischen Sensors veranschaulicht, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei die Mehrzahl von Fingern einer Hand des Fahrers um das Lenkrad gelegt ist, was anzeigt, dass es die Absicht des Fahrers ist, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen. -
5B Daten veranschaulicht, die ein optischer Sensor bezüglich einer Hand des Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern einer Hand des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen. -
6 eine Hand eines Fahrers im Sichtfeld eines optischen Sensors veranschaulicht, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern der Hände des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen. -
6B Daten veranschaulicht, die ein optischer Sensor bezüglich einer Hand des Fahrers im Sichtfeld eines optischen Sensors erzeugen kann, welcher derart positioniert ist, dass er einen seitlichen Rand des Lenkrades sieht, wobei eine Mehrzahl von Fingern jeder der Hände des Fahrers um das Lenkrad gelegt ist, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen, gemäß einigen Variationen. -
7 das Sichtfeld eines optischen Sensors veranschaulicht, welcher derart positioniert ist, dass er eine vordere Fläche des Lenkrades sieht und eine Detektierungszone zeigt, in welcher der Fahrer seine Hände platziert hat, was die Absicht des Fahrers anzeigt, die Kontrolle über das Lenksystem des Fahrzeugs zu übernehmen. -
8 das Sichtfeld eines optischen Sensors gemäß einigen Variationen veranschaulicht.
-
1 Figure 12 shows an illustrative variation in which an image representing a camera image or optical sensor data depicting a human driver interacting with a steering interface of an autonomous steering system is analyzed and tagged using a human limb tracking module. In this illustrative variation, the human limb tracking module uses data from at least one optical sensor or an image from at least one camera to determine that a human driver desires to take control of a steering interface based on at least one hand position or hand posture characteristic of the human driver, according to some variations. -
2 Figure 12 shows an illustrative variation in which an image representing a camera image or optical sensor data depicting a human driver interacting with a steering interface of an autonomous steering system is analyzed and tagged using a human limb tracking module. In this illustrative variation, the human limb tracking module uses data from at least one optical sensor or an image from at least one camera to determine that a human driver desires to relinquish control of a steering interface based at least on a hand position or hand posture characteristic of the driver human driver, according to some variations. -
3A Figure 14 is an illustration of a driver's hand on a steering wheel while a plurality of fingers wrap around and/or grasp the steering wheel, according to some variations. -
3B the driver's hand illustrated, as for example in3A 12, in the field of view of an optical sensor positioned to view afront face 200 of the steering wheel, according to some variations. -
3C the driver's hand illustrated, as for example in3A 12, in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel, according to some variations. -
4A Figure 13 is an illustration of a driver's hand in the field of view of an optical sensor positioned to view a front surface of the steering wheel, the driver performing a hand gesture indicating the driver's intention to turn steering control to the vehicle's autonomous driving system handed over by moving a plurality of fingers of the driver's hand, wherein the plurality of fingers are extended and not wrapped around or grasping the steering wheel, according to some variations. -
4B the driver's hand illustrated, as for example in4A -
4C Figure 14 is an illustration of a driver's hand in the field of view of an optical sensor positioned to view a lateral edge of the steering wheel, with the driver performing a hand gesture indicating the driver's intent to relinquish steering control to the vehicle's autonomous driving system by moving a plurality of fingers of the driver, wherein the plurality of fingers are stretched and not wrapped around or gripping the steering wheel, according to some variations. -
4D Illustrates data that an optical sensor can generate regarding a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel, the driver performing a hand gesture indicating the driver's intention to control the steering to hand over to the vehicle's autonomous driving system by moving a plurality of fingers of the driver, wherein the plurality of fingers are extended and not wrapped around or grasping the steering wheel, according to some variations. -
4E is an illustration of a driver indicating the driver's intention that Passing steering control to the vehicle's autonomous driving system by completely removing the driver's hands from the steering wheel, according to some variations. -
5A Figure 13 illustrates a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel, with the plurality of fingers of a driver's hand wrapped around the steering wheel indicating that it is the driver's intention to take control of the vehicle's steering system, according to some variations. -
5B Figure 12 illustrates data that an optical sensor can generate regarding a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel with a plurality of fingers of a driver's hand wrapped around the steering wheel, which indicates the driver's intention to take control of the vehicle's steering system. -
6 Figure 12 illustrates a driver's hand in the field of view of an optical sensor positioned to view a lateral edge of the steering wheel, with a plurality of fingers of the driver's hands wrapped around the steering wheel indicating the driver's intent to gain control take over the steering system of the vehicle, according to some variations. -
6B Figure 12 illustrates data that an optical sensor can generate regarding a driver's hand in the field of view of an optical sensor positioned to see a lateral edge of the steering wheel with a plurality of fingers of each of the driver's hands wrapped around the steering wheel, indicating the driver's intent to take control of the vehicle's steering system, according to some variations. -
7 Figure 12 illustrates the field of view of an optical sensor positioned to see a front surface of the steering wheel and showing a detection zone in which the driver has placed his hands, indicating the driver's intent to take control of the vehicle's steering system . -
8th Figure 12 illustrates the field of view of an optical sensor according to some variations.
Detaillierte Beschreibung veranschaulichender VariationenDetailed Description of Illustrative Variations
Die nachfolgende Beschreibung der Variationen ist ausschließlich veranschaulichender Natur und ist in keiner Weise dazu gedacht, den Schutzbereich der Erfindung, ihre Anwendung, oder Verwendungen zu beschränken.The following description of the variations is merely illustrative in nature and is in no way intended to limit the scope of the invention, its application, or uses.
In einigen veranschaulichenden Variationen kann ein Fahrzeug für Fracht oder Passagiere durch eine Kraftfahrzeugkraft vorwärts bewegt werden, welche von einem Motor bezogen wird, der eine Quelle einer gespeicherten Energie in eine Antriebskraft für das Fahrzeug umwandelt, wie, aber nicht beschränkt auf einen Verbrennungsmotor, einen batteriebetriebenen Motor, einen brennstoffzellenbetriebenen Motor, oder einen beliebigen anderen bekannten Motor zum Bereitstellen einer Kraftfahrzeugantriebskraft für ein Passagier- oder ein Frachtfahrzeug. Die Antriebskraft, welche aus der Umwandlung der gespeicherten Energie durch den Motor resultiert, kann vom Motor auf ein Fahrmedium übertragen werden, entlang dessen sich das Fahrzeug fortbewegt, wie, aber nicht beschränkt auf ein Gelände, eine Straße, einen Wasserweg, einen Luftweg, oder ein beliebiges anderes Medium, welches dafür bekannt ist, dass sich Fahrzeuge entlang dessen durch den Raum bewegen. Die Übertragung der Antriebskraft vom Motor auf das Fahrmedium kann über beliebige Mittel einer angetriebenen Kraftfahrzeugbewegung erfolgen, wie, aber nicht beschränkt auf Straßenräder, Laufflächen, Laufrollen, Rollen, Propeller, Gastriebwerke, Flüssigkeitstriebwerke, ionengetriebene Triebwerke, oder beliebige andere Mittel einer angetriebenen Kraftfahrzeugbewegung.In some illustrative variations, a vehicle for cargo or passengers may be propelled by automotive power obtained from a motor that converts a source of stored energy into motive power for the vehicle, such as, but not limited to, an internal combustion engine, a battery powered one engine, a fuel cell powered engine, or any other known engine for providing automotive motive power to a passenger or cargo vehicle. The motive power resulting from the conversion of the stored energy by the engine may be transferred from the engine to a tractive medium along which the vehicle travels, such as but not limited to a terrain, road, waterway, airway, or any other medium known for vehicles to move along through space. The transmission of motive power from the engine to the traction medium may be via any means of automotive propulsion such as, but not limited to, road wheels, treads, casters, rollers, propellers, gas engines, liquid engines, ion propulsion engines, or any other means of automotive propulsion.
Wie hier verwendet, können sich „Räder“ oder „Rad“ selbst dann auf ein traditionelles Straßenrad oder eine Reifenanordnung beziehen, wenn diese durch ein beschreibendes Adjektiv modifiziert werden wie, aber nicht beschränkt auf die Nennung von „lenkbaren Straßenrädern“, „lenkbaren Rädern“, oder „Antriebsrädern“, sie können sich aber auch auf eine beliebige Modifikation der traditionellen Straßenräder oder Reifenanordnungen beziehen wie, aber nicht beschränkt auf randlose Maglev-Reifen, Kugelreifen, oder beliebige andere Mittel zur Kraftfahrzeugbewegung wie, aber nicht beschränkt auf, Laufflächen, Laufrollen, Rollen, Propeller, Gastriebwerke, Flüssigkeitstriebwerke, oder ionengetriebene Triebwerke.As used herein, "wheels" or "wheel" can refer to a traditional road wheel or tire assembly even when modified by a descriptive adjective such as, but not limited to, naming "steerable road wheels," "steerable wheels." , or "drive wheels", but may also refer to any modification of traditional road wheels or tire assemblies such as, but not limited to, rimless maglev tires, spherical tires, or any other means of automotive movement such as, but not limited to, treads, casters , rollers, propellers, gas engines, liquid engines, or ion-powered engines.
Wie hier verwendet, kann sich „Straße“ selbst bei einer Modifizierung durch ein beschreibendes Adjektiv auf eine traditionelle Fahrbahnoberfläche wie, aber nicht beschränkt auf eine Beton- oder eine Asphaltstraße beziehen, sie kann sich aber auch auf eine beliebige Oberfläche oder ein Medium beziehen, entlang derer oder dessen ein Fahrzeug für Fracht oder Passagiere fährt, wie, aber nicht beschränkt auf Wasser, Eis, Schnee, Schmutz, Luft oder andere Gase, oder ein Raum im Allgemeinen.As used herein, even when modified by a descriptive adjective, "road" can refer to a traditional road surface such as, but not limited to, a concrete or asphalt road, but can also refer to any surface or medium along which a vehicle for cargo or passengers travels, such as but not limited to water, ice, snow, dirt, air or other gases, or space in general.
Wie hier verwendet, kann sich „Gliedmaße“ selbst bei einer Modifizierung durch ein beschreibendes Adjektiv auf eine Hand, einen Finger, einen Unterarm, einen Ellbogen, einen Arm, eine Schulter, einen Hals, einen Kopf, einen Oberschenkel, ein Knie, einen Unterschenkel, einen Fuß, einen Zeh, oder einen beliebigen weiteren Körperteil beziehen.As used herein, "limb," even when modified by a descriptive adjective, can mean a hand, finger, forearm, elbow, arm, shoulder, neck, head, thigh, knee, lower leg , a foot, a toe, or any other body part.
Wie hier verwendet, kann sich die „Beobachtungszone“ auf einen Punkt, einen Bereich, oder eine Zone beziehen, bezüglich dessen/derer wenigstens ein Sensor oder eine Kamera eingerichtet ist, von diesem/dieser Daten zu akquirieren. Als nicht einschränkendes Beispiel kann sich, falls eine Kamera allgemein dazu bestimmt ist, Bilder eines Handrades zu erfassen, „Beobachtungszone“ auf das Handrad beziehen, sie kann sich aber auch auf einen beliebigen Ort beziehen, welcher in dem Bild erfasst ist. Als weiteres nicht einschränkendes Beispiel kann, falls ein Sensor eingerichtet ist, Daten am Ort des Sensors oder Daten an einem vom Sensor entfernten Ort zu erfassen, der Ort, bezüglich dessen die Daten erfasst werden, als „Beobachtungszone“ bezeichnet werden. Wie hier verwendet, kann sich „Beobachtungszone“ auch auf den Bereich eines Bildes beziehen, für welchen wenigstens ein Modul eingerichtet ist, diesen zu analysieren, oder auf den Datensatz, welcher von Sensoren erfasst wird, für den wenigstens ein Modul eingerichtet ist, diesen zu analysieren. Hierfür kann sich wie hier verwendet „beobachten“ auf die Verwendung einer Kamera oder die Fähigkeit eines Sensors beziehen, Daten am Ort des Sensors oder an einem vom Sensoren entfernten Ort zu erfassen.As used herein, the “observation zone” may refer to a point, area, or zone from which at least one sensor or camera is configured to acquire data. As a non-limiting example, if a camera is generally designed to capture images of a hand wheel, "observation zone" may refer to the hand wheel, but it may also refer to any location captured in the image. As a further non-limiting example, if a sensor is configured to collect data at the location of the sensor or data at a location remote from the sensor, the location about which the data is collected may be referred to as an "observation zone." As used herein, “observation zone” may also refer to the area of an image that at least one module is configured to analyze, or to the data set captured by sensors that at least one module is configured to analyze analyze. As used herein, “observe” may refer to the use of a camera or a sensor's ability to collect data at the sensor's location or at a location remote from the sensor.
Wie hier verwendet, kann sich „Geste“ selbst bei einer Modifizierung durch ein beschreibendes Adjektiv auf die Haltung oder Position wenigstens einer Gliedmaße eines menschlichen Fahrers beziehen.As used herein, even when modified by a descriptive adjective, "gesture" may refer to the pose or position of at least one limb of a human driver.
In einigen veranschaulichenden Variationen kann ein Fahrzeug ein Lenksystem aufweisen, welches einem Fahrer ermöglicht, eine Richtung des Fahrzeugs zu ändern oder dieses von einem Pfad abzulenken, auf welchem es sich bewegt. Dieses Lenksystem kann in Verbindung mit einer Quelle einer Bewegung eines angetriebenen Kraftfahrzeugs wie einem Paar angetriebener Straßenräder arbeiten. Als nicht einschränkendes Beispiel kann ein Fahrzeug mit einem Verbrennungsmotor ausgestattet sein, welcher ein Paar hinterer Straßenräder mechanisch antreibt, um das Fahrzeug entlang einer Straße nach vorne zu bewegen. In einem solchen Beispiel kann das Fahrzeug zusätzlich mit einem Satz lenkbarer vorderer Straßenräder ausgestattet sein, welcher mittels des Lenksystems über eine Lenkschnittstelle wie, aber nicht beschränkt auf ein Handrad betätigt werden kann, um das Fahrzeug nach links und nach rechts zu lenken, während sich das Fahrzeug entlang der Straße bewegt. In solch einem Beispiel dienen die angetriebenen hinteren Straßenräder als Mittel zur Bewegung eines angetriebenen Kraftfahrzeugs, und das lenkbare Paar vorderer Straßenräder, welches über die Lenkschnittstelle betätigt wird, dient als das Lenksystem. Es ist wichtig, dass dies nicht das einzige Mittel ist, durch welches ein Fahrzeug in dieser Offenbarung als angetrieben oder gelenkt betrachtet wird. Tatsächlich können in einigen veranschaulichenden Variationen die vorderen Straßenräder sowohl die angetriebenen Straßenräder, als auch die lenkbaren Straßenräder sein. Ebenso muss das Mittel der angetriebenen Kraftfahrzeugbewegung nicht von der derselben Art sein, wie das Mittel zur Lenkung. Das heißt, falls das Mittel zur angetriebenen Kraftfahrzeugbewegung Straßenräder aufweist, muss das Lenkmittel nicht ebenfalls Straßenräder aufweisen. Hierzu wird als nicht einschränkendes Beispiel in Betracht gezogen, dass ein Schneemobil durch einen Satz von Laufflächen in Richtung des Hecks des Fahrzeugs angetrieben wird und durch einen Satz von lenkbaren Skiern in Richtung der Vorderseite des Fahrzeugs gelenkt werden kann. Zusätzlich kann in Betracht gezogen werden, dass das Mittel der angetriebenen Kraftfahrzeugbewegung wie, aber nicht beschränkt auf angetriebene Straßenräder, und das Lenkmittel wie, aber nicht beschränkt auf lenkbare Straßenräder, im Betrieb eine Funktion ändern kann oder bezüglich der Funktion wechseln kann. Als nicht einschränkendes Beispiel kann ein Fahrzeug, welches ein Paar angetriebener Straßenräder in der Nähe des Hecks des Fahrzeugs aufweist und darüber hinaus ein Paar lenkbarer Straßenräder in der Nähe der Front des Fahrzeugs aufweist, Fahrmodi ändern und damit beginnen, jedes verfügbare Straßenrad, einschließlich der vorderen lenkbaren Straßenräder, als angetriebene Straßenräder einzusetzen, während die Eigenschaft der Lenkbarkeit und die Lenkfunktion der vorderen lenkbaren Straßenräder aufrechterhalten wird. Auf ähnliche Weise kann in einigen Fällen in Betracht gezogen werden, dass angetriebene Straßenräder mit Unterbrechungen oder optional als lenkbare Straßenräder verwendet werden.In some illustrative variations, a vehicle may include a steering system that allows a driver to change a direction of the vehicle or steer it off a path in which it is traveling. This steering system may operate in conjunction with a source of powered vehicle motion, such as a pair of powered road wheels. As a non-limiting example, a vehicle may be equipped with an internal combustion engine that mechanically drives a pair of rear road wheels to propel the vehicle forward along a road. In such an example, the vehicle may be additionally equipped with a set of steerable front road wheels which may be actuated by the steering system via a steering interface such as, but not limited to, a handwheel to steer the vehicle left and right while the Vehicle moving along the road. In such an example, the powered rear road wheels serve as the means for moving a powered motor vehicle, and the steerable pair of front road wheels, operated via the steering interface, serve as the steering system. Importantly, this is not the only means by which a vehicle is considered to be propelled or steered in this disclosure. Indeed, in some illustrative variations, the front road wheels can be both the driven road wheels and the steerable road wheels. Likewise, the means of powered vehicle movement need not be of the same type as the means of steering. That is, if the means for powered vehicle movement includes road wheels, the steering means need not also include road wheels. To this end, as a non-limiting example, it is contemplated that a snowmobile is propelled toward the rear of the vehicle by a set of treads and may be steered toward the front of the vehicle by a set of steerable skis. Additionally, it can be contemplated that the means of powered vehicle movement, such as but not limited to powered road wheels, and the steering means, such as but not limited to steerable road wheels, may change function or change function during operation. As a non-limiting example, a vehicle that has a pair of powered road wheels near the rear of the vehicle and also has a pair of steerable road wheels near the front of the vehicle can change driving modes and begin using every available road wheel, including the front steerable road wheels as driven road wheels while maintaining the steerability property and steering function of the front steerable road wheels. Similarly, in some cases it can be considered that driven road wheels are used intermittently or optionally as steerable road wheels.
In einigen veranschaulichenden Variationen kann ein Lenksystem eines Fahrzeugs auch dahingehend autonom sein, dass das Fahrzeug sich selbst in Richtung eines vordefinierten Ortes lenkt, welcher an dieses ohne eine Unterstützung oder einen Eingriff eines Fahrers kommuniziert wurde. Das Fahrzeug kann ein Hindernisvermeidungssystem aufweisen, welches dem Fahrzeug ermöglicht, Objekte auf dessen Pfad zu erfassen und diese zu vermeiden. In einigen Fällen kann ein menschlicher Fahrer des Fahrzeugs wünschen, das Fahrzeug beim Vermeiden eines Objektes zu unterstützten, oder die Bewegungsrichtung des Fahrzeugs zu ändern. In einem solchen Fall kann der Fahrer die Kontrolle über wenigstens eine fahrerseitige Lenksystemsteuerung oder wenigstens eine Lenkschnittstelle übernehmen und das autonome Lenksystem unterstützen. Wenn der Fahrer sich bewegt, um wenigstens eine Gliedmaße des menschlichen Fahrers auf der Lenkschnittstelle zu platzieren, kann ein optisches Erfassungssystem oder ein Bildgebungssystem, welches wenigstens einen optischen Sensor oder eine Kamera aufweist, Bilder oder optische Daten erfassen, welche durch ein Verfolgungsmodul für eine menschliche Gliedmaße analysiert werden, um zu ermitteln, ob der menschliche Fahrer beabsichtigt, die Aufgabe des Lenkens oder Fahrens vom autonomen Lenksystem zu übernehmen. Falls das Verfolgungsmodul für eine menschliche Gliedmaße allein nicht in der Lage ist, die Absicht des Fahrers zu ermitteln, kann das Verfolgungsmodul für eine menschliche Gliedmaße die analysierten Bilder oder optischen Daten mit Sensordaten von Sensoren korrelieren, die in eine beliebige Lenkschnittstelle eingebettet oder mit dieser verbunden sind, welche der Fahrer offensichtlich versucht zu übernehmen, ausgehend von der Analyse der optischen Sensor- oder Bilddaten. In einigen solcher Fälle können die Sensordaten von Sensoren, welche eingebettet sind in oder verbunden sind mit einer beliebigen Lenkschnittstelle, welche der menschliche Fahrer offensichtlich versucht zu übernehmen, Sensordaten umfassen wie, aber nicht beschränkt auf Druckdaten von einem Drucksensor, welcher in einer Lenkschnittstelle eingebettet ist, Berührungsdaten von einem Berührungssensor, welcher in einer Lenkschnittstelle eingebettet ist, Drehmomentdaten von beliebigen Drehmomentsensoren, welche mit einer Lenkschnittstelle verbunden sind wie, aber nicht beschränkt auf einen Drehmomentsensor, der eingebettet ist oder verbunden ist mit einer Lenksäule für ein Handrad, einen Positionssensor, welcher mit einer Lenkschnittstelle verbunden ist wie, aber nicht beschränkt auf einen Positionssensor, welcher eingebettet ist oder verbunden ist mit einer Lenksäule für ein Handrad, oder einen beliebigen anderen Sensor von dem bekannt ist, dass er verwendet wird, um geeignete Daten bezüglich der Betätigung einer Lenkschnittstelle durch einen menschlichen Benutzer bereitzustellen.In some illustrative variations, a vehicle's steering system may also be autonomous in that the vehicle steers itself toward a predefined location communicated to it without driver assistance or intervention. The vehicle may include an obstacle avoidance system that allows the vehicle to detect and avoid objects in its path. In In some cases, a human driver of the vehicle may wish to assist the vehicle in avoiding an object or to change the vehicle's direction of travel. In such a case, the driver can take control of at least one driver-side steering system controller or at least one steering interface and support the autonomous steering system. When the driver moves to place at least one limb of the human driver on the steering interface, an optical capture system or an imaging system, which includes at least one optical sensor or camera, can capture images or optical data that are processed by a human tracking module Limbs are analyzed to determine whether the human driver intends to take over the task of steering or driving from the autonomous steering system. If the human limb tracking module alone is not able to determine the driver's intention, the human limb tracking module can correlate the analyzed images or optical data with sensor data from sensors embedded in or connected to any steering interface are which the driver is obviously trying to take over, based on the analysis of the optical sensor or image data. In some such cases, the sensor data from sensors embedded in or connected to any steering interface that the human driver is obviously attempting to adopt may include sensor data such as, but not limited to, pressure data from a pressure sensor embedded in a steering interface , touch data from a touch sensor embedded in a steering interface, torque data from any torque sensor connected to a steering interface such as, but not limited to, a torque sensor embedded or connected to a steering column for a hand wheel, a position sensor, which connected to a steering interface such as, but not limited to, a position sensor embedded or connected to a steering column for a handwheel, or any other sensor known to be used to provide appropriate data regarding the operation of a steering interface provided by a human user.
In einigen veranschaulichenden Variationen kann ein optisches Erfassungssystem oder Bildgebungssystem, welches wenigstens einen optischen Sensor oder eine Kamera aufweist, oberhalb oder hinter einem menschlichen Fahrer innerhalb der Fahrzeugkabine positioniert sein. In einigen Fällen kann ein optisches Erfassungssystem oder Bildgebungssystem auf einer der Seiten des menschlichen Fahrers oder vor dem menschlichen Fahrer an der Decke der Fahrzeugkabine positioniert sein, so lange die Beobachtungszone für das optische Erfassungssystem oder Bildgebungssystem immer noch ordnungsgemäß eingerichtet ist, Gesten einer menschlichen Gliedmaße durch einen menschlichen Fahrer oder Interaktionen mit einer Lenkschnittstelle durch einen menschlichen Fahrer zu beobachten. In einigen Fällen muss das optische Erfassungssystem oder Bildgebungssystem nicht direkt auf eine verbundene Beobachtungszone fokussiert sein, sondern kann durch die Verwendung wenigstens eines Spiegels indirekt fokussiert sein. Als nicht einschränkendes Beispiel kann ein optisches Erfassungssystem oder ein Bildgebungssystem in der Nähe des rückwärtigen Bereichs der Fahrzeugkabine positioniert und auf einen Spiegel ausgerichtet sein, welcher an der Decke des Fahrzeugs positioniert ist. In einem solchen Fall kann der Spiegel derart positioniert sein, dass es dem optischen Erfassungssystem oder dem Bildgebungssystem möglich ist, eine verbundene Beobachtungszone zu beobachten.In some illustrative variations, an optical sensing system or imaging system, including at least one optical sensor or camera, may be positioned above or behind a human operator within the vehicle cabin. In some cases, a sensing optical system or imaging system may be positioned on one of the human driver's sides or in front of the human driver on the ceiling of the vehicle cabin, as long as the zone of observation for the sensing optical system or imaging system is still properly established, gestures of a human limb through observing a human driver or interactions with a steering interface by a human driver. In some cases, the detection optical system or imaging system need not be directly focused on an associated observation zone, but may be indirectly focused through the use of at least one mirror. As a non-limiting example, an optical detection system or an imaging system may be positioned near the rear of the vehicle cabin and aligned with a mirror positioned on the ceiling of the vehicle. In such a case, the mirror may be positioned to allow the detection optical system or the imaging system to observe a connected observation zone.
Um ein kooperatives Lenksystem zu unterstützen, können die Sensoren eines autonomen Lenksystems in einigen veranschaulichenden Variationen eingerichtet sein, eine Lenkeingabe als eine Fahrereingabe zu detektieren und zu identifizieren. Eine genaue Identifikation einer Fahrereingabe kann die Verwendung eines neuronalen Netzes zur Bildanalyse beinhalten, um eine Bewegung, Positionen, Haltungen, und Gesten, wie hier beschrieben, einer Gliedmaße eines menschlichen Fahrers zu identifizieren und zu verfolgen, in Kombination mit der Verwendung einfacherer Erfassungsmethoden wie das Detektieren eines Griffs eines menschlichen Fahrers an einer Lenkschnittstelle oder eine von einem menschlichen Fahrer stammende Kraft, Betätigung, oder Berührung an einer Lenkschnittstelle durch die Verwendung dedizierter Sensoren, welche in die Lenkschnittstelle eingebettet sind oder indirekt mit der Lenkschnittstelle verbunden sind. Eine Korrelation der Bildanalyse mit Daten der vorgenannten einfacheren Erfassungsmethoden, ergibt eine vorteilhaft verbesserte Methode zum Ermitteln einer Absicht des menschlichen Fahrers zur Verwendung bei einer genauen Interpretation der Eingabe des menschlichen Fahrers innerhalb eines autonomen Lenksystems.To support a cooperative steering system, in some illustrative variations, the sensors of an autonomous steering system may be configured to detect and identify a steering input as a driver input. Accurate identification of driver input may involve the use of an image analysis neural network to identify and track movement, positions, postures, and gestures, as described herein, of a human driver's limb, in combination with the use of simpler detection methods such as that Detecting a human driver's grip on a steering interface or a human driver-originated force, actuation, or touch on a steering interface through the use of dedicated sensors embedded in the steering interface or indirectly connected to the steering interface. Correlating the image analysis with data from the aforementioned simpler acquisition methods yields an advantageously improved method for determining human driver intent for use in accurately interpreting human driver input within an autonomous steering system.
In einigen veranschaulichenden Variationen kann die Logik eines beliebigen autonomen Lenkmoduls sowohl auf eine autonome Eingabe, als auch auf eine Fahrereingabe reagieren. Die Eingabe des menschlichen Fahrers kann mit einer Absicht des menschlichen Fahrers in Verbindung gebracht werden. In einigen Fällen kann die volle Lenkkontrolle an den menschlichen Fahrer übergeben werden, falls die Absicht des menschlichen Fahrers eine bestimmte Schwelle erreicht. In einigen Fällen kann die volle Lenkkontrolle ausschließlich für die autonome Eingabe reserviert sein, wenn das Lenksystem oder ein anderes System, welches über das Lenksystem herrscht, ermittelt, dass der Fahrereingabe kein Vorrang erteilt werden sollte oder entscheidet, dass die Absicht des menschlichen Fahrers gering oder nicht anwesend ist. Als nicht einschränkendes Beispiel kann der autonomen Eingabe unter Ausschluss der Eingabe durch den menschlichen Fahrer, die alleinige Kontrolle des Lenksystems übertragen werden, in einer Situation, in welcher durch das autonome Lenkmodul ermittelt wurde, dass der menschliche Fahrer mit hoher Wahrscheinlichkeit versehentlich mit einer Lenkschnittstelle interagiert hat oder versehentlich eine erkannte Geste ausgeführt hat.In some illustrative variations, the logic of any autonomous steering module may be responsive to both autonomous input and driver input. The human driver's input may be associated with a human driver's intent. In some cases, full steering control can be handed over to the human driver if the human driver's intent reaches a certain threshold. In some cases it can Full steering control may be reserved exclusively for autonomous input when the steering system, or another system controlling the steering system, determines that driver input should not be given priority or decides that the human driver's intent is low or absent. As a non-limiting example, the autonomous input, excluding human driver input, may be given sole control of the steering system in a situation where it has been determined by the autonomous steering module that the human driver has a high probability of inadvertently interacting with a steering interface or accidentally performed a recognized gesture.
In einigen veranschaulichenden Variationen kann ein Fahrzeug ein Lenksystem umfassen, welches eine Lenkschnittstelle aufweist, und einen Satz lenkbarer Straßenräder. Das Lenksystem kann vom Typ einer elektrischen Servolenkung sein, wobei physikalische Verbindungen eine Betätigung der Lenkschnittstelle mechanisch an die lenkbaren Räder übertragen. Das Lenksystem kann vom „steer-by-wire“-Typ sein, wobei physikalische Mechanismen eine Betätigung der Lenkschnittstelle nicht mechanisch an die lenkbaren Straßenräder übertragen und wobei eine Betätigung der Lenkschnittstelle eine verbundene Betätigung der lenkbaren Straßenräder über die Kommunikation elektronischer Vorrichtungen beeinflusst, wie, aber nicht beschränkt auf Sensoren, Transceiver und elektronisch angeregte Aktoren. In einem solchen System kann ein Lenkschnittstellenbetätigungssystem Aktoren oder Elektromagneten oder dergleichen aufweisen, um wenigstens in dem Fall eine visuelle Lenkrückkopplung zu erzeugen, in dem die betätigte Lenkschnittstelle eine mechanisch betätigbare Lenkschnittstelle ist wie, aber nicht beschränkt auf ein Handrad. In einem Lenksystem mit einer digitalen Lenkschnittstelle, kann ein Lenkschnittstellenbetätigungssystem beliebige Logikmodule aufweisen, welche verwendet werden beim Ermitteln, wie beliebige digitale Daten in einem beliebigen digitalen Display für die digitale Lenkschnittstelle aktualisiert werden. Falls der Fahrer wünscht, mit der autonomen Lenkung zu kooperieren oder in diese einzugreifen, kann der Fahrer dementsprechend weniger desorientiert sein beim Versuch, eine Lenkschnittstelle zu übernehmen, da die Lenkschnittstelle in einer Weise autonom betätigt wurde, welche proportional zum tatsächlichen Lenkmanöver des Fahrzeugs ist.In some illustrative variations, a vehicle may include a steering system having a steering interface and a set of steerable road wheels. The steering system may be of the electric power steering type, where physical connections mechanically transmit actuation of the steering interface to the steerable wheels. The steering system may be of the "steer-by-wire" type, wherein physical mechanisms do not mechanically transmit actuation of the steering interface to the steerable road wheels, and wherein actuation of the steering interface affects associated actuation of the steerable road wheels via communication of electronic devices, such as, but not limited to sensors, transceivers and electronically excited actuators. In such a system, a steering interface actuation system may include actuators or solenoids or the like to provide visual steering feedback at least in the case where the actuated steering interface is a mechanically actuable steering interface such as, but not limited to, a hand wheel. In a steering system with a digital steering interface, a steering interface actuation system may include any logic modules used in determining how to update any digital data in any digital display for the digital steering interface. Accordingly, if the driver desires to cooperate or intervene with the autonomous steering, the driver may be less disoriented when attempting to take over a steering interface since the steering interface has been autonomously actuated in a manner that is proportional to the vehicle's actual steering maneuver.
In einigen veranschaulichenden Variationen weist ein Fahrzeug ein elektronisches Servolenksystem auf. In einem solchen Fall kommuniziert die Lenkschnittstelle mechanisch mit einem beliebigen Mechanismus, der verwendet wird, um das Fahrzeug in Übereinstimmung mit einer Lenkübersetzung zu lenken. Falls ein Fahrzeug, welches ein elektronisches Servolenksystem aufweist, eine vollautonome Lenkung oder eine halbautonome Lenkung aufweist, welche eine Kooperation oder einen Eingriff des Fahrers erlaubt, kann das Lenksystem dementsprechend eine visuelle Rückkopplung von der Lenkung an eine beliebige Schnittstelle kommunizieren, durch welche der Fahrer das Fahrzeug lenken kann. Wenn sich ein Fahrzeug in einem nicht einschränkenden Beispiel im vollautonomen Lenkbetrieb befindet, kann es ein Handrad des Fahrzeugs automatisch drehen in Verbindung mit dem autonomen Lenksystem, welches die lenkbaren Straßenräder des Fahrzeugs derart dreht, dass ein nicht eingreifender oder nicht kooperierender Fahrer das automatische Drehen des Handrades des Fahrzeugs mit dem Drehen der lenkbaren Straßenräder des Fahrzeugs in Verbindung bringt und die Lenkbefehle des autonomen Lenksystems intuitiv erkennt, vermutet oder abschätzt. Falls der Fahrer wünscht, mit der automatisierten Lenkung zu kooperieren oder in diese einzugreifen, ist es folglich möglich, dass der Fahrer weniger desorientiert ist, als beim Versuch eine Lenkschnittstelle zu übernehmen, die mit den Straßenrädern des Fahrzeugs nicht verbunden oder fehlausgerichtet zu sein scheint.In some illustrative variations, a vehicle includes an electronic power steering system. In such a case, the steering interface mechanically communicates with any mechanism used to steer the vehicle in accordance with a steering ratio. Accordingly, if a vehicle having an electronic power steering system has fully autonomous steering or semi-autonomous steering that allows for driver cooperation or intervention, the steering system can communicate visual feedback from the steering to any interface through which the driver can can steer the vehicle. By way of non-limiting example, when a vehicle is in fully autonomous steering mode, it may automatically rotate a vehicle's handwheel in conjunction with the autonomous steering system, which rotates the vehicle's steerable road wheels such that a non-intervening or uncooperative driver may prevent the vehicle's automatic rotating connects the vehicle's hand wheel to the turning of the vehicle's steerable road wheels and intuitively recognizes, assumes or estimates the steering commands of the autonomous steering system. Thus, if the driver desires to cooperate or intervene with the automated steering, the driver may be less disoriented than attempting to take over a steering interface that appears disconnected or misaligned with the vehicle's road wheels.
In einigen veranschaulichenden Variationen ist eine Lenkübersetzung definiert als das Verhältnis, welches eine Beziehung zwischen der Beeinflussung einer Lenkschnittstelle zu einer Beeinflussung einer Lenkvorrichtung beschreibt. Als nicht einschränkendes Beispiel kann eine Lenkübersetzung für ein Boot als das Verhältnis definiert sein, welches sich darauf bezieht, wie weit sich ein Ruder des Boots im Ansprechen auf eine Drehung eines Steuers dreht. Als weiteres nicht einschränkendes Beispiel kann eine Lenkübersetzung für ein Luftfahrzeug definiert sein als ein Verhältnis, welches sich darauf bezieht, wie weit sich ein Querruder des Luftfahrzeugs im Ansprechen auf eine Drehung eines Steuerrades des Piloten anhebt oder absenkt. Als noch weiteres nicht einschränkendes Beispiel kann eine Lenkübersetzung für ein Radfahrzeug definiert sein als ein Verhältnis, welches sich darauf bezieht, wie weit sich ein lenkbares Straßenrad des Fahrzeugs im Ansprechen auf eine Drehung eines Handrades dreht.In some illustrative variations, a steering ratio is defined as the ratio that describes a relationship between manipulation of a steering interface and manipulation of a steering device. As a non-limiting example, a steering ratio for a boat may be defined as the ratio related to how far a rudder of the boat turns in response to a turn of a rudder. As a further non-limiting example, a steering ratio for an aircraft may be defined as a ratio related to how far an aircraft's aileron raises or lowers in response to rotation of a pilot's steering wheel. As a still further non-limiting example, a steering ratio for a wheeled vehicle may be defined as a ratio related to how far a steerable road wheel of the vehicle turns in response to rotation of a hand wheel.
In einigen veranschaulichenden Variationen kann ein beliebiges autonomes Betätigen einer beliebigen Lenkschnittstelle durch das autonome Lenksystem gesteuert werden, um die Fahr- und Mitfahrerfahrung für einen Fahrer während eines Übergangs von oder zu einem autonomen Fahren, einem kooperativen Fahren, oder einem vollständig fahrergesteuerten Fahren komfortabler und intuitiver zu machen. In solchen veranschaulichenden Variationen kann ein autonomes Betätigen der Lenkschnittstelle als eine visuelle Lenkrückkopplung fungieren, welche es dem Fahrer erlaubt, die Lenkanweisungen, welche an das autonome Lenksystem übertragen und durch dieses interpretiert werden und wie diese Anweisungen die Lenkung des Fahrzeugs über ein gleichzeitiges, verbundenes, autonomes Betätigen der Lenkschnittstelle beeinflussen, intuitiv zu erkennen oder zu erahnen. Um die intuitive Fahr- und Mitfahrerfahrung für den Fahrer weiter zu vereinfachen, können autonome Lenkanweisungen durch die Systeme interpretiert werden, welche die autonome Betätigung der Lenkschnittstelle in einer Weise beeinflussen, die dazu gedacht ist, für einen menschlichen Fahrer besonders zugänglich, angenehm, oder ergonomisch zu sein. Als nicht einschränkendes Beispiel kann ein Dämpfungsfaktor auf eine beliebige Rohanweisung der Lenkschnittstelle angewendet werden, um eine beliebige Betätigung der Lenkschnittstelle zu verlangsamen, wenn eine Betätigung der Lenkschnittstelle durch den Fahrer beendet wird, sowie einen Zeitpunkt der Anpassung der Position und der Kraft, welche durch das Lenksystem auf die Lenkschnittstelle über eine Lenkschnittstellenbetätigungsvorrichtung einwirkt zu steuern, so dass die Betätigung der Lenkschnittstelle synchron mit der Bewegung des Fahrzeugs erfolgt. Auf diese Weise kann es wahrscheinlicher sein, dass der Fahrer in einem autonom gelenkten Fahrzeug Komfort findet, wenn die visuelle Lenkrückkopplung, welche der Lenkschnittstelle durch das autonome Lenksystem bereitgestellt wird, weniger ruckartig, roboterhaft, oder unmenschlich erscheint und folglich weniger befremdlich für einen menschlichen Beobachter ist, insbesondere, beim Versuch die Lenkschnittstelle zu übernehmen.In some illustrative variations, any autonomous actuation of any steering interface may be controlled by the autonomous steering system to make a driver's driving and ride-sharing experience more comfortable and intuitive during a transition from or to autonomous driving, cooperative driving, or fully driver-controlled driving close. In such illustrative variations, autonomous actuation of the steering interface may function as visual steering feedback which allows the driver to intuitively recognize or anticipate the steering instructions transmitted to and interpreted by the autonomous steering system and how these instructions affect the steering of the vehicle via a simultaneous, connected, autonomous actuation of the steering interface. To further simplify the driver's intuitive driving and ride-sharing experience, autonomous steering instructions may be interpreted by the systems affecting the autonomous actuation of the steering interface in a manner intended to be particularly accessible, comfortable, or ergonomic for a human driver to be. As a non-limiting example, a damping factor may be applied to any raw command of the steering interface to slow down any actuation of the steering interface when actuation of the steering interface is terminated by the driver, as well as a timing of the adjustment of the position and force generated by the Steering system acts on the steering interface via a steering interface actuator to control so that the actuation of the steering interface is synchronous with the movement of the vehicle. In this way, the driver may be more likely to find comfort in an autonomously guided vehicle when the visual steering feedback provided to the steering interface by the autonomous steering system appears less jerky, robotic, or inhuman and consequently less alienating to a human observer is, in particular, when attempting to take over the steering interface.
Falls ein Fahrzeug in einigen veranschaulichenden Variationen ein steer-by-wire-Lenksystem aufweist, kann es für die visuelle Rückkopplung von der Lenkung erforderlich sein, für den Fahrer simuliert zu werden, um eine intuitive halbautonome Lenkerfahrung für den Fahrer bereitzustellen. Falls ein Fahrzeug ein steer-by-wire-Lenksystem aufweist, welches eine vollautonome Lenkung oder eine halbautonome Lenkung aufweist, welche eine Kooperation oder ein Eingreifen eines Fahrers erlaubt, kann das Lenksystem eine visuelle Rückkopplung von der Lenkung an einer beliebigen Schnittstelle simulieren, durch welche der Fahrer das Fahrzeug lenken kann. Wenn sich das Fahrzeug als nicht einschränkendes Beispiel im vollautonomen Lenkbetrieb befindet, kann es ein Handrad des Fahrzeugs automatisch drehen in Verbindung mit dem autonomen Lenksystem, welches die lenkbaren Straßenräder des Fahrzeugs derart dreht, dass ein nicht eingreifender oder nicht kooperierender Fahrer das automatische Drehen des Handrades des Fahrzeugs mit dem Drehen der lenkbaren Straßenräder des Fahrzeugs in Verbindung bringt und eine Lenkübersetzung intuitiv erkennt, vermutet oder abschätzt. Falls der Fahrer wünscht, mit der automatisierten Lenkung zu kooperieren oder in diese einzugreifen, ist es folglich möglich, dass der Fahrer weniger desorientiert ist, als beim Versuch eine Lenkschnittstelle zu übernehmen, die mit den Straßenrädern des Fahrzeugs nicht verbunden oder fehlausgerichtet zu sein scheint. Dieses Konzept kann bei jedem Ermitteln einer Absicht eines Fahrers durch das Verfolgungsmodul für eine menschliche Gliedmaße berücksichtigt werden.In some illustrative variations, if a vehicle has a steer-by-wire steering system, the visual feedback from the steering may need to be simulated for the driver to provide an intuitive semi-autonomous steering experience for the driver. If a vehicle has a steer-by-wire steering system that has fully autonomous steering or semi-autonomous steering that allows for driver cooperation or intervention, the steering system can simulate visual feedback from the steering at any interface through which the driver can steer the vehicle. By way of non-limiting example, when the vehicle is in fully autonomous steering mode, it may automatically rotate a vehicle handwheel in conjunction with the autonomous steering system, which rotates the vehicle's steerable road wheels such that an uninterrupted or uncooperative driver prevents the vehicle from automatically rotating the handwheel of the vehicle to the turning of the steerable road wheels of the vehicle and intuitively recognizes, guesses or estimates a steering ratio. Thus, if the driver desires to cooperate or intervene with the automated steering, the driver may be less disoriented than attempting to take over a steering interface that appears disconnected or misaligned with the vehicle's road wheels. This concept can be taken into account each time the human limb tracking module detects a driver's intention.
In einigen veranschaulichenden Variationen kann ein autonomes Lenksystem wenigstens eine Lenkschnittstelle, wenigstens einen Sensor oder eine Kamera, welche eingerichtet ist, optische Daten zu messen oder zu erfassen, sowie wenigstens ein Logikmodul zum Ermitteln auf Basis beliebiger Roh- oder verarbeiteter, erfasster oder akquirierter optischer Daten, ob ein menschlicher Fahrer wünscht, die Kontrolle der wenigstens einen Lenkschnittstelle zu übernehmen, aufweisen. Solche Daten können Daten umfassen wie, aber nicht beschränkt auf eine Bewegungsgeschwindigkeit (engl. „movement velocity“), eine Bewegungsgeschwindigkeit (engl. „movement speed“), eine Bewegungsrichtung, eine Bewegungsbeschleunigung einer menschlichen Gliedmaße, eine Gliedmaßenposition, eine Gliedmaßenhaltung, eine Gliedmaßenform, oder beliebige andere Daten, welche die Erscheinung, Bewegung, oder Position einer Gliedmaße betreffen. In einigen Fällen kann eine beliebige verfolgte menschliche Gliedmaße als eine bestimmte menschliche Gliedmaße wie, aber nicht beschränkt auf eine Hand, ein Knie, einen Finger, einen Ellbogen, oder eine beliebige andere menschliche Gliedmaße identifiziert und klassifiziert werden, indem ein neuronales Netz oder eine Datenbasis wie eine lokale oder eine Cloud-Datenbasis verwendet wird. Eine beliebige derartige Identifizierung oder Klassifizierung kann mit beliebigen Erscheinungs-, Bewegungs-, oder Positionsdaten einer Gliedmaße korreliert werden, um einen genauen Kontext für Daten bereitzustellen, welche durch Kameras oder Sensoren erhoben wurden. Beliebige Logikmodule, die einen Kontext oder eine Analyse für Daten bereitstellen, welche durch beliebige solche Kameras oder Sensoren erfasst wurden, können als Verfolgungsmodul für eine menschliche Gliedmaße bezeichnet werden.In some illustrative variations, an autonomous steering system may include at least one steering interface, at least one sensor or camera configured to measure or collect optical data, and at least one logic module to determine based on any raw or processed, sensed or acquired optical data whether a human driver desires to take control of the at least one steering interface. Such data may include data such as, but not limited to, a movement velocity, a movement speed, a movement direction, a movement acceleration of a human limb, a limb position, a limb posture, a limb shape , or any other data relating to the appearance, movement, or position of a limb. In some cases, any tracked human limb may be identified and classified as a particular human limb such as, but not limited to, a hand, knee, finger, elbow, or any other human limb using a neural network or database how to use a local or cloud database. Any such identification or classification may be correlated with any limb appearance, motion, or position data to provide accurate context for data collected by cameras or sensors. Any logic module that provides context or analysis for data captured by any such cameras or sensors may be referred to as a human limb tracking module.
Um ein kooperatives Lenksystem zu unterstützen, können die Sensoren eines autonomen Lenksystems in einigen veranschaulichenden Variationen eingerichtet sein, eine Lenkeingabe als eine Fahrereingabe zu detektieren und zu identifizieren. In einigen Fällen kann das Detektieren einer Eingabe eines menschlichen Fahrers bewirken, dass das autonome Lenksystem sämtliche Fahraufgaben an einen menschlichen Fahrer abgibt, wie, aber nicht beschränkt auf ein Beschleunigen, Bremsen, und Lenken. In einigen Fällen kann das autonome Lenksystem nur eine oder mehrere, aber nicht sämtliche Fahraufgaben im Ansprechen auf eine Eingabe eines menschlichen Fahrers abgeben. In einigen Fällen kann das Detektieren einer Eingabe eines menschlichen Fahrers bewirken, dass die Lenkschnittstelle ihre Position oder Orientierung anpasst. In Fällen, in denen wenigstens eine Lenkschnittstelle ein Handrad aufweist, kann das Handrad als nicht einschränkendes Beispiel seine Teleskop- oder Neigungskonfiguration automatisch anpassen, um für den menschlichen Fahrer beim Detektieren einer Eingabe des menschlichen Fahrers zugänglicher zu sein. Es kann auch erwogen werden, dass eine beliebige Veränderung der Steuerung oder der Übergabe der Steuerung bezüglich des autonomen Lenksystems von Veränderungen der Steuerung oder einer weiteren Übergabe in anderen Fahrzeugsystemen begleitet werden kann, wie, aber nicht beschränkt auf Motorsteuerungssysteme, Bremssteuerungssysteme, oder Antriebsstrangsysteme.To support a cooperative steering system, in some illustrative variations, the sensors of an autonomous steering system may be configured to detect and identify a steering input as a driver input. In some cases, detecting human driver input may cause the autonomous steering system to delegate all driving tasks to a human driver, such as, but not limited to, acceleration, braking, and steering. In some cases, the autonomous steering system can issue only one or more, but not all, of the driving tasks in response to input from a human driver. In some cases, detecting human driver input may cause the steering interface to adjust its position or orientation. By way of non-limiting example, in cases where at least one steering interface includes a handwheel, the handwheel may automatically adjust its telescoping or tilting configuration to be more accessible to the human driver upon detecting human driver input. It may also be contemplated that any change in control or transfer of control related to the autonomous steering system may be accompanied by changes in control or further transfer in other vehicle systems, such as, but not limited to, engine control systems, brake control systems, or powertrain systems.
In einigen veranschaulichenden Variationen kann ein autonomes Fahrzeug wenigstens ein Verfolgungsmodul für eine menschliche Gliedmaße aufweisen, um auf Basis beliebiger Roh-, oder verarbeiteter, erfasster oder erhobener optischer Daten zu ermitteln, ob ein menschlicher Fahrer wünscht, die Kontrolle über die Lenkschnittstelle zu übernehmen. In einigen solcher Fälle kann das Logikmodul wenigstens eine Handposition oder eine Handgestencharakteristik eines menschlichen Fahrers ermitteln und auf deren Basis ermitteln, ob der menschliche Fahrer beabsichtigt, die Kontrolle über die Lenkschnittstelle zu übernehmen. In einigen veranschaulichenden Variationen können beliebige optische Daten zusammen mit beliebigen verfügbaren Daten über einen ausgeübten Druck auf eine Lenkschnittstelle, kapazitive Berührungsdaten von der Lenkschnittstelle, Lenkschnittstellendrehmomentdaten, Lenkschnittstellenpositionsdaten, Lenkschnittstellenbewegungsdaten, oder mit beliebigen weiteren Daten bezüglich der Bewegung oder Position einer Lenkschnittstelle verarbeitet oder mit diesen korreliert werden.In some illustrative variations, an autonomous vehicle may include at least one human limb tracking module to determine whether a human driver desires to take control of the driving interface based on any raw, or processed, sensed, or collected optical data. In some such cases, the logic module may determine at least one hand position or hand gesture characteristic of a human driver and based thereon determine whether the human driver intends to take control of the steering interface. In some illustrative variations, any optical data may be processed or correlated with any available data about applied pressure on a steering interface, capacitive touch data from the steering interface, steering interface torque data, steering interface position data, steering interface movement data, or any other data relating to movement or position of a steering interface become.
In einigen veranschaulichenden Variationen kann ein neuronales Netz verwendet werden, um eine Bibliothek über Positionen oder Haltungen von Gliedmaßen eines menschlichen Fahrers, welche eine Fahrerabsicht anzeigen, zu trainieren und aufzubauen. In solchen Fällen kann das neuronale Netz mit der Aufgabe zur Bildanalyse betraut werden, mit dem Ziel der Identifizierung und Markierung wenigstens einer menschlichen Hand innerhalb des Bildes. Ebenso kann das neuronale Netz darüber hinaus mit der Aufgabe betraut werden, die Haltung der identifizierten und markierten menschlichen Hand zu klassifizieren, sowie mit dem Ermitteln der Position der menschlichen Hand bezüglich einer Lenkschnittstelle. Solch ein neuronales Netz kann trainiert werden, indem tausende Bilder vieler unterschiedlicher menschlicher Fahrer gesammelt werden und indem in jedem der Bilder jeweils die Hand des menschlichen Fahrers manuell markiert wird. Die markierten Bilder können anschließend verwendet werden, um das neuronale Netz zu trainieren, um die Hände eines menschlichen Fahrers zu erkennen und um die Haltung und Position einer beliebigen Hand des menschlichen Fahrers bezüglich der Lenkschnittstelle zu erkennen. Ein beliebiges System oder Modul, welches mit einem solchen neuronalen Netz in Kommunikation steht, kann die Identifizierungen, Klassifizierungen, und Bestimmungen anhand der Bildanalyse überwachen und kann eine Betriebslogik verwenden, um eine Absicht eines Fahrers zu ermitteln und um diese an das autonome Fahrsystem zu kommunizieren. Ebenso kann das neuronale Netz selbst trainiert werden, um diese Kommunikation durchzuführen. Als nicht einschränkendes Beispiel kann eine Bewegung aller fünf Finger an einer Hand oder an beiden Händen eine Geste sein, welche als eine Geste erkannt werden soll, die eine Absicht eines menschlichen Fahrers kennzeichnet, die Aufgabe des Lenkens an ein autonomes Lenksystem abzugeben. In einem solchen nicht einschränkenden Beispiel kann ein neuronales Netz verwendet werden, um eine bestimmte Handgeste, sowie auch andere, innerhalb eines Satzes akquirierter optischer Daten zu erkennen und um über ein Logikmodul an das autonome Lenksystem zu kommunizieren, dass der menschliche Fahrer die Aufgabe des Lenksystems zum exklusiven Ausführen des Lenkens an das autonome Lenksystem abgeben möchte. Beim Empfangen einer solchen Kommunikation kann das autonome Lenksystem eine exklusive Kontrolle bezüglich der Aufgabe des Lenkens des Fahrzeugs durchsetzen. Es kann darüber hinaus in Betracht gezogen werden, dass ein neuronales Netz trainiert werden kann, um die Position oder Haltung einer beliebigen anderen Gliedmaße eines menschlichen Fahrers zu identifizieren und zu verfolgen wie, aber nicht beschränkt auf ein Knie, einen Ellbogen, oder einen Unterarm. In einigen Variationen kann das Lenksystem mit Drehmomentdaten kombiniert werden, um die Zuverlässigkeit der Hände-dran/-weg-Erkennung weiter zu verbessern. Die Position der Hände kann zusammen mit weiteren Sensoren im Lenksystem oder weiteren Überwachungssystemen verwendet werden, um die Absicht des Fahrers zu verstehen und ein Agieren von Funktionen eines autonomem Fahrassistenzsystems (ADAS) vor einem physikalischen Kontakt mit der Lenkschnittstelle vorzubereiten, um eine Latenzzeit zu reduzieren. Eine Sensorfusion der Handdetektion mittels anderer Fahrerüberwachungstechniken kann ebenfalls eingesetzt werden, um die Absichten des Fahrers zu verstehen, um eine bessere Aufnahme von ADAS-Funktionen zu unterstützten. Das Hinzunehmen einer Handdetektion auf Basis ihrer Position bezüglich der Lenkschnittstelle wie einem Lenkrad, und da diese mit weiteren physikalischen Lenksensoren und Fahrerüberwachungssystemen fusioniert wird, stellt einen viel besseren Stellvertreter für die Absicht des Fahrers bereit. Solch ein System stellt einen frühen Hinweis vor dem physikalischen Kontakt mit dem Lenkrad bereit. Der aktuelle Fahrer oder die Demonstration welche Ihre Bedürfnisse zum Vornehmen zusätzlicher Handlungen wie einem Drücken von Tasten auf einer graphischen Benutzerschnittstelle oder einer physikalischen Taste aufnimmt, zum Starten des autonomen Modus' in einem selbstfahrenden Fahrzeug. Dies ist nicht sehr intuitiv und verursacht Verzögerungen zwischen dem Zeitpunkt, zu dem der Fahrer die Hände vom Lenkrad nimmt bis das Fahrzeug autonom fährt. Einige Variationen und Gesten, welche sehr ähnlich oder identisch sein können zu einem Wegnehmen der Hände von der Lenkschnittstelle und in einigen Variationen kann das System ein Auftreten dieser Geste verwenden, um in den autonomen Modus zu wechseln.In some illustrative variations, a neural network may be used to train and build a library about human driver limb positions or postures indicative of driver intent. In such cases, the neural network can be entrusted with the task of image analysis with the aim of identifying and marking at least one human hand within the image. Likewise, the neural network can also be assigned the task of classifying the posture of the identified and marked human hand and determining the position of the human hand with respect to a steering interface. Such a neural network can be trained by collecting thousands of images of many different human drivers and manually marking the human driver's hand in each of the images. The tagged images can then be used to train the neural network to recognize a human driver's hands and to recognize the pose and position of any human driver's hand relative to the steering interface. Any system or module in communication with such a neural network can monitor the identifications, classifications, and determinations based on image analysis and can use operational logic to determine a driver's intent and communicate it to the autonomous driving system . Likewise, the neural network itself can be trained to perform this communication. As a non-limiting example, a movement of all five fingers on one or both hands may be a gesture to be recognized as a gesture indicating a human driver's intention to delegate the task of steering to an autonomous steering system. In one such non-limiting example, a neural network may be used to recognize a particular hand gesture, as well as others, within a set of acquired visual data and to communicate via a logic module to the autonomous steering system that the human driver is the steering system's task would like to hand over to the autonomous steering system for the exclusive execution of the steering. Upon receiving such a communication, the autonomous steering system can assert exclusive control over the task of steering the vehicle. It can also be contemplated that a neural network can be trained to identify and track the position or posture of any other limb of a human driver, such as but not limited to a knee, an elbow, or a forearm. In some variations, the steering system can be combined with torque data to further improve the reliability of the hands-on/off detection. Hand position may be used in conjunction with other sensors in the steering system or other monitoring systems to understand driver intent and prepare autonomous driving assistance system (ADAS) functions to act prior to physical contact with the steering interface to reduce latency. Sensor fusion of hand detection using other driver monitoring techniques may also be employed to understand driver intentions to support better ADAS uptake. Adding hand detection based on its position relative to the steering interface such as a steering wheel, and as this is fused with other physical steering sensors and driver monitoring systems, provides a much better proxy for driver intent. Such a system provides an early indication of physical contact with the steering wheel. The current driver or demonstration that captures your needs for taking additional actions such as pressing buttons on a graphical user interface or a physical button to start 'autonomous mode' in a self-driving vehicle. This is not very intuitive and causes delays between the driver taking his hands off the wheel and the vehicle driving autonomously. Some variations and gestures that may be very similar or identical to removing hands from the steering interface, and in some variations the system may use an occurrence of that gesture to transition to autonomous mode.
Um in einigen Variationen die Absichten des Fahrers zu interpretieren, kann die Position der Hand des Fahrers bezüglich der Lenkschnittstelle, wie einem Lenkrad, verfolgt werden. Die Zone der Lenkschnittstelle wird ebenfalls durch ein ähnlich vortrainiertes neuronales Netz erfasst und die Zone bewegt sich mit der Neigung und dem Ineinanderschieben des Lenksystems. Falls sich die Hände des Fahrers für eine bestimmte Zeitdauer und/oder mit einer bestimmten Geste innerhalb der Zone befinden, kann dies als die Absicht des Fahrers interpretiert werden, die Kontrolle des Fahrzeugs umfassend das Lenksystem zu übernehmen oder abzugeben. Dies Signal kann sensorfusioniert werden mit physikalischen Sensoren wie einem Drehmoment, um die Fahrerübergabe mittels eines Drehmomentstoßes vorzubereiten, wird eliminiert, um eine sanfte Übergabe an den Fahrer zu ermöglichen. Durch das Detektieren der Absicht des Fahrers auf Basis ihrer Lage bezüglich des Lenkrades, können schnellere Reaktionen durch ADAS-Funktionen erreicht werden, indem bestimmte Funktionen basierend auf der Interpretation der Absicht des Fahrers vorverarbeitet werden.In some variations, to interpret the driver's intentions, the position of the driver's hand relative to the steering interface, such as a steering wheel, may be tracked. The steering interface zone is also captured by a similar pre-trained neural network and the zone moves with the tilt and telescoping of the steering system. If the driver's hands are within the zone for a certain length of time and/or with a certain gesture, this can be interpreted as the driver's intention to take over or relinquish control of the vehicle including the steering system. This signal can be sensor fused with physical sensors such as torque to prepare for driver handover by means of a torque burst being eliminated to allow for a smooth handover to the driver. By detecting the driver's intention based on their location relative to the steering wheel, faster responses can be achieved through ADAS functions by pre-processing certain functions based on the interpretation of the driver's intention.
In einigen veranschaulichenden Variationen kann ein Verfolgungsmodul für eine menschliche Gliedmaße in der Lage sein, optische Daten zu analysieren und zu ermitteln, dass ein menschlicher Fahrer wünscht, die Kontrolle über eine Lenkschnittstelle zu übernehmen, indem eine andere Erweiterung des Körpers des menschlichen Fahrers wie, aber nicht beschränkt auf ein Knie oder einen Oberschenkel, verwendet wird. In einigen solcher Fälle kann das Verfolgungsmodul für eine menschliche Gliedmaße ein neuronales Netz aufweisen, welches trainiert wurde, um die Haltung oder Position wenigstens einer Gliedmaße eines menschlichen Fahrers zu verfolgen, oder welches in der Lage ist, trainiert zu werden, um die Haltung oder Position wenigstens einer Gliedmaße des menschlichen Fahrers zu verfolgen. Solch ein Verfolgungsmodul für eine menschliche Gliedmaße kann eingerichtet sein, wenigstens eine Gliedmaße eines menschlichen Fahrers bezüglich einer konkreten Beobachtungszone innerhalb der Kabine des Fahrzeugs zu verfolgen. Als nicht einschränkendes Beispiel können die Haltung und die Position wenigstens einer Gliedmaße eines menschlichen Fahrers in Bezug auf den Mittelpunkt eines Handrades oder bezüglich eines Emblems des Handrades verfolgt werden. Auf diese Weise kann das Verfolgungsmodul für eine menschliche Gliedmaße eingerichtet sein zu ermitteln, dass wenigstens eine verfolgte Gliedmaße eines menschlichen Fahrers ihre Position verändert hat und den Mittelpunkt des Handrades überquert hat. Das Verfolgungsmodul für eine menschliche Gliedmaße kann diese Bewegung der Gliedmaße des menschlichen Fahrers als eine für das Verfolgungsmodul für eine menschliche Gliedmaße beabsichtigte Geste identifizieren, welche als eine Anforderung durch den menschlichen Fahrer an ein autonomes Lenksystem interpretiert werden sollte, eine Aktion autonom auszuführen, wie, aber nicht beschränkt auf ein autonomes Wechseln der Spuren. In einigen solcher Fälle kann, falls das Ineinanderschieben, Neigen, oder falls die Position des Mittelpunktes eines Handrades oder Emblems bewegt oder angepasst wird, die Beobachtungszone durch wenigstens einen optischen Sensor oder eine Kamera zum Zwecke der Bild- oder Datenakquise und Analyse eingesetzt werden und auch mit dem Handrad bewegt werden. Gegebenenfalls kann die Notwendigkeit oder der Wunsch an einen solchen Sensor oder eine Kamera zur Anpassung der Perspektive oder des Fokus' zur Unterstützung einer angepassten Beobachtungszone durch das Verfolgungsmodul für eine menschliche Gliedmaße an einen beliebigen geeigneten Mechanismus, ein System oder ein Modul zur Anpassung solch einer Kamera oder eines Sensors kommuniziert werden.In some illustrative variations, a human limb tracking module may be able to analyze optical data and determine that a human driver desires to take control of a steering interface by using a different extension of the human driver's body like, but not limited to a knee or a thigh. In some such cases, the human limb tracking module may comprise a neural network that has been trained to track the posture or position of at least one limb of a human driver, or capable of being trained to determine the posture or position to track at least one limb of the human driver. Such a human limb tracking module may be configured to track at least one limb of a human driver relative to a specific observation zone within the cabin of the vehicle. As a non-limiting example, the posture and position of at least one limb of a human driver may be tracked with respect to the center point of a handwheel or with respect to an emblem of the handwheel. In this way, the human limb tracking module may be configured to determine that at least one tracked limb of a human driver has changed position and crossed the center point of the handwheel. The human limb tracking module may identify this movement of the human driver's limb as a gesture intended for the human limb tracking module, which should be interpreted as a request by the human driver to an autonomous steering system to perform an action autonomously, such as, but not limited to autonomous lane changing. In some such cases, if telescoping, tilting, or if the position of the center of a handwheel or emblem is moved or adjusted, the observation zone may be employed by at least one optical sensor or camera for the purpose of image or data acquisition and analysis, and also be moved with the handwheel. Where appropriate, the need or desire for such a sensor or camera to adjust perspective or focus to support an adjusted observation zone by the human limb tracking module may be mapped to any suitable mechanism, system or module for adjusting such a camera or a sensor can be communicated.
In einigen veranschaulichenden Variationen können die Geschwindigkeit und die Richtung der Bewegung der Gliedmaße des menschlichen Fahrers durch ein Verfolgungsmodul für eine menschliche Gliedmaße verfolgt werden. In einigen solcher veranschaulichende Variationen kann wenigstens eines der Verfahren der Verfolgungsmodule für eine menschliche Gliedmaße einen Verfolgungsalgorithmus aufweisen, der Gegenstände berücksichtigt, welche die verfolgte Gliedmaße teilweise oder vollständig überdecken wie, aber nicht beschränkt auf Handschuhe, Uhren, Hosen, Schuhe, oder ein beliebiges anderes Kleidungsstück, ein Accessoire, ein Werkzeug, oder ein Objekt, welches eine vollständige Sicht eines optischen Erfassungssystems oder Bildgebungssystems auf eine menschliche Gliedmaße vollständig oder teilweise verdeckt.In some illustrative variations, the speed and direction of movement of the human driver's limb may be tracked by a human limb tracking module. In some such illustrative variations, at least one of the methods of the human limb tracking modules may include a tracking algorithm that accounts for objects partially or completely covering the tracked limb, such as, but not limited to, gloves, watches, pants, shoes, or any other An article of clothing, an accessory, a tool, or an object that requires a complete view of an optical detection system or Imaging system on a human limb fully or partially obscured.
In einigen veranschaulichenden Variationen kann ein optisches Erfassungssystem oder Bildgebungssystem wie, aber nicht beschränkt auf ein Kamerasystem, ein Infraroterfassungs- oder Bildgebungssystem, ein Schallerfassungs- oder Bildgebungssystem, ein Lasererfassungs- oder Bildgebungssystem, oder ein beliebiges anderes optisches Erfassungs- oder Bildgebungssystem verwendet werden, um wenigstens eine Gliedmaße eines menschlichen Fahrers wie, aber nicht beschränkt auf Hände, Unterarme, Ellbogen, Arme, Schultern, einen Hals, einen Kopf, Oberschenkel, Knie, Unterschenkel, Füße, oder einen beliebigen anderen Körperteil zu verfolgen. Ein Bildverarbeitungsalgorithmus kann verwendet werden, um Rauschen aus beliebigen erfassten Bildern oder optischen Daten zu entfernen, wie, aber nicht beschränkt auf Beleuchtungsunterschiede, Farbunterschiede, oder beliebiges weiteres Bildrauschen, welches eine Fähigkeit eines Verfolgungsmoduls für eine menschliche Gliedmaße zur Erkennung, Klassifizierung, oder Verfolgung einer menschlichen Gliedmaße beeinflusst.In some illustrative variations, an optical detection system or imaging system such as, but not limited to, a camera system, an infrared detection or imaging system, an acoustic detection or imaging system, a laser detection or imaging system, or any other optical detection or imaging system can be used to track at least one limb of a human driver such as but not limited to hands, forearms, elbows, arms, shoulders, neck, head, thighs, knees, lower legs, feet, or any other body part. An image processing algorithm may be used to remove noise from any captured images or optical data, such as, but not limited to, lighting differences, color differences, or any other image noise that impairs a human limb tracking module's ability to detect, classify, or track a human limb tracking module human limb affected.
In einigen veranschaulichenden Variationen kann, während das Fahrzeug autonom lenkt, der Fahrer durch Interagieren mit wenigstens einer Lenkschnittstelle versuchen, mit der Lenkung des Fahrzeugs zu kooperieren oder in diese einzugreifen. Beim Ermitteln der Absicht des Fahrers auf Basis wenigstens einer hier offenbarten Bild- oder optischen Datenanalyse, kann das Lenksystem dem Fahrer in einigen Fällen ermöglichen, in das Lenken des Fahrzeugs vorübergehend einzugreifen oder mit diesem zu kooperieren. Dieses vorübergehende Eingreifen kann ermöglicht werden auf Basis eines Ermittelns durch ein Verfolgungsmodul für eine menschliche Gliedmaße, in Kombination mit weiteren Sensoren, welche die wenigstens eine Lenkschnittstelle betreffen, dass ein Fahrer nur vorübergehend beabsichtigt, in die Aufgabe des Lenkens einzugreifen. In solchen Fällen kann das autonome Lenksystem auch die Abweichung zur Bewegungsrichtung oder zum Pfad des Fahrzeugs berechnen und kann kontinuierlich neue Bewegungsrichtungen oder Pfade des Fahrzeugs berechnen, wenn der Fahrer eingreift, so dass, wenn der Fahrer das Eingreifen beendet, das Fahrzeug autonom mit dem Lenken gemäß einer der neuen Bewegungsrichtungen oder einem der Pfade beginnen kann.In some illustrative variations, while the vehicle is steering autonomously, the driver may attempt to cooperate or interfere with the steering of the vehicle by interacting with at least one steering interface. In some cases, upon determining the driver's intent based on at least one image or visual data analysis disclosed herein, the steering system may allow the driver to temporarily override or cooperate with the steering of the vehicle. This temporary intervention may be enabled based on a determination by a human limb tracking module, in combination with other sensors related to the at least one steering interface, that a driver only temporarily intends to intervene in the task of steering. In such cases, the autonomous steering system can also calculate the deviation from the direction of movement or path of the vehicle, and can continuously calculate new directions of movement or paths of the vehicle when the driver intervenes, so that when the driver stops intervening, the vehicle can continue steering autonomously according to one of the new directions of movement or one of the paths.
In einigen veranschaulichenden Variationen dient ein Handrad als die Lenkschnittstelle für ein autonomes Lenksystem für ein Fahrzeug, welches lenkbare Straßenräder aufweist. Falls der Fahrer in einigen solcher Variationen in die Lenkung eingreift oder mit dieser kooperiert, kann ein beliebiger Mechanismus, welcher verwendet wird, um das Handrad des Fahrzeugs automatisch zu drehen in Verbindung mit dem autonomen Lenksystem, welches die lenkbaren Straßenräder des Fahrzeugs dreht, erfordern, dass der Fahrer eine Lenkanstrengung mit oder gegen diesen ausführt, während das autonome Lenksystem zeitgleich mit dem Lenken des Fahrzeugs fortfährt. In einigen Fällen kann das autonome Lenksystem die Fahrereingabe und eine autonome Lenkeingabe aushandeln, um eine Netto-Lenkeingabe zu ermitteln und kann die Netto-Lenkeingabe als Steuersignal für ein beliebiges Drehen der lenkbaren Straßenräder und eine verbundene Kraftrückkopplung für die Lenkschnittstelle verwenden, wie, aber nicht beschränkt auf ein automatisches Drehen eines Handrades. Falls ein Fahrer in einem nicht einschränkenden Beispiel beginnt, ein Handrad eines Fahrzeugs locker zu greifen, während sich das Fahrzeug im autonomen Lenkmodus befindet, kann das autonome Lenksystem mit dem autonomen Lenken des Fahrzeugs fortfahren und kann dem Fahrer seine Absicht nach rechts zu lenken andeuten, indem das Handrad nach rechts gedreht wird, in Verbindung mit einem Drehen der lenkbaren Straßenräder des Fahrzeugs nach rechts, während der Fahrer das Lenkrad jedoch nach wie vor locker greift, kann der Fahrer diese Absicht des autonomen Lenksystems nach rechts zu fahren spüren und kann entscheiden, einzugreifen, indem das Handrad vor dem dem Erhöhen des Ausmaßes des Lenkens fester gegriffen wird. Falls der Fahrer in einigen solcher Fälle versucht, das Handrad daran zu hindern sich nach rechts zu drehen, kann das autonome Lenksystem dies erfassen und eine Absicht des Fahrers auf Basis dessen ermitteln, indem die Absicht des Fahrers, welche durch eine Analyse von Bilddaten oder optischen Daten ermittelt wurde, welche den Griff des Fahrers am Handrad betreffen, die innerhalb der Fahrzeugkabine erfasst wurden, mit anderen Sensordaten korreliert wird, welche für ein Ermitteln einer Absicht des Fahrers geeignet sind, wie, aber nicht beschränkt auf Druckdaten von einem beliebigen Drucksensor, der in das Handrad eingebettet ist, oder von einem beliebigen ähnlichen eingebetteten oder verbundenen Berührungssensor einer beliebigen Art, oder Drehmomentsensoren, welche trainiert sind auf, verbunden sind mit, oder eingebettet sind in eine mit dem Handrad verbundene Lenksäule. In einigen solcher Fälle kann das autonome Lenksystem als nicht einschränkendes Beispiel das Ausmaß einer Kraft, welche es auf das Handrad als eine Komponente des autonomen Lenksystems ausübt, deutlich reduzieren aber nicht eliminieren, wodurch es dem Fahrer erleichtert wird, das Fahrzeug zu übernehmen, ohne dem Fahrer den Eindruck zu vermitteln, dass das autonome Lenksystem die Kontrolle vollständig an den Fahrer abgegeben hat. Auf diese Weise kann dem Fahrer versichert werden, dass das autonome Lenksystem nach wie vor versucht das Fahrzeug zu steuern und zur Steuerung des Fahrzeugs zurückkehren wird, nachdem der Fahrer das Handrad losgelassen hat. Als weiteres nicht einschränkendes Beispiel kann das autonome System in einigen solcher Fälle das Ausmaß der Kraft, welche es auf das Handrad als eine Komponente des autonomen Lenksystems ausübt, vollständig eliminieren, wodurch es dem Fahrer erleichtert wird, das Fahrzeug zu übernehmen und um dem Fahrer zusätzlich anzuzeigen, dass das autonome Lenksystem die Kontrolle vollständig an den Fahrer abgegeben hat. In einigen solcher Fälle kann der Fahrer dadurch mittels einer hörbaren oder sichtbaren Warnung informiert werden, dass das autonome Lenksystem deaktiviert ist und nicht länger versucht, das Fahrzeug zu steuern. In solchen Fällen kann der Fahrer dadurch zusätzlich darüber informiert werden, dass das Lenksystem nicht zur Steuerung des Fahrzeugs zurückkehren wird, nachdem der Fahrer das Handrad losgelassen hat, bis die autonome Lenkung wieder aktiviert wird. In einigen solcher Fälle kann das Reaktivieren der autonomen Lenkung oder des Fahrens durchgeführt werden durch eine Verwendung einer erkannten Bewegung oder Haltung einer Gliedmaße durch einen menschlichen Fahrer. In einigen solcher Fälle kann der menschliche Fahrer zum Beispiel eine erkannte Handgeste einsetzen wie, aber nicht beschränkt auf eine Geste, in welcher jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde. Diese fünf-Finger-Bewegung kann durch ein Verfolgungssystem für eine menschliche Gliedmaße verfolgt werden und kann durch ein trainiertes neuronales Netz erkannt werden, sowie mit weiteren Sensordaten korreliert werden, um die Absicht des Fahrers zu ermitteln, das autonome Fahren oder Lenken ausgehend von dieser Geste zu reaktivieren.In some illustrative variations, a hand wheel serves as the steering interface for an autonomous steering system for a vehicle having steerable road wheels. In some such variations, if the driver intervenes or cooperates with the steering, any mechanism used to automatically rotate the vehicle's handwheel in conjunction with the autonomous steering system that rotates the vehicle's steerable road wheels may require that the driver carries out a steering effort with or against him, while the autonomous steering system continues to steer the vehicle at the same time. In some cases, the autonomous steering system can negotiate the driver input and an autonomous steering input to determine a net steering input and can use the net steering input as a control signal for any turning of the steerable road wheels and associated force feedback for the steering interface, like, but not limited to an automatic turning of a hand wheel. As a non-limiting example, if a driver begins to loosely grip a vehicle's handwheel while the vehicle is in autonomous steering mode, the autonomous steering system may continue to steer the vehicle autonomously and may indicate to the driver his intention to steer to the right, by turning the hand wheel to the right in conjunction with turning the vehicle's steerable road wheels to the right while the driver still has a loose grip on the steering wheel, the driver can sense this intention of the autonomous steering system to turn to the right and can decide to intervene by gripping the handwheel more firmly before increasing the amount of steering. In some such cases, if the driver tries to prevent the hand wheel from turning to the right, the autonomous steering system can detect this and determine a driver's intention based on the driver's intention obtained through analysis of image data or optical Correlates data pertaining to the driver's grip on the handwheel sensed within the vehicle cabin with other sensor data suitable for determining driver intent, such as, but not limited to, pressure data from any pressure sensor used embedded in the handwheel, or any similar embedded or connected touch sensor of any type, or torque sensors trained on, connected to, or embedded in a steering column connected to the handwheel. In some such cases, as a non-limiting example, the autonomous steering system can significantly reduce, but not eliminate, the amount of force it applies to the hand wheel as a component of the autonomous steering system, making it easier for the driver to take control of the vehicle without the To give the driver the impression that the autonomous steering system has completely handed over control to the driver. In this way, the driver can be assured that the autonomous steering system is still trying to control the vehicle and to control the driving vehicle will return after the operator releases the hand wheel. As a further non-limiting example, in some such cases, the autonomous system may completely eliminate the amount of force it applies to the hand wheel as a component of the autonomous steering system, thereby making it easier for the driver to take control of the vehicle and providing additional driver comfort indicate that the autonomous steering system has fully relinquished control to the driver. In some such cases, this may inform the driver via an audible or visual warning that the autonomous steering system is disabled and no longer attempting to steer the vehicle. In such cases, this can provide additional information to the driver that the steering system will not return to control the vehicle after the driver releases the handwheel until autonomous steering is reactivated. In some such cases, the reactivation of autonomous steering or driving may be performed through use of a detected movement or posture of a limb by a human driver. In some such cases, the human driver may employ a recognized hand gesture, such as, but not limited to, a gesture in which each finger of the human driver's at least one hand has been moved from a grasping or clasping posture to a fully extended position. This five-finger movement can be tracked by a human limb tracking system and can be detected by a trained neural network and correlated with other sensor data to determine the driver's intention to autonomously drive or steer based on that gesture to reactivate.
Falls das Fahrzeug in einigen veranschaulichenden Variationen autonom lenkt und kein Eingriff oder keine Kooperation des Fahrers vorliegt, und der Fahrer versucht, in die Lenkung einzugreifen oder mit dieser zu kooperieren, kann das Lenksystem ermitteln, dass die Absicht des Fahrers gering oder nicht vorhanden ist, das Lenksystem kann beliebige unbeabsichtigte Eingaben des Fahrers bezüglich des Lenkens ignorieren und das Fahrzeug stattdessen durch Ignorieren der unbeabsichtigten Fahrereingabe lenken. Im Falle eines nicht einschränkenden Beispiels eines steer-by-wire-Systems kann das Fahrzeug, in dem Fall, in dem die Fahrzeugsensoren und -systeme, oder ein beliebiges anderes das Fahrzeug informierendes System ermitteln, dass ein Lenkmanöver aus Sicherheitsgründen erforderlich ist, jegliche unbeabsichtigte Fahrereingabe ignorieren und das Lenkmanöver autonom ausführen, unabhängig von einer beliebigen unbeabsichtigten Fahrereingabe.In some illustrative variations, if the vehicle steers autonomously and there is no driver intervention or cooperation, and the driver attempts to intervene or cooperate with the steering, the steering system may determine that the driver's intention is low or absent. the steering system may ignore any unintended driver input regarding steering and instead steer the vehicle by ignoring the unintended driver input. In the case of a non-limiting example of a steer-by-wire system, in the event that the vehicle sensors and systems, or any other system informing the vehicle that a steering maneuver is required for safety reasons, the vehicle may determine any unintended Ignore driver input and perform the steering maneuver autonomously, regardless of any unintended driver input.
In einigen veranschaulichenden Variationen kann das Verfolgungssystem für eine menschliche Gliedmaße einer verfolgten Gliedmaße wenigstens ein Konfidenzniveau zuweisen. Dieses Konfidenzniveau kann die Konfidenz des Verfolgungssystems für eine menschliche Gliedmaße betreffen, dass die verfolgte Gliedmaße eine erkannte Geste ausführt oder diese ausgeführt hat. In einem solchen Fall ist es möglich eine Geste nur dann zu registrieren, wenn das Konfidenzniveau für diese bestimmte Geste einer bestimmten Gliedmaße einen bestimmten Schwellenwert überschreitet. Andere Sensordaten wie, aber nicht beschränkt auf Sensordaten, welche die Lenkschnittstelle betreffen oder von Sensoren, die in die Lenkschnittstelle eingebettet sind, können mit Bild- oder optischen Daten korreliert werden, welche durch das Verfolgungssystem für eine menschliche Gliedmaße analysiert wurden und darüber hinaus über wenigstens ein Konfidenzniveau informieren. Als nicht einschränkendes Beispiel kann der Fall vorliegen, dass eine Spurwechselgeste nur erkannt wird, wenn die Konfidenz in diese Geste 90% überschreitet. In diesen Fällen sind einige Gliedmaßenbewegungen, die einer Hand-Wischbewegung-über-die-Mitte-des-Handrades Spurwechselgeste sehr ähnlich sind, aber nicht durch einen menschlichen Fahrer durchgeführt wurden, um einen Spurwechselwunsch anzuzeigen, wie wenn ein menschlicher Fahrer über seinen eigenen Körper hinweggreift, um ein Getränk aus der Mittelkonsole zu greifen, aber nicht beabsichtigt eine Spurwechselgeste auszuführen. In einigen Fällen kann mehr als eine menschliche Gliedmaße gleichzeitig verfolgen werden. In einigen solcher Fälle, wenn mehr als eine menschliche Gliedmaße verfolgt wird und durch das Verfolgungsmodul für eine menschliche Gliedmaße ermittelt wird, dass im Widerspruch stehende Gesten oder dieselbe Geste mit abweichenden Konfidenz-Niveaus ausgeführt wurden, kann das Lenksystem oder das Verfolgungssystem für eine menschliche Gliedmaße einen Priorisierungsalgorithmus oder einen Entscheidungsbaum verwenden, um zu ermitteln, welche Geste als Eingabe gewertet werden soll, falls überhaupt, und in welcher Reihenfolge die Gesteneingabe zu adressieren ist.In some illustrative variations, the human limb tracking system may assign at least one confidence level to a tracked limb. This confidence level may relate to the human limb tracking system's confidence that the tracked limb is performing or has performed a recognized gesture. In such a case it is possible to register a gesture only if the confidence level for that particular gesture of a particular limb exceeds a certain threshold. Other sensor data such as, but not limited to, sensor data related to the guidance interface or from sensors embedded in the guidance interface may be correlated with image or optical data analyzed by the human limb tracking system and beyond at least inform a confidence level. As a non-limiting example, a lane change gesture may only be recognized if the confidence in that gesture exceeds 90%. In these cases, some limb movements that are very similar to a hand-swipe-over-the-center-of-the-handwheel lane-change gesture, but were not performed by a human driver to indicate a lane-change request, as if a human driver were using their own body reaches over to grab a drink from the center console, but doesn't intend to perform a lane change gesture. In some cases, more than one human limb can be tracked at a time. In some such cases, when more than one human limb is being tracked and it is determined by the human limb tracking module that conflicting gestures or the same gesture were performed with different confidence levels, the guidance system or the human limb tracking system use a prioritization algorithm or decision tree to determine which gesture to count as input, if any, and in what order to address the gesture input.
In einigen veranschaulichenden Variationen kann die Lenkschnittstelle einen Joystick, einen Trackball, einen Schieberegler, eine Drossel, einen Drucktaster, einen Kippschalter, einen Hebel, einen Touchscreen, eine Maus oder ein beliebiges weiteres Mittel für eine Benutzereingabe aufweisen. In Fällen, in denen eine Fahrereingabe über eine Fahrerschnittstelle stattfindet, welche keine offensichtliche Möglichkeit für eine mechanisch angetriebene visuelle oder Kraftrückkopplung bietet, wie, aber nicht beschränkt auf Variationen, welche eine Maus oder einen Touchscreen als primäres Mittel für eine Fahrereingabe beinhalten, kann das automatische Lenksystem eine Reaktion auf eine Fahrereingabe über visuelle Hinweise wie, aber nicht beschränkt auf ein Aufleuchten oder eine Animation in einem Display, Audiohinweise wie, aber nicht beschränkt auf Klickgeräusche, Pieptöne, oder eine instruierende Stimmaufnahme, eine erzeugte Stimme, oder eine Live-Stimme, oder haptische Hinweise wie, aber nicht beschränkt auf eine Vibration eines Bildschirms, oder einen beliebigen anderen Hinweis, der dem Fahrer anzeigen kann wie einer Fahrereingabe - welche gleichzeitig mit einer autonomen Eingabe auftreten kann - durch das Lenksystem entgegnet wird, wie mit ihr kooperiert wird, wie diese integriert oder gehandhabt wird.In some illustrative variations, the steering interface may include a joystick, trackball, slider, throttle, push button, toggle switch, lever, touch screen, mouse, or any other means of user input. In cases where driver input is via a driver interface that does not offer an obvious facility for mechanically powered visual or force feedback, such as, but not limited to, variations that involve a mouse or touchscreen as the primary means of driver input, the automatic Steering system responsive to driver input via visual cues such as but not limited to a flash or animation in a display, audio cues such as but not limited to clicks, beeps, or an instructional voice recording, generated voice, or live voice, or haptic cues such as but not limited to a vibration of a screen, or any other indication that can indicate to the driver how a driver input - which may occur simultaneously with an autonomous input - is countered by the steering system, how it is cooperated with, how it is integrated or how it is handled .
Es wird nun Bezug genommen auf
Bezugnehmend auf
In einigen veranschaulichenden Variationen kann eine beliebige Anzahl von Modulen miteinander kombiniert werden oder in kleinere Module unterteilt werden.In some illustrative variations, any number of modules can be combined together or broken down into smaller modules.
Die nachfolgende Beschreibung von Varianten ist lediglich veranschaulichend für Komponenten, Elemente, Vorgänge, Produkte und Verfahren, welche als sich innerhalb des Schutzbereichs der Erfindung befindend betrachtet werden und ist keineswegs dazu gedacht, einen solchen Schutzbereich durch das zu beschränken, was konkret offenbart oder nicht ausdrücklich ausgeführt ist. Die wie hier beschriebenen Komponenten, Elemente, Vorgänge, Produkte und Verfahren können abweichend von der hier ausdrücklichen Beschreibung kombiniert und neu angeordnet werden und werden nach wie vor als sich innerhalb des Schutzbereichs der Erfindung befindend angesehen.The following description of variants is merely illustrative of components, elements, acts, products and methods which are considered to be within the scope of the invention and is in no way intended to limit such scope by what is specifically disclosed or not expressly disclosed is executed. The components, elements, acts, products, and methods as described herein may be combined and rearranged otherwise than as expressly described herein and are still considered to be within the scope of the invention.
Variation 1 kann ein Produkt beinhalten, welches aufweist: ein autonomes Lenksystem, welches eine Lenkschnittstelle aufweist und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingeben werden und autonome Lenkanweisungen eines autonomen Lenksystems zu akzeptieren und zu interpretieren, wobei das autonome Lenksystem in der Lage ist, wenigstens zwischen einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, wobei der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden und wobei der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf der Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung der wenigstens eine Lenkschnittstelle erzeugt werden, wobei das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, wenigstens eines aus der Position oder der Haltung einer menschlichen Gliedmaße zu verfolgen und wobei das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einer menschlichen Gliedmaße, wobei der wenigstens eine optische Sensor oder die Kamera zum Verfolgen der Position oder der Haltung der wenigstens einen menschlichen Gliedmaße wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst, und wobei das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern.Variation 1 may include a product comprising: an autonomous steering system having a steering interface and which is constructed and configured to simultaneously receive human driver steering instructions input by a human driver via at least one steering interface and autonomous steering instructions of an autonomous steering system accept and interpret, wherein the autonomous steering system is able to switch at least between a first steering mode and a second steering mode, wherein the first steering mode is a steering mode in which the steering takes place exclusively on the basis of autonomous steering instructions issued by the autonomous steering system are generated and wherein the second steering mode is a steering mode in which the steering takes place exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via the operation of the at least one steering interface, the product also having at least one camera or comprises an optical sensor configured to track at least one of the position or posture of a human limb and wherein the autonomous steering system is configured to switch between the steering modes based at least on the tracked position or posture of the at least one human limb, wherein the at least one optical sensor or camera for tracking the position or posture of the at least one human limb comprises at least one camera positioned to capture images of at least one of The human driver's hands are detected on or near a steering wheel, and the autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one human driver's hand has moved from a grasping or clasping posture to a fully extended position position has been moved and to change the steering modes based at least on this determination.
Variation 2 kann das Produkt einer der Variationen 1, oder 3-11 aufweisen, wobei das autonome Lenksystem darüber hinaus in der Lage ist, in einen dritten Lenkmodus zu wechseln, in welchem die wenigstens eine Lenkschnittstelle sowohl durch den menschlichen Fahrer, als auch durch das autonome Lenksystem betätigt wird.Variation 2 may comprise the product of any of
Variation 3 kann das Produkt aus einer der Variationen 1-2, oder 4-11 aufweisen, wobei die wenigstens eine Kamera oder der optische Sensor eine Stereokameraanordnung aufweist.Variation 3 may include the product of either of variations 1-2, or 4-11, wherein the at least one camera or optical sensor includes a stereo camera assembly.
Variation 4 kann das Produkt einer der Variationen 1-3, oder 5-11 aufweisen, wobei das Produkt, wobei die wenigstens eine Kamera oder der optische Sensor eingerichtet ist, die Bewegungsgeschwindigkeit der wenigstens einen menschlichen Gliedmaße zu verfolgen.Variation 4 may include the product of any of variations 1-3, or 5-11, wherein the product wherein the at least one camera or optical sensor is configured to track the speed of movement of the at least one human limb.
Variation 5 kann das Produkt einer der Variationen 1-4, oder 6-11 aufweisen, wobei die wenigstens eine Kamera oder der optische Sensor eingerichtet ist, die Nähe der wenigstens einen menschlichen Gliedmaße bezüglich der wenigstens einen Lenkschnittstelle zu verfolgen.Variation 5 may include the product of any one of variations 1-4, or 6-11, wherein the at least one camera or optical sensor is configured to track the proximity of the at least one human limb relative to the at least one steering interface.
Variation 6 kann das Produkt einer der Variationen 1-5, oder 7-11 aufweisen, wobei das Produkt darüber hinaus wenigstens einen Drehmomentsensor zum Erfassen einer Drehmomenteingabe durch einen menschlichen Fahrer bezüglich der Lenkschnittstelle umfasst.Variation 6 may include the product of any one of variations 1-5, or 7-11, the product further comprising at least one torque sensor for sensing a torque input by a human driver with respect to the steering interface.
Variation 7 kann das Produkt der Variation 6 aufweisen, wobei die Drehmomenteingabe durch ein Drehmoment an der Lenksäule erfasst wird.Variation 7 may include the product of variation 6, where the torque input is sensed by torque on the steering column.
Variation 8 kann das Produkt einer der Variationen 1-7, oder 9-11 aufweisen, wobei das Produkt darüber hinaus wenigstens einen Drucksensor aufweist, welcher mit der Lenkschnittstelle gekoppelt ist, um einen durch den menschlichen Fahrer auf die Lenkschnittstelle ausgeübten Druck zu erfassen.Variation 8 may include the product of any of Variations 1-7, or 9-11, wherein the product further includes at least one pressure sensor coupled to the steering interface to sense pressure applied to the steering interface by the human driver.
Variation 9 kann das Produkt aus einer der Variationen 1-8, oder 10 aufweisen, wobei das Produkt darüber hinaus wenigstens einen kapazitiven Berührungssensor aufweist, welcher mit der Lenkschnittstelle gekoppelt ist, um eine Änderung bezüglich der Kapazität zu erfassen, die am kapazitiven Berührungssensor vorliegt, wenn der menschliche Fahrer die Lenkschnittstelle berührt.Variation 9 may include the product of any of Variations 1-8, or 10, wherein the product further includes at least one capacitive touch sensor coupled to the steering interface to detect a change in capacitance present at the capacitive touch sensor. when the human driver touches the steering interface.
Variation 10 kann ein Verfahren enthalten, welches aufweist: Verwenden wenigstens einer Kamera oder eines optischen Sensors zum Verfolgen wenigstens eines aus der Position oder Haltung wenigstens einer Gliedmaße, nämlich einer Hand, eines menschlichen Fahrers, wobei der wenigstens eine optische Sensor oder die Kamera wenigstens eine Kamera aufweist, welche derart positioniert ist, dass sie Bilder wenigstens einer der Hände des menschlichen Fahrers an oder in der Nähe eines Lenkrades erfasst; Erzeugen von Korrelationsdaten durch Korrelieren des wenigstens einen aus der Position oder der Haltung der wenigstens einen Gliedmaße des menschlichen Fahrers mit Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen; Ändern eines Lenkmodus' eines autonomen Lenksystems basierend wenigstens auf den korrelierten Daten; Verwenden eines Bildanalysesystems, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde; und Ändern der Lenkmodi des autonomen Lenksystems basierend wenigstens auf diesem Ermitteln.Variation 10 may include a method comprising: using at least one camera or optical sensor to track at least one of the position or posture of at least one limb, namely a hand, of a human driver, wherein the at least one optical sensor or camera includes at least one a camera positioned to capture images of at least one of the human driver's hands on or near a steering wheel; generating correlation data by correlating the at least one of the position or posture of the at least one limb of the human driver with data acquired from at least one steering interface or from at least one sensor configured to allow interaction with the at least one steering interface by the capture human drivers; changing a steering mode of an autonomous steering system based at least on the correlated data; using an image analysis system to determine that each finger of the at least one hand of the human driver has been moved from a grasping or clasping posture to a fully extended position; and changing steering modes of the autonomous steering system based at least on said determining.
Variation 11 kann das Verfahren der Variation 10, oder 12-15 aufweisen, wobei die wenigstens eine Kamera oder der optische Sensor eine Stereokameraanordnung aufweist.Variation 11 may include the method of variation 10, or 12-15, wherein the at least one camera or optical sensor includes a stereo camera assembly.
Variation 12 kann das Verfahren einer der Variationen 10-11, oder 13-15 aufweisen, wobei die Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, Daten von wenigstens einem kapazitiven Berührungssensor umfassen, welcher in die wenigstens eine Lenkschnittstelle eingebettet ist.Variation 12 may include the method of any of Variations 10-11, or 13-15, wherein the data acquired from at least one steering interface or from at least one sensor configured to facilitate interaction with the at least one steering interface by the human driver include data from at least one capacitive touch sensor embedded in the at least one steering interface.
Variation 13 kann das Verfahren einer der Variationen 10-12 oder 14-15 aufweisen, wobei die Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, wenigstens einen Drehmomentsensor zum Erfassen einer Drehmomenteingabe in die Lenkschnittstelle durch den menschlichen Fahrer umfassen.Variation 13 may include the method of any of Variations 10-12 or 14-15, wherein the data acquired from at least one steering interface or from at least one sensor configured to allow interaction with the at least one steering interface by the human driver detect, comprise at least one torque sensor for detecting a torque input to the steering interface by the human driver.
Variation 14 kann das Verfahren der Variation 13 beinhalten, wobei die Drehmomenteingabe ein Drehmoment ist, welches an einer Lenksäule erfasst wird.Variation 14 may include the method of variation 13 wherein the torque input is torque sensed at a steering column.
Variation 15 kann das Verfahren einer der Variationen 10-14 aufweisen, wobei die Daten, welche von wenigstens einer Lenkschnittstelle oder von wenigstens einem Sensor akquiriert wurden, welcher eingerichtet ist, eine Interaktion mit der wenigstens einen Lenkschnittstelle durch den menschlichen Fahrer zu erfassen, wenigstens einen Drucksensor aufweisen, zum Erfassen eines auf die Lenkschnittstelle ausgeübten Druckes durch den menschlichen Fahrer.Variation 15 may include the method of any of Variations 10-14, wherein the data acquired from at least one steering interface or from at least one sensor configured to detect interaction with the at least one steering interface by the human driver includes at least one Comprise a pressure sensor for detecting a pressure exerted on the steering interface by the human driver.
Variation 16 kann ein Produkt enthalten, welches aufweist: ein autonomes Lenksystem aufweisend eine Lenkschnittstelle und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegeben werden und autonome Lenkeingaben, welche durch ein autonomes Lenksystem eingegeben werden zu akzeptieren und zu interpretieren, wobei das autonome Lenksystem in der Lage ist, zwischen wenigstens einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, wobei der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis autonomer Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden und wobei der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis von Lenkanweisungen eines menschlichen Fahrers erfolgt, welche durch einen menschlichen Fahrer über die Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden, wobei das Produkt darüber hinaus wenigstens eine Kamera oder einen optischen Sensor aufweist, welche(r) eingerichtet ist, wenigstens eines aus der Position oder Haltung einer menschlichen Gliedmaße zu verfolgen und wobei das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße, wobei die wenigstens eine Kamera oder der optische Sensor positioniert ist, um eine vordere Fläche der Lenkschnittstelle zu sehen, und wobei das autonome Lenksystem eingerichtet ist, ein Bildanalysesystem zu verwenden, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde und die Lenkmodi basierend wenigstens auf diesem Ermitteln zu ändern.Variation 16 may include a product comprising: an autonomous steering system having a steering interface and constructed and configured to simultaneously receive human driver steering instructions input by a human driver via at least one steering interface and autonomous steering inputs input by an autonomous steering system are entered to accept and interpret, wherein the autonomous steering system is able to switch between at least a first steering mode and a second steering mode, wherein the first steering mode is a steering mode in which the steering takes place exclusively on the basis of autonomous steering instructions, which are provided by the autonomous steering system can be generated and wherein the second steering mode is a steering mode in which the steering occurs exclusively on the basis of steering instructions from a human driver, which are generated by a human driver via the operation of the at least one steering interface, the product also having at least one A camera or an optical sensor configured to track at least one of the position or posture of a human limb and wherein the autonomous steering system is configured to switch between the steering modes based at least on the tracked position or posture of the at least a human limb, wherein the at least one camera or optical sensor is positioned to view a front surface of the steering interface, and wherein the autonomous steering system is configured to use an image analysis system to determine that each finger of the at least one hand of the human driver has been moved from a grasping or clutching posture to a fully extended position and changing steering modes based at least on this determination.
Variation 17 kann ein Produkt enthalten, wie es in Variation 16 dargelegt ist, wobei die menschliche Gliedmaße eine menschliche Hand aufweist.Variation 17 may include a product as set forth in variation 16 wherein the human limb comprises a human hand.
Variation 18 kann ein Verfahren beinhalten, welches aufweist: Bereitstellen eines autonomen Lenksystems umfassend eine Lenkschnittstelle und welches konstruiert und eingerichtet ist, um gleichzeitig Lenkanweisungen eines menschlichen Fahrers, welche durch einen menschlichen Fahrer über wenigstens eine Lenkschnittstelle eingegeben werden und Lenkanweisungen eines autonomen Lenksystems zu akzeptieren und zu interpretieren, welche durch ein autonomes Lenksystem eingegeben werden, wobei das autonome Lenksystem in der Lage ist, zwischen wenigstens einem ersten Lenkmodus und einem zweiten Lenkmodus zu wechseln, wobei der erste Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis der autonomen Lenkanweisungen erfolgt, welche durch das autonome Lenksystem erzeugt werden und der zweite Lenkmodus ein Lenkmodus ist, in welchem das Lenken exklusiv auf Basis der Lenkanweisungen des menschlichen Fahrers erfolgt, welche durch den menschlichen Fahrer über die Betätigung der wenigstens einen Lenkschnittstelle erzeugt werden, Verwenden wenigstens einer Kamera oder eines optischen Sensors, um wenigstens eines aus der Position oder der Haltung der menschlichen Gliedmaße zu verfolgen und wobei das autonome Lenksystem eingerichtet ist, zwischen den Lenkmodi zu wechseln, basierend wenigstens auf der verfolgten Position oder Haltung der wenigstens einen menschlichen Gliedmaße, wobei die wenigstens eine Kamera oder der optische Sensor positioniert ist, um eine vordere Fläche der Lenkschnittstelle zu sehen, Verwenden eines Bildanalysesystems, um zu ermitteln, dass jeder Finger der wenigstens einen Hand des menschlichen Fahrers von einer umgreifenden oder umklammernden Haltung in eine vollständig gestreckte Position bewegt wurde, und Ändern der Lenkmodi des autonomen Lenksystems basierend wenigstens auf diesem Ermitteln.Variation 18 may include a method comprising: providing an autonomous steering system comprising a steering interface and which is constructed and configured to simultaneously accept steering instructions from a human driver input by a human driver via at least one steering interface and steering instructions from an autonomous steering system and to interpret, which are entered by an autonomous steering system, the autonomous steering system being able to switch between at least a first steering mode and a second steering mode, the first steering mode being a steering mode in which the steering is exclusively based on the autonomous steering instructions generated by the autonomous steering system and the second steering mode is a steering mode in which the steering occurs exclusively based on the human driver's steering instructions generated by the human driver via the operation of the at least one steering interface, using at least one camera or an optical sensor to track at least one of the position or posture of the human limb and wherein the autonomous steering system is configured to switch between steering modes based at least on the tracked position or posture of the at least one human limb, wherein the at least a camera or the optical sensor is positioned to view a front face of the steering interface, using an image analysis system to determine that each finger of the at least one human driver's hand has been moved from a grasping or clasping posture to a fully extended position, and changing steering modes of the autonomous steering system based at least on said determining.
Variation 19 kann ein Verfahren enthalten, wie es in Variation 18 dargelegt ist, wobei die menschliche Gliedmaße eine menschliche Hand aufweist.Variation 19 may include a method as set forth in variation 18 wherein the human limb comprises a human hand.
Die obige Beschreibung ausgewählter Variationen innerhalb des Schutzbereichs der Erfindung ist lediglich veranschaulichender Natur und, folglich sind Variationen oder Varianten davon nicht als eine Abkehr vom Geist und Schutzbereich der Erfindung anzusehen.The above description of selected variations within the scope of the invention is merely illustrative in nature and, consequently, variations or variants thereof are not to be regarded as a departure from the spirit and scope of the invention.
Claims (19)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962914650P | 2019-10-14 | 2019-10-14 | |
US62/914,650 | 2019-10-14 | ||
US17/066,983 | 2020-10-09 | ||
US17/066,983 US11608088B2 (en) | 2019-10-14 | 2020-10-09 | Optics based detection of hands on-off and hand gesture based function selection for human driver |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102020127049A1 DE102020127049A1 (en) | 2021-04-15 |
DE102020127049B4 true DE102020127049B4 (en) | 2023-08-24 |
Family
ID=75155682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020127049.6A Active DE102020127049B4 (en) | 2019-10-14 | 2020-10-14 | Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020127049B4 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11789412B2 (en) | 2021-03-22 | 2023-10-17 | Steering Solutions Ip Holding Corporation | Functional limits for torque request based on neural network computing |
DE102022116650A1 (en) | 2022-07-05 | 2024-01-11 | Valeo Schalter Und Sensoren Gmbh | Improved determination of torque to be applied in an electric power steering system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011111897A1 (en) | 2011-08-30 | 2013-02-28 | Gm Global Technology Operations, Llc | Motor vehicle, in particular passenger cars and method for controlling a motor vehicle, in particular a passenger car |
DE102014107194A1 (en) | 2014-05-22 | 2015-11-26 | Robert Bosch Automotive Steering Gmbh | Method for operating a steering system |
US20170344838A1 (en) | 2016-05-27 | 2017-11-30 | Toyota Jidosha Kabushiki Kaisha | Hierarchical Context-Aware Extremity Detection |
DE102016210452A1 (en) | 2016-06-13 | 2017-12-14 | Conti Temic Microelectronic Gmbh | Method and apparatus for a vehicle having an emergency assistance unit |
DE112017005199T5 (en) | 2016-10-14 | 2019-07-04 | Omron Corporation | TRAVEL MODE SWITCHING, METHOD AND PROGRAM |
-
2020
- 2020-10-14 DE DE102020127049.6A patent/DE102020127049B4/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011111897A1 (en) | 2011-08-30 | 2013-02-28 | Gm Global Technology Operations, Llc | Motor vehicle, in particular passenger cars and method for controlling a motor vehicle, in particular a passenger car |
DE102014107194A1 (en) | 2014-05-22 | 2015-11-26 | Robert Bosch Automotive Steering Gmbh | Method for operating a steering system |
US20170344838A1 (en) | 2016-05-27 | 2017-11-30 | Toyota Jidosha Kabushiki Kaisha | Hierarchical Context-Aware Extremity Detection |
DE102016210452A1 (en) | 2016-06-13 | 2017-12-14 | Conti Temic Microelectronic Gmbh | Method and apparatus for a vehicle having an emergency assistance unit |
DE112017005199T5 (en) | 2016-10-14 | 2019-07-04 | Omron Corporation | TRAVEL MODE SWITCHING, METHOD AND PROGRAM |
Non-Patent Citations (2)
Title |
---|
"Hände am Lenker", https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehicles-revolution |
"Valeo lays the ground for the autonomous commercial vehicles revolution", https://www.valeo.com/en/valeo-lays-the-ground-for-the-autonomous-commercial-vehicles-revolution |
Also Published As
Publication number | Publication date |
---|---|
DE102020127049A1 (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3512754B1 (en) | Device, operating method, and electronic control unit for controlling a vehicle which can be driven in an at least partly automated manner | |
US11608088B2 (en) | Optics based detection of hands on-off and hand gesture based function selection for human driver | |
DE102013224118A1 (en) | Method and system for controlling a vehicle | |
DE102015116960A1 (en) | Trailer motion and parameter estimation system | |
DE102017205708A1 (en) | INDEPENDENT DRIVING CONTROL DEVICE | |
DE102018114607A1 (en) | Rear object approximation system of a vehicle with multiple cameras | |
DE102020127049B4 (en) | Optics-based hands-on/off determination and hand-gesture-based function selection for a human driver | |
DE102015203927A1 (en) | Trailer backup system for vehicles using gesture commands and procedures | |
DE102016101070A1 (en) | TRAILER RESET SUPPORT SYSTEM WITH ADAPTIVE STEERING ANGLE LIMITS | |
DE102019124152A1 (en) | CLUTCH SUPPORT SYSTEM | |
DE102012205416A1 (en) | Trailer curvature control for trailer backup assist | |
DE112013007403T5 (en) | Device for automatic driving | |
EP2644477A1 (en) | Assistance devices and method for operating an assistance device for controlling the driving of a traction vehicle with trailer | |
DE102019117270A1 (en) | VEHICLE CLUTCH SUPPORT SYSTEM | |
DE102015120582A1 (en) | SENSOR ERROR REDUCTION SYSTEM AND MODE MANAGEMENT | |
DE102019119159A1 (en) | CLUTCH SUPPORT SYSTEM | |
DE102020129656A1 (en) | AUTOMATED CLUTCH SYSTEM WITH VARIABLE RETURN PATHS | |
DE102015120915A1 (en) | Mitigation of input device errors and mode management | |
DE102020124985A1 (en) | DIFFERENCES BETWEEN CLOSE TRAILER AND CONNECTED TRAILER | |
DE102019127819A1 (en) | CLUTCH SUPPORT SYSTEM | |
DE102019130550A1 (en) | COMMON ACTIVATION BUTTON FOR TRAILER FUNCTIONS | |
DE102020122363A1 (en) | DETECTION OF A CONSTANT TRAILER AND RESPONSE TO IT IN A SYSTEM-ASSISTED COUPLING PROCESS | |
DE102020103099A1 (en) | AUTOMATED COUPLING SYSTEM WITH TAKEOVER AND HANDOVER OF THE STEERING | |
DE102021103652A1 (en) | TRAILER SUPPORT SYSTEM WITH DYNAMIC VEHICLE CONTROL PROCESSING | |
DE112020004946T5 (en) | RIDING MODE SHIFT DEVICE AND RIDING MODE SHIFTING METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |