DE102022109671A1 - VEHICLE OCCUPANT VIEW DETECTION - Google Patents
VEHICLE OCCUPANT VIEW DETECTION Download PDFInfo
- Publication number
- DE102022109671A1 DE102022109671A1 DE102022109671.8A DE102022109671A DE102022109671A1 DE 102022109671 A1 DE102022109671 A1 DE 102022109671A1 DE 102022109671 A DE102022109671 A DE 102022109671A DE 102022109671 A1 DE102022109671 A1 DE 102022109671A1
- Authority
- DE
- Germany
- Prior art keywords
- occupant
- vehicle
- image
- computer
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title description 2
- 230000015654 memory Effects 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims description 43
- 238000004590 computer program Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000002828 fuel tank Substances 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005226 mechanical processes and functions Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/087—Interaction between the driver and the control system where the control system corrects or modifies a request from the driver
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
Abstract
Ein Computer beinhaltet einen Prozessor und einen Speicher, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um jeweilige Wahrscheinlichkeiten einer Richtung eines Blicks eines Fahrzeuginsassen auf jeden einer Vielzahl von Punkten in einem Bild zu bestimmen, eine Blickentfernung von einer Mitte des Bildes auf Grundlage der Wahrscheinlichkeiten zu bestimmen und, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, eine manuelle Steuerung mindestens einer Fahrzeugkomponente zu unterdrücken.A computer includes a processor and a memory, the memory storing instructions executable by the processor to determine respective probabilities of a direction of a vehicle occupant's gaze at each of a plurality of points in an image, a gaze distance from a center of the To determine the image based on the probabilities and, if it is determined that the viewing distance exceeds a threshold value, to suppress manual control of at least one vehicle component.
Description
TECHNISCHES GEBIETTECHNICAL FIELD
Die Offenbarung betrifft die Blickerfassung eines Insassen in einem Fahrzeug.The disclosure relates to the gaze detection of an occupant in a vehicle.
HINTERGRUNDBACKGROUND
Während des manuellen Betriebs eines Fahrzeugs betrachtet ein Insasse eine Fahrbahn, um Objekte auf der Fahrbahn zu sehen. Zum Beispiel kann der Insasse andere Fahrzeuge, Verkehrszeichen, Fahrbahnmarkierungen usw. sehen. Während des autonomen Betriebs des Fahrzeugs kann der Insasse von der Fahrbahn wegschauen und ein Computer in dem Fahrzeug kann das Fahrzeug ohne Eingabe von dem Insassen betreiben. Das Bestimmen einer Richtung, in die der Insasse schaut, stellt ein Problem für den Computer dar.During manual operation of a vehicle, an occupant views a roadway to see objects on the roadway. For example, the occupant can see other vehicles, traffic signs, road markings, etc. During autonomous operation of the vehicle, the occupant can face away from the road and a computer in the vehicle can operate the vehicle without input from the occupant. Determining a direction the occupant is facing presents a problem for the computer.
KURZDARSTELLUNGSHORT PRESENTATION
Ein System beinhaltet einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausgeführt werden können, um jeweilige Wahrscheinlichkeiten einer Richtung eines Blicks eines Fahrzeuginsassen auf jeden einer Vielzahl von Punkten in einem Bild zu bestimmen, Bestimmen einer Blickentfernung von einer Mitte des Bildes auf Grundlage der Wahrscheinlichkeiten und, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, Unterdrücken der manuellen Steuerung von mindestens einer Fahrzeugkomponente.A system includes a computer that includes a processor and a memory, the memory storing instructions executable by the processor to determine respective probabilities of a direction of a vehicle occupant's gaze at each of a plurality of points in an image a viewing distance from a center of the image based on the probabilities and, if it is determined that the viewing distance exceeds a threshold, suppressing manual control of at least one vehicle component.
Die Anweisungen können ferner Anweisungen zum Bestimmen der Blickentfernung als eine Entfernung zwischen der Mitte des Bildes und einem Blickpunkt beinhalten, wobei der Blickpunkt eine gewichtete Summe von Koordinaten von jedem der Vielzahl von Punkten ist, wobei jeder der Vielzahl von Punkten gewichtet wird durch die jeweilige Wahrscheinlichkeit der Richtung des Blicks des Insassen zu dem jeweiligen Punkt.The instructions may further include instructions for determining the viewing distance as a distance between the center of the image and a viewpoint, the viewpoint being a weighted sum of coordinates of each of the plurality of points, each of the plurality of points being weighted by the respective probability the direction of the occupant's gaze to the respective point.
Die Mitte des Bildes kann ein Ursprung eines zweidimensionalen Koordinatensystems sein, wobei jeder der Vielzahl von Punkten kann ein Satz von Koordinaten in dem zweidimensionalen Koordinatensystem sein kann, und die Anweisungen können ferner Anweisungen zum Bestimmen eines Satzes von Koordinaten des Blickpunkts als die Summe des jeweiligen Satzes von Koordinaten von jedem der Vielzahl von Punkten multipliziert mit der jeweiligen Wahrscheinlichkeit der Richtung des Blicks des Insassen zu den jeweiligen Punkten beinhalten.The center of the image may be an origin of a two-dimensional coordinate system, each of the plurality of points may be a set of coordinates in the two-dimensional coordinate system, and the instructions may further include instructions for determining a set of coordinates of the viewpoint as the sum of the respective set of coordinates of each of the plurality of points multiplied by the respective probability of the direction of the occupant's gaze to the respective points.
Die Anweisungen können ferner Anweisungen zum Sammeln einer Vielzahl von Bildern des Insassen beinhalten, zum Bestimmen jeweiliger Blickentfernungen für jedes der Vielzahl von Bildern und zum Unterdrücken einer manuellen Steuerung der mindestens einen Fahrzeugkomponente, wenn bestimmt wird, dass die jeweiligen Blickentfernungen einer zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreitet.The instructions may further include instructions for collecting a plurality of images of the occupant, determining respective viewing distances for each of the plurality of images, and suppressing manual control of the at least one vehicle component when determining that the respective viewing distances of a second plurality of consecutive images exceeds the threshold value.
Die Anweisungen können ferner Anweisungen beinhalten, um eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu ermöglichen, wenn bestimmt wird, dass eine Blickentfernung eines ersten Bildes den Schwellenwert überschreitet und eine Blickentfernung eines zweiten Bildes nachfolgend auf das erste Bild unter dem Schwellenwert ist.The instructions may further include instructions to enable manual control of the at least one vehicle component when it is determined that a viewing distance of a first image exceeds the threshold and a viewing distance of a second image subsequent to the first image is below the threshold.
Die Anweisungen können ferner Anweisungen beinhalten, um eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken, wenn bestimmt wird, dass ein Mittel der Blickentfernungen der zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreitet.The instructions may further include instructions to suppress manual control of the at least one vehicle component when it is determined that an average of the viewing distances of the second plurality of consecutive images exceeds the threshold.
Die Anweisungen können ferner Anweisungen beinhalten, um das Bild in ein maschinelles Lernprogramm einzugeben, das dazu trainiert ist, die jeweiligen Wahrscheinlichkeiten der Richtung des Blicks des Insassen auf jeden der Vielzahl von Punkten auszugeben.The instructions may further include instructions to input the image into a machine learning program trained to output the respective probabilities of the direction of the occupant's gaze at each of the plurality of points.
Das maschinelle Lernprogramm kann dazu trainiert werden, eine Vielzahl von Orientierungspunkten eines Gesichts des Insassen zu identifizieren und die Wahrscheinlichkeiten der Richtung des Blicks des Insassen auf Grundlage von identifizierten Orientierungspunkten auszugeben.The machine learning program may be trained to identify a plurality of landmarks of an occupant's face and output probabilities of the direction of the occupant's gaze based on identified landmarks.
Die Anweisungen können ferner Anweisungen beinhalten, um einen Kreises in das Bild einzuschreiben, wobei der Kreis einen Mittelpunkt in der Mitte des Bildes aufweist, wobei sich jeder der Vielzahl von Punkten innerhalb eines Entfernungsschwellenwerts des Kreises befindet.The instructions may further include instructions to inscribe a circle in the image, the circle having a center point at the center of the image, each of the plurality of points being within a distance threshold of the circle.
Die Anweisungen können ferner Anweisungen beinhalten, um eine Eingabe von dem Insassen anzufordern, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, und, wenn keine Eingabe von dem Insassen detektiert wird, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken.The instructions may further include instructions to request input from the occupant when determining that the viewing distance exceeds a threshold and, if no input from the occupant is detected, to suppress manual control of the at least one vehicle component.
Die Anweisungen können ferner Anweisungen beinhalten, um das Fahrzeug in einen vollständig autonomen Modus zu überführen, wenn bestimmt wird, dass die Blickentfernung den Schwellenwert überschreitet.The instructions may further include instructions to transition the vehicle to a fully autonomous mode when it is determined that the viewing distance exceeds the threshold.
Die Anweisungen können ferner Anweisungen beinhalten, um die Richtung des Blicks des Insassen auf Grundlage von erkannten Orientierungspunkten eines Gesichts des Insassen zu bestimmen.The instructions may further include instructions to determine the direction of the occupant's gaze based on detected landmarks of an occupant's face.
Die Anweisungen können ferner Anweisungen beinhalten, um eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken, wenn bestimmt wird, dass die Blickentfernung den Schwellenwert überschreitet für eine abgelaufene Zeit, die einen Zeitschwellenwert überschreitet.The instructions may further include instructions to inhibit manual control of the at least one vehicle component when it is determined that the viewing distance exceeds the threshold for an elapsed time that exceeds a time threshold.
Jeder der Vielzahl von Punkten kann an einer jeweiligen Stelle in einem Innenraum des Fahrzeugs angeordnet sein, die der Insasse von einer Fahrbahn wegschaut, wenn der Insasse auf die Stelle blickt.Each of the plurality of points may be located at a respective location in an interior of the vehicle that the occupant faces away from a roadway when the occupant looks at the location.
Ein Verfahren beinhaltet das Bestimmen jeweiliger Wahrscheinlichkeiten einer Richtung eines Blicks eines Fahrzeuginsassen auf jeden einer Vielzahl von Punkten in einem Bild, Bestimmen einer Blickentfernung von einer Mitte des Bildes auf Grundlage der Wahrscheinlichkeiten und, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, Unterdrücken der manuellen Steuerung von mindestens einer Fahrzeugkomponente.A method includes determining respective probabilities of a direction of a vehicle occupant's gaze at each of a plurality of points in an image, determining a gaze distance from a center of the image based on the probabilities, and if the gaze distance is determined to exceed a threshold, suppressing the manual control of at least one vehicle component.
Das Verfahren kann ferner einschließen, die Blickentfernung als eine Entfernung zwischen der Mitte des Bildes und einem Blickpunkt zu bestimmen, wobei der Blickpunkt eine gewichtete Summe von Koordinaten von jedem der Vielzahl von Punkten ist, wobei jeder der Vielzahl von Punkten gewichtet wird durch die jeweilige Wahrscheinlichkeit der Richtung des Blicks des Insassen zu dem jeweiligen Punkt.The method may further include determining the viewing distance as a distance between the center of the image and a viewpoint, the viewpoint being a weighted sum of coordinates of each of the plurality of points, each of the plurality of points being weighted by the respective probability the direction of the occupant's gaze to the respective point.
Die Mitte des Bildes kann ein Ursprung eines zweidimensionalen Koordinatensystems sein, wobei jeder der Vielzahl von Punkten ein Satz von Koordinaten in dem zweidimensionalen Koordinatensystem sein kann, und das Verfahren kann ferner das Bestimmen eines Satzes von Koordinaten des Blickpunkts als die Summe des jeweiligen Satzes von Koordinaten von jedem der Vielzahl von Punkten multipliziert mit der jeweiligen Wahrscheinlichkeit der Richtung des Blicks des Insassen zu den jeweiligen Punkten beinhalten.The center of the image may be an origin of a two-dimensional coordinate system, where each of the plurality of points may be a set of coordinates in the two-dimensional coordinate system, and the method may further include determining a set of coordinates of the viewpoint as the sum of the respective set of coordinates from each of the plurality of points multiplied by the respective probability of the direction of the occupant's gaze to the respective points.
Das Verfahren kann ferner Sammeln einer Vielzahl von Bildern des Insassen beinhalten, zum Bestimmen jeweiliger Blickentfernungen für jedes der Vielzahl von Bildern und zum Unterdrücken einer manuellen Steuerung der mindestens einen Fahrzeugkomponente, wenn bestimmt wird, dass die jeweiligen Blickentfernungen einer zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreitet.The method may further include collecting a plurality of images of the occupant, determining respective viewing distances for each of the plurality of images, and suppressing manual control of the at least one vehicle component when determining that the respective viewing distances of a second plurality of consecutive images meet the threshold exceeds.
Das Verfahren kann ferner beinhalten, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu ermöglichen, wenn bestimmt wird, dass eine Blickentfernung eines ersten Bildes den Schwellenwert überschreitet und eine Blickentfernung eines zweiten Bildes nachfolgend auf das erste Bild unter dem Schwellenwert ist.The method may further include enabling manual control of the at least one vehicle component when it is determined that a viewing distance of a first image exceeds the threshold and a viewing distance of a second image subsequent to the first image is below the threshold.
Das Verfahren kann ferner beinhalten, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken, wenn bestimmt wird, dass ein Mittel der Blickentfernungen der zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreitet.The method may further include suppressing manual control of the at least one vehicle component when it is determined that an average of the viewing distances of the second plurality of consecutive images exceeds the threshold.
Die Verfahren kann ferner beinhalten, das Bild in ein maschinelles Lernprogramm einzugeben, das dazu trainiert ist, die jeweiligen Wahrscheinlichkeiten der Richtung des Blicks des Insassen auf jeden der Vielzahl von Punkten auszugeben.The method may further include inputting the image into a machine learning program trained to output the respective probabilities of the direction of the occupant's gaze at each of the plurality of points.
Das Verfahren kann ferner beinhalten, einen Kreises in das Bild einzuschreiben, wobei der Kreis einen Mittelpunkt in der Mitte des Bildes aufweist, wobei sich jeder der Vielzahl von Punkten innerhalb eines Entfernungsschwellenwerts des Kreises befindet.The method may further include inscribing a circle in the image, the circle having a center at the center of the image, each of the plurality of points being within a distance threshold of the circle.
Das Verfahren kann ferner beinhalten, eine Eingabe von dem Insassen anzufordern, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, und, wenn keine Eingabe von dem Insassen detektiert wird, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken.The method may further include requesting input from the occupant when determining that the viewing distance exceeds a threshold and, if no input from the occupant is detected, suppressing manual control of the at least one vehicle component.
Das Verfahren kann ferner beinhalten, das Fahrzeug in einen vollständig autonomen Modus zu überführen, wenn bestimmt wird, dass die Blickentfernung den Schwellenwert überschreitet. Das Verfahren kann ferner beinhalten, die Richtung des Blicks des Insassen auf Grundlage von erkannten Orientierungspunkten eines Gesichts des Insassen zu bestimmen.The method may further include transitioning the vehicle into a fully autonomous mode when it is determined that the viewing distance exceeds the threshold. The method may further include determining the direction of the occupant's gaze based on detected landmarks of an occupant's face.
Das Verfahren kann ferner beinhalten, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken, wenn bestimmt wird, dass die Blickentfernung den Schwellenwert überschreitet für eine abgelaufene Zeit, die einen Zeitschwellenwert überschreitet.The method may further include suppressing manual control of the at least one vehicle component when it is determined that the viewing distance exceeds the threshold for an elapsed time that exceeds a time threshold.
Ferner wird eine Rechenvorrichtung offenbart, die dazu programmiert ist, beliebige der vorstehenden Verfahrensschritte auszuführen. Darüber hinaus wird ein Fahrzeug offenbart, das die Rechenvorrichtung umfasst. Darüber hinaus wird ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausgeführt werden können, um beliebige der vorstehenden Verfahrensschritte auszuführen.Further disclosed is a computing device programmed to perform any of the above method steps. In addition, a vehicle that includes the computing device is disclosed. Additionally, a computer program product is disclosed that includes a computer-readable medium storing instructions executable by a computer processor to perform any of the foregoing method steps.
Um zu bestimmen, ob ein Insasse, der ein Fahrzeug bedient, von einer Fahrbahn wegschaut, kann ein Computer Bilddaten des Insassen sammeln. Der Computer kann eine Blickrichtung des Insassen unter Verwendung eines maschinellen Lernprogramms identifizieren, das dazu trainiert ist, Orientierungspunkte eines Gesichts des Insassen zu identifizieren und eine Richtung auszugeben, in die der Insasse schaut. Der Computer kann die Blickrichtung auf Grundlage von Wahrscheinlichkeiten bestimmen, dass der Insasse auf jede von einer Vielzahl von Positionen in einem Bild schaut. Wenn die Blickrichtung angibt, dass der Insasse von der Fahrbahn wegschaut, z. B. zu einer anderen Stelle in dem Fahrzeug, kann der Computer den Betrieb einer oder mehrerer Fahrzeugkomponenten in einen autonomen Modus überführen. Das heil t, wenn die Bilddaten angeben, dass der Insasse nicht auf die Fahrbahn schaut, kann der Computer das Fahrzeug autonom betreiben.To determine whether an occupant operating a vehicle is looking away from a roadway, a computer may collect image data of the occupant. The computer may identify a direction of gaze of the occupant using a machine learning program trained to identify landmarks of a face of the occupant and output a direction in which the occupant is looking. The computer can determine the direction of gaze based on probabilities that the occupant is looking at each of a variety of positions in an image. If the line of sight indicates that the occupant is looking away from the road, e.g. B. to another location in the vehicle, the computer can convert the operation of one or more vehicle components into an autonomous mode. This means that if the image data indicates that the occupant is not looking at the road, the computer can operate the vehicle autonomously.
KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS
-
1 ist ein Blockdiagramm eines beispielhaften Systems zum Erkennen eines Blicks eines Insassen eines Fahrzeugs.1 is a block diagram of an example system for detecting a gaze from an occupant of a vehicle. -
2 ist eine Ansicht eines Innenraumes des Fahrzeugs.2 is a view of an interior of the vehicle. -
3 ist eine Ansicht des Insassen des Fahrzeugs.3 is a view of the occupant of the vehicle. -
4 ist ein Blockdiagramm eines beispielhaften Prozesses zum Erfassen des Blicks des Insassen.4 is a block diagram of an example process for capturing the occupant's gaze.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
Der Computer 110 ist im Allgemeinen zur Kommunikationen über ein Fahrzeugnetzwerk programmiert, das z. B. einen herkömmlichen Fahrzeugkommunikationsbus, wie etwa einen CAN-Bus, einen LIN-Bus usw. und/oder andere drahtgebundene und/oder drahtlose Techniken, z. B. Ethernet, WIFI usw., beinhaltet. Über das Netzwerk, den Bus und/oder die anderen drahtgebundenen oder drahtlosen Mechanismen (z. B. ein drahtgebundenes oder drahtloses lokales Netzwerk in dem Fahrzeug 105) kann der Computer 110 Mitteilungen an verschiedene Vorrichtungen in einem Fahrzeug 105 übermitteln und/oder Mitteilungen von den verschiedenen Vorrichtungen empfangen, z. B. Steuerungen, Aktoren, Sensoren usw., welche die Sensoren 115 beinhalten. Alternativ oder zusätzlich kann in Fällen, bei denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugnetzwerk zur Kommunikation zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 110 dargestellt sind. Zum Beispiel kann der Computer 110 ein generischer Computer mit einem Prozessor und einem Speicher sein, wie vorstehend beschrieben, und/oder kann eine dedizierte elektronische Schaltung beinhalten, die eine ASIC beinhaltet, die für einen bestimmten Betrieb hergestellt ist, z. B. eine ASIC zum Verarbeiten von Sensordaten und/oder Kommunizieren der Sensordaten. In einem weiteren Beispiel kann der Computer 110 eine FPGA (Field-Programmable Gate Array - feldprogrammierbare Gateanordnung) beinhalten, die eine integrierte Schaltung ist, die so hergestellt ist, dass sie von einem Benutzer konfiguriert werden kann. In der Regel wird eine Hardware-Beschreibungssprache, wie etwa VHDL (Very High Speed Integrated Circuit Hardware Description Language - Hardware-Beschreibungssprache für integrierte Schaltungen mit sehr hoher Geschwindigkeit), in der elektronischen Ausgestaltungsautomatisierung verwendet, um digitale und Mischsignal-Systeme, wie etwa FPGA und ASIC, zu beschreiben. Zum Beispiel wird eine ASIC auf Grundlage einer vor der Herstellung bereitgestellten VHDL-Programmierung hergestellt, wohingegen logische Komponenten innerhalb eines FPGA auf Grundlage der VHDL-Programmierung konfiguriert sein können, z. B. in einem Speicher gespeichert, der elektrisch mit der FPGA-Schaltung verbunden ist. In einigen Beispielen kann eine Kombination aus Prozessor(en), ASIC(s) und/oder FPGA-Schaltungen in dem Computer 110 beinhaltet sein. Des Weiteren kann der Computer 110 zum Kommunizieren mit dem Netzwerk 125 programmiert sein, das, wie nachstehend beschrieben, verschiedene drahtgebundene und/oder drahtlose Netzwerktechnologien beinhalten kann, z. B. Mobilfunk, Bluetooth®, Bluetooth® Low Energy (BLE), drahtgebundene und/oder drahtlose Paketnetzwerke usw.The
Der Speicher kann von beliebiger Art sein, z. B. Festplattenlaufwerke, Festkörperlaufwerke, Server oder beliebige flüchtige oder nichtflüchtige Medien. Der Speicher kann die von den Sensoren 115 gesendeten gesammelten Daten speichern. Der Speicher kann eine von dem Computer 110 getrennte Vorrichtung sein und der Computer 110 kann durch den Speicher gespeicherte Informationen über ein Netzwerk in dem Fahrzeug 105 abrufen, z. B. über einen CAN-Bus, ein drahtloses Netzwerk usw. Alternativ oder zusätzlich dazu kann der Speicher Teil des Computers 110 sein, z. B. als ein Speicher des Computers 110.The memory can be of any type, e.g. B. Hard drives, solid state drives, servers or any volatile or non-volatile media. The memory may store the collected data sent by the
Die Sensoren 115 können eine Reihe von Vorrichtungen beinhalten. Zum Beispiel können verschiedene Steuerungen in einem Fahrzeug 105 als Sensoren 115 betrieben werden, um Daten über das Netzwerk oder den Bus des Fahrzeugs bereitzustellen, z. B. Daten bezüglich der Geschwindigkeit, Beschleunigung und des Standortes des Fahrzeugs, des Status von Teilsystemen und/oder Komponenten usw. Ferner könnten andere Sensoren 115 Kameras, Bewegungsmelder usw. beinhalten, d. h. die Sensoren 115, um Daten zum Auswerten einer Position einer Komponente, Auswerten einer Neigung einer Fahrbahn usw. bereitzustellen. Die Sensoren 115 könnten aul erdem ohne Einschränkung Kurzstreckenradar, Langstreckenradar, LIDAR und/oder Ultraschallwandler beinhalten.The
Die gesammelten Daten können eine Vielzahl von Daten beinhalten, die in einem Fahrzeug 105 gesammelt wurden. Beispiele für gesammelte Daten sind vorstehend bereitgestellt und darüber hinaus werden Daten im Allgemeinen unter Verwendung eines oder mehrerer Sensoren 115 gesammelt und können zusätzlich Daten beinhalten, die anhand dieser in dem Computer 110 und/oder auf dem Server 130 berechnet werden. Im Allgemeinen können gesammelte Daten beliebige Daten beinhalten, die durch die Sensoren 115 zusammengetragen und/oder anhand solcher Daten berechnet werden können.The data collected may include a variety of data collected in a
Das Fahrzeug 105 kann eine Vielzahl von Fahrzeugkomponenten 120 beinhalten. In diesem Zusammenhang beinhaltet jede Fahrzeugkomponente 120 eine oder mehrere Hardwarekomponenten, die dazu ausgelegt sind, eine mechanische Funktion oder einen mechanischen Betrieb durchzuführen - wie etwa das Bewegen des Fahrzeugs 105, das Abbremsen oder Anhalten des Fahrzeugs 105, das Lenken des Fahrzeugs 105 usw. Nichteinschränkende Beispiele für die Komponenten 120 beinhalten eine Antriebskomponente (die z. B. eine Brennkraftmaschine und/oder einen Elektromotor usw. beinhaltet), eine Getriebekomponente, eine Lenkbaugruppe (die z. B. eines oder mehrere von einem Lenkrad, einer Zahnstange usw. beinhalten kann), eine Bremskomponente, eine Einparkunterstützungskomponente, eine Komponente für adaptive Geschwindigkeitsregelung, eine Komponente für adaptives Lenken, einen bewegbaren Sitz und dergleichen. Die Komponenten 120 können Rechenvorrichtungen beinhalten, z. B. elektronische Steuereinheiten (electric control units - ECUs) oder dergleichen und/oder Rechenvorrichtungen, wie etwa vorstehend in Bezug auf den Computer 110 beschrieben, und die gleichermal en über ein Fahrzeugnetzwerk kommunizieren.The
Ein Fahrzeug 105 kann in einem vollständig autonomen Modus, einem halbautonomen Modus oder einem nichtautonomen Modus betrieben werden. Ein vollständig autonomer Modus ist als einer definiert, in dem jedes von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder eine Brennkraftmaschine beinhaltet), der Bremsung und der Lenkung des Fahrzeugs durch den Computer 110 gesteuert wird, d. h. in „autonomem Betrieb“. Ein halbautonomer Modus ist einer, in dem mindestens eines von dem Antrieb (typischerweise über einen Antriebsstrang, der einen Elektromotor und/oder eine Brennkraftmaschine beinhaltet), der Bremsung und der Lenkung des Fahrzeugs mindestens teilweise durch den Computer 110 im Gegensatz zu einem menschlichen Bediener in „manueller“ Steuerung gesteuert wird. In einem nichtautonomen Modus, d. h. einem manuellen Modus, werden Antrieb, Bremsung und Lenkung des Fahrzeugs durch den menschlichen Bediener gesteuert. Das System 100 kann ferner ein Netzwerk 125 beinhalten, das mit einem Server 130 verbunden ist. Der Computer 110 kann ferner dazu programmiert sein, über das Netzwerk 125 mit einem oder mehreren entfernten Orten, wie etwa dem Server 130, zu kommunizieren, wobei ein solcher entfernter Ort möglicherweise einen Prozessor und einen Speicher beinhaltet. Das Netzwerk 125 stellt einen oder mehrere Mechanismen dar, durch welche ein Fahrzeugcomputer 110 mit einem entfernten Server 130 kommunizieren kann. Dementsprechend kann das Netzwerk 125 einer oder mehrere von verschiedenen drahtgebundenen oder drahtlosen Kommunikationsmechanismen sein, die eine beliebige gewünschte Kombination aus drahtgebundenen (z. B. Kabel und Faser) und/oder drahtlosen (z. B. Mobilfunk, drahtlos, Satellit, Mikrowelle und Funkfrequenz) Kommunikationsmechanismen und eine beliebige gewünschte Netzwerktopologie (oder Topologien, wenn mehrere Kommunikationsmechanismen genutzt werden) beinhalten. Beispielhafte Kommunikationsnetzwerke beinhalten drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von Bluetooth®, Bluetooth® Low Energy (BLE), IEEE 802.11, Fahrzeug-zu-Fahrzeug (V2V), wie etwa dedizierte Nahbereichskommunikation (Dedicated Sort Range Communications - DSRC) usw.), lokale Netzwerke (local area network - LAN) und/oder Weitverkehrsnetzwerke (wide area networks - WAN), die das Internet beinhalten, die Datenkommunikationsdienste bereitstellen.A
Der Innenraum 200 des Fahrzeugs 105 kann eine Vielzahl von Stellen beinhalten, zu denen der Insasse blicken kann, für die nachstehend nicht einschränkende Beispiele bereitgestellt sind. Der Computer 110 kann bestimmen, ob der Insasse in Richtung, d. h. auf eine der Stellen schaut, und auf Grundlage der identifizierten Stelle kann der Computer 110 eine oder mehrere Komponenten 120 des Fahrzeugs 105 in den autonomen Betrieb überführen. Das heil t, wenn der Insasse auf bestimmte Stellen schaut, kann der Insasse von der Fahrbahn 205 wegschauen. Die Stellen beinhalten die Fahrbahn 205. Wenn der Insasse auf die Fahrbahn 205 schaut, kann der Insasse das Fahrzeug 105 im manuellen Modus oder im halbautonomen Modus betreiben. Das heil t, wenn der Insasse auf die Fahrbahn 205 schaut, kann der Insasse Objekte auf der Fahrbahn 205 sehen, die den Betrieb des Fahrzeugs 105 beeinflussen können. Zum Beispiel kann der Insasse ein Zielfahrzeug sehen, das sich dem Fahrzeug 105 nähert, und der Insasse kann eine Bremse betätigen und/oder ein Lenkrad drehen, um dem Zielfahrzeug auszuweichen. Die Stellen können einen Rückspiegel 210 beinhalten. Der Rückspiegel 210 reflektiert Licht, das durch ein Heckfenster des Fahrzeugs 105 fällt. Das heil t, wenn der Insasse in den Rückspiegel 210 schaut, kann der Insasse Objekte hinter dem Fahrzeug 105 sehen. Wenn der Insasse in den Rückspiegel 210 schaut, kann der Insasse von der Fahrbahn 205 wegschauen. Die Stellen können ein Armaturenbrett 215 beinhalten. Das Armaturenbrett 215 zeigt Informationen über Fahrzeugkomponenten 120 und den Betrieb an. Zum Beispiel kann das Armaturenbrett 215 eine aktuelle Geschwindigkeit des Fahrzeugs 105 anzeigen. In einem anderen Beispiel kann das Armaturenbrett eine Kraftstoffmenge in einem Kraftstofftank des Fahrzeugs 105 anzeigen. Wenn der Insasse auf das Armaturenbrett 215 schaut, kann der Insasse von der Fahrbahn 205 wegschauen.The
Die Stellen können eine Mittelkonsole 220 beinhalten. Die Mittelkonsole 220 kann ein oder mehrere Objekte beinhalten, mit denen der Insasse interagieren kann. Zum Beispiel kann die Mittelkonsole 220 ein Klimasteuerungsteilsystem beinhalten und der Insasse kann der Mittelkonsole 220 eine Eingabe bereitstellen, um eine Temperatur des Innenraums 200 des Fahrzeugs 105 einzustellen. In einem anderen Beispiel kann die Mittelkonsole 220 ein Unterhaltungsteilsystem beinhalten, und der Insasse kann der Mittelkonsole 220 eine Eingabe bereitstellen, um z. B. eine Lautstärke eines Lautsprechers einzustellen. Wenn der Insasse auf die Mittelkonsole 220 schaut, kann der Insasse von der Fahrbahn 205 wegschauen.The locations may include a
Die Stellen können ein erstes Seitenfenster 225 und ein zweites Seitenfenster 230 beinhalten. Das erste Seitenfenster 225 und das zweite Seitenfenster 230 ermöglichen es dem Insassen, Objekte auf beiden Seiten des Fahrzeugs 105 zu sehen. Das heil t, das erste und das zweite Seitenfenster 225, 230 ermöglichen es dem Insassen, seitlich in Bezug auf die Vorwärtsbewegung des Fahrzeugs 105 zu sehen. In dem Beispiel aus
Der Computer 110 kann einen Blick des Insassen in dem Bild 300 identifizieren. Der „Blick“ des Insassen ist eine Linie, entlang derer der Insasse die Umgebung um den Insassen ansieht, d. h., sie sieht oder betrachtet. In dem Bild 300 ist ein „Blickpunkt“ 315 ein Pixel oder ein Satz von Pixeln, bei dem der Blick des Insassen eine durch das Bild 300 definierte Ebene schneidet. Das heil t, der Blickpunkt 315 gibt einen Abschnitt eines Sichtfelds der Kamera 115 an, den der Insasse sieht. Eine „Blickrichtung“ ist eine Richtung, in die der Insasse relativ zu dem Ursprungspunkt 305 blickt, d. h. die Linie, die den Blick definiert.The
Um den Blickpunkt 315 zu bestimmen, kann der Computer 110 eine Wahrscheinlichkeit bestimmen, dass die Blickrichtung in Richtung einer der vorstehend beschriebenen und in
Der Computer 110 kann das Gesicht des Insassen mit einem herkömmlichen Programm zum maschinellen Lernen von Gesichtserkennung identifizieren, wie etwa PRNet und Dlib. Das Programm zum maschinellen Lernen von Gesichtserkennung kann dazu trainiert werden, eine Vielzahl von Orientierungspunkten eines Gesichts des Insassen aus einem Eingabebild 300 auszugeben. Ein „Orientierungspunkt“ ist ein Punkt von Interesse in einem Bild 300, den das Programm zum maschinellen Lernen identifiziert. Zum Beispiel können die Orientierungspunkte eines Gesichts in einem Bild 300 Punkte auf dem Gesicht sein, die die Form des Gesichts definieren. Das Programm zum maschinellen Lernen kann an Referenzbildern 300 trainiert werden, in denen die Orientierungspunkte mit Anmerkungen versehen sind. Die Referenzbilder 300 werden in das Programm zum maschinellen Lernen eingegeben und eine Kostenfunktion des Programms zum maschinellen Lernen wird reduziert, bis eine Differenz zwischen den durch das Programm zum maschinellen Lernen ausgegebenen Orientierungspunkten und den mit Anmerkungen versehenen Orientierungspunkten unter einem vorbestimmten Schwellenwert ist. Somit kann der Computer 110 die Orientierungspunkte des Gesichts des Insassen aus einem Eingabebild 300 ausgeben.The
Da der Insasse eine der Stellen möglicherweise nicht direkt ansieht (das heil t, der Blickpunkt 315 befindet sich nicht auf dem Kreis 310), kann der Computer 110 die Orientierungspunkte in ein herkömmliches Blickverfolgungs- oder Blickklassifizierungsprogramm eingeben, wie etwa PointNet, um die jeweiligen Wahrscheinlichkeiten zu bestimmen, dass die Blickrichtung des Insassen zu jeder Stelle ist. Das heil t, nach dem Identifizieren der Orientierungspunkte aus dem Programm zum maschinellen Lernen zur Gesichtserkennung kann der Computer 110 das Bild 300 mit den identifizierten Orientierungspunkten in das Blickverfolgungsprogramm eingeben. Das Blickverfolgungsprogramm kann ein Deep-Learning-Programm sein, das jeweilige Wahrscheinlichkeiten dafür ausgibt, dass die Blickrichtung jeder der Stellenpunkte in dem Bild 300 zugewandt ist. Das heil t, das Blickverfolgungsprogramm verwendet eine dreidimensionale Objektteilsegmentierung, um Objekten in dem Bild 300 Klassifizierungen zuzuweisen und auf Grundlage der Klassifizierungen eine Wahrscheinlichkeit zu bestimmen, dass die Orientierungspunkte angeben, dass die Blickrichtung zu jedem Stellenpunkt führt. Das Blickverfolgungsprogramm kann trainiert werden, indem Referenzbilder 300 mit mit Anmerkunen versehenen Orientierungspunkten und mit Anmerkungen versehenen Wahrscheinlichkeiten für jeden Stellenpunkt eingegeben werden und eine Kostenfunktion reduziert wird, bis eine Differenz zwischen den ausgegebenen Wahrscheinlichkeiten und den mit Anmerkungen versehenen Wahrscheinlichkeiten unter einem vorbestimmten Schwellenwert liegt. Der Computer 110 kann somit eine jeweilige Wahrscheinlichkeit bestimmen, dass der Insasse auf jede Stelle blickt.Since the occupant may not be looking directly at one of the locations (that is, the
Der Computer 110 kann eine Blickentfernung D von dem Ursprungspunkt 305 des Bildes 300 auf Grundlage der Wahrscheinlichkeiten bestimmen. Die „Blickentfernung“ ist eine euklidische Entfernung von dem Blickpunkt 315 zu dem Ursprungspunkt 305 des Bildes 300. Das heil t, die Blickentfernung D kann eine gewichtete Summe von Koordinaten jedes der Vielzahl von Stellenpunkten sein, wobei jeder Stellenpunkt durch seine jeweilige Wahrscheinlichkeit der Rrichtung des Blicks des Insassen zu dem Stellenpunkt gewichtet wird:
Der Computer 110 kann die manuelle Steuerung von mindestens einer Fahrzeugkomponente 120 unterdrücken, wenn bestimmt wird, dass die Blickentfernung D einen Entfernungsschwellenwert überschreitet. Die manuelle Steuerung zu „unterdrücken“ bedeutet, eine manuelle Eingabe in die Komponente 120 zu ignorieren und nur Eingaben von dem Computer 110 anzunehmen. Zum Beispiel überführt der Computer 110 das Fahrzeug 105 in einen vollständig autonomen Modus, wenn bestimmt wird, dass die Blickentfernung D den Schwellenwert oder den zweiten Schwellenwert überschreitet. In einem anderen Beispiel kann der Computer 110 weniger als alle Komponenten 120 auf autonome Steuerung überführen. Die Entfernungsschwellenwerte können auf Grundlage von empirischen Tests von Insassen in Testfahrzeugen bestimmt werden, die auf spezifische Stellen blicken, und Reaktionszeiten für die Insassen testen, um den Komponenten 120 Eingaben bereitzustellen, wenn sie von der Fahrbahn wegschauen. Einer der Entfernungsschwellenwerte kann eine maximale Blickentfernung sein, bei der der Insasse den Komponenten 120 innerhalb eines festgelegten Zeitraums, z. B. 2 Sekunden, eine Eingabe bereitstellen kann. Ein anderer Entfernungsschwellenwert kann eine minimale Blickentfernung sein, bei der der Insasse den Komponenten 120 innerhalb des festgelegten Zeitraums, eine manuelle Eingabe nicht bereitstellen kann. Tabelle 2 zeigt einen beispielhaften Betrieb und eine beispielhafte Steuerung der Komponente 120 auf Grundlage der Blickentfernung D: Tabelle 2: Steuerung auf Grundlage der Blickentfernung
Alternativ oder zusätzlich kann der Computer 110 vor dem Unterdrücken der manuellen Steuerung eine Eingabe von dem Insassen anfordern, wenn bestimmt wird, dass die Blickentfernung D den Schwellenwert überschreitet. Das heil t, der Computer 110 kann dem Insassen eine Warnung oder eine Nachricht bereitstellen, die eine Eingabe von dem Insassen anfordert. Das Anfordern einer Eingabe von dem Insassen kann dem Computer 110 dabei helfen, zwischen momentanen Blicken weg von der Fahrbahn 205 und dem Blick des Insassen auf eine andere Stelle in dem Fahrzeug 105 zu unterscheiden. Die angeforderte Eingabe kann z. B. ein Sprachbefehl, eine physische Eingabe in einen Anzeigebildschirm usw. sein. Wenn keine Eingabe von dem Insassen detektiert wird, kann der Computer 110 die manuelle Steuerung unterdrücken.Alternatively or additionally, the
Der Computer 110 kann eine Vielzahl von Bildern des Insassen sammeln und jeweilige Blickentfernungen D des Insassen für jedes der Vielzahl von Bildern bestimmen. Durch Bestimmen einer Vielzahl von Blickentfernungen D kann der Computer 110 zwischen momentanen Blicken des Insassen von der Fahrbahn weg und dem Blick des Insassen auf eine andere Stelle als die Fahrbahn unterscheiden. Das heil t, der Computer 110 kann eine manuelle Steuerung erlauben, was bestimmt, dass eine Blickentfernung Deines ersten Bildes 300 den Schwellenwert überschreitet und eine Blickentfernung D eines zweiten Bildes 300 nachfolgend auf das erste Bild 300 unter dem Schwellenwert ist. Der Computer 110 kann die manuelle Steuerung von mindestens einer Fahrzeugkomponente 120 unterdrücken, wenn bestimmt wird, dass die jeweiligen Blickentfernungen D einer Vielzahl von aufeinanderfolgenden Bilern 300 den oben beschriebenen Entfernungsschwellenwert überschreitet.The
Um von momentanen Blicken des Insassen zu unterscheiden, kann der Computer 110 bestimmen, dass der Insasse von der Fahrbahn wegschaut, wenn die Blickentfernung D den Schwellenwert für eine abgelaufene Zeit überschreitet, die einen Zeitschwellenwert überschreitet. Das heil t, wenn bestimmt wird, dass die Blickentfernung D den Schwellenwert überschreitet, kann der Computer 110 einen Zeitgeber initiieren, um eine abgelaufene Zeit seit dem Erkennen, dass die Blickentfernung D den Schwellenwert überschreitet, zu messen. Der Computer 110 kann dann die manuelle Steuerung unterdrücken, wenn bestimmt wird, dass die abgelaufene Zeit den Zeitschwellenwert überschreitet.To distinguish from momentary glances of the occupant, the
Der Compter 110 unterdrückt manuelle Steuerung, wenn bestimmt wird, dass ein Mittel D der Blickentfernungen D einer Vielzahl von aufeinanderfolgenden Bildern 300 den Entfernungsschwellenwert überschreitet. Wie vorstehend beschrieben, kann ein einzelnes Bild 300 einen momentanen Blick des Insassen von der Fahrbahn weg erfassen, sodass der Computer 110 bestimmen kann, eine manuelle Steuerung auf Grundlage eines Mittelwerts
Als Nächstes bestimmt der Computer 110 in einem Block 415 jeweilige Wahrscheinlichkeiten einer Blickrichtung des Insassen auf jede einer Vielzahl von Stellen in dem Fahrzeug 105. Wie vorstehend beschrieben, kann der Insasse auf eine Stelle in dem Fahrzeug 105 blicken, die von einer Fahrbahn 205 entfernt ist. Jede Stelle kann als ein Satz von Koordinaten (x, y) in dem Bild 300 dargestellt werden. Der Computer 110 kann ein herkömmliches Blickverfolgungsprogramm, wie etwas PointNet, anwenden, um eine jeweilige Wahrscheinlichkeit bestimmen, dass der Insasse auf jede Stelle blickt.Next, in a
Als Nächstes bestimmt der Computer 110 in einem Block 420 eine Blickentfernung D auf Grundlage der Wahrscheinlichkeiten. Wie vorstehend beschrieben, kann die Blickentfernung eine Entfernung zwischen einem Ursprungspunkt 305 des Bildes 300 und einem Blickpunkt 315 sein. Der Blickpunkt 315 kann ein Satz von Koordinaten in dem Bild 300 sein, auf den der Insasse blickt. Der Computer 110 kann den Blickpunkt 315 als eine Summe der Koordinaten jeder Stelle multipliziert mit der jeweiligen Wahrscheinlichkeit bestimmen, dass der Insasse die Stelle ansieht, wie vorstehend beschrieben.Next, in a
Als Nächstes bestimmt der Computer 110 in einem Block 425, ob die Blickentfernung D einen Entfernungsschwellenwert übersteigt. Wie vorstehend beschrieben, kann der Entfernungsschwellenwert eine Blickentfernung D sein, unterhalb derer der Insasse manuelle Steuerung für die Komponenten 120 innerhalb einer spezifizierten Zeitdauer, z. B. 2 Sekunden, bereitstellen kann. Falls die Blickentfernung den Entfernungsschwellenwert überschreitet, geht der Prozess 400 in einem Block 430 weiter. Andernfalls geht der Prozess 400 in einem Block 435 weiter.Next, in a
In dem Block 430 unterdrückt der Computer 110 die manuelle Steuerung von mindestens einer Fahrzeugkomponente 120. Das heil t, der Computer 110 betreibt die Komponente 120 in einem autonomen Modus und ignoriert Eingaben von dem Insassen. Zum Beispiel kann der Computer 110 ein Lenkteilsystem zur autonomen Steuerung überführen. In einem anderen Beispiel kann der Computer 110 das Fahrzeug 105 in einem vollständig autonomen Modus betreiben.In
In dem Block 435 bestimmt der Computer 110, ob der Prozess 400 fortgesetzt werden soll. Zum Beispiel kann der Computer 110 bestimmen, das der Prozess 400 fortgesetzt werden soll, wenn sich das Fahrzeug 105 noch auf einer Route zu einem Zielort befindet. Falls der Computer 110 eine Fortsetzen bestimmt, kehrt der Prozess 400 zu Block 405 zurück. Andernfalls endet der Prozess 400.In
Hierin erörterte Rechenvorrichtungen, die den Computers 110 beinhalten, beinhalten Prozessoren und Speicher, wobei die Speicher im Allgemeinen jeweils Anweisungen beinhalten, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen vorstehend beschriebener Blöcke oder Schritte von Prozessen ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Reihe von Programmiersprachen und/oder -techniken erstellt wurden, die Folgende ohne Einschränkung, entweder allein oder in Kombination, beinhalten: Java™, C, C++, Visual Basic, Java Script, Python, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, die einen oder mehrere der in dieser Schrift beschriebenen Prozesse beinhalten. Derartige Anweisungen und andere Daten können unter Verwendung einer Reihe von computerlesbaren Medien gespeichert und übertragen werden. Eine Datei in dem Computer 110 ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium gespeichert ist, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw.Computing devices discussed herein, including
Ein computerlesbares Medium beinhaltet ein beliebiges Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer ausgelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Nichtflüchtige Medien beinhalten zum Beispiel optische oder magnetische Platten und andere Dauerspeicher. Flüchtige Medien beinhalten dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der typischerweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten beispielsweise eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Computer gelesen werden kann.A computer-readable medium includes any medium that is involved in providing data (e.g., instructions) that can be read by a computer. Such media may take many forms, including, but not limited to, non-volatile media, volatile media, etc. Non-volatile media includes, for example, optical or magnetic disks and other persistent storage devices. Volatile media includes dynamic random access memory (DRAM), which typically represents main memory. Common forms of computer-readable media include, for example, a floppy disk, a foil disk, a hard drive, a magnetic tape, any other magnetic medium, a CD-ROM, a DVD, any other optical medium, punched cards, punched tape, any other physical medium with hole patterns, a RAM, a PROM, an EPROM, a FLASH-EEPROM, any other memory chip or memory cartridge, or any other medium that can be read by a computer.
Hinsichtlich der hierin beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass, obwohl die Schritte derartiger Prozesse usw. als gemäl einer gewissen geordneten Abfolge erfolgend beschrieben worden sind, die beschriebenen Schritte bei der Ausführung derartiger Prozesse in einer Reihenfolge durchgeführt werden könnten, bei der es sich nicht um die hierin beschriebene Reihenfolge handelt. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hierin beschriebene Schritte weggelassen werden könnten. Zum Beispiel könnten in dem Prozess 400 ein oder mehrere der Schritte weggelassen werden oder könnten die Schritte in einer anderen Reihenfolge als in
Dementsprechend versteht es sich, dass die vorliegende Offenbarung, welche die vorangehende Beschreibung und die beigefügten Figuren und nachfolgenden Patentansprüche beinhaltet, veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorstehenden Beschreibung ersichtlich. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf Patentansprüche, die hier beigefügt sind und/oder in einer hierauf basierenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu welchen derartige Patentansprüche berechtigen. Es wird erwartet und ist beabsichtigt, dass es zukünftige Entwicklungen im hierin erörterten Stand der Technik geben wird und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.Accordingly, it is to be understood that the present disclosure, which includes the foregoing description and the accompanying figures and appended claims, is intended to be illustrative and not restrictive. Many embodiments and applications other than the examples provided will become apparent to those skilled in the art upon reading the foregoing description. The scope of the invention should be determined not with reference to the foregoing description, but rather with reference to claims appended herein and/or contained in a non-provisional patent application based thereon, together with the full scope of equivalents to which justify such patent claims. It is expected and intended that there will be future developments in the prior art discussed herein and that the systems and methods disclosed will be incorporated into such future embodiments. Overall, it is understood that the disclosed subject matter may be modified and varied.
Der ein Substantiv modifizierende Artikel „ein(e)“ sollte dahingehend verstanden werden, dass er eine(n) oder mehrere bezeichnet, es sei denn, es ist etwas anderes angegeben oder der Kontext erfordert etwas anderes. Der Ausdruck „basierend auf“ schließt teilweise oder vollständig basierend auf ein.The noun-modifying article “a” should be understood to mean one or more, unless otherwise specified or the context requires otherwise. The term “based on” includes based in part or in whole.
Gemäl der vorliegenden Erfindung wird ein System bereitgestellt, das einen Computer aufweist, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausgeführt werden können um: jeweilige Wahrscheinlichkeiten einer Richtung eines Blicks eines Fahrzeuginsassen auf jeden einer Vielzahl von Punkten in einem Bild zu bestimmen; eine Blickentfernung von einer Mitte des Bildes auf Grundlage der Wahrscheinlichkeiten zu bestimmen; und, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, die manuelle Steuerung von mindestens einer Fahrzeugkomponente zu unterdrücken.According to the present invention, there is provided a system comprising a computer including a processor and a memory, the memory storing instructions executable by the processor to: respective probabilities of a direction of a vehicle occupant's gaze at each of a plurality to determine points in an image; determine a viewing distance from a center of the image based on the probabilities; and, if it is determined that the viewing distance exceeds a threshold, suppress manual control of at least one vehicle component.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bestimmen der Blickentfernung als eine Entfernung zwischen der Mitte des Bildes und einem Blickpunkt, wobei der Blickpunkt eine gewichtete Summe von Koordinaten von jedem der Vielzahl von Punkten ist, wobei jeder der Vielzahl von Punkten gewichtet wird durch die jeweilige Wahrscheinlichkeit der Richtung des Blicks des Insassen zu dem jeweiligen Punkt. According to one embodiment, the instructions further include instructions for determining the gaze distance as a distance between the center of the image and a viewpoint, the gaze point is a weighted sum of coordinates of each of the plurality of points, each of the plurality of points being weighted by the respective probability of the direction of the occupant's gaze to the respective point.
Gemäl einer Ausführungsform ist die Mitte des Bildes ein Ursprung eines zweidimensionalen Koordinatensystems, wobei jeder der Vielzahl von Punkten ein Satz von Koordinaten in dem zweidimensionalen Koordinatensystem ist, und die Anweisungen können ferner Anweisungen zum Bestimmen eines Satzes von Koordinaten des Blickpunkts als die Summe des jeweiligen Satzes von Koordinaten von jedem der Vielzahl von Punkten multipliziert mit der jeweiligen Wahrscheinlichkeit der Richtung des Blicks des Insassen zu den jeweiligen Punkten beinhalten.According to one embodiment, the center of the image is an origin of a two-dimensional coordinate system, each of the plurality of points being a set of coordinates in the two-dimensional coordinate system, and the instructions may further include instructions for determining a set of coordinates of the viewpoint as the sum of the respective set of coordinates of each of the plurality of points multiplied by the respective probability of the direction of the occupant's gaze to the respective points.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Sammeln einer Vielzahl von Bildern des Insassen, zum Bestimmen jeweiliger Blickentfernungen für jedes der Vielzahl von Bildern und zum Unterdrücken einer manuellen Steuerung der mindestens einen Fahrzeugkomponente, wenn bestimmt wird, dass die jeweiligen Blickentfernungen einer zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreiten.According to one embodiment, the instructions further include instructions for collecting a plurality of images of the occupant, determining respective viewing distances for each of the plurality of images, and suppressing manual control of the at least one vehicle component when determining that the respective viewing distances of a second plurality of consecutive images exceed the threshold.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu ermöglichen, wenn bestimmt wird, dass eine Blickentfernung eines ersten Bildes den Schwellenwert überschreitet und eine Blickentfernung eines zweiten Bildes nachfolgend auf das erste Bild unter dem Schwellenwert ist.According to one embodiment, the instructions further include instructions to enable manual control of the at least one vehicle component when it is determined that a viewing distance of a first image exceeds the threshold and a viewing distance of a second image subsequent to the first image is below the threshold.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken, wenn bestimmt wird, dass ein Mittel der Blickentfernungen der zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreitet.According to one embodiment, the instructions further include instructions to suppress manual control of the at least one vehicle component when it is determined that an average of the viewing distances of the second plurality of consecutive images exceeds the threshold.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um das Bild in ein maschinelles Lernprogramm einzugeben, das dazu trainiert ist, die jeweiligen Wahrscheinlichkeiten der Richtung des Blicks des Insassen auf jeden der Vielzahl von Punkten auszugeben.According to one embodiment, the instructions further include instructions to input the image into a machine learning program trained to output the respective probabilities of the direction of the occupant's gaze at each of the plurality of points.
Gemäl einer Ausführungsform ist das maschinelle Lernprogramm dazu trainiert, eine Vielzahl von Orientierungspunkten eines Gesichts des Insassen zu identifizieren und die Wahrscheinlichkeiten der Richtung des Blicks des Insassen auf Grundlage von identifizierten Orientierungspunkten auszugeben.According to one embodiment, the machine learning program is trained to identify a plurality of landmarks of an occupant's face and output probabilities of the direction of the occupant's gaze based on identified landmarks.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um einen Kreises in das Bild einzuschreiben, wobei der Kreis einen Mittelpunkt in der Mitte des Bildes aufweist, wobei sich jeder der Vielzahl von Punkten innerhalb eines Entfernungsschwellenwerts des Kreises befindet.According to one embodiment, the instructions further include instructions to inscribe a circle in the image, the circle having a center at the center of the image, each of the plurality of points being within a distance threshold of the circle.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um eine Eingabe von dem Insassen anzufordern, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, und, wenn keine Eingabe von dem Insassen detektiert wird, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken.According to one embodiment, the instructions further include instructions to request input from the occupant when it is determined that the viewing distance exceeds a threshold and, if no input from the occupant is detected, to suppress manual control of the at least one vehicle component.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um das Fahrzeug in einen vollständig autonomen Modus zu überführen, wenn bestimmt wird, dass die Blickentfernung den Schwellenwert überschreitet.According to one embodiment, the instructions further include instructions to transition the vehicle to a fully autonomous mode when it is determined that the viewing distance exceeds the threshold.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um die Richtung des Blicks des Insassen auf Grundlage von erkannten Orientierungspunkten eines Gesichts des Insassen zu bestimmen.According to one embodiment, the instructions further include instructions to determine the direction of the occupant's gaze based on detected landmarks of an occupant's face.
Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken, wenn bestimmt wird, dass die Blickentfernung den Schwellenwert überschreitet für eine abgelaufene Zeit, die einen Zeitschwellenwert überschreitet.According to one embodiment, the instructions further include instructions to suppress manual control of the at least one vehicle component when it is determined that the viewing distance exceeds the threshold for an elapsed time that exceeds a time threshold.
Gemäl einer Ausführungsform ist jeder der Vielzahl von Punkten an einer jeweiligen Stelle in einem Innenraum des Fahrzeugs angeordnet, die der Insasse von einer Fahrbahn wegschaut, wenn der Insasse auf die Stelle blickt.According to one embodiment, each of the plurality of points is arranged at a respective location in an interior of the vehicle that the occupant looks away from a roadway when the occupant looks at the location.
Gemäl der vorliegenden Erfindung beinhaltet ein Verfahren: das Bestimmen jeweiliger Wahrscheinlichkeiten einer Richtung eines Blicks eines Fahrzeuginsassen auf jeden einer Vielzahl von Punkten in einem Bild; das Bestimmen einer Blickentfernung von einer Mitte des Bildes auf Grundlage der Wahrscheinlichkeiten; und, wenn bestimmt wird, dass die Blickentfernung einen Schwellenwert überschreitet, Unterdrücken der manuellen Steuerung von mindestens einer Fahrzeugkomponente.According to the present invention, a method includes: determining respective probabilities of a direction of a vehicle occupant's gaze at each of a plurality of points in an image; determining a viewing distance from a center of the image based on the probabilities; and, if it is determined that the viewing distance exceeds a threshold, inhibiting manual control of at least one vehicle component.
In einem Aspekt der Erfindung beinhaltet das Verfahren, die Blickentfernung als eine Entfernung zwischen der Mitte des Bildes und einem Blickpunkt zu bestimmen, wobei der Blickpunkt eine gewichtete Summe von Koordinaten von jedem der Vielzahl von Punkten ist, wobei jeder der Vielzahl von Punkten gewichtet wird durch die jeweilige Wahrscheinlichkeit der Richtung des Blicks des Insassen zu dem jeweiligen Punkt.In one aspect of the invention, the method includes determining the viewing distance as a distance between the center of the image and a viewpoint, the viewpoint being a weighted sum of coordinates of each of the plurality of points, each of the plurality of points being weighted by the respective probability of the direction of the occupant's gaze to the respective point.
In einem Aspekt der Erfindung ist die Mitte des Bildes ein Ursprung eines zweidimensionalen Koordinatensystems, wobei jeder der Vielzahl von Punkten ein Satz von Koordinaten in dem zweidimensionalen Koordinatensystem ist, und das Verfahren beinhaltet ferner das Bestimmen eines Satzes von Koordinaten des Blickpunkts als die Summe des jeweiligen Satzes von Koordinaten von jedem der Vielzahl von Punkten multipliziert mit der jeweiligen Wahrscheinlichkeit der Richtung des Blicks des Insassen zu den jeweiligen Punkten.In one aspect of the invention, the center of the image is an origin of a two-dimensional coordinate system, each of the plurality of points being a set of coordinates in the two-dimensional coordinate system, and the method further includes determining a set of coordinates of the viewpoint as the sum of each Set of coordinates of each of the plurality of points multiplied by the respective probability of the direction of the occupant's gaze to the respective points.
In einem Aspekt der Erfindung beinhaltet das Verfahren ferner Sammeln einer Vielzahl von Bildern des Insassen, zum Bestimmen jeweiliger Blickentfernungen für jedes der Vielzahl von Bildern und zum Unterdrücken einer manuellen Steuerung der mindestens einen Fahrzeugkomponente, wenn bestimmt wird, dass die jeweiligen Blickentfernungen einer zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreiten.In one aspect of the invention, the method further includes collecting a plurality of images of the occupant, determining respective viewing distances for each of the plurality of images, and suppressing manual control of the at least one vehicle component when determining that the respective viewing distances of a second plurality of consecutive images exceed the threshold.
In einem Aspekt der Erfindung beinhatet das Verfahren ferner, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu ermöglichen, wenn bestimmt wird, dass eine Blickentfernung eines ersten Bildes den Schwellenwert überschreitet und eine Blickentfernung eines zweiten Bildes nachfolgend auf das erste Bild unter dem Schwellenwert ist.In one aspect of the invention, the method further includes enabling manual control of the at least one vehicle component when it is determined that a viewing distance of a first image exceeds the threshold and a viewing distance of a second image subsequent to the first image is below the threshold.
In einem Aspekt der Erfindung beinhaltet das Verfahren ferner, eine manuelle Steuerung der mindestens einen Fahrzeugkomponente zu unterdrücken, wenn bestimmt wird, dass ein Mittel der Blickentfernungen der zweiten Vielzahl von aufeinanderfolgenden Bildern den Schwellenwert überschreitet.In one aspect of the invention, the method further includes suppressing manual control of the at least one vehicle component when it is determined that an average of the viewing distances of the second plurality of consecutive images exceeds the threshold.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022109671.8A DE102022109671A1 (en) | 2022-04-21 | 2022-04-21 | VEHICLE OCCUPANT VIEW DETECTION |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022109671.8A DE102022109671A1 (en) | 2022-04-21 | 2022-04-21 | VEHICLE OCCUPANT VIEW DETECTION |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022109671A1 true DE102022109671A1 (en) | 2023-10-26 |
Family
ID=88238573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022109671.8A Pending DE102022109671A1 (en) | 2022-04-21 | 2022-04-21 | VEHICLE OCCUPANT VIEW DETECTION |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022109671A1 (en) |
-
2022
- 2022-04-21 DE DE102022109671.8A patent/DE102022109671A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018120845B4 (en) | Method and device for monitoring an autonomous vehicle | |
DE102017120112A1 (en) | DEPTH CARE VALUATION WITH STEREO IMAGES | |
DE112018000968B4 (en) | Image display system, image display method and recording medium | |
DE112020002602T5 (en) | MULTI-OBJECT TRACKING USING CORRELATION FILTERS IN VIDEO ANALYSIS APPLICATIONS | |
DE112019000279T5 (en) | CONTROLLING AUTONOMOUS VEHICLES USING SAFE ARRIVAL TIMES | |
DE102019127058A1 (en) | VEHICLE ROUTE PLANNING | |
DE102018120841A1 (en) | METHOD AND DEVICE FOR MONITORING AN AUTONOMOUS VEHICLE | |
DE102018120786A1 (en) | Method and device for monitoring an autonomous vehicle | |
DE102019122826A1 (en) | ADAPTIVE VEHICLE LEARNING | |
DE102018120789A1 (en) | Method and device for monitoring an autonomous vehicle | |
DE102019118461A1 (en) | OVERVIEW OF VEHICLE AD INDICATORS | |
DE102019133703A1 (en) | METHODS AND SYSTEMS FOR PRODUCING AND LOCALIZING A VEHICLE | |
DE102019126542A1 (en) | LOCALIZATION OF A STATIONARY CAMERA | |
DE112018003986T5 (en) | CONTROL DEVICE, CONTROL PROCEDURE, PROGRAM AND MOBILE UNIT | |
DE102020122357A1 (en) | DRIVER AWARENESS SYSTEM | |
DE102018120863A1 (en) | Method and device for monitoring a vehicle | |
DE102019108610A1 (en) | IMPROVING VEHICLE BEHAVIOR USING INFORMATION FROM OTHER VEHICLE LIGHTS | |
DE102021101426A1 (en) | DETECTION OF VEHICLE OPERATING CONDITIONS | |
DE102019122536A1 (en) | EXZENTRIZITÄTSKARTEN | |
DE102020107149A1 (en) | VEHICLE CAPSULE NETWORKS | |
DE102021128041A1 (en) | IMPROVEMENT OF A VEHICLE NEURAL NETWORK | |
DE102020102823A1 (en) | VEHICLE CAPSULE NETWORKS | |
DE102020118741A1 (en) | VEHICLE LOCATION IDENTIFICATION | |
DE102021104044A1 (en) | NEURAL NETWORK FOR POSITIONING AND OBJECT DETECTION | |
DE102022114048A1 (en) | IMAGE RECTIFICATION |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE |