DE102018206777B4 - Depth evaluation for the localization of a vehicle occupant in a vehicle interior - Google Patents

Depth evaluation for the localization of a vehicle occupant in a vehicle interior Download PDF

Info

Publication number
DE102018206777B4
DE102018206777B4 DE102018206777.5A DE102018206777A DE102018206777B4 DE 102018206777 B4 DE102018206777 B4 DE 102018206777B4 DE 102018206777 A DE102018206777 A DE 102018206777A DE 102018206777 B4 DE102018206777 B4 DE 102018206777B4
Authority
DE
Germany
Prior art keywords
vehicle occupant
image data
vehicle
depth
evaluation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018206777.5A
Other languages
German (de)
Other versions
DE102018206777A1 (en
Inventor
Jochen ABHAU
Daniel Widmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018206777.5A priority Critical patent/DE102018206777B4/en
Publication of DE102018206777A1 publication Critical patent/DE102018206777A1/en
Application granted granted Critical
Publication of DE102018206777B4 publication Critical patent/DE102018206777B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Abstract

Tiefenauswerteeinrichtung (10) für ein Fahrzeug (1) zur Lokalisierung eines Fahrzeuginsassen (2) in einem Fahrzeuginnenraum (3) umfassend• eine erste Eingangsschnittstelle (11), um erste Bilddaten einer Aufnahme des Fahrzeuginsassen (2) zu erhalten,• eine zweite Eingangsschnittstelle (12), um zweite Bilddaten einer Aufnahme des Fahrzeuginsassen (2) zu erhalten,• wobei die ersten Bilddaten die Bilddaten einer Monokamera (4) und die zweiten Bilddaten die Bilddaten einer 3D-Kamera (5) sind,• ein künstliches neuronales Netzwerk (14),o wobei die Tiefenauswerteeinrichtung (10) ausgeführt ist, das künstliche neuronale Netzwerk (14) auszuführen, wenn das künstliche neuronale Netzwerk (14) in einem Speicher (16) der Tiefenauswerteeinrichtung (10) geladen ist,o wobei das künstliche neuronale Netzwerk (14) ausgeführt ist, in Abhängigkeit der ersten Bilddaten erste Tiefeninformationen aus den ersten Bilddaten zu erhalten und in Abhängigkeit der zweiten Bilddaten zweite Tiefeninformationen aus den zweiten Bilddaten zu erhalten,• wobei die Tiefenauswerteeinrichtung (10) ausgeführt ist,o in Abhängigkeit der ersten Tiefeninformationen ein erstes Oberflächenmodell des Fahrzeuginsassen (2) zu erhalten,o in Abhängigkeit der zweiten Tiefeninformationen ein zweites Oberflächenmodell des Fahrzeuginsassen (2) zu erhalteno in Abhängigkeit des ersten Oberflächenmodells die Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) zu berechnen,o in Abhängigkeit des zweiten Oberflächenmodells die Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) zu berechnen,o wobei die Tiefenauswerteeinrichtung (10) einen Logikbaustein (18) umfasst, der ausgeführt ist, das erste Oberflächenmodell mit dem zweiten Oberflächenmodell zu fusionieren,o wobei die Tiefenauswerteeinrichtung (10) ausgeführt ist, in Abhängigkeit dieser Fusion die Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) zu berechnen und• eine Ausgangsschnittstelle (17), um wenigstens die Lokalisierung des Fahrzeuginsassen (2) bereitzustellen.Depth evaluation device (10) for a vehicle (1) for localizing a vehicle occupant (2) in a vehicle interior (3) comprising • a first input interface (11) to receive first image data of a recording of the vehicle occupant (2), • a second input interface ( 12) in order to obtain second image data of a recording of the vehicle occupant (2), • the first image data being the image data of a mono camera (4) and the second image data being the image data of a 3D camera (5), • an artificial neural network (14 ), o wherein the depth evaluation device (10) is designed to execute the artificial neural network (14) when the artificial neural network (14) is loaded in a memory (16) of the depth evaluation device (10), o wherein the artificial neural network ( 14) is designed to obtain first depth information from the first image data as a function of the first image data and, as a function of the second image data, to obtain second depth information from the to obtain second image data, • the depth evaluation device (10) being designed, o to obtain a first surface model of the vehicle occupant (2) as a function of the first depth information, o to obtain a second surface model of the vehicle occupant (2) as a function of the second depth information, o as a function of of the first surface model to calculate the localization of the vehicle occupant (2) in the vehicle interior (3), o to calculate the localization of the vehicle occupant (2) in the vehicle interior (3) as a function of the second surface model, o wherein the depth evaluation device (10) has a logic module (18), which is designed to merge the first surface model with the second surface model, o wherein the depth evaluation device (10) is designed to calculate the localization of the vehicle occupant (2) in the vehicle interior (3) as a function of this fusion and an output interface (17) to at least the locator provision of the vehicle occupant (2).

Description

Die Erfindung bezieht sich auf eine Tiefenauswerteeinrichtung für ein Fahrzeug zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum nach Anspruch 1. Ferner bezieht sich die Erfindung auf ein Tiefenauswertungssystem für ein Fahrzeug zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum nach Anspruch 4 Außerdem bezieht sich die Erfindung auf ein Trainingsverfahren für ein künstlich neuronales Netzwerks zur Berechnung von Tiefeninformationen nach Anspruch 9. Des Weiteren bezieht sich die Erfindung auf ein Verfahren zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum nach Anspruch 10. Die Erfindung bezieht sich auch auf ein Computerprogrammprodukt zum Lokalisieren eines Fahrzeuginsassen in einem Fahrzeuginnenraum nach Anspruch 12.The invention relates to a depth evaluation system for a vehicle for locating a vehicle occupant in a vehicle interior according to claim 1. Furthermore, the invention relates to a depth evaluation system for a vehicle for locating a vehicle occupant in a vehicle interior according to claim 4. The invention also relates to a training method for an artificial neural network for calculating depth information according to claim 9. Furthermore, the invention relates to a method for localizing a vehicle occupant in a vehicle interior according to claim 10. The invention also relates to a computer program product for localizing a vehicle occupant in a vehicle interior according to claim 12.

Aus Bilddaten einer Monokamera lässt sich mit Hilfe des optischen Flusses eine dreidimensionale Struktur der Umgebung berechnen, wenn sich die Kamera relativ zur Umgebung bewegt. Stand der Technik ist zum Beispiel offenbart in DE 10 2011 113 081 A1 . Dies ist jedoch in einem Innenraum eines Fahrzeuges nicht der Fall, da sich Kamera und Insassen nicht zueinander bewegen.A three-dimensional structure of the surroundings can be calculated from image data from a mono camera with the aid of the optical flow when the camera moves relative to the surroundings. Prior art is disclosed in, for example DE 10 2011 113 081 A1 . However, this is not the case in the interior of a vehicle, since the camera and occupants do not move towards one another.

Ferner sind Verfahren bekannt, um aus Monokamerabildern direkt 2- oder 3-dimensionale Skelettmodelle von Personen zu schätzen. Stand der Technik ist zum Beispiel offenbart in Dushyant Mehta et al., „Monocular 3D Human Pose Estimation Using Transfer Learning and Improved CNN Supervision“, http://arxiv.org/abs/1611.09813. Diese bieten jedoch nicht die volle Oberflächenbeschreibung der Person, und/ oder benötigen eine Form der Relativbewegung der Kamera zu den Objekten.Furthermore, methods are known for directly estimating 2- or 3-dimensional skeletal models of people from mono camera images. Prior art is disclosed, for example, in Dushyant Mehta et al., “Monocular 3D Human Pose Estimation Using Transfer Learning and Improved CNN Supervision”, http://arxiv.org/abs/1611.09813. However, these do not offer the full surface description of the person and / or require some form of movement of the camera relative to the objects.

Um höhere Automatisierungsgrade beim Fahren eines Fahrzeugs zu erreichen, werden Innenraumkameras verwendet, die mehrere Funktion haben, unter anderem:

  1. (1) Erkennung der Abgelenktheit des Fahrers, um abschätzen zu können, welche Zeit der Fahrer benötigt, um eine potentielle Nebentätigkeit zu beenden und sich wieder komplett der Fahraufgabe zu widmen;
  2. (2) Erkennung der Müdigkeit des Fahrers;
  3. (3) exakte Lokalisierung der Insassen, um bei einer möglichen Kollision oder einem Verkehrsunfall Fahrzeuginsassen-Rückhaltesystems, wie zum Beispiel Gurte, Innenairbags und/oder Außenairbags, optimal parametrieren zu können.
In order to achieve a higher degree of automation when driving a vehicle, interior cameras are used that have several functions, including:
  1. (1) Detection of the distraction of the driver in order to be able to estimate how long the driver needs to end a potential secondary activity and to devote himself completely to the driving task again;
  2. (2) detection of driver fatigue;
  3. (3) Exact localization of the occupants in order to be able to optimally parameterize vehicle occupant restraint systems such as belts, interior airbags and / or exterior airbags in the event of a possible collision or a traffic accident.

Häufig werden im Fahrzeuginnenraum Monokameras eingesetzt. Allerdings können mit Monokameras im Fahrzeuginnenraum derzeit keine dreidimensionale Oberflächen und/oder Modell des Körpers berechnet werden. Daher lassen sich (1) und (2) nur mit eingeschränkter Präzision bestimmen. Die exakte Lokalisierung der Insassen nach (3) ist nur sehr ungenau möglich. Daher kommen hier auch Sensoren zum Einsatz, die eine Tiefeninformation liefern, wie zum Beispiel Kameras, die mit Laufzeitverfahren Distanzen messen. Derartige Kameras werden im Englischen Time-Of-Flight, abgekürzt TOF, Kameras bezeichnet. Stereokameras liefern ebenfalls Tiefeninformationen. Mit solchen Kameras können (1) - (3) zufriedenstellend abgedeckt werden. Jedoch sind solche Kameras deutlich teurer als einfache Monokameras.Mono cameras are often used in the vehicle interior. However, no three-dimensional surfaces and / or models of the body can currently be calculated with mono cameras in the vehicle interior. Therefore, (1) and (2) can only be determined with limited precision. The exact localization of the occupants according to (3) is only possible very imprecisely. For this reason, sensors are also used here that provide depth information, such as cameras that measure distances using runtime methods. Such cameras are called Time-Of-Flight, abbreviated TOF, cameras. Stereo cameras also provide depth information. With such cameras, (1) - (3) can be satisfactorily covered. However, such cameras are significantly more expensive than simple mono cameras.

Die DE 10 2006 024 979 A1 offenbart Systeme und Verfahren zum Detektieren eines Insassen innerhalb eines Fahrzeuges, wobei Tiefeninformationen mittels zwei voneinander beabstandeten Stereokameras oder einem Flugzeitsystem erhalten werden.The DE 10 2006 024 979 A1 discloses systems and methods for detecting an occupant within a vehicle, wherein depth information is obtained by means of two spaced-apart stereo cameras or a time-of-flight system.

Hier setzt die Erfindung an. Der Erfindung hat die Aufgabe zugrunde gelegen, Tiefenauswertungen zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum zu verbessern.This is where the invention comes in. The invention is based on the object of improving depth evaluations for localizing a vehicle occupant in a vehicle interior.

Die Aufgabe wird gelöst durch eine Tiefenauswerteeinrichtung für ein Fahrzeug zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum mit den Merkmalen des Anspruchs 1. Ferner wird die Aufgabe gelöst durch ein Tiefenauswertungssystem für ein Fahrzeug zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum mit den Merkmalen des Anspruchs 4 Außerdem wird die Aufgabe gelöst durch ein Trainingsverfahren für ein künstlich neuronales Netzwerks zur Berechnung von Tiefeninformationen mit den Merkmalen des Anspruchs 9. Des Weiteren wird die Aufgabe gelöst durch ein Verfahren zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum mit den Merkmalen des Anspruchs 10. Die Aufgabe wird auch gelöst durch ein Computerprogrammprodukt zum Lokalisieren eines Fahrzeuginsassen in einem Fahrzeuginnenraum mit den Merkmalen des Anspruchs 12.The object is achieved by a depth evaluation system for a vehicle for localizing a vehicle occupant in a vehicle interior with the features of claim 1. Furthermore, the object is achieved by a depth evaluation system for a vehicle for localizing a vehicle occupant in a vehicle interior with the features of claim 4 The object is achieved by a training method for an artificial neural network for calculating depth information with the features of claim 9. Furthermore, the object is achieved by a method for localizing a vehicle occupant in a vehicle interior with the features of claim 10. The object is also achieved by a computer program product for locating a vehicle occupant in a vehicle interior having the features of claim 12.

Weiterbildungen und vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.Further developments and advantageous configurations are given in the subclaims.

Die erfindungsgemäße Tiefenauswerteeinrichtung ist für ein Fahrzeug zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum konfiguriert. Die Tiefenauswerteeinrichtung umfasst wenigstens eine erste Eingangsschnittstelle. Über die erste Eingangsschnittstelle werden erste Bilddaten einer Aufnahme des Fahrzeuginsassen erhalten. Ferner umfasst die Tiefenauswerteeinrichtung ein künstliches neuronales Netzwerk. Die Tiefenauswerteeinrichtung ist ausgeführt, das künstliche neuronale Netzwerk auszuführen, wenn das künstliche neuronale Netzwerk in einem Speicher der Tiefenauswerteeinrichtung geladen ist. Das künstliche neuronale Netzwerk ist ausgeführt, wenigstens in Abhängigkeit der ersten Bilddaten erste Tiefeninformationen aus den ersten Bilddaten zu erhalten. Die Tiefenauswerteeinrichtung ist ausgeführt, in Abhängigkeit der ersten Tiefeninformationen ein erstes Oberflächenmodell des Fahrzeuginsassen zu erhalten. Des Weiteren ist die Tiefenauswerteeinrichtung ausgeführt, in Abhängigkeit des ersten Oberflächenmodells die Lokalisierung des Fahrzeuginsassen in dem Fahrzeuginnenraum zu berechnen. Außerdem umfasst die Tiefenauswerteeinrichtung eine Ausgangsschnittstelle. Über die Ausgangsschnittstelle wird wenigstens die Lokalisierung des Fahrzeuginsassen bereitgestellt.The depth evaluation device according to the invention is configured for a vehicle to localize a vehicle occupant in a vehicle interior. The depth evaluation device comprises at least one first input interface. First image data of a recording of the vehicle occupant are received via the first input interface. The depth evaluation device also includes an artificial neural network. The depth evaluation device is implemented, the artificial neural one Execute network when the artificial neural network is loaded in a memory of the depth evaluation device. The artificial neural network is designed to obtain first depth information from the first image data at least as a function of the first image data. The depth evaluation device is designed to obtain a first surface model of the vehicle occupant as a function of the first depth information. Furthermore, the depth evaluation device is designed to calculate the localization of the vehicle occupant in the vehicle interior as a function of the first surface model. The depth evaluation device also includes an output interface. At least the localization of the vehicle occupant is provided via the output interface.

Tiefe bezieht sich auf die dritte Dimension. Zweidimensionale Bilder haben eine Höhe und eine Breite. Die Tiefe kommt durch optische Täuschung, beispielsweise durch Einfluss von Licht, Farbe und/oder Linienanordnung, scheinbar als dritte Dimension hinzu. Die erfindungsgemäße Tiefenauswerteeinrichtung erhält Tiefeninformationen für Bildpunkte in Form von Distanzen zu Objektpunkten. In Abhängigkeit der erhaltenen Distanzen kann ein Fahrzeuginsasse relativ zu einem Bezugspunkt in dem Fahrzeuginnenraum lokalisiert werden, beispielsweise zu einer Kamera, die eine Aufnahme von dem Fahrzeuginsassen erzeugt.Depth refers to the third dimension. Two-dimensional images have a height and a width. The depth appears as a third dimension through optical illusion, for example through the influence of light, color and / or line arrangement. The depth evaluation device according to the invention receives depth information for image points in the form of distances to object points. Depending on the distances obtained, a vehicle occupant can be localized relative to a reference point in the vehicle interior, for example to a camera that generates a picture of the vehicle occupant.

Eine Auswerteeinrichtung ist eine Vorrichtung, die eingehende Informationen verarbeitet und ein aus dieser Verarbeitung resultierendes Ergebnis ausgibt. Insbesondere ist eine elektronische Schaltung, wie zum Beispiel eine zentrale Prozessoreinheit oder ein Grafikprozessor, eine Auswerteinrichtung.An evaluation device is a device that processes incoming information and outputs a result resulting from this processing. In particular, an electronic circuit, such as a central processor unit or a graphics processor, is an evaluation device.

Ein Fahrzeug ist insbesondere ein Landfahrzeug, das für den Betrieb auf Straßen vorgesehen ist, zum Beispiel ein Personenkraftwagen. Der Fahrzeuginnenraum umfasst den umbauten Raum mit seinen Innenmaßen sowie die Innenverkleidungen, Sitze, Sitzbänke, das Armaturenbrett, sonstige Bedienelemente und den Kofferraum. Hinsichtlich Auslösens von Fahrzeuginsassen-Rückhaltesystemen ist insbesondere eine genaue Lokalisation des Fahrzeuginsassen in dem Fahrzeuginnenraum erforderlich. Zum Beispiel ist es vorteilhaft, wenn eine genaue Sitzposition des Fahrzeuginsassen auf einem Fahrzeugsitz bekannt ist. Die Sitzposition wird aus der Lokalisierung erhalten.A vehicle is in particular a land vehicle that is intended for operation on roads, for example a passenger car. The vehicle interior includes the enclosed space with its internal dimensions as well as the interior trim, seats, benches, the dashboard, other controls and the trunk. With regard to the triggering of vehicle occupant restraint systems, precise localization of the vehicle occupant in the vehicle interior is particularly necessary. For example, it is advantageous if an exact seating position of the vehicle occupant on a vehicle seat is known. The sitting position is obtained from the localization.

Eine Schnittstelle ist eine Einrichtung zwischen wenigstens zwei Funktionseinheiten, an der ein Austausch von logischen Größen, zum Beispiel Daten, oder physikalischen Größen, zum Beispiel elektrischen Signalen, erfolgt, entweder nur unidirektional oder bidirektional. Der Austausch kann analog oder digital erfolgen. Der Austausch kann ferner drahtgebunden oder drahtlos erfolgen.An interface is a device between at least two functional units at which an exchange of logical quantities, for example data, or physical quantities, for example electrical signals, takes place, either only unidirectionally or bidirectionally. The exchange can be analog or digital. The exchange can also be wired or wireless.

Bilddaten sind die Daten eines Bildgebungssensors. Zum Beispiel sind die Farbwerte für Rot, Grün und Blau oder Graustufen eines Pixels des Bildgebungssensors Bilddaten. Ein Pixel ist ein Flächenelement eines Bildgebungssensors. Helligkeitswerte sind auch Bilddaten. Infrarotwerte sind ebenfalls Bilddaten. Farbwerte, Graustufen, Helligkeitswerte und Infrarotwerte sind zweidimensionale Bilddaten. Beispielsweise enthält ein Pixel eine festgelegte Anzahl an maximal möglichen Abstufungen für eine Farbe.Image data is the data from an imaging sensor. For example, the color values for red, green and blue or gray levels of a pixel of the imaging sensor are image data. A pixel is a surface element of an imaging sensor. Brightness values are also image data. Infrared values are also image data. Color values, gray levels, brightness values and infrared values are two-dimensional image data. For example, a pixel contains a fixed number of maximum possible gradations for a color.

Zweidimensional bedeutet dann, dass für jede einzelne Abstufung ein jeweiliger Farbwert erhalten wird. Zum Beispiel können für die Farbe Rot 256 Abstufungen vorhanden sein. Mit einem derartigen Pixel können damit 256 Rotstufen dargestellt werden. Dreidimensionale Bilddaten enthalten pixelweise zusätzlich eine dritte Information, vorzugsweise die Distanz von Bildpunkte zu Objektpunkten.Two-dimensional then means that a respective color value is obtained for each individual gradation. For example, there can be 256 shades for the color red. With such a pixel, 256 levels of red can be displayed. Three-dimensional image data additionally contain a third item of information pixel by pixel, preferably the distance from image points to object points.

Vorzugsweise sind die ersten Bilddaten zweidimensionale Bilddaten.The first image data are preferably two-dimensional image data.

Die Tiefeninformationen werden vorzugsweise für jeden Pixel erhalten. Vorteilhafterweise werden die Pixel des Bildgebungssensors in Abhängigkeit von der jeweiligen Aufnahme jeweiligen Objektklassen zugeordnet. Die Zuordnung von Pixeln zu Objektklassen wird als semantische Segmentierung bezeichnet. Ein Beispiel zu semantischer Segmentierung für einen Motorradfahrer ist unter dem Link http://blog.qure.ai/notes/semantic-segmentation-deep-learning-review gezeigt. Bei einer Aufnahme eines Gesichtes eines Fahrzeuginsassen sind Objektklassen zum Beispiel Augen, Nase und Mund.The depth information is preferably obtained for each pixel. The pixels of the imaging sensor are advantageously assigned to respective object classes as a function of the respective recording. The assignment of pixels to object classes is called semantic segmentation. An example of semantic segmentation for a motorcyclist is shown at the link http://blog.qure.ai/notes/semantic-segmentation-deep-learning-review. When recording a face of a vehicle occupant, object classes are, for example, eyes, nose and mouth.

Künstliche Intelligenz ist ein Oberbegriff für die Automatisierung intelligenten Verhaltens. Beispielsweise lernt ein intelligenter Algorithmus, zweckgerichtet auf neue Informationen zu reagieren. Ein künstliches neuronales Netzwerk, im Englischen als Artificial Neural Network bezeichnet, ist ein intelligenter Algorithmus. Ein intelligenter Algorithmus ist ausgeführt zu lernen, zweckgerichtet auf neue Informationen zu reagieren. Automatisierung intelligenten Verhaltens wird mit dem Begriff künstliche Intelligenz beschrieben.Artificial intelligence is a generic term for the automation of intelligent behavior. For example, an intelligent algorithm learns to react appropriately to new information. An artificial neural network, also known as Artificial Neural Network, is an intelligent algorithm. An intelligent algorithm is designed to learn to react appropriately to new information. Automation of intelligent behavior is described by the term artificial intelligence.

Um zweckgerichtet auf neue Informationen reagieren zu können, ist es erforderlich, dass eine künstliche Intelligenz zunächst die Bedeutung von vorbestimmten Informationen lernt. Dazu wird die künstliche Intelligenz mit Validierungsdaten trainiert. Validierungsdaten ist allgemein ein Oberbegriff für Trainingsdaten oder Testdaten. Insbesondere enthalten Trainingsdaten neben den eigentlichen Daten auch Informationen über die Bedeutung der jeweiligen Daten. Diese Trainingsphase ist inspiriert von dem Lernprozess eines Gehirns. Das Trainieren mit Validierungsdaten wird maschinelles Lernen genannt. Eine Teilmenge des maschinellen Lernens ist das tiefgehende Lernen, das sogenannte Deep Learning, bei dem eine Reihe hierarchischer Schichten von Neuronen, sogenannten Hidden Layers, genutzt wird, um den Prozess des maschinellen Lernens durchzuführen. Neuronen sind die Funktionseinheiten eines künstlichen neuronalen Netzwerks. Ein Output eines Neurons ergibt sich im Allgemeinen als Wert einer Aktivierungsfunktion ausgewertet über eine gewichtete Summe der Inputs plus einen systematischen Fehler, dem sogenannten Bias. Ein künstliches neuronales Netzwerk mit mehreren Hidden Layers ist ein Deep Neural Network.In order to be able to react purposefully to new information, it is necessary that an artificial intelligence first learns the meaning of predetermined information. For this purpose, the artificial intelligence is trained with validation data. Validation data is generally a generic term for training data or test data. In particular, training data contain in addition to the actual Data also information about the meaning of the respective data. This training phase is inspired by the learning process of a brain. Training with validation data is called machine learning. A subset of machine learning is deep learning, so-called deep learning, in which a number of hierarchical layers of neurons, so-called hidden layers, are used to carry out the process of machine learning. Neurons are the functional units of an artificial neural network. An output of a neuron generally results as the value of an activation function evaluated using a weighted sum of the inputs plus a systematic error, the so-called bias. An artificial neural network with several hidden layers is a deep neural network.

Im Speziellen sind die Validierungsdaten ein Datensatz, mit dem der Algorithmus während der Entwicklungszeit getestet wird. Da Aufgrund der Tests vom Entwickler auch Entscheidungen getroffen werden, die den Algorithmus beeinflussen, wird am Ende der Entwicklung ein weiterer Datensatz, der Testdatensatz, herangezogen für eine finale, das heißt unbeeinflusste, Bewertung.In particular, the validation data is a data set with which the algorithm is tested during the development phase. Since the developer also makes decisions on the basis of the tests that influence the algorithm, another data set, the test data set, is used at the end of the development for a final, i.e. uninfluenced, evaluation.

Ein Oberflächenmodell repräsentiert die Oberfläche eines Gegenstandes, zum Beispiel eines Körpers oder Körperteils, dreidimensional. Zum Beispiel repräsentiert ein Oberflächenmodell eines Gesichtes eines Fahrzeuginsassen eine Erhebung von Nase, Lippen und/oder Schädelknochen. Ein Oberflächenmodell entspricht einer dreidimensionalen Silhouette.A surface model represents the surface of an object, for example a body or body part, in three dimensions. For example, a surface model of a vehicle occupant's face represents an elevation of the nose, lips and / or skull bones. A surface model corresponds to a three-dimensional silhouette.

Da die Tiefeninformationen pixelweise erhalten werden, repräsentiert das Oberflächenmodell die Oberfläche des Fahrzeuginsassen sehr genau. Ausgehend von der Kenntnis der genauen Oberfläche des Fahrzeuginsassen sind Abstände einzelner Körperteile des Fahrzeuginsassen zu einem festgelegten Bezugspunkt innerhalb des Fahrzeuginnenraums genau bestimmbar. Damit ist eine genaue Lokalisierung des Fahrzeuginsassen in dem Fahrzeuginnenraum bestimmbar.Since the depth information is obtained pixel by pixel, the surface model represents the surface of the vehicle occupant very precisely. Based on the knowledge of the precise surface of the vehicle occupant, distances between individual body parts of the vehicle occupant and a fixed reference point within the vehicle interior can be precisely determined. An exact localization of the vehicle occupant in the vehicle interior can thus be determined.

Diese Lokalisierung wird vorzugsweise über die Ausgangsschnittstelle einem Fahrzeuginsassen-Rückhaltesystem bereitgestellt, um das Fahrzeuginsassen-Rückhaltesystem optimal zu parametrisieren. Ein Fahrzeuginsassen-Rückhaltesystem ist eine Schutzeinrichtung zur Abmilderung von Folgen einer Kollision oder eines Verkehrsunfalls. Beispiele für Fahrzeuginsassen-Rückhaltesysteme sind Gassackeinrichtungen, im Englischen als Airbags bezeichnet. Das Fahrzeuginsassen-Rückhaltesystem umfasst vorzugsweise Innen-und/oder Außenairbags. Ein weiteres Beispiel für ein Fahrzeuginsassen-Rückhaltesystem ist eine Gurtstraffeinrichtung. Zum Beispiel werden Zündzeitpunkt und/oder Zündstufen einer Gassackeinrichtung für den Fall, dass die Nasenspitze des Fahrzeuginsassen relativ nah zu einem Armaturenbrett des Fahrzeuges und/oder in relativ geringer Höhe zum Boden des Fahrzeuginnenraums lokalisiert wurde, anders gewählt als für den Fall, dass die Nasenspitze relativ weit zu dem Armaturenbrett und/oder in relativ großer Höhe zum Boden des Fahrzeuginnenraums lokalisiert wurde.This localization is preferably provided to a vehicle occupant restraint system via the output interface in order to optimally parameterize the vehicle occupant restraint system. A vehicle occupant restraint system is a protective device used to mitigate the consequences of a collision or a traffic accident. Examples of vehicle occupant restraint systems are gas bag devices, referred to in English as airbags. The vehicle occupant restraint system preferably comprises interior and / or exterior airbags. Another example of a vehicle occupant restraint system is a belt tensioning device. For example, the ignition timing and / or ignition stages of a gas bag device are selected differently in the event that the tip of the nose of the vehicle occupant is located relatively close to a dashboard of the vehicle and / or at a relatively low height to the floor of the vehicle interior than in the event that the tip of the nose was located relatively far from the dashboard and / or at a relatively great height to the floor of the vehicle interior.

In Abhängigkeit des Oberflächenmodells wird vorzugsweise ein Skelettmodell und/oder ein Ablenkungsgrad erhalten, um das Fahrzeuginsassen-Rückhaltesystem verbessert zu parametrisieren. Lokalisierung des Fahrzeuginsassen bedeutet hier und im Folgenden, dass insbesondere einzelne Körperteile und/oder Gelenke und/oder deren jeweilige Ausrichtung lokalisiert werden. Der Abklenkungsgrad folgt zum Beispiel aus einer Lokalisierung des Kopfes, aus einer Lokalisierung einer Öffnung der Augen und/oder aus einer Lokalisierung der Fahrerblickrichtung des Fahrzeuginsassen. Insbesondere folgt aus der Öffnung der Augen auch eine Erkennung der Müdigkeit des Fahrers.Depending on the surface model, a skeleton model and / or a degree of distraction is preferably obtained in order to parameterize the vehicle occupant restraint system in an improved manner. Localization of the vehicle occupant means here and below that, in particular, individual body parts and / or joints and / or their respective orientation are localized. The degree of distraction follows, for example, from a localization of the head, from a localization of an opening of the eyes and / or from a localization of the driver's line of sight of the vehicle occupant. In particular, when the eyes are opened, the driver's fatigue is recognized.

Vorzugsweise sind die ersten Bilddaten zweidimensionale Bilddaten einer Monokamera. Alternativ sind die ersten Bilddaten zweidimensionale Bilddaten einer 3D-Kamera. In einer weiteren Ausführungsform der Erfindung sind die ersten Bilddaten dreidimensionale Bilddaten der 3D-Kamera. Das künstliche neuronale Netzwerk kann Tiefe aus den zweidimensionalen Bilddaten berechnen, die danach mit den dreidimensionalen Bilddaten (Tiefen) der 3D- Kamera fusioniert werden, um die dreidimensionalen Bilddaten zu verbessern. Ferner kann das künstliche neuronale Netzwerk verbesserte Tiefe aus den zweidimensionalen Bilddaten und den dreidimensionalen Bilddaten (Tiefen) berechnen, wobei die zweidimensionalen Bilddaten und die dreidimensionalen Bilddaten Eingangsdaten sind. Außerdem kann das künstliche neuronale Netzwerk nur die dreidimensionalen Bilddaten verwenden um diese zu verbessern (Lückenfüllen/Denoising). Des Weiteren kann das künstliche neuronale Netzwerk auf Rohdaten der Kamera arbeiten um Tiefeninformation zu berechnen. The first image data are preferably two-dimensional image data from a mono camera. Alternatively, the first image data are two-dimensional image data from a 3D camera. In a further embodiment of the invention, the first image data are three-dimensional image data from the 3D camera. The artificial neural network can calculate depth from the two-dimensional image data, which are then merged with the three-dimensional image data (depths) of the 3D camera in order to improve the three-dimensional image data. Further, the artificial neural network can calculate enhanced depth from the two-dimensional image data and the three-dimensional image data (depths), the two-dimensional image data and the three-dimensional image data being input data. In addition, the artificial neural network can only use the three-dimensional image data to improve them (gap filling / denoising). Furthermore, the artificial neural network can work on raw data from the camera to calculate depth information.

Einen Monokamera ist eine monokulare Kamera, die eine Kameralinse oder ein Objektiv umfasst. Eine Monokamera erzeugt eine zweidimensionale Abbildung. Eine 3D-Kamera ist eine Kamera, die nach einem Funktionsprinzip eine dreidimensionale Abbildung erzeugt. Beispiele für 3D-Kameras sind Stereokameras und TOF-Kameras. Stereokameras umfassen zwei Kameralinsen oder zwei Objektive und erzeugen aus einer Zusammensetzung von zwei gleichzeitig aufgenommen zweidimensionalen Aufnahmen eine dreidimensionale Aufnahme.A mono camera is a monocular camera that includes a camera lens or a lens. A mono camera creates a two-dimensional image. A 3D camera is a camera that generates a three-dimensional image based on a functional principle. Examples of 3D cameras are stereo cameras and TOF cameras. Stereo cameras comprise two camera lenses or two objectives and generate a three-dimensional image from a combination of two simultaneously recorded two-dimensional images.

Eine Monokamera hat den Vorteil, dass sie vergleichsweise kompakt, robust und kostengünstig ist. Mit der erfindungsgemäßen Tiefenauswerteeinrichtung werden Tiefeninformationen mit dem künstlich neuronalen Netzwerk erhalten. Das künstlich neuronale Netzwerk hat die zweidimensionalen Bilddaten der Monokamera als Eingang und gibt ein Tiefenbild aus.A mono camera has the advantage that it is comparatively compact, robust and inexpensive. With the depth evaluation device according to the invention, depth information is obtained with the artificial neural network. The artificial neural network has the two-dimensional image data from the mono camera as input and outputs a depth image.

Vorzugsweise umfasst das künstlich neuronale Netzwerk konvolutionale Schichten umfassend mehrere, dem Fachmann bekannte Faltungs- und/oder Poolingschichten. In einem konvolutionalen neuronalen Netzwerk wird ein Filter auf eine Schicht von Neuronen unabhängig von der Position mit den gleichen Gewichten angewendet.The artificial neural network preferably comprises convolutional layers comprising a plurality of convolutional and / or pooling layers known to the person skilled in the art. In a convolutional neural network, a filter is applied to a layer of neurons regardless of the position with the same weights.

Bilddaten von 3D Kameras sind oftmals lückenhaft. Beispielsweise sind Bilddaten von Stereokameras aufgrund verdeckter Bereiche an Objekträndern oder Objekten mit wenig Textur nicht vollständig und damit lückenhaft. Aufgrund wenig reflektierender Oberflächen sind Bilddaten von TOF-Kameras lückenhaft. Eine 3D-Kamera stellt neben dreidimensionalen Bilddaten zusätzlich zweidimensionale Mono- oder Stereobildern bereit. Das künstliche neuronale Netzwerk wird in einer Ausgestaltung der Erfindung auf diesen zweidimensionalen Bilddaten der 3D-Kamera trainiert. Dadurch können unabhängig von einem Funktionsprinzip der 3D-Kamera Tiefeninformationen berechnet werden. Diese berechneten Tiefeninformationen werden erfindungsgemäß mit den nach dem Funktionsprinzip der 3D Kamera berechneten Tiefeninformationen fusioniert. Alternativ kann das künstlich neuronale Netzwerk die lückenhaften dreidimensionalen Bilddaten direkt als Eingangswerte verwenden, vorzugsweise mit oder auch ohne zusätzliche zweidimensionale Bilddaten. Damit wird das künstliche neuronale Netzwerk trainiert, verfeinerte dreidimensionale Bilddaten zu erzeugen.Image data from 3D cameras are often incomplete. For example, image data from stereo cameras are incomplete and therefore incomplete due to hidden areas at the edges of objects or objects with little texture. Due to the poorly reflective surfaces, image data from TOF cameras are incomplete. In addition to three-dimensional image data, a 3D camera also provides two-dimensional mono or stereo images. In one embodiment of the invention, the artificial neural network is trained on these two-dimensional image data from the 3D camera. As a result, depth information can be calculated independently of a functional principle of the 3D camera. According to the invention, this calculated depth information is merged with the depth information calculated according to the functional principle of the 3D camera. Alternatively, the artificial neural network can use the incomplete three-dimensional image data directly as input values, preferably with or without additional two-dimensional image data. This trains the artificial neural network to generate refined three-dimensional image data.

Damit die Monokamera und/oder die 3D-Kamera den Fahrzeuginnenraum auch nachts erfassen können, ist eine aktive Beleuchtung des Fahrzeuginnenraums vorteilhaft, zum Beispiel mittels eines Projektors, der den Fahrzeuginnenraum mit Infrarotlicht beleuchtet. In diesem Fall sind die Monokamera und/oder die 3D-Kamera Infrarotkameras, um reflektiertes Infrarotlicht zu erfassen.So that the mono camera and / or the 3D camera can also capture the vehicle interior at night, active lighting of the vehicle interior is advantageous, for example by means of a projector that illuminates the vehicle interior with infrared light. In this case, the mono camera and / or the 3D camera are infrared cameras for detecting reflected infrared light.

Der Projektor ist ausgeführt, den Fahrzeuginnenraum gleichmäßig zu beleuchten. Alternativ ist der Projektor ausgeführt, ein Strahlenmuster in den Fahrzeuginnenraum zu projizieren. In Abhängigkeit einer geometrischen Änderung des an einem Objekt im Fahrzeuginnenraum reflektierten Strahlenmusters im Vergleich zu einem bekannten statischen Strahlenmuster werden Tiefeninformationen erhalten. In Abhängigkeit der Ausdehnung und Entfernung des Objekts erscheinen Muster von reflektierten Strahlenmustern im Vergleich zu Mustern von gesendeten statischen Strahlenmustern nämlich verzerrt. Zum Beispiel erscheinen Punkte eines gesendeten Punktemusters auf einer entfernten gekrümmten Oberfläche verzerrt im Vergleich zu einer nahen ebenen Oberfläche. Das heißt, in Abhängigkeit dieser geometrischen Änderung wird die Entfernung und damit die Tiefeninformation zu dem Objekt bestimmt. Ein Strahlenmuster ist eine geometrische Form der Beleuchtung, die mit diesen Strahlen durch einen entsprechenden Strahler, der diese Muster erzeugt, erreicht wird. Muster sind zum Beispiel geometrische Formen wie beispielsweise Linien oder Kreise. Muster bedeutet auch eine Sequenz derartiger Formen. Die Muster werden durch Raumcodierungen von Signalen erreicht.The projector is designed to illuminate the vehicle interior evenly. Alternatively, the projector is designed to project a beam pattern into the vehicle interior. Depth information is obtained as a function of a geometric change in the beam pattern reflected on an object in the vehicle interior compared to a known static beam pattern. Depending on the extent and distance of the object, patterns of reflected radiation patterns appear distorted in comparison to patterns of transmitted static radiation patterns. For example, points of a transmitted point pattern appear distorted on a distant curved surface compared to a nearby flat surface. This means that the distance and thus the depth information to the object is determined as a function of this geometric change. A ray pattern is a geometric form of lighting that is achieved with these rays through a corresponding radiator that generates these patterns. Patterns are, for example, geometric shapes such as lines or circles. Pattern also means a sequence of such shapes. The patterns are achieved by spatial coding of signals.

Die Monokamera und/oder die 3D-Kamera erfassen und werten aus vorzugsweise infrarotes Licht. Besonders bevorzugt sind die Monokamera und/oder die 3D-Kamera Infrarotkameras. Eine Infrarotkamera kann Fahrzeuginsassen auch über deren Wärmeabstrahlung erfassen, sodass ein Projektor optional ist.The mono camera and / or the 3D camera capture and evaluate preferably infrared light. The mono camera and / or the 3D camera, infrared cameras are particularly preferred. An infrared camera can also detect vehicle occupants via their heat radiation, so that a projector is optional.

Erfindungsgemäß umfasst die Tiefenauswerteeinrichtung eine zweite Eingangsschnittstelle. Über die zweite Eingangsschnittstelle werden zweite Bilddaten einer Aufnahme des Fahrzeuginsassen erhalten. Dabei sind die ersten Bilddaten die Bilddaten einer Monokamera. Die zweiten Bilddaten sind die Bilddaten einer weiteren Kamera, vorzugsweise einer 3D-Kamera. Das künstliche neuronale Netzwerk ist ausgeführt, in Abhängigkeit der zweiten Bilddaten zweite Tiefeninformationen aus den zweiten Bilddaten zu erhalten. Die Tiefenauswerteeinrichtung ist ausgeführt, in Abhängigkeit der zweiten Tiefeninformationen ein zweites Oberflächenmodell des Fahrzeuginsassen zu erhalten. In Abhängigkeit des zweiten Oberflächenmodells berechnet die Tiefenauswerteeinrichtung die Lokalisierung des Fahrzeuginsassen in dem Fahrzeuginnenraum. Außerdem umfasst die Tiefenauswerteeinrichtung einen Logikbaustein. Der Logikbaustein ist ausgeführt, das erste Oberflächenmodell mit dem zweiten Oberflächenmodell zu fusionieren. Dabei ist die Tiefenauswerteeinrichtung ausgeführt, in Abhängigkeit dieser Fusion die Lokalisierung des Fahrzeuginsassen in dem Fahrzeuginnenraum zu berechnen.According to the invention, the depth evaluation device comprises a second input interface. Second image data of a recording of the vehicle occupant are received via the second input interface. The first image data are the image data of a mono camera. The second image data are the image data of a further camera, preferably a 3D camera. The artificial neural network is designed to obtain second depth information from the second image data as a function of the second image data. The depth evaluation device is designed to obtain a second surface model of the vehicle occupant as a function of the second depth information. Depending on the second surface model, the depth evaluation device calculates the localization of the vehicle occupant in the vehicle interior. The depth evaluation device also includes a logic module. The logic module is designed to merge the first surface model with the second surface model. The depth evaluation device is designed to calculate the localization of the vehicle occupant in the vehicle interior as a function of this fusion.

Ein Logikbaustein ist eine Einrichtung, die Eingangssignale zu einem Ausgangssignal verarbeitet, wobei die Eingangssignale durch Implementierung logischer Operatoren, wie zum Beispiel UND, ODER, NICHT, zu einem einzigen logischen Ergebnis umgewandelt werden, um das Ausgangssignal zu erhalten. Logikbausteine werden insbesondere in Form von digitalen integrierten Schaltkreisen, beispielsweise einfachen UND-, ODER-, NICHT-Schaltungen oder programmierbaren Elementen wie zum Beispiel Field Programmable Gate Array, abgekürzt FPGA, oder Application Specific Integrated Circuits, abgekürzt ASICs, realisiert. Auf einem FPGA kann beispielsweise ein künstliches neuronales Netzwerk ausgeführt werden.A logic module is a device that processes input signals into an output signal, the input signals being converted into a single logical result by implementing logical operators such as AND, OR, NOT, in order to obtain the output signal. Logic modules are in particular in the form of digital integrated circuits, for example simple AND, OR, NOT circuits or programmable elements such as Example Field Programmable Gate Array, abbreviated FPGA, or Application Specific Integrated Circuits, abbreviated ASICs, implemented. For example, an artificial neural network can be implemented on an FPGA.

Durch die Fusion werden Datensätze, insbesondere lückenhafte Datensätze, vervollständigt und damit verbesserter Informationen erhalten.Through the merger, data sets, especially incomplete data sets, are completed and thus improved information is obtained.

Insbesondere wird bei Einsatz einer Monokamera und einer 3D-Kamera eine Redundanz erreicht. Eine Monokamera wird vorzugsweise verwendet, um die durch eine 3D-Kamera gewonnene Information über die Oberflächenbeschreibung des Fahrzeuginsassen in einem von der 3D-Kamera unabhängigen Pfad zu berechnen, nämlich durch erfindungsgemäßes Ausgeben von Tiefeninformationen aus zweidimensionalen Bilddaten der Monokamera. Dadurch stellt die Monokamera Oberflächeninformationen bereit, auch wenn die 3D-Kamera beispielsweise verdeckt ist oder ausfällt. Ferner kann die Funktionsweise der 3D-Kamera in Abhängigkeit der mit der Monokamera erhaltenen Tiefeninformationen und die Funktionsweise der Tiefenauswerteeinrichtung in Abhängigkeit der mit der 3D-Kamera erhaltenen Tiefeninformationen überprüft werden.In particular, redundancy is achieved when using a mono camera and a 3D camera. A mono camera is preferably used to calculate the information obtained by a 3D camera about the surface description of the vehicle occupant in a path independent of the 3D camera, namely by outputting depth information from two-dimensional image data of the mono camera according to the invention. As a result, the mono camera provides surface information even if the 3D camera is covered or fails, for example. Furthermore, the functioning of the 3D camera can be checked as a function of the depth information obtained with the mono camera and the functioning of the depth evaluation device can be checked as a function of the depth information obtained with the 3D camera.

In einer vorteilhaften Ausgestaltung der Erfindung umfasst die Tiefenauswerteeinrichtung wenigstens eine dritte Eingangsschnittstelle. Über die dritte Eingangsschnittstelle werden Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen zu erhalten. Das künstliche neuronale Netzwerk ist ausgeführt, die ersten und/oder zweiten Tiefeninformationen in Abhängigkeit der Sitzbelegungsdaten und/oder der ersten und/oder zweiten Bilddaten zu erhalten. Vorzugsweise ist die Tiefenauswerteeinrichtung ausgeführt, in Abhängigkeit der Sitzbelegungsdaten ein Sitzmodell zu berechnen und das Sitzmodell in die Aufnahme des Fahrzeuginsassen zu projizieren.In an advantageous embodiment of the invention, the depth evaluation device comprises at least one third input interface. The third input interface is used to receive seat occupancy data about vehicle seat occupancy of the vehicle occupant. The artificial neural network is designed to receive the first and / or second depth information as a function of the seat occupancy data and / or the first and / or second image data. The depth evaluation device is preferably designed to calculate a seat model as a function of the seat occupancy data and to project the seat model into the receptacle of the vehicle occupant.

Sitzbelegungsdaten werden zum Beispiel mit Gewichtssensoren erfasst. Die Gewichtssensoren sind vorzugsweise über einen Fahrzeugsitz verteilt angeordnet. Als Gewichtssensoren eignen sich zum Beispiel Dehnungsmessstreifen, die vorzugsweise in Form von Folien an Fahrzeugsitzen anordenbar sind. Sitzbelegungsdaten werden auch über Verstellpositionen des Fahrzeugsitzes oder über Gurtauszugslängen erfasst. Sitzbelegungsdaten umfassen auch Sitzeinstellungen. Die Sitzbelegungsdaten, sowie z.B. auch Gurtauszuglänge, können ebenfalls weitere Eingangsgrößen für das künstliche neuronale Netzwerk sein.Seat occupancy data are recorded with weight sensors, for example. The weight sensors are preferably arranged distributed over a vehicle seat. Strain gauges, for example, which can preferably be arranged in the form of foils on vehicle seats, are suitable as weight sensors. Seat occupancy data are also recorded via the adjustment positions of the vehicle seat or via belt extension lengths. Seat occupancy data also includes seat settings. The seat occupancy data, as well as e.g. also belt extension length, can also be further input variables for the artificial neural network.

Vorteilhafterweise sind auf dem Gurt detektierbare Merkmale angebracht. Die ersten und/oder die zweiten Bilddaten umfassen diese Merkmale. Damit wird das künstliche neuronale Netzwerk mit diesen Merkmalen gespeist. In Abhängigkeit dieser Merkmale lernt das künstliche neuronale Netzwerk die Lage des Gurtes besser zu erkennen. Ferner lernt das künstliche neuronale Netzwerk das Aussehen dieser Merkmale für verschiedene Entfernungen und/oder Krümmungen. Vorzugsweise sind die Merkmale Reflektoren, die nur im Infrarotspektrum reflektieren. Derartige Merkmale fallen im optisch sichtbaren Spektrum nicht auf.Detectable features are advantageously attached to the belt. The first and / or the second image data comprise these features. The artificial neural network is thus fed with these features. Depending on these features, the artificial neural network learns to better recognize the position of the belt. Furthermore, the artificial neural network learns the appearance of these features for different distances and / or curvatures. The features are preferably reflectors that reflect only in the infrared spectrum. Such features are not noticeable in the optically visible spectrum.

Das Sitzmodell ist insbesondere ein virtuelles dreidimensionales Modell eines Fahrzeugsitzes, auf dem der Fahrzeuginsasse sitzt. Der Fahrzeugsitz an sich, sowie andere statische Objekte, können sehr genau in das Bild projiziert werden. So wird auch ein unabhängiges Tiefenbild generiert bzw. simuliert, in dem Fall ohne Person. Das könnte vor allem als zusätzlichen Eingang für das neuronale Netz dienen um die endgültige Tiefe besser zu schätzen oder als zweite Variante im Nachhinein zur Fusion verwendet werden. Durch die Projektion des Sitzmodells in die Aufnahme des Fahrzeuginsassen wird vorteilhafterweise für die Pixel im Bereich des Fahrzeugsitzes eine maximal mögliche Tiefenannahme getroffen. Vorzugsweise ist die Tiefenauswerteeinrichtung ausgeführt, mittels in der Aufnahme des Fahrzeuginsassen gezielt detektierter, also nicht verdeckter, Merkmale am Sitz eine maximal angenommene Tiefe in eine absolute Tiefenschätzung umzuwandeln. Derartige Projektionen von bekannten Objekten können wiederum für Fusion oder als. Zum Beispiel wird das künstliche neuronale Netzwerk aus einem Vergleich einer Kopfgröße aus einer zweidimensionalen Bildaufnahme zu der Kopfgröße in einer vorbestimmten Distanz die Distanz des Kopfes in der zweidimensionalen Aufnahme zu der aufnehmenden Kamera lernen.The seat model is in particular a virtual three-dimensional model of a vehicle seat on which the vehicle occupant is sitting. The vehicle seat itself, as well as other static objects, can be projected very precisely into the image. In this way, an independent depth image is generated or simulated, in this case without a person. Above all, this could serve as an additional input for the neural network in order to better estimate the final depth, or it could be used as a second variant for merging afterwards. By projecting the seat model into the receptacle of the vehicle occupant, a maximum possible depth assumption is advantageously made for the pixels in the area of the vehicle seat. The depth evaluation device is preferably designed to convert a maximum assumed depth into an absolute depth estimate by means of features on the seat that are specifically detected, ie not covered, in the receptacle of the vehicle occupant. Such projections of known objects can again be used for fusion or as. For example, the artificial neural network will learn the distance of the head in the two-dimensional image to the recording camera from a comparison of a head size from a two-dimensional image recording to the head size at a predetermined distance.

Das erfindungsgemäße Tiefenauswertungssystem ist für ein Fahrzeug zur Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum konfiguriert. Das Tiefenauswertungssystem umfasst wenigstens eine Monokamera und eine erfindungsgemäße Tiefenauswerteeinrichtung. Damit wird die Lokalisierung des Fahrzeuginsassen in dem Fahrzeuginnenraum berechnet. Ein Datenaustausch zwischen der Monokamera und der Tiefenauswerteeinrichtung erfolgt über die erste Eingangsschnittstelle.The depth evaluation system according to the invention is configured for a vehicle for localizing a vehicle occupant in a vehicle interior. The depth evaluation system comprises at least one mono camera and a depth evaluation device according to the invention. The localization of the vehicle occupant in the vehicle interior is thus calculated. A data exchange between the mono camera and the depth evaluation device takes place via the first input interface.

Vorteilhafterweise umfasst das Tiefenauswertungssystem wenigstens eine 3D-Kamera. Ein Datenaustausch zwischen der 3D-Kamera und der Tiefenauswerteeinrichtung erfolgt über die zweite Eingangsschnittstelle. Vorzugsweise sind die Monokamera an einem Lenkrad des Fahrzeuges und/oder die 3D-Kamera an einer Windschutzscheibe, vorzugsweise an einer Leiste der Windschutzscheibe, des Fahrzeuges anordenbar.The depth evaluation system advantageously comprises at least one 3D camera. A data exchange between the 3D camera and the depth evaluation device takes place via the second input interface. The mono camera can preferably be arranged on a steering wheel of the vehicle and / or the 3D camera can be arranged on a windshield, preferably on a strip of the windshield of the vehicle.

Gemäß einer Weiterbildung der Erfindung umfasst das Tiefenauswertungssystem einen Sitzbelegungssensor. Der Sitzbelegungssensor detektiert einen Sitzbelegung und gibt Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen aus. Ein Datenaustausch zwischen dem Sitzbelegungssensor und der Tiefenauswerteeinrichtung erfolgt über die dritte Eingangsschnittstelle.According to a development of the invention, the depth evaluation system comprises a seat occupancy sensor. The seat occupancy sensor detects seat occupancy and outputs seat occupancy data on vehicle seat occupancy of the vehicle occupant. A data exchange between the seat occupancy sensor and the depth evaluation device takes place via the third input interface.

Der Sitzbelegungssensor ist zum Beispiel ein Gewichtssensor. Erfindungsgemäß sind mehrere Sitzbelegungssensoren über einen Fahrzeugsitz verteilt angeordnet. Der Sitzbelegungssensor ist alternativ ein Dehnungsmessstreifen. Vorzugsweise sind mehrere Dehnungsmessstreifen in Form von Folien an Fahrzeugsitzen anordenbar Alternativ ist der Sitzbelegungssensor ein Sensor, der eine Verstellposition des Fahrzeugsitzes erfasst. Gemäß einer weiteren Alternative ist der Sitzbelegungssensor ein Sensor, der eine Gurtauszugslänge erfasst. In einer weiteren Ausgestaltung der Erfindung werden die Sitzbelegungsdaten durch eine Kombination der voran genannten Sitzbelegungssensoren erfasst.The seat occupancy sensor is, for example, a weight sensor. According to the invention, several seat occupancy sensors are arranged distributed over a vehicle seat. The seat occupancy sensor is alternatively a strain gauge. A plurality of strain gauges in the form of foils can preferably be arranged on vehicle seats. Alternatively, the seat occupancy sensor is a sensor that detects an adjustment position of the vehicle seat. According to a further alternative, the seat occupancy sensor is a sensor that detects a belt extension length. In a further embodiment of the invention, the seat occupancy data are recorded by a combination of the aforementioned seat occupancy sensors.

In einer bevorzugten Ausgestaltung der Erfindung umfasst das Tiefenauswertungssystem ein Fahrzeuginsassen-Rückhaltesystem. Ein Datenaustausch zwischen dem Fahrzeuginsassen-Rückhaltesystem und der Tiefenauswerteeinrichtung erfolgt über die Ausgangsschnittstelle. Mit dem Datenaustausch werden Parameter des Fahrzeuginsassen-Rückhaltesystems an die Lokalisierung des Fahrzeuginsassen angepasst.In a preferred embodiment of the invention, the depth evaluation system comprises a vehicle occupant restraint system. A data exchange between the vehicle occupant restraint system and the depth evaluation device takes place via the output interface. With the data exchange, parameters of the vehicle occupant restraint system are adapted to the localization of the vehicle occupant.

In einer weiteren Ausgestaltung der Erfindung umfasst das Tiefenauswertungssystem eine Anzeigevorrichtung. Die Anzeigevorrichtung ist ausgeführt, das erste Oberflächenmodell, das zweite Oberflächenmodell, das aus dem ersten und zweiten Oberflächenmodell fusionierte Oberflächenmodell und/oder die Lokalisierung des Fahrzeuginsassen anzuzeigen. Die Anzeigevorrichtung ist zum Beispiel als ein Display eines Infotainment-Systems ausgeführt.In a further embodiment of the invention, the depth evaluation system comprises a display device. The display device is designed to display the first surface model, the second surface model, the surface model merged from the first and second surface model and / or the location of the vehicle occupant. The display device is designed, for example, as a display of an infotainment system.

Erfindungsgemäß umfasst ein Fahrzeug ein erfindungsgemäßes Tiefenauswertungssystem. Das Fahrzeug ist insbesondere automatisiert betreibbar. Um höhere Automatisierungsstufen zu erreichen, ist es erforderlich, Abgelenktheit, Müdigkeit und insbesondere Lokalisierungen von Fahrzeuginsassen im Fahrzeuginnenraum exakt zu kennen. Dies wird mit der erfindungsgemäßen Tiefenauswerteeinrichtung erreicht.According to the invention, a vehicle comprises a depth evaluation system according to the invention. In particular, the vehicle can be operated in an automated manner. In order to achieve higher levels of automation, it is necessary to know exactly how distracted people are, fatigue and, in particular, where they are located in the vehicle interior. This is achieved with the depth evaluation device according to the invention.

Ein automatisiert betreibbares Fahrzeug ist ein Fahrzeug, das über eine technische Ausrüstung verfügt, die zur Bewältigung einer Fahreraufgabe, einschließlich Längs- und Querführung, das jeweilige Fahrzeug nach Aktivierung einer entsprechenden automatischen Fahrfunktion, insbesondere einer hoch- oder vollautomatisierten Fahrfunktion nach der Norm SAEJ3016, mit einer Fahrzeugsteuerungseinrichtung steuern kann.A vehicle that can be operated automatically is a vehicle that has technical equipment that enables the respective vehicle to cope with a driver's task, including longitudinal and lateral guidance, after activation of a corresponding automatic driving function, in particular a highly or fully automated driving function according to the SAEJ3016 standard a vehicle control device can control.

Ein teil-automatisiert betreibbares Fahrzeug kann bestimmte Fahraufgaben übernehmen. Die SAEJ3016 Norm unterscheidet zwischen den Automatisierungsstufen SAE Level 2 und SAE Level 3. Level 2 ist dadurch definiert, dass die Fahrmodus-spezifische Ausführung von Lenk- und Beschleunigungs- /Bremsvorgängen durch ein oder mehrere Fahrerassistenzsysteme unter Verwendung von Informationen über die Fahrumgebung ausgeführt wird mit der Erwartung, dass der menschliche Fahrer alle verbleibenden Aspekte der dynamischen Fahraufgabe ausführt. Level 3 ist dadurch definiert, dass die Fahrmodus-spezifische Ausführung aller Aspekte der dynamischen Fahraufgabe durch ein automatisiertes Fahrsystem ausgeführt wird mit der Erwartung, dass der menschliche Fahrer auf Anfrage des Systems angemessen reagieren wird.A partially automated vehicle can take over certain driving tasks. The SAEJ3016 standard differentiates between the automation levels SAE Level 2 and SAE Level 3. Level 2 is defined by the fact that the driving mode-specific execution of steering and acceleration / braking processes is carried out by one or more driver assistance systems using information about the driving environment the expectation that the human driver will perform all remaining aspects of the dynamic driving task. Level 3 is defined by the fact that the driving mode-specific execution of all aspects of the dynamic driving task is carried out by an automated driving system with the expectation that the human driver will react appropriately to the system's request.

Ein vollautomatisiertes Fahrzeug ersetzt den Fahrer. Die SAEJ3016 Norm unterscheidet zwischen SAE Level 4 und SAE Level 5 Level 4 ist dadurch definiert, dass die Fahrmodus-spezifische Ausführung aller Aspekte der dynamischen Fahraufgabe durch ein automatisiertes Fahrsystem ausgeführt wird, selbst wenn der menschliche Fahrer auf Anfrage des Systems nicht angemessen reagiert. Level 5 ist dadurch definiert, dass die durchgängige Ausführung aller Aspekte der dynamischen Fahraufgabe durch ein automatisiertes Fahrsystem unter allen Fahr- und Umweltbedingungen, die von einem menschlichen Fahrer bewältigt werden können, ausgeführt wird. A fully automated vehicle replaces the driver. The SAEJ3016 standard differentiates between SAE Level 4 and SAE Level 5 Level 4 is defined in that the driving mode-specific execution of all aspects of the dynamic driving task is carried out by an automated driving system, even if the human driver does not react appropriately to the system's request. Level 5 is defined in that the continuous execution of all aspects of the dynamic driving task is carried out by an automated driving system under all driving and environmental conditions that can be managed by a human driver.

Ein reines Assistenzsystem assistiert dem Fahrer bei der Durchführung einer Fahraufgabe. Dies entspricht SAE Level 1.A pure assistance system assists the driver in performing a driving task. This corresponds to SAE level 1.

Die Erfindung ist insbesondere für SAE Level 3, 4 und 5 vorgesehen. Insbesondere in einer Übergangszeit zum vollautomatisiertem Fahren wird die Erfindung auf SAE Level 3 und 4 eingesetzt, um daran anschließend auf SAE Level 5 verwendet zu werden.The invention is intended in particular for SAE levels 3, 4 and 5. In particular, in a transition period to fully automated driving, the invention is used at SAE levels 3 and 4 in order to then be used at SAE level 5.

Durch das erfindungsgemäß Trainingsverfahren wird ein künstlich neuronales Netzwerk für die Berechnung von Tiefeninformationen trainiert. In einem ersten Verfahrensschritt werden Trainingsdaten erhalten. Die Trainingsdaten umfassen wenigstens zweidimensionale Bilddaten einer Monokamera einer Aufnahme des Fahrzeuginsassen. Ferner umfassen die Trainingsdaten zu der jeweiligen Aufnahme gehörende erste Soll-Tiefeninformationen. Außerdem oder alternativ umfassen die Trainingsdaten zu der jeweiligen Aufnahme gehörende Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen. In einem zweiten Verfahrensschritt wird das künstlich neuronale Netzwerk mit den Trainingsdaten vorwärtsgespeist. In einem dritten Verfahrensschritt werden in dieser Vorwärtsspeisung mit dem künstlich neuronalen Netzwerk berechnete erste Ist-Tiefeninformationen erhalten. In einem vierten Verfahrensschritt werden Gewichte für Verbindungen von Neuronen des künstlichen neuronalen Netzwerks durch Minimierung eines Fehler zwischen den ersten Ist-Tiefeninformationen und den ersten Soll-Tiefeninformationen in einer Rückwärtsspeisung des künstlich neuronalen Netzwerk erhalten. Damit wird das künstlich neuronale Netzwerk trainiert, aus den wenigstens ersten Bilddaten erste Tiefeninformationen zu erhalten.The training method according to the invention trains an artificial neural network for calculating depth information. In a first process step, training data are obtained. The training data include at least two-dimensional image data from a mono camera of a recording of the vehicle occupant. Furthermore, the training data include first target depth information belonging to the respective recording. In addition or as an alternative, the training data include seat occupancy data relating to the vehicle seat occupancy of the respective recording Vehicle occupants. In a second process step, the artificial neural network is fed forward with the training data. In a third method step, first actual depth information calculated with the artificial neural network is obtained in this forward feed. In a fourth method step, weights for connections of neurons of the artificial neural network are obtained by minimizing an error between the first actual depth information and the first target depth information in a backward feed of the artificial neural network. The artificial neural network is thus trained to obtain first depth information from the at least first image data.

Vorwärtsspeisen, im Englischen als forward propagation bezeichnet, bedeutet, dass eine Information in die Eingangsschicht des künstlichen neuronalen Netzwerks eingespeist wird, die folgenden Schichten durchläuft und in der Ausgabeschicht ausgegeben wird. Rückwärtsspeisen, im Englischen als backward propagation bezeichnet, bedeutet, dass eine Information, insbesondere ein Fehler oder ein Gradient eines Fehlers, in die Ausgabeschicht eingegeben wird und in der Eingangsschicht ausgegeben wird. Durch sukzessives Rückwärtsspeisen eines erhaltenen Ausgabefehlers aus der Ausgabeschicht in die jeweils vorherige Schicht bis hin zur Eingangsschicht werden die Fehler der jeweiligen Schichten erhalten. Die Fehler sind eine Funktion der Gewichte. Durch Minimierung des Fehlers in der Trainingsphase werden damit die Gewichte geändert. Dadurch wird bei erneutem Einspeisen der Eingabe eine Annäherung an die gewünschte Ausgabe erreicht.Forward feeding, referred to as forward propagation, means that information is fed into the input layer of the artificial neural network, passes through the following layers and is output in the output layer. Backward feeding, referred to in English as backward propagation, means that information, in particular an error or a gradient of an error, is input into the output layer and output in the input layer. By successively feeding back a received output error from the output layer into the respective previous layer up to the input layer, the errors of the respective layers are obtained. The errors are a function of the weights. By minimizing the error in the training phase, the weights are changed. As a result, when the input is fed in again, an approximation of the desired output is achieved.

Gewichte sind Faktoren, mit denen Verbindungen zwischen Neuronen definiert werden. Nimmt ein Gewicht den Wert null an, wird das an der Ausgangsseite der zugehörigen Verbindung liegende Neuron ausgeschaltet, das heißt es erhält keinen Input und führt keine Aufgabe aus. Ein Neuron hat aber mehr als eine Verbindung. Allgemein bedeutet ein Gewicht von null, dass das Neuron an der Eingangsseite der Verbindung keinen Einfluss auf die Aktivierung des an der Ausgangsseite befindlichen Neurons hat. Mit einem höheren Wert des Gewichtes wird dieses Neuron entsprechend stärker aktiviert.Weights are factors used to define connections between neurons. If a weight takes on the value zero, the neuron on the output side of the associated connection is switched off, i.e. it receives no input and does not perform any task. But a neuron has more than one connection. In general, a weight of zero means that the neuron on the input side of the connection has no influence on the activation of the neuron on the output side. With a higher value of the weight, this neuron is activated correspondingly more strongly.

Das künstliche neuronale Netzwerk lernt, Distanzinformationen in 2D Bildern zu erkennen.The artificial neural network learns to recognize distance information in 2D images.

Die ersten Bilddaten sind alternativ zweidimensionale Bilddaten einer 3D-Kamera. Nach dem Training hat das künstliche neuronale Netzwerk gelernt, auch dreidimensionale Bilddaten zu prozessieren.The first image data are alternatively two-dimensional image data from a 3D camera. After the training, the artificial neural network learned to also process three-dimensional image data.

Durch das erfindungsgemäße Verfahren wird ein Fahrzeuginsasse in einem Fahrzeuginnenraum lokalisiert. In einem ersten Verfahrensschritt werden ersten Bilddaten einer Aufnahme des Fahrzeuginsassen erhalten. In einem zweiten Verfahrensschritt wird ein künstliches neuronales Netzwerks mit den ersten Bilddaten vorwärtsgespeist. Das künstliche neuronale Netzwerk ist nach dem erfindungsgemäßen Trainingsverfahren trainiert. In einem dritten Verfahrensschritt werden in dieser Vorwärtsspeisung erste Tiefeninformationen in Abhängigkeit der ersten Bilddaten erhalten. In einem vierten Verfahrensschritt wird in Abhängigkeit der ersten Tiefeninformationen ein erstes Oberflächenmodell des Fahrzeuginsassen erhalten. In einem fünften Verfahrensschritt wird in Abhängigkeit des ersten Oberflächenmodells die Lokalisierung des Fahrzeuginsassen in dem Fahrzeuginnenraum berechnet.The method according to the invention localizes a vehicle occupant in a vehicle interior. In a first method step, first image data of a picture of the vehicle occupant are obtained. In a second process step, an artificial neural network is fed forward with the first image data. The artificial neural network is trained according to the training method according to the invention. In a third method step, first depth information is obtained as a function of the first image data in this forward feed. In a fourth method step, a first surface model of the vehicle occupant is obtained as a function of the first depth information. In a fifth method step, the localization of the vehicle occupant in the vehicle interior is calculated as a function of the first surface model.

Die ersten Bilddaten sind vorzugsweise zweidimensionale Bilddaten einer Monokamera. Die Lokalisierung wird vorzugsweise über eine Ausgangsschnittstelle bereitgestellt.The first image data are preferably two-dimensional image data from a mono camera. The localization is preferably provided via an output interface.

Erfindungsgemäß werden zweite Bilddaten erhalten. Das künstliche neuronale Netzwerk wird mit den zweiten Bilddaten vorwärts gespeist. Zweite Tiefeninformationen werden in dieser Vorwärtsspeisung in Abhängigkeit der zweiten Bilddaten erhalten. In Abhängigkeit der zweiten Tiefeninformationen wird ein zweites Oberflächenmodell des Fahrzeuginsassen erhalten. Das zweite Oberflächenmodell wird mit dem ersten Oberflächenmodell fusioniert. Die Lokalisierung des Fahrzeuginsassen wird in Abhängigkeit dieser Fusion berechnet. Vorzugsweise werden bei dem Erhalten wenigstens eines der Oberflächenmodelle Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen mit den jeweiligen Tiefeninformationen fusioniert.According to the invention, second image data are obtained. The artificial neural network is fed forward with the second image data. Second depth information is obtained in this forward feed as a function of the second image data. A second surface model of the vehicle occupant is obtained as a function of the second depth information. The second surface model is fused with the first surface model. The localization of the vehicle occupant is calculated as a function of this fusion. Preferably, when at least one of the surface models is obtained, seat occupancy data on vehicle seat occupancy of the vehicle occupant are merged with the respective depth information.

Die zweiten Bilddaten sind vorzugsweise zweidimensionale oder dreidimensionale Bilddaten einer 3D-Kamera. Durch die Fusion des ersten Oberflächenmodells und des zweiten Oberflächenmodells wird insbesondere eine Redundanz für die 3D-Kamera erreicht. Die Oberflächenbeschreibung der Fahrzeuginsassen erfolgt auch über die ersten Bilddaten und damit in einem unabhängigen Pfad zu den zweiten Bilddaten.The second image data are preferably two-dimensional or three-dimensional image data from a 3D camera. By merging the first surface model and the second surface model, redundancy is achieved in particular for the 3D camera. The surface of the vehicle occupants is also described using the first image data and thus in an independent path to the second image data.

Vorteilhafterweise wird in Abhängigkeit der Sitzbelegungsdaten ein Sitzmodell berechnet. Vorzugsweise wird das Sitzmodell in die Aufnahme des Fahrzeuginsassen projiziert. Durch die Projektion des Sitzmodells in die Aufnahme des Fahrzeuginsassen wird vorteilhafterweise für die Pixel im Bereich des Fahrzeugsitzes eine maximal mögliche Tiefenannahme getroffen.A seat model is advantageously calculated as a function of the seat occupancy data. The seat model is preferably projected into the receptacle for the vehicle occupant. By projecting the seat model into the receptacle of the vehicle occupant, a maximum possible depth assumption is advantageously made for the pixels in the area of the vehicle seat.

Bevorzugt wird die Lokalisierung des Fahrzeuginsassen einem Fahrzeuginsassen-Rückhaltesystem, einem Ablenkungserkennungssystem und/oder einem Müdigkeitserkennungssystem bereitgestellt. Parameter des Fahrzeuginsassen-Rückhaltesystems, des Ablenkungserkennungssystems und/oder des Müdigkeitserkennungssystems werden an die Lokalisierung des Fahrzeuginsassen angepasst. Damit werden bei einem Fahrzeuginsassen-Rückhaltesystem Zündzeitpunkte und/oder Zündstufen von Gassackeinrichtungen und/oder Gurtstrafflängen optimal an den Fahrzeuginsassen in einer gegebenen Kollisionssituation angepasst.The localization of the vehicle occupant is preferably a vehicle occupant restraint system, a distraction detection system and / or a drowsiness detection system. Parameters of the vehicle occupant restraint system, the distraction detection system and / or the drowsiness detection system are adapted to the localization of the vehicle occupant. Thus, in a vehicle occupant restraint system, ignition times and / or ignition stages of gas bag devices and / or belt tensioning lengths are optimally adapted to the vehicle occupant in a given collision situation.

Erfindungsgemäß wird zur Durchführung des Verfahrens eine erfindungsgemäße Tiefenauswerteeinrichtung oder ein erfindungsgemäßes Tiefenauswertungssystem verwendet.According to the invention, a depth evaluation device according to the invention or a depth evaluation system according to the invention is used to carry out the method.

Das erfindungsgemäße Computerprogrammprodukt ist zum Lokalisieren eines Fahrzeuginsassen in einem Fahrzeuginnenraum konfiguriert. Das Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden. Das Computerprogrammprodukt umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.The computer program product according to the invention is configured to locate a vehicle occupant in a vehicle interior. The computer program product is designed to be loaded into a memory of a computer. The computer program product comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product is running on the computer.

Ein Computer ist ein Daten verarbeitendes Systems. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems.A computer is a data processing system. Software is a collective term for programs and associated data. The complement to software is hardware. Hardware describes the mechanical and electronic alignment of a data processing system.

Ein Speicher ist ein Medium für die Sicherung von Daten. Der Speicher enthält die gerade auszuführenden Programme oder Programmteile und die dabei benötigten Daten. Der Speicher ist zum Beispiel ein reversierter Teil eines Hauptspeichers des Computers. Alternativ ist der Speicher ein Speichermodul. Mit einem Speichermodul kann zum Beispiel ein Hauptspeicher erweitert werden.A memory is a medium for the backup of data. The memory contains the programs or program parts to be executed and the data required for them. The memory is, for example, a reversed part of a main memory of the computer. Alternatively, the memory is a memory module. A main memory, for example, can be expanded with a memory module.

Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt einen technischen Effekt hervor, nämlich die Lokalisierung eines Fahrzeuginsassen in einem Fahrzeuginnenraum. Insbesondere werden in Abhängigkeit dieser Lokalisierung Fahrzeuginsassen-Rückhaltesysteme optimal parametrisiert. Diese Parametrisierung wird vorzugsweise durch das Computerprogrammprodukt vorgenommen.Computer program products generally comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific method that leads to a specific result. When the relevant program is used on a computer, the computer program product produces a technical effect, namely the localization of a vehicle occupant in a vehicle interior. In particular, vehicle occupant restraint systems are optimally parameterized as a function of this localization. This parameterization is preferably carried out by the computer program product.

Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Tiefenauswerteeinrichtung ausgeführt.The computer program product according to the invention is platform independent. That means it can run on any computing platform. The computer program product is preferably executed on a depth evaluation device according to the invention.

Die Erfindung wird in den beigefügten Figuren beispielhaft erläutert. Es zeigen:

  • 1 ein Ausführungsbeispiel eines Fahrzeuges mit einer erfindungsgemäßen Tiefenauswerteeinrichtung und einem erfindungsgemäßen Tiefenauswertungssystem,
  • 2: eine schematische Darstellung des erfindungsgemäßen Trainingsverfahrens und
  • 3 eine schematische Darstellung des erfindungsgemäßen Verfahrens.
The invention is illustrated by way of example in the accompanying figures. Show it:
  • 1 an embodiment of a vehicle with a depth evaluation device according to the invention and a depth evaluation system according to the invention,
  • 2 : a schematic representation of the training method according to the invention and
  • 3 a schematic representation of the method according to the invention.

1 zeigt ein Fahrzeug 1. Das Fahrzeug 1 ist ein Personenkraftwagen. In einem Fahrzeuginnenraum 3 des Fahrzeuges sitzt ein Fahrzeuginsasse 2 auf einem Fahrzeugsitz in der Position eines Fahrzeugfahrers. 1 shows a vehicle 1 . The vehicle 1 is a passenger car. In a vehicle interior 3 of the vehicle sits a vehicle occupant 2 on a vehicle seat in the position of a vehicle driver.

Das Fahrzeug 1 umfasst ein Tiefenauswertungssystem 20. Das Tiefenauswertungssystem 20 umfasst eine Monokamera 4. Die Monokamera 4 nimmt zweidimensionale Aufnahmen des Fahrzeuginsassen 2 mit einer Sicherheitsstufe von wenigstens ASIL B auf. ASIL steht für Automotive Safety Integrity Level und bezeichnet Sicherheitsstufen gemäß der Norm ISO 26262. Die Sicherheitsstufen unterscheiden sich in der geforderten Ausfallwahrscheinlichkeit. Bei ASIL B ist die empfohlene Ausfallwahrscheinlichkeit kleiner als 10-7 pro Betriebsstunde. Die Monokamera 4 ist an einem Lenkrad 6 angeordnet. Die Monokamera 4 hat ein breites Sichtfeld. Aus den Aufnahmen des Fahrzeuginsassen 2 generiert die Monokamera 4 erste, zweidimensionale, Bilddaten.The vehicle 1 includes an in-depth evaluation system 20th . The depth evaluation system 20th includes a mono camera 4th . The mono camera 4th takes two-dimensional images of the vehicle occupant 2 with a security level of at least ASIL B. ASIL stands for Automotive Safety Integrity Level and designates safety levels according to the ISO 26262 standard. The safety levels differ in the required failure probability. With ASIL B, the recommended failure probability is less than 10-7 per operating hour. The mono camera 4th is on a steering wheel 6th arranged. The mono camera 4th has a wide field of vision. From the recordings of the vehicle occupant 2 generates the mono camera 4th first, two-dimensional, image data.

Das Tiefenauswertungssystem 20 umfasst auch eine 3D-Kamera 5. Die 3D-Kamera 5 nimmt dreidimensionale Aufnahmen des Fahrzeuginsassen 2 mit einer Sicherheitsstufe von wenigstens ASIL B auf. Die 3D Kamera 5 ist eine TOF-Innenraumkamera. Die 3D-Kamera ist an einer Windschutzscheibe 7 des Fahrzeuges 1 angeordnet. Aus den Aufnahmen des Fahrzeuginsassen 2 generiert die 3D-Kamera zweite, dreidimensionale, Bilddaten.The depth evaluation system 20th also includes a 3D camera 5. The 3D camera 5 takes three-dimensional recordings of the vehicle occupant 2 with a security level of at least ASIL B. The 3D camera 5 is a TOF indoor camera. The 3D camera is on a windshield 7th of the vehicle 1 arranged. From the recordings of the vehicle occupant 2 the 3D camera generates second, three-dimensional, image data.

Alternativ ist eine weitere Monokamera 4 vorgesehen, die zum Beispiel an der Windschutzscheibe 7 des Fahrzeuges 1 angeordnet ist. Diese weitere Monokamera 4 kann die 3D-Kamera 5 ersetzen oder zusätzlich zu der 3D-Kamera 5 vorgesehen sein. Es können auch weitere 3D-Kameras 5 vorgesehen sein.Alternatively, there is another mono camera 4th provided, for example, on the windshield 7th of the vehicle 1 is arranged. This more mono camera 4th can replace the 3D camera 5 or be provided in addition to the 3D camera 5. Further 3D cameras 5 can also be provided.

Ferner umfasst das Tiefenauswertungssystem 20 eine Tiefenauswerteeinrichtung 10. Die Tiefenauswerteeinrichtung 10 ist beispielsweise ein Chip. Die Tiefenauswerteeinrichtung 10 ist als ein System-on-a-Chip realisiert, das heißt alle oder zumindest ein großer Teil der Funktionen sind auf einem Chip integriert. Der Chip umfasst beispielsweise einen Mehrkernprozessor mit wenigstens sechs zentralen Verarbeitungsprozessoren, im Englischen als Central Processing Unit, abgekürzt CPU, bezeichnet. Der Chip umfasst auch wenigstens 256 Grafikprozessoren, im Englischen als Graphic Processing Unit, abgekürzt GPU, bezeichnet. Mit einem derartigen Aufbau ist die Tiefenauswerteeinrichtung 10 skalierbar, das heißt die Tiefenauswerteeinrichtung 10 kann für verschiedene SAE-Level angepasst. Höhere Automatisierungsstufen erfordern nämlich mehr Rechenleistung als niedrigere Automatisierungsstufen.The depth evaluation system also includes 20th a depth evaluation device 10 . The depth evaluation device 10 is for example a Chip. The depth evaluation device 10 is implemented as a system-on-a-chip, i.e. all or at least a large part of the functions are integrated on one chip. The chip comprises, for example, a multi-core processor with at least six central processing processors, referred to as Central Processing Unit, abbreviated CPU. The chip also includes at least 256 graphics processors, referred to as Graphic Processing Unit, or GPU for short. The depth evaluation device has such a structure 10 scalable, i.e. the depth evaluation device 10 can be customized for different SAE levels. This is because higher automation levels require more computing power than lower automation levels.

Die Tiefenauswerteeinrichtung 10 umfasst eine erste Eingangsschnittstelle 11. Über die erste Eingangsschnittstelle 11 erhält die Tiefenauswerteeinrichtung 10 die ersten Bilddaten der Monokamera 4. Die Tiefenauswerteeinrichtung 10 umfasst auch eine zweite Eingangsschnittstelle 12. Über die zweite Eingangsschnittstelle 12 erhält die Tiefenauswerteeinrichtung 10 die zweiten Bilddaten 3D-Kamera 5.The depth evaluation device 10 comprises a first input interface 11 . Via the first input interface 11 receives the depth evaluation device 10 the first image data from the mono camera 4th . The depth evaluation device 10 also includes a second input interface 12th . Via the second input interface 12th receives the depth evaluation device 10 the second image data 3D camera 5.

Außerdem umfasst die Tiefenauswerteeinrichtung 10 eine dritte Eingangsschnittstelle 13. Über die dritte Eingangsschnittstelle 13 erhält die Tiefenauswerteeinrichtung 10 Sitzbelegungsdaten eines Sitzbelegungssensors 21. Der Sitzbelegungssensor 21 ist ein Gewichtssensor. Alternativ oder zusätzlich erhält die Tiefenauswerteeinrichtung 10 über die dritte Eingangsschnittstelle 13 Daten über eine Gurtauszugslänge.The depth evaluation device also includes 10 a third input interface 13th . Via the third input interface 13th receives the depth evaluation device 10 Seat occupancy data from a seat occupancy sensor 21st . The seat occupancy sensor 21st is a weight sensor. Alternatively or additionally, the depth evaluation device is provided 10 via the third input interface 13th Data on a belt extension length.

Die erste, zweite und/oder dritte Eingangsschnittstelle 11, 12, 13 sind vorzugsweise Schnittstellen in einem Bordnetz des Fahrzeuges 1.The first, second and / or third input interface 11 , 12th , 13th are preferably interfaces in an on-board network of the vehicle 1 .

Die Tiefenauswerteeinrichtung 10 umfasst einen Speicher 16. In den Speicher 16 ist ein künstliches neuronales Netzwerk 14 geladen. Die Tiefenauswerteeinrichtung 10 führt das künstliche neuronale Netzwerk 14 aus.The depth evaluation device 10 includes a memory 16 . In the memory 16 is an artificial neural network 14th loaded. The depth evaluation device 10 leads the artificial neural network 14th out.

Neuronen 15 einer Eingangsschicht des künstlichen neuronalen Netzwerks 14 erhalten als Eingangssignale die ersten und zweiten Bilddaten sowie die Sitzbelegungsdaten. Alternativ verarbeitet das künstliche neuronale Netzwerk 14 zunächst die ersten Bilddaten und anschließend die weiteren Daten. Zusätzlich kann ein weiteres künstliches neuronales Netzwerk 14 vorgesehen sein, um die weiteren Daten, also die zweiten Bilddaten und/oder die Sitzbelegungsdaten, zu verarbeiten. Das künstliche neuronale Netzwerk 14 weist eine Architektur von Neuronen 15, Verbindungen zwischen Neuronen und Schichten von Neuronen auf, mit der aus den Eingangssignalen erste und zweite Tiefeninformationen besonders effektiv erhalten werden. Hierzu umfasst das künstliche neuronale Netzwerk 14 mehrere Faltungs- und Poolingschichten. Die ersten und zweiten Tiefeninformationen werden in einer Ausgangsschicht des künstlichen neuronalen Netzwerks 14 als dessen Ausgangssignale bereitgestellt.Neurons 15th an input layer of the artificial neural network 14th receive the first and second image data and the seat occupancy data as input signals. Alternatively, the artificial neural network processes 14th first the first image data and then the further data. In addition, another artificial neural network 14th be provided in order to process the further data, that is to say the second image data and / or the seat occupancy data. The artificial neural network 14th exhibits an architecture of neurons 15th , Connections between neurons and layers of neurons, with which first and second depth information can be obtained particularly effectively from the input signals. This includes the artificial neural network 14th multiple layers of folding and pooling. The first and second depth information is in an output layer of the artificial neural network 14th provided as its output signals.

Die ersten Tiefeninformationen berechnet das künstliche neuronale Netzwerk 14 in Abhängigkeit der ersten, zweidimensionalen, Bilddaten der Monokamera 4. Hierzu ist das künstliche neuronale Netzwerk entsprechend trainiert. Die zweiten Tiefeninformationen berechnet das künstliche neuronale Netzwerk 14 in Abhängigkeit der zweiten, dreidimensionalen, Bilddaten der 3D-Kamera 5. Durch diese Berechnung werden die mit der 3D-Kamera 5 bereits erhaltenen Tiefeninformationen verbessert. The artificial neural network calculates the first depth information 14th depending on the first, two-dimensional, image data from the mono camera 4th . The artificial neural network is trained accordingly for this purpose. The artificial neural network calculates the second depth information 14th as a function of the second, three-dimensional, image data of the 3D camera 5. This calculation improves the depth information already obtained with the 3D camera 5.

Hierzu ist das künstliche neuronale Netzwerk entsprechend trainiert. Zur Verbesserung der Tiefenannahmen verwendet das künstliche neuronale Netzwerk 14 die Sitzbelegungsdaten.The artificial neural network is trained accordingly for this purpose. The artificial neural network is used to improve the depth assumptions 14th the seat occupancy data.

In Abhängigkeit der ersten und zweiten Tiefeninformationen berechnet die Tiefenauswerteeinrichtung ein erstes und ein zweites Oberflächenmodell des Fahrzeuginsassen 2. Ein Logikbaustein 18 fusioniert das erste und das zweite Oberflächenmodell. Alternativ prüft der Logikbaustein 18, ob das erste Oberflächenmodell redundant zu dem zweiten Oberflächenmodell ist. Der Logikbaustein 18 ist beispielsweise auf dem Chip der Tiefenauswerteeinrichtung integriert. Der Logikbaustein ist beispielsweise ein FPGA. Das aus dieser Fusion erhaltene Oberflächenmodell wird über eine Ausgangsschnittstelle 17 der Tiefenauswerteeinrichtung einem Fahrzeuginsassen-Rückhaltesystem 22 bereitgestellt. Das Fahrzeuginsassen-Rückhaltesystem 22 ist umfasst zum Beispiel einen Aktuator für eine Gurtlängenverstellung. In Abhängigkeit des Oberflächenmodells wird der Aktuator die Gurtlänge optimal an die Oberfläche des Fahrzeuginsassen 2 anpassen.Depending on the first and second depth information, the depth evaluation device calculates a first and a second surface model of the vehicle occupant 2 . A logic module 18th merges the first and second surface models. Alternatively, the logic module checks 18th whether the first surface model is redundant to the second surface model. The logic module 18th is integrated, for example, on the chip of the depth evaluation device. The logic module is, for example, an FPGA. The surface model obtained from this fusion is transmitted via an output interface 17th the depth evaluation device to a vehicle occupant restraint system 22nd provided. The vehicle occupant restraint system 22nd is includes, for example, an actuator for belt length adjustment. Depending on the surface model, the actuator adjusts the belt length optimally to the surface of the vehicle occupant 2 to adjust.

Die Tiefenauswerteeinrichtung 10 ist insbesondere ausgeführt, nur aus den mittels den ersten, zweidimensionalen, Bilddaten der Monokamera 4 berechneten ersten Tiefeninformationen ein erstes Oberflächenmodell zur Lokalisierung des Fahrzeuginsassen 2 bereitzustellen. Durch das Erzeugen der ersten Tiefeninformation ist es möglich, wie bei einer TOF- oder Stereokamera in der weiteren Verarbeitung ein Oberflächenmodell des Fahrzeuginsassen 2 zu generieren, und dadurch im Weiteren ein Skelettmodell, Ablenkungsgrad und Lokalisierung des Fahrzeuginsassen zu berechnen.The depth evaluation device 10 is implemented in particular only from the mono camera using the first, two-dimensional image data 4th calculated first depth information a first surface model for localizing the vehicle occupant 2 to provide. By generating the first depth information, it is possible to use a surface model of the vehicle occupant for further processing, as in the case of a TOF or stereo camera 2 to generate, and thereby also to calculate a skeleton model, degree of distraction and localization of the vehicle occupant.

Das erfindungsgemäße Trainingsverfahren für das künstliche neuronale Netzwerk 14 ist in 2 gezeigt.The training method according to the invention for the artificial neural network 14th is in 2 shown.

In einem Verfahrensschritt T1 werden Trainingsdaten erhalten. Die Trainingsdaten sind beispielsweise wenigstens zweidimensionale Bilddaten der Monokamera 4 und zu der jeweiligen Aufnahme gehörende erste Soll-Tiefeninformationen.In one process step T1 training data are obtained. The training data are, for example, at least two-dimensional image data from the mono camera 4th and first target depth information associated with the respective recording.

In einem Verfahrensschritt T2 wird das künstliche neuronale Netzwerk mit den Trainingsdaten vorwärtsgespeist.In one process step T2 the artificial neural network is fed forward with the training data.

In dieser Vorwärtsspeisung werden mit dem künstlichen neuronalen Netzwerk 14 berechneten erste Ist-Tiefeninformationen in einem dritten Verfahrensschritt T3 erhalten.This feed forward is made with the artificial neural network 14th calculated first actual depth information in a third method step T3 receive.

In einem vierten Verfahrensschritt T4 werden Gewichte für Verbindungen der Neuronen 15 des künstlichen neuronalen Netzwerks 14 durch Minimierung eines Fehler zwischen den ersten Ist-Tiefeninformationen und den ersten Soll-Tiefeninformationen in einer Rückwärtsspeisung des künstlich neuronalen Netzwerk 14 erhalten. Durch die Rückwärtsspeisung erhält man den Gradienten des Fehlers in Abhängigkeit der Gewichte und damit eine Gewichtsänderung, die den Fehler minimieren sollte. Durch Wiederholen des Verfahrens ab Verfahrensschritt T1, insbesondere mit einer potentiell anderen Teilmenge der Trainingsdaten, wird der Fehler iterativ immer weiter verringert. Die Validierungsdaten werden nach einigen Iterationen immer wieder verwendet, um den Fehler auf nicht gesehenen Daten zu überprüfen. So kann man zum Beispiel entscheiden, das Training früh zu beenden, weil der Fehler auf den Validierungsdaten eventuell wieder wächst, da in dem Fall das Netzwerk die Trainingsdaten „auswendig lernt“ und es zu Overfitting kommt.In a fourth process step T4 become weights for connections of neurons 15th of the artificial neural network 14th by minimizing an error between the first actual depth information and the first target depth information in a reverse feed of the artificial neural network 14th receive. The backward feed gives the gradient of the error as a function of the weights and thus a weight change that should minimize the error. By repeating the procedure from step T1 , in particular with a potentially different subset of the training data, the error is iteratively reduced more and more. The validation data is used over and over again after a few iterations to check the error for data that has not been seen. For example, you can decide to end the training early because the error in the validation data may grow again, since in that case the network “learns by heart” the training data and overfitting occurs.

Mit dem Trainingsverfahren wird das künstliche neuronale Netzwerk 14 trainiert, aus den wenigstens ersten Bilddaten erste Tiefeninformationen zu erhalten.With the training method, the artificial neural network becomes 14th trained to obtain first depth information from the at least first image data.

Das Verfahren zur Lokalisierung des Fahrzeuginsassen 2 in dem Fahrzeuginnenraum 3 ist in 3 gezeigt.The procedure for locating the vehicle occupant 2 in the vehicle interior 3 is in 3 shown.

In einem Verfahrensschritt V1 werden erste Bilddaten einer Aufnahme des Fahrzeuginsassen 2 erhalten. Die ersten Bilddaten werden beispielsweise mit der Monokamera 4 erhalten. In einem Verfahrensschritt V1a werden zweite Bilddaten erhalten. Die zweiten Bilddaten werden beispielsweise mit der 3D-Kamera erhalten.In one process step V1 are first image data of a recording of the vehicle occupant 2 receive. The first image data are for example with the mono camera 4th receive. Second image data are obtained in a method step V1a. The second image data are obtained, for example, with the 3D camera.

In einem Verfahrensschritt V2 wird das künstliche neuronale Netzwerks 14 mit den ersten Bilddaten vorwärtsgespeist. Zeitlich davor, parallel oder danach wird das künstliche neuronale Netzwerk mit den zweiten Bilddaten in einem Verfahrensschritt V2a vorwärtsgespeist. Das künstliche neuronale Netzwerk 14 ist ein nach dem erfindungsgemäßen Trainingsverfahren trainiertes künstliches neuronales Netzwerk.In one process step V2 becomes the artificial neural network 14th fed forward with the first image data. In time before, in parallel or afterwards, the artificial neural network is fed forward with the second image data in a method step V2a. The artificial neural network 14th is an artificial neural network trained according to the training method according to the invention.

In dieser Vorwärtsspeisung werden in einem Verfahrensschritt V3 erste Tiefeninformationen in Abhängigkeit der ersten Bilddaten erhalten. Entsprechend werden in einem Verfahrensschritt V3a zweite Tiefeninformationen in Abhängigkeit der zweiten Bilddaten erhalten.In this feed forward are in one process step V3 receive first depth information as a function of the first image data. Correspondingly, in a method step V3a, second depth information is obtained as a function of the second image data.

In einem Verfahrensschritt V4 wird in Abhängigkeit der ersten Tiefeninformationen ein erstes Oberflächenmodell des Fahrzeuginsassen 2. Entsprechend wird in einem Verfahrensschritt V4a in Abhängigkeit der zweiten Tiefeninformationen ein zweites Oberflächenmodell des Fahrzeuginsassen 2 erhalten.In one process step V4 becomes a first surface model of the vehicle occupant depending on the first depth information 2 . Accordingly, in a method step V4a, a second surface model of the vehicle occupant is generated as a function of the second depth information 2 receive.

In einem Verfahrensschritt V5 wird in Abhängigkeit des ersten Oberflächenmodells die Lokalisierung des Fahrzeuginsassen 2 in dem Fahrzeuginnenraum 3 erhalten.In one process step V5 the localization of the vehicle occupant is dependent on the first surface model 2 in the vehicle interior 3 receive.

Das zweite Oberflächenmodell wird mit dem ersten Oberflächenmodell in einem Verfahrensschritt V6 fusioniert.The second surface model is combined with the first surface model in one process step V6 merged.

Die Lokalisierung des Fahrzeuginsassen 2 wird in Abhängigkeit dieser Fusion in einem Verfahrensschritt V7 berechnet.The localization of the vehicle occupant 2 is dependent on this merger in one process step V7 calculated.

In einem Verfahrensschritt V8 werden bei dem Erhalten wenigstens eines der Oberflächenmodelle Sitzbelegungsdaten des Sitzbelegungssensors 21 über eine Fahrzeugsitzbelegung des Fahrzeuginsassen 2 eingelesen, um eine Tiefenschätzung zu verbessern. Die Sitzbelegungsdaten können auch mit den jeweiligen Tiefeninformationen fusioniert werden.In one process step V8 when at least one of the surface models is obtained, seat occupancy data of the seat occupancy sensor 21st via a vehicle seat occupancy of the vehicle occupant 2 read in to improve a depth estimate. The seat occupancy data can also be merged with the respective depth information.

Die Lokalisierung des Fahrzeuginsassen 2 wird in einem Verfahrensschritt V9 dem Fahrzeuginsassen-Rückhaltesystem 22 bereitgestellt. Parameter des Fahrzeuginsassen-Rückhaltesystems 22 werden in einem Verfahrensschritt V10 an die Lokalisierung des Fahrzeuginsassen 2 angepasst.The localization of the vehicle occupant 2 is in one process step V9 the vehicle occupant restraint system 22nd provided. Vehicle occupant restraint system parameters 22nd are in one process step V10 the localization of the vehicle occupant 2 customized.

Claims (12)

Tiefenauswerteeinrichtung (10) für ein Fahrzeug (1) zur Lokalisierung eines Fahrzeuginsassen (2) in einem Fahrzeuginnenraum (3) umfassend • eine erste Eingangsschnittstelle (11), um erste Bilddaten einer Aufnahme des Fahrzeuginsassen (2) zu erhalten, • eine zweite Eingangsschnittstelle (12), um zweite Bilddaten einer Aufnahme des Fahrzeuginsassen (2) zu erhalten, • wobei die ersten Bilddaten die Bilddaten einer Monokamera (4) und die zweiten Bilddaten die Bilddaten einer 3D-Kamera (5) sind, • ein künstliches neuronales Netzwerk (14), o wobei die Tiefenauswerteeinrichtung (10) ausgeführt ist, das künstliche neuronale Netzwerk (14) auszuführen, wenn das künstliche neuronale Netzwerk (14) in einem Speicher (16) der Tiefenauswerteeinrichtung (10) geladen ist, o wobei das künstliche neuronale Netzwerk (14) ausgeführt ist, in Abhängigkeit der ersten Bilddaten erste Tiefeninformationen aus den ersten Bilddaten zu erhalten und in Abhängigkeit der zweiten Bilddaten zweite Tiefeninformationen aus den zweiten Bilddaten zu erhalten, • wobei die Tiefenauswerteeinrichtung (10) ausgeführt ist, o in Abhängigkeit der ersten Tiefeninformationen ein erstes Oberflächenmodell des Fahrzeuginsassen (2) zu erhalten, o in Abhängigkeit der zweiten Tiefeninformationen ein zweites Oberflächenmodell des Fahrzeuginsassen (2) zu erhalten o in Abhängigkeit des ersten Oberflächenmodells die Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) zu berechnen, o in Abhängigkeit des zweiten Oberflächenmodells die Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) zu berechnen, o wobei die Tiefenauswerteeinrichtung (10) einen Logikbaustein (18) umfasst, der ausgeführt ist, das erste Oberflächenmodell mit dem zweiten Oberflächenmodell zu fusionieren, o wobei die Tiefenauswerteeinrichtung (10) ausgeführt ist, in Abhängigkeit dieser Fusion die Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) zu berechnen und • eine Ausgangsschnittstelle (17), um wenigstens die Lokalisierung des Fahrzeuginsassen (2) bereitzustellen.Depth evaluation device (10) for a vehicle (1) for localizing a vehicle occupant (2) in a vehicle interior (3) comprising • a first input interface (11) to receive first image data of a recording of the vehicle occupant (2), • a second input interface ( 12) in order to obtain second image data of a recording of the vehicle occupant (2), • the first image data being the image data of a mono camera (4) and the second image data being the image data of a 3D camera (5), • an artificial neural network (14), o the depth evaluation device (10) being implemented, the artificial neural network (14) to be carried out when the artificial neural network (14) is loaded in a memory (16) of the depth evaluation device (10), o the artificial neural network (14) being implemented, depending on the first image data, first depth information from the first image data and to obtain second depth information from the second image data as a function of the second image data, wherein the depth evaluation device (10) is designed to obtain a first surface model of the vehicle occupant (2) as a function of the first depth information, o as a function of the second depth information to obtain a second surface model of the vehicle occupant (2) depending on the first surface hen model to calculate the localization of the vehicle occupant (2) in the vehicle interior (3), o to calculate the localization of the vehicle occupant (2) in the vehicle interior (3) as a function of the second surface model, o wherein the depth evaluation device (10) includes a logic module (18 ), which is designed to merge the first surface model with the second surface model, o wherein the depth evaluation device (10) is designed to calculate the localization of the vehicle occupant (2) in the vehicle interior (3) as a function of this merger and • an output interface (17) in order to provide at least the localization of the vehicle occupant (2). Tiefenauswerteeinrichtung (10) nach Anspruch 1, wobei die ersten Bilddaten zweidimensionale Bilddaten einer 3D-Kamera (5) oder dreidimensionale Bilddaten der 3D-Kamera (5) sind.Depth evaluation device (10) Claim 1 wherein the first image data are two-dimensional image data of a 3D camera (5) or three-dimensional image data of the 3D camera (5). Tiefenauswerteeinrichtung (10) nach Anspruch 1, • wobei die Tiefenauswerteeinrichtung (10) wenigstens eine dritte Eingangsschnittstelle (13) umfasst, um Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen (2) zu erhalten, und • wobei das künstliche neuronale Netzwerk (14) ausgeführt ist, die ersten und/oder zweiten Tiefeninformationen in Abhängigkeit der Sitzbelegungsdaten und/oder der ersten und/oder zweiten Bilddaten zu erhalten, • wobei die Tiefenauswerteeinrichtung (10) ausgeführt ist, in Abhängigkeit der Sitzeinstellungen ein Sitzmodell zu berechnen und das Sitzmodell in die Aufnahme des Fahrzeuginsassen (2) zu projizieren.Depth evaluation device (10) Claim 1 , • wherein the depth evaluation device (10) comprises at least one third input interface (13) in order to receive seat occupancy data about vehicle seat occupancy of the vehicle occupant (2), and • wherein the artificial neural network (14) is implemented, the first and / or second depth information as a function of the seat occupancy data and / or the first and / or second image data, the depth evaluation device (10) being designed to calculate a seat model as a function of the seat settings and to project the seat model into the receptacle of the vehicle occupant (2). Tiefenauswertungssystem (20) für ein Fahrzeug (1) zur Lokalisierung eines Fahrzeuginsassen (2) in einem Fahrzeuginnenraum (3) umfassend • wenigstens eine Monokamera (4) und • eine Tiefenauswerteeinrichtung (10) nach einem der Ansprüche 1 bis 3 um die Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) zu berechnen, wobei ein Datenaustausch zwischen der Monokamera (4) und der Tiefenauswerteeinrichtung (10) über die erste Eingangsschnittstelle (11) erfolgt.Depth evaluation system (20) for a vehicle (1) for localizing a vehicle occupant (2) in a vehicle interior (3) comprising • at least one mono camera (4) and • a depth evaluation device (10) according to one of the Claims 1 to 3 to calculate the localization of the vehicle occupant (2) in the vehicle interior (3), data being exchanged between the mono camera (4) and the depth evaluation device (10) via the first input interface (11). Tiefenauswertungssystem (20) nach Anspruch 4, • wobei die Tiefenauswerteeinrichtung (10) eine Tiefenauswerteeinrichtung (10) nach Anspruch 1 oder 3 ist, • wobei das Tiefenauswertungssystem (20) wenigstens eine 3D-Kamera (5) umfasst, o wobei ein Datenaustausch zwischen der 3D-Kamera (5) und der Tiefenauswerteeinrichtung (10) über die zweite Eingangsschnittstelle (12) erfolgt, und • wobei die Monokamera (4) an einem Lenkrad (6) des Fahrzeuges (1) und/oder die 3D-Kamera (5) an einer Windschutzscheibe (7) des Fahrzeuges (1) anordenbar sind.Depth evaluation system (20) Claim 4 , • wherein the depth evaluation device (10) has a depth evaluation device (10) Claim 1 or 3 is, • wherein the depth evaluation system (20) comprises at least one 3D camera (5), o wherein a data exchange between the 3D camera (5) and the depth evaluation device (10) takes place via the second input interface (12), and • wherein the Mono camera (4) can be arranged on a steering wheel (6) of the vehicle (1) and / or the 3D camera (5) can be arranged on a windshield (7) of the vehicle (1). Tiefenauswertungssystem (20) nach Anspruch 4 oder 5, • wobei die Tiefenauswerteeinrichtung (10) eine Tiefenauswerteeinrichtung (10) nach Anspruch 3 ist, • wobei das Tiefenauswertungssystem (20) einen Sitzbelegungssensor (21) umfasst, um Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen (2) zu erhalten, wobei ein Datenaustausch zwischen dem Sitzbelegungssensor (21) und der Tiefenauswerteeinrichtung über die dritte Eingangsschnittstelle (13) erfolgt.Depth evaluation system (20) Claim 4 or 5 , • wherein the depth evaluation device (10) has a depth evaluation device (10) Claim 3 • wherein the depth evaluation system (20) comprises a seat occupancy sensor (21) in order to obtain seat occupancy data on vehicle seat occupancy of the vehicle occupant (2), data being exchanged between the seat occupancy sensor (21) and the depth evaluation device via the third input interface (13). Tiefenauswertungssystem (20) nach einem der Ansprüche 4 bis 6, wobei das Tiefenauswertungssystem (20) ein Fahrzeuginsassen-Rückhaltesystem (22) umfasst und wobei ein Datenaustausch zwischen dem Fahrzeuginsassen-Rückhaltesystem (22) und der Tiefenauswerteeinrichtung (10) über die Ausgangsschnittstelle (17) erfolgt, um Parameter des Fahrzeuginsassen-Rückhaltesystem (22) an die Lokalisierung des Fahrzeuginsassen (2) anzupassen.Depth evaluation system (20) according to one of the Claims 4 to 6th , wherein the depth evaluation system (20) comprises a vehicle occupant restraint system (22) and an exchange of data between the vehicle occupant restraint system (22) and the depth evaluation device (10) takes place via the output interface (17) in order to determine parameters of the vehicle occupant restraint system (22) to adapt to the localization of the vehicle occupant (2). Tiefenauswertungssystem (20) nach einem der Ansprüche 4 bis 7, wobei das Tiefenauswertungssystem (20) eine Anzeigevorrichtung umfasst, um das erste Oberflächenmodell, das zweite Oberflächenmodell, das aus dem ersten und zweiten Oberflächenmodell fusionierte Oberflächenmodell und/oder die Lokalisierung des Fahrzeuginsassen (2) anzuzeigen.Depth evaluation system (20) according to one of the Claims 4 to 7th wherein the depth evaluation system (20) comprises a display device to display the first surface model, the second surface model, the surface model merged from the first and second surface model and / or the location of the vehicle occupant (2). Trainingsverfahren für ein künstlich neuronales Netzwerks (14) zur Berechnung von Tiefeninformationen umfassend die folgenden Verfahrensschritte: • Erhalten von Trainingsdaten, wobei die Trainingsdaten wenigstens zweidimensionale Bilddaten einer Monokamera (4) einer Aufnahme des Fahrzeuginsassen (2), zu der jeweiligen Aufnahme gehörende erste Soll-Tiefeninformationen und/oder zu der jeweiligen Aufnahme gehörende Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen (2) umfassen (T1), • Vorwärtsspeisen des künstlich neuronalen Netzwerks mit den Trainingsdaten (T2), • in dieser Vorwärtsspeisung Erhalten von mit dem künstlich neuronalen Netzwerk (14) berechneten ersten Ist-Tiefeninformationen (T3) und • Erhalten von Gewichten für Verbindungen von Neuronen (15) des künstlichen neuronalen Netzwerks (14) durch Minimierung eines Fehler zwischen den ersten Ist-Tiefeninformationen und den ersten Soll-Tiefeninformationen in einer Rückwärtsspeisung des künstlich neuronalen Netzwerk (14) (T4), um das künstlich neuronale Netzwerk (14) zu trainieren, aus den wenigstens ersten Bilddaten erste Tiefeninformationen zu erhalten.Training method for an artificial neural network (14) for calculating depth information comprising the following method steps: Obtaining training data, the training data being at least two-dimensional image data from a mono camera (4) of a recording of the vehicle occupant (2), first target values belonging to the respective recording Depth information and / or seat occupancy data belonging to the respective recording about vehicle seat occupancy of the vehicle occupant (2) include (T1), • Feeding the artificial neural network forward with the training data (T2), • Receiving this forward feed with the artificial neural network (14) calculated first actual depth information (T3) and • obtaining weights for connections of neurons (15) of the artificial neural network (14) by minimizing an error between the first actual depth information and the first target depth information in a backward feed of the artificial neural network rk (14) (T4), in order to train the artificial neural network (14) to obtain first depth information from the at least first image data. Verfahren zur Lokalisierung eines Fahrzeuginsassen (2) in einem Fahrzeuginnenraum (3) umfassend wenigstens die folgenden Verfahrensschritte: • Erhalten von ersten Bilddaten einer Aufnahme des Fahrzeuginsassen (2 (V1), • Vorwärtsspeisen eines künstlichen neuronalen Netzwerks (14) mit den ersten Bilddaten, wobei das künstliche neuronale Netzwerk (14) nach dem Trainingsverfahren nach Anspruch 10 trainiert ist (V2), • in dieser Vorwärtsspeisung Erhalten von ersten Tiefeninformationen in Abhängigkeit der ersten Bilddaten (V3), • in Abhängigkeit der ersten Tiefeninformationen Erhalten eines ersten Oberflächenmodell des Fahrzeuginsassen (2) (V4), • in Abhängigkeit des ersten Oberflächenmodells Berechnen der Lokalisierung des Fahrzeuginsassen (2) in dem Fahrzeuginnenraum (3) (V5). wobei • zweite Bilddaten erhalten werden (V1a), • das künstliche neuronale Netzwerk (14) mit den zweiten Bilddaten vorwärts gespeist wird (V2a), • zweite Tiefeninformationen in dieser Vorwärtsspeisung in Abhängigkeit der zweiten Bilddaten erhalten werden (V3a), • in Abhängigkeit der zweiten Tiefeninformationen ein zweites Oberflächenmodell des Fahrzeuginsassen (2) erhalten wird (V4a), • das zweite Oberflächenmodell mit dem ersten Oberflächenmodell fusioniert wird (V6) und • die Lokalisierung des Fahrzeuginsassen (2) in Abhängigkeit dieser Fusion berechnet wird (V7), • wobei bei dem Erhalten wenigstens eines der Oberflächenmodelle Sitzbelegungsdaten über eine Fahrzeugsitzbelegung des Fahrzeuginsassen eingelesen werden, um eine Tiefenschätzung zu verbessern (V8), • wobei zur Durchführung des Verfahrens eine Tiefenauswerteeinrichtung (10) nach einem der Ansprüche 1 bis 3 oder ein Tiefenauswertungssystem (20) nach einem der Ansprüche 4 bis 8 verwendet wird.A method for localizing a vehicle occupant (2) in a vehicle interior (3) comprising at least the following method steps: • obtaining first image data of a recording of the vehicle occupant (2 (V1) • forwarding an artificial neural network (14) with the first image data, wherein the artificial neural network (14) after the training process Claim 10 is trained (V2), • in this feed forward, receiving first depth information as a function of the first image data (V3), • as a function of the first depth information, receiving a first surface model of the vehicle occupant (2) (V4), • as a function of the first surface model, calculating the Localization of the vehicle occupant (2) in the vehicle interior (3) (V5). where • second image data are obtained (V1a), • the artificial neural network (14) is fed forward with the second image data (V2a), • second depth information is obtained in this forward feed as a function of the second image data (V3a), • as a function of the second depth information a second surface model of the vehicle occupant (2) is obtained (V4a), • the second surface model is fused with the first surface model (V6) and • the localization of the vehicle occupant (2) is calculated as a function of this fusion (V7), • where When at least one of the surface models is obtained, seat occupancy data about vehicle seat occupancy of the vehicle occupant are read in in order to improve a depth estimate (V8), wherein a depth evaluation device (10) according to one of the Claims 1 to 3 or a depth evaluation system (20) according to one of the Claims 4 to 8th is used. Verfahren nach Anspruch 10, wobei die Lokalisierung des Fahrzeuginsassen (2) einem Fahrzeuginsassen-Rückhaltesystem (22), einem Ablenkungserkennungssystem und/oder einem Müdigkeitserkennungssystem bereitgestellt wird (V9) und Parameter des Fahrzeuginsassen-Rückhaltesystems (22), des Ablenkungserkennungssystems und/oder des Müdigkeitserkennungssystems an die Lokalisierung des Fahrzeuginsassen (2) angepasst werden (V10).Procedure according to Claim 10 , the localization of the vehicle occupant (2) being provided to a vehicle occupant restraint system (22), a distraction detection system and / or a drowsiness detection system (V9) and parameters of the vehicle occupant restraint system (22), the distraction detection system and / or the drowsiness detection system to the localization of the Vehicle occupants (2) are adapted (V10). Computerprogrammprodukt zum Lokalisieren eines Fahrzeuginsassen (2) in einem Fahrzeuginnenraum (3), wobei das Computerprogrammprodukt • ausgeführt ist, in einen Speicher eines Computers geladen zu werden und • Softwarecodeabschnitte umfasst, mit denen die Verfahrensschritte des Verfahrens nach einem der Ansprüche 10 bis 11 ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.Computer program product for locating a vehicle occupant (2) in a vehicle interior (3), wherein the computer program product • is designed to be loaded into a memory of a computer and • comprises software code sections with which the method steps of the method according to one of the Claims 10 to 11 be executed when the computer program product is running on the computer.
DE102018206777.5A 2018-05-02 2018-05-02 Depth evaluation for the localization of a vehicle occupant in a vehicle interior Active DE102018206777B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018206777.5A DE102018206777B4 (en) 2018-05-02 2018-05-02 Depth evaluation for the localization of a vehicle occupant in a vehicle interior

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018206777.5A DE102018206777B4 (en) 2018-05-02 2018-05-02 Depth evaluation for the localization of a vehicle occupant in a vehicle interior

Publications (2)

Publication Number Publication Date
DE102018206777A1 DE102018206777A1 (en) 2019-11-07
DE102018206777B4 true DE102018206777B4 (en) 2020-12-10

Family

ID=68276371

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018206777.5A Active DE102018206777B4 (en) 2018-05-02 2018-05-02 Depth evaluation for the localization of a vehicle occupant in a vehicle interior

Country Status (1)

Country Link
DE (1) DE102018206777B4 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111194283B (en) 2017-05-15 2022-10-21 乔伊森安全系统收购有限责任公司 Detection and monitoring of passenger safety belts
DE102019212408A1 (en) * 2019-08-20 2021-02-25 Zf Friedrichshafen Ag Method for determining body weight and / or sitting position, control unit and motor vehicle
US11807181B2 (en) 2020-10-27 2023-11-07 GM Global Technology Operations LLC Vision-based airbag enablement
DE102021200306A1 (en) 2021-01-14 2022-07-14 Volkswagen Aktiengesellschaft Method for analyzing a person's posture and/or movement
DE102022111941B3 (en) 2022-05-12 2023-11-16 Cariad Se Method and system for generating images in a motor vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10133759A1 (en) * 2001-07-11 2003-01-30 Daimler Chrysler Ag Passenger identification device for control of seatbelt guidance system for use in road vehicle has image sensor and pattern recognition device
WO2004094196A1 (en) * 2003-04-24 2004-11-04 Robert Bosch Gmbh Device and method for calibrating an image sensor
DE102006024979A1 (en) * 2005-06-21 2007-02-15 Trw Automotive U.S. Llc, Livonia Method and apparatus for detecting the presence of an occupant within a vehicle
DE102006045218A1 (en) * 2005-11-02 2007-05-03 Lear Corporation, Southfield Method for inputting determination into registration algorithm in passenger classification system involves producing sample identification algorithm as function of series of sensor signals
DE102011113081A1 (en) * 2011-09-09 2013-03-14 Volkswagen Aktiengesellschaft Method for generating face model of driver of motor vehicle, involves identifying position of driver's head in driver image to determine face area, and generating preliminary face model from training data extracted from driver image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10133759A1 (en) * 2001-07-11 2003-01-30 Daimler Chrysler Ag Passenger identification device for control of seatbelt guidance system for use in road vehicle has image sensor and pattern recognition device
WO2004094196A1 (en) * 2003-04-24 2004-11-04 Robert Bosch Gmbh Device and method for calibrating an image sensor
DE102006024979A1 (en) * 2005-06-21 2007-02-15 Trw Automotive U.S. Llc, Livonia Method and apparatus for detecting the presence of an occupant within a vehicle
DE102006045218A1 (en) * 2005-11-02 2007-05-03 Lear Corporation, Southfield Method for inputting determination into registration algorithm in passenger classification system involves producing sample identification algorithm as function of series of sensor signals
DE102011113081A1 (en) * 2011-09-09 2013-03-14 Volkswagen Aktiengesellschaft Method for generating face model of driver of motor vehicle, involves identifying position of driver's head in driver image to determine face area, and generating preliminary face model from training data extracted from driver image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MEHTA, Dushyant [u.a.]; Cornell University Library: Monocular 3D Human Pose Estimation In The Wild Using Improved CNN Supervision. 2016. URL: https://arxiv.org/abs/1611.09813 [abgerufen am 2018-08-29]. *

Also Published As

Publication number Publication date
DE102018206777A1 (en) 2019-11-07

Similar Documents

Publication Publication Date Title
DE102018206777B4 (en) Depth evaluation for the localization of a vehicle occupant in a vehicle interior
DE102020112314A1 (en) VERIFICATION OF VEHICLE IMAGES
EP3537384A2 (en) Visual surround-view-system for monitoring vehicle interiors
DE102004057947B4 (en) Method for functional testing of a driver assistance system integrated on the vehicle side
DE102006054571A1 (en) Reality reality generator for generating training images for a pattern recognition classifier
DE10318500A1 (en) Device and method for calibrating an image sensor
EP3392111A1 (en) Method and device for determining a visual deflection of a driver of a vehicle
DE102014108858A1 (en) Method and apparatus for estimating and tracking the shape and pose of a three-dimensional object
DE102020200911B3 (en) Method for recognizing objects in the surroundings of a vehicle
WO2021170421A1 (en) Method for operating data glasses in a motor vehicle and system comprising a motor vehicle and data glasses
DE10226257A1 (en) Method for detecting a person in a room
DE102022123680A1 (en) OBJECT POSE ESTIMATION
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE102019125920A1 (en) Eyeball information acquisition device, eyeball information acquisition method and occupant monitoring device
DE102019201134B4 (en) Method, computer program with instructions and system for measuring augmented reality glasses and augmented reality glasses for use in a motor vehicle
DE102017206396A1 (en) Control method, control unit, environment detection system and mobile and / or stationary equipment
DE102019125918A1 (en) Occupant monitoring device, occupant monitoring method and occupant monitoring program
DE102018222526A1 (en) Method and control device for detecting an object
DE102021112630B4 (en) Vision-based airbag release
DE102013102528B4 (en) Method for determining an installation position of an interior sensor system in a vehicle
DE102019127322A1 (en) Method for detecting objects in a vehicle environment, device for data processing, computer program product and computer-readable data carrier
DE102018207975B4 (en) Method and system for recognizing a posture and / or a movement of a vehicle occupant
WO2017129306A1 (en) Method and device for locating a head of a driver in a vehicle and head localization system
DE102019209849B4 (en) Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device
EP3553562A1 (en) Functional security for three-dimensional internal camera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final