DE102017201603A1 - Method and control unit for determining the position of a point of view - Google Patents
Method and control unit for determining the position of a point of view Download PDFInfo
- Publication number
- DE102017201603A1 DE102017201603A1 DE102017201603.5A DE102017201603A DE102017201603A1 DE 102017201603 A1 DE102017201603 A1 DE 102017201603A1 DE 102017201603 A DE102017201603 A DE 102017201603A DE 102017201603 A1 DE102017201603 A1 DE 102017201603A1
- Authority
- DE
- Germany
- Prior art keywords
- conv
- image
- determining
- different
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7557—Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
Es wird ein Verfahren (300) zur Ermittlung der Position eines Gesichtspunktes (122) auf Basis von Bilddaten (112), die ein Bild (203) eines Kopfes (120) umfassen, beschrieben. Das Verfahren (300) umfasst das Ermitteln (301) einer Vielzahl von Blöcken (201) des Bildes (203), wobei ein Block (201) einen Teilbereich des Bildes (203) umfasst. Außerdem umfasst das Verfahren (300) das Abbilden (302) der Vielzahl von Blöcken (201) auf eine entsprechende Vielzahl von Merkmalswerten (211) von K unterschiedlichen Merkmals-Karten (210) mittels K unterschiedlicher Faltungs-Gewichtsvektoren β(202), mit k = 1, ..., K und mit K > 1. Dabei wurden die K unterschiedlichen Faltungs-Gewichtsvektoren β(202) mittels einer Maschine-Lern-Methode auf Basis von Trainingsdaten ermittelt. Außerdem umfasst das Verfahren das Ermitteln (303) der Position zumindest eines Gesichtspunktes (122) auf Basis der K unterschiedlichen Merkmals-Karten (210).A method (300) for determining the position of a viewpoint (122) based on image data (112) comprising an image (203) of a head (120) is described. The method (300) comprises determining (301) a plurality of blocks (201) of the image (203), wherein a block (201) comprises a subregion of the image (203). In addition, the method (300) comprises mapping (302) the plurality of blocks (201) to a corresponding plurality of feature values (211) of K different feature maps (210) using K different convolution weight vectors β (202), k = 1, ..., K and with K> 1. The K different convolution weight vectors β (202) were determined by means of a machine-learning method on the basis of training data. In addition, the method includes determining (303) the position of at least one viewpoint (122) based on the K distinct feature maps (210).
Description
Die Erfindung betrifft ein Verfahren und eine entsprechende Steuereinheit zur Erkennung von Gesichtspunkten und zur Bestimmung der Position von Gesichtspunkten, insbesondere um den Zustand eines Fahrers und/oder die Kopfhaltung eines Fahrers eines Fahrzeugs zu ermitteln.The invention relates to a method and a corresponding control unit for detecting aspects and for determining the position of aspects, in particular in order to determine the condition of a driver and / or the head posture of a driver of a vehicle.
In einem Fahrzeuge können Funktionen in Abhängigkeit von dem Zustand eines Fahrers des Fahrzeugs und/oder in Abhängigkeit von der Kopfhaltung bzw. Blickrichtung des Fahrers des Fahrzeugs bereitgestellt werden. Beispielsweise kann eine zumindest teilautonome Fahrfunktion automatisch aktiviert werden, wenn erkannt wird, dass der Fahrer eines Fahrzeugs den Blick vom Verkehr abgewendet hat.In a vehicle, functions may be provided depending on the condition of a driver of the vehicle and / or depending on the head position or gaze direction of the driver of the vehicle. For example, an at least partially autonomous driving function can be activated automatically when it is detected that the driver of a vehicle has averted his eyes from traffic.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe, ein Verfahren und eine Steuereinheit bereitzustellen, durch die in effizienter, zuverlässiger und robuster Weise Gesichtspunkte eines Menschen erkannt und lokalisiert werden können, insbesondere um den Zustand und/oder die Kopfhaltung eines Fahrers eines Fahrzeugs zu bestimmen.The present document deals with the technical problem of providing a method and a control unit, by means of which the aspects of a person can be identified and located in an efficient, reliable and robust manner, in particular in order to determine the condition and / or the head posture of a driver of a vehicle ,
Die Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.The object is solved by the features of the independent claims. Advantageous embodiments are described i.a. in the dependent claims. It should be noted that additional features of a claim dependent on an independent claim without the features of the independent claim or only in combination with a subset of the features of the independent claim may form an independent invention independent of the combination of all features of the independent claim, the subject of an independent claim, a divisional application or a subsequent application. This applies equally to technical teachings described in the specification, which may form an independent invention of the features of the independent claims.
Gemäß einem Aspekt wird ein Verfahren zur Ermittlung der Position zumindest eines Gesichtspunktes auf Basis von Bilddaten beschrieben, wobei die Bilddaten ein Bild eines Kopfes umfassen. Typischerweise wird die Position von mehreren Gesichtspunkten (z.B. 20, 30 oder mehr Gesichtspunkten) ermittelt. Die Position kann dabei die (kartesischen) Koordinaten eines Gesichtspunktes innerhalb des Bildes anzeigen. Auf Basis der Position von mehreren Gesichtspunkten kann die Kopfhaltung eines Menschen, insbesondere eines Fahrers eines Fahrzeugs, ermittelt werden.According to one aspect, a method for determining the position of at least one viewpoint based on image data is described, the image data comprising an image of a head. Typically, the location is determined from several viewpoints (e.g., 20, 30, or more points of view). The position can indicate the (Cartesian) coordinates of a point of view within the image. On the basis of the position from several points of view, the head posture of a person, in particular a driver of a vehicle, can be determined.
Das Verfahren umfasst das Ermitteln einer Vielzahl von Blöcken des Bildes, wobei ein Block einen Teilbereich des Bildes umfasst. Ein Bild kann z.B. 100×100 oder mehr Bildpunkte umfassen. Andererseits kann ein Block z.B. 3×3 oder 5x5 Bildpunkte umfassen. Die Blöcke können sich dabei teilweise überlappen.The method includes determining a plurality of blocks of the image, wherein a block comprises a portion of the image. An image may e.g. 100 × 100 or more pixels. On the other hand, a block may be e.g. 3 × 3 or 5x5 pixels. The blocks may partially overlap.
Außerdem umfasst das Verfahren das Abbilden der Vielzahl von Blöcken auf eine entsprechende Vielzahl von Merkmalswerten von K unterschiedlichen Merkmals-Karten mittels K unterschiedlicher Faltungs-Gewichtsvektoren βconv k, mit k = 1, ..., K und mit K > 1. Es können somit K unterschiedliche Faltungs-Gewichtsvektoren βconv k bereitgestellt werden, um ein Bild auf unterschiedliche Weise zu analysieren, und um so K unterschiedliche Merkmals-Karten bereitzustellen, die unterschiedliche Aspekte des Bildes beschreiben.In addition, the method includes mapping the plurality of blocks to a corresponding plurality of feature values of K different feature maps using K different convolution weight vectors β conv k , k = 1, ..., K, and K> 1 thus K different convolutional weight vectors β conv k are provided to analyze an image in different ways and thus to provide K different feature maps describing different aspects of the image.
Insbesondere können die K unterschiedlichen Faltungs-Gewichtsvektoren βconv k ausgebildet sein, einen Block K unterschiedlichen Bild-Struktur-Typen zuzuweisen, bzw. um zu ermitteln, ob ein Block eine von K unterschiedlichen Bild-Struktur-Typen aufweist. Dabei können die unterschiedlichen Bild-Struktur-Typen z.B. ein oder mehrere Kanten und ein oder mehrere Kurven (z.B. mit jeweils unterschiedlichen Orientierungen) umfassen. Die unterschiedlichen Merkmals-Karten (für die unterschiedlichen Bild-Struktur-Typen) können dann die Positionen von unterschiedlichen Bild-Strukturen innerhalb eines Bildes anzeigen.In particular, the K different convolution weight vectors β conv k can be designed to assign a block K to different image structure types or to determine whether a block has one of K different image structure types. The different image structure types may include, for example, one or more edges and one or more curves (eg with different orientations in each case). The different feature maps (for the different image texture types) may then display the positions of different image structures within an image.
Die K unterschiedlichen Faltungs-Gewichtsvektoren βconv k können mittels einer Maschine-Lern-Methode auf Basis von Trainingsdaten ermittelt worden sein. Insbesondere können die K Faltungs-Gewichtsvektoren βconv k Gewichtungsvektoren von K künstlichen neuronalen Netzwerken sein, wobei das Bild eine Eingangs-Schicht und die K Merkmals-Karten die Ausgangs-Schichten der K neuronalen Netzwerke darstellen können. Darüber hinaus können die künstlichen neuronalen Netzwerke ein oder mehrere versteckte Zwischenschichten aufweisen. Insbesondere können die Faltungs-Gewichtsvektoren βconv k Ausgangs-Gewichte einer Extrem Learning Maschine, ELM, umfassen. Des Weiteren kann die Maschine-Lern-Methode zur Ermittlung der Faltungs-Gewichtsvektoren βconv k einen Extreme Learning Maschine, ELM, Auto Encoder, AE umfassen.The K different convolution weight vectors β conv k may have been determined by means of a machine learning method based on training data. In particular, the K convolution weight vectors β conv k may be weight vectors of K artificial neural networks, the image being an input layer and the K feature maps representing the output layers of the K neural networks. In addition, the artificial neural networks may have one or more hidden intermediate layers. In particular, the convolution weight vectors β conv k may include output weights of an extreme learning machine, ELM. Furthermore, the machine-learning method for determining the convolution weight vectors β conv k may include an Extreme Learning Machine, ELM, Auto Encoder, AE.
Die Extrem Learning Maschine, ELM, wird z.B. in
Außerdem umfasst das Verfahren das Ermitteln der Position zumindest eines Gesichtspunktes auf Basis der K unterschiedlichen Merkmals-Karten. Durch die Verwendung von unterschiedlichen Faltungs-Gewichtsvektoren βconv k zur Analyse von unterschiedlichen Teilbereichen eines Bildes kann die Position eines Gesichtspunktes in effizienter und präziser Weise ermittelt werden.In addition, the method includes determining the position of at least one viewpoint based on the K different feature maps. By using different convolution weight vectors β conv k to analyze different portions of an image, the position of a viewpoint can be determined in an efficient and precise manner.
Die Faltungs-Gewichtsvektoren können insbesondere durch folgende Formel ermittelt worden sein:
Dabei ist die Matrix βconv = [βconv 1, ..., βconv K] die Zusammenfassung der K unterschiedlichen Faltungs-Gewichtsvektoren βconv k; I ist eine L × L Einheitsmatrix; C ist ein Regularisierungs-Term; und T ist eine Matrix mit Trainings-Blöcken xn , mit n = 1, ..., N, einer Vielzahl von Trainings-Bildern. Es können somit N Trainings-Blöcke bereitgestellt werden, um die Faltungs-Gewichtsvektoren anzulernen.Where [β β conv 1, ..., conv K] is the matrix β conv = the summary of K different convolutional weight vectors β k conv; I is an L × L unit matrix; C is a regularization term; and T is a matrix of training blocks x n , where n = 1, ..., N, a plurality of training images. Thus, N training blocks can be provided to train the convolution weight vectors.
Des Weiteren ist H = [h(x1), ..., h(xN)]T, wobei h(xn) L Ausgangswerte von L Neuronen einer versteckten Schicht von Neuronen für den Trainings-Bock xn sind. L kann z.B. die Anzahl von Bildpunkten in einem Trainings-Bock xn sein.Further, H = [h (x 1 ), ..., h (x N )] T , where h (x n ) L are initial values of L neurons of a hidden layer of neurons for the training gan x n . L can be eg the number of pixels in a training block x n .
Außerdem kann
Das Abbilden eines Blockes x mittels eines Faltungs-Gewichtsvektors βconv k kann umfassen
Das Ermitteln der Position zumindest eines Gesichtspunktes kann für jede der K unterschiedlichen Merkmals-Karten das Ermitteln einer entsprechenden Zusammenfassungs-Karte mit jeweils einer Vielzahl von Zusammenfassungswerten umfassen. Dabei kann ein Zusammenfassungswert der kten Zusammenfassung-Karte auf Basis einer Norm, insbesondere einer L2-Norm, eines Merkmals-Blocks von Merkmalswerten (z.B. mit 2x2 Merkmalswerten) der kten Merkmals-Karte ermittelt werden. So kann bewirkt werden, dass das Verfahren translationsinvariant ist.Determining the position of at least one viewpoint may include, for each of the K distinct feature maps, determining a corresponding summary map, each having a plurality of summary values. In this case, a summary value of the k th summary map can be determined on the basis of a standard, in particular an L2 standard, of a feature block of feature values (eg with 2x2 feature values) of the k th feature map. Thus, the method can be caused to be translation invariant.
Das Ermitteln der Position zumindest eines Gesichtspunktes kann für jede der K unterschiedlichen Merkmals-Karten das Ermitteln eines Verbindungsvektors mit einer gegenüber der Anzahl von Merkmalswerten bzw. der Anzahl von Zusammenfassungswerten reduzierten Anzahl von Verbindungswerten umfassen. Dabei können die Verbindungswerte eines kten Verbindungsvektors anhand von Verbindungs-Gewichtsvektoren P full
Außerdem kann das Ermitteln der Position zumindest eines Gesichtspunktes das Ermitteln eines Positionsvektors auf Basis der K Verbindungsvektoren umfassen. Dabei können die K Verbindungsvektoren durch einen gemeinsamen Ausgangs-Gewichtsvektor βoutput in den Positionsvektor überführt werden. Der Ausgangs-Gewichtsvektor βoutput kann dabei mittels einer Maschine-Lern-Methode auf Basis der Trainingsdaten und auf Basis von Labels für die Trainingsdaten ermittelt worden sein, wobei die Labels tatsächliche Positionen von Gesichtspunkten in den Trainingsdaten anzeigen. Durch den Ausgangs-Gewichtsvektor βoutput können die Bild-Strukturen der einzelnen Merkmals-Karten bzw. Verbindungsvektoren zusammengeführt werden, um in robuster Weise Gesichtspunkte zu detektieren und deren Position zu bestimmen.In addition, determining the position of at least one aspect may include determining a position vector based on the K connection vectors. In this case, the K connection vectors can be converted into the position vector by a common output weight vector β output . The output weight vector β output may have been determined by means of a machine-learning method on the basis of the training data and on the basis of labels for the training data, the labels indicating actual positions of viewpoints in the training data. By means of the output weight vector β output , the image structures of the individual feature maps or connection vectors can be combined in order to robustly detect aspects and determine their position.
Gemäß einem weiteren Aspekt wird eine Steuereinheit zur Ermittlung der Position eines Gesichtspunktes auf Basis von Bilddaten beschrieben, wobei die Bilddaten ein Bild eines Kopfes umfassen. Die Steuereinheit ist eingerichtet, eine Vielzahl von Blöcken des Bildes zu ermitteln, wobei ein Block einen Teilbereich des Bildes umfasst. Außerdem ist die Steuereinheit eingerichtet, mittels K unterschiedlicher Faltungs-Gewichtsvektoren βconv k die Vielzahl von Blöcken auf eine entsprechende Vielzahl von Merkmalswerten von K unterschiedlichen Merkmals-Karten abzubilden, mit k = 1, ..., K und mit K > 1 (wobei K eine ganze Zahl ist). Dabei wurden die K unterschiedlichen Faltungs-Gewichtsvektoren βconv k mittels einer Maschine-Lern-Methode auf Basis von Trainingsdaten ermittelt. Die Steuereinheit ist ferner eingerichtet, die Position zumindest eines Gesichtspunktes auf Basis der K unterschiedlichen Merkmals-Karten zu ermitteln.According to a further aspect, a control unit for determining the position of a viewpoint on the basis of image data is described, the image data comprising an image of a head. The control unit is set up to determine a plurality of blocks of the image, one block comprising a partial area of the image. In addition, the control unit is set up by means of K different convolution weight vectors β conv k the plurality of Mapping blocks to a corresponding plurality of feature values of K different feature maps, where k = 1, ..., K and K> 1 (where K is an integer). The K different convolution weight vectors β conv k were determined by means of a machine-learning method on the basis of training data. The control unit is further configured to determine the position of at least one viewpoint based on the K different feature maps.
Gemäß einem weiteren Aspekt wird ein Fahrzeug (insbesondere ein Straßenkraftfahrzeug z.B. ein Personenkraftwagen, ein Lastkraftwagen oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Steuereinheit umfasst (z.B. um die Kopfhaltung eines Fahrers des Fahrzeugs zu ermitteln).According to a further aspect, a vehicle (in particular a road motor vehicle, for example a passenger car, a truck or a motorcycle) is described, which comprises the control unit described in this document (for example, to determine the head posture of a driver of the vehicle).
Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.In another aspect, a software (SW) program is described. The SW program can be set up to run on a processor and thereby perform the method described in this document.
Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.In another aspect, a storage medium is described. The storage medium may include a SW program that is set up to run on a processor and thereby perform the method described in this document.
Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be understood that the methods, devices and systems described herein may be used alone as well as in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, devices, and systems described herein may be combined in a variety of ways. In particular, the features of the claims can be combined in a variety of ways.
Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
- Figur 1a beispielhafte Komponenten eines Fahrzeugs;
- Figur 1b beispielhafte Gesichtspunkte eines Gesichts eines Fahrers eines Fahrzeugs;
-
2 eine beispielhafte Architektur eines Algorithmus zur Ermittlung der Position von Gesichtspunkten; und -
3 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung der Position eines Gesichtspunktes.
- Figure 1a exemplary components of a vehicle;
- FIG. 1b shows exemplary aspects of a face of a driver of a vehicle;
-
2 an exemplary architecture of an algorithm for determining the position of viewpoints; and -
3 a flowchart of an exemplary method for determining the position of a viewpoint.
Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der effizienten und zuverlässigen Ermittlung der Position von ein oder mehreren Gesichtspunkten eines Menschen, insbesondere eines Fahrers eines Fahrzeugs, auf Basis von Bilddaten. In diesem Zusammenhang zeigt Fig. la beispielhafte Komponenten eines Fahrzeugs
Die Bilddaten
Das Fahrzeug
Zur Ermittlung der Position eines Gesichtspunktes
Die Bilddaten
Ein Block
Es können K unterschiedliche Faltungs-Gewichtsvektoren
Durch die Ermittlung von unterschiedlichen Merkmals-Karten
Die Anwendung von unterschiedlichen Faltungs-Gewichtsvektoren
Die Faltungs-Gewichtsvektoren
Der in
In einem Verbindungsschritt können Werte
Schließlich können die K Verbindungsvektoren
Durch den in
Das Verfahren
Außerdem umfasst das Verfahren
Die K unterschiedlichen Faltungs-Gewichtsvektoren βconv k 202 können mittels einer Maschine-Lern-Methode auf Basis von Trainingsdaten ermittelt worden sein. Insbesondere kann eine ELM-AE Methode verwendet worden sein, um die Faltungs-Gewichtsvektoren βconv k 202 zu ermitteln. So kann in effizienter und zuverlässiger Weise eine Analyse eines Bildes
Außerdem umfasst das Verfahren
Es wird somit eine effiziente und zuverlässige Ermittlung der Position von Gesichtspunkten
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not limited to the embodiments shown. In particular, it should be noted that the description and figures are intended to illustrate only the principle of the proposed methods, apparatus and systems.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturCited non-patent literature
- Z. Bai, G.-Bin. Huang, L. L. C. Kasun and C. M. Vong, „Local Receptive Fields Based Extreme Learning Machine“, IEEE Computational Intelligence Magazine, vol, 10, no. 2, 2015 [0010]Z. Bai, G.-Bin. Huang, L.L.C. Kasun and C.M. Vong, "Local Receptive Fields Based Extreme Learning Machine", IEEE Computational Intelligence Magazine, vol, 10, no. 2, 2015. [0010]
- L. L. C. Kasun, H. Zhou, G.-B. Huang, and C. M. Vong, „Representational Learning with Extreme Learning Machine for Big Data,“ IEEE Intelligent Systems, vol. 28, no. 6, pp. 31-34, 2013 [0010, 0035]L.L.C. Kasun, H. Zhou, G.-B. Huang, and C.M. Vong, "Representational Learning with Extreme Learning Machine for Big Data," IEEE Intelligent Systems, vol. 28, no. 6, pp. 31-34, 2013 [0010, 0035]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017201603.5A DE102017201603A1 (en) | 2017-02-01 | 2017-02-01 | Method and control unit for determining the position of a point of view |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017201603.5A DE102017201603A1 (en) | 2017-02-01 | 2017-02-01 | Method and control unit for determining the position of a point of view |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017201603A1 true DE102017201603A1 (en) | 2018-08-02 |
Family
ID=62843359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017201603.5A Pending DE102017201603A1 (en) | 2017-02-01 | 2017-02-01 | Method and control unit for determining the position of a point of view |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017201603A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111535A (en) * | 2019-06-11 | 2019-08-09 | 陈乐堂 | Utilize the real-time traffic monitoring method of the 5th third-generation mobile communication technology |
-
2017
- 2017-02-01 DE DE102017201603.5A patent/DE102017201603A1/en active Pending
Non-Patent Citations (2)
Title |
---|
L. L. C. Kasun, H. Zhou, G.-B. Huang, and C. M. Vong, „Representational Learning with Extreme Learning Machine for Big Data," IEEE Intelligent Systems, vol. 28, no. 6, pp. 31-34, 2013 |
Z. Bai, G.-Bin. Huang, L. L. C. Kasun and C. M. Vong, „Local Receptive Fields Based Extreme Learning Machine", IEEE Computational Intelligence Magazine, vol, 10, no. 2, 2015 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111535A (en) * | 2019-06-11 | 2019-08-09 | 陈乐堂 | Utilize the real-time traffic monitoring method of the 5th third-generation mobile communication technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018208920A1 (en) | An information processing apparatus and estimation method for estimating a gaze direction of a person, and a learning apparatus and a learning method | |
DE112018000335T5 (en) | SYSTEMS AND METHOD FOR A CALCULATION FRAME FOR A VISUAL WARNING OF THE DRIVER USING A "FULLY CONVOLUTIONAL" ARCHITECTURE | |
DE102017203276B4 (en) | Method and device for determining a trajectory in off-road scenarios | |
DE112017005651T5 (en) | Device for classifying data | |
DE112019001044T5 (en) | METHOD AND DEVICE FOR MACHINE LEARNING, PROGRAM, LEARNED MODEL AND DISCRIMINATION DEVICE | |
DE102014222617A1 (en) | Vehicle detection method and vehicle detection system | |
DE102018113992A1 (en) | Method and device for detecting a traffic lane | |
DE112017006840T5 (en) | Information processing program, information processing method and information processing apparatus | |
DE102020102823A1 (en) | VEHICLE CAPSULE NETWORKS | |
DE102020110157A1 (en) | Image recognition device | |
DE102019209644A1 (en) | Method for training a neural network | |
DE112017002766T5 (en) | CHARACTERISTIC SCALING DEVICE, CHARACTERISTIC POSITIONING ASSESSMENT SYSTEM, CHARACTERISTIC POSITIONING METHOD AND CHARACTERISTIC POSITIONING PROGRAM | |
DE102022114048A1 (en) | IMAGE RECTIFICATION | |
DE102017124600A1 (en) | Semantic segmentation of an object in an image | |
DE102018113621A1 (en) | A method of training a convolutional neural network for processing image data for use in a driving support system | |
DE102017201603A1 (en) | Method and control unit for determining the position of a point of view | |
DE112017007247T5 (en) | IMAGING DEVICE | |
WO2003025843A2 (en) | Model-based object classification and target recognition | |
DE102018206743A1 (en) | A method of operating a driver assistance system of an ego vehicle having at least one environment sensor for detecting an environment of the ego vehicle, computer-readable medium, system, and vehicle | |
DE102016124123A1 (en) | A method for generating a cluster of image areas for capturing a target object in an image, computer program product, camera system and motor vehicle | |
DE102018208481A1 (en) | Estimate a course of a rail track | |
DE102017104957A1 (en) | Method for determining a movement of mutually corresponding pixels in an image sequence from a surrounding area of a motor vehicle, evaluation device, driver assistance system and motor vehicle | |
DE102019127622B4 (en) | Defense generator, method for preventing an attack on an AI unit and computer-readable storage medium | |
DE102017204347A1 (en) | Method and system for determining a kinematic property of an object, method for controlling an assistance system of a motor vehicle and motor vehicle | |
DE102021206625A1 (en) | Computer-implemented method and system for supporting an imaging sensor installation and training method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R081 | Change of applicant/patentee |
Owner name: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, DE Free format text: FORMER OWNERS: BAYERISCHE MOTOREN WERKE AKTIENGESELLSCHAFT, 80809 MUENCHEN, DE; NANYANG TECHNOLOGICAL UNIVERSITY, SINGAPUR, SG |
|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |