DE102020200572A1 - Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern - Google Patents
Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern Download PDFInfo
- Publication number
- DE102020200572A1 DE102020200572A1 DE102020200572.9A DE102020200572A DE102020200572A1 DE 102020200572 A1 DE102020200572 A1 DE 102020200572A1 DE 102020200572 A DE102020200572 A DE 102020200572A DE 102020200572 A1 DE102020200572 A1 DE 102020200572A1
- Authority
- DE
- Germany
- Prior art keywords
- pedestrian
- surroundings
- image
- pose
- landmarks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Social Psychology (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern (1) mit den folgenden Schritten:- Aufnehmen (S1) eines Umgebungsbildes (7) mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs;- Durchführen (S2) einer Konturfindung in dem Umgebungsbild (7) zum Erkennen eines Fußgängers- Ausschneiden (S3) einer erkannten Kontur des Fußgängers (1) aus dem Umgebungsbild (7) und;- Ermitteln (S4) von Landmarken in dem Umgebungsbild (7) .
Description
- Die Erfindung betrifft ein Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern.
- Aus dem Stand der Technik sind bereits Verfahren zur Detektion und Erfassung von Fußgängern hinreichend bekannt. So zeigt beispielsweise die Druckschrift
EP2580739A2 eine Monokulare 3D-Poseneinschätzung und Verfolgung durch Erkennung. Ebenso zeigt die DruckschriftUS2009175540A1 ein System, ein Verfahren und ein Computerprogrammprodukt zum Einschätzen einer Pose eines menschlichen Oberkörpers. - Bei den bisher bekannten Verfahren wird die Pose über eine Skelettdarstellung repräsentiert. Zum Festlegen eines relevanten Bereichs, in welchem sich der Fußgänger befindet, wird jeweils eine rechteckige Bounding-Box um den erkannten Fußgänger gelegt, da das Erfassen der genauen Kontur schwierig ist. Dies ist so auch in den Figuren der
EP2580739A2 gezeigt. Dieser Ansatz wird auch bei anderen Objekten wie Fahrzeugen verwendet, um schnell die maximalen Ausmaße des jeweiligen Objekts abschätzen zu können. - Nachteilig bei den genannten Verfahren ist, dass die Bounding-Box je nach Objekt bzw. Ausrichtung und/oder Entfernung des Objekts zum optischen Sensor sehr groß werden kann und ggf. relevante Umgebungsmerkmale durch die Bounding-Box verdeckt sind.
- Aus diesem Grund ist es eine Aufgabe der vorliegenden Erfindung ein Verfahren für eine verbesserte Objekt- und Fußgängererkennung bereitzustellen, wodurch auch die weitere Bildverarbeitung sowie eine Landmarkenerkennung verbessert werden kann.
- Diese Aufgabe wird durch den Gegenstand des unabhängigen Anspruchs 1 gelöst. Weitere vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche.
- Erste Überlegungen waren dahingehend, dass die Bounding-Box eines Fußgängers je nach Entfernung zur Kamera oder bei entsprechender Körperhaltung, wie z.B. vom Körper weggestreckte Arme sehr groß ausfallen kann. Dies ist dann ein Problem, wenn Fußgänger für eine Lokalisierung aus dem Bild ausgespart werden sollen, um eine eindeutigere Landmarkenerkennung durchzuführen, da bei zu großen Bounding-Boxes ggf. relevante Landmarken nicht erkannt werden können.
- Hierfür wird erfindungsgemäß ein Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern mit den folgenden Schritten vorgeschlagen:
- - Aufnehmen eines Umgebungsbildes mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs;
- - Durchführen einer Konturfindung in dem Umgebungsbild zum Erkennen eines Fußgängers;
- - Ausschneiden einer erkannten Kontur des Fußgängers aus dem Umgebungsbild und;
- - Ermitteln von Landmarken in dem Umgebungsbild.
- Bei dem Umfelderfassungssensor handelt es sich bevorzugt um eine Monokamera oder eine Stereokamera eines Fahrzeugs. Denkbar wäre auch die Verwendung einer oder mehrerer Surroundview Kameras. Mit zumindest einer dieser Kameras wird ein Umgebungsbild bzw. eine folge an Umgebungsbildern aufgenommen. Auf dieses Umgebungsbild bzw. die Folge aus Bildern wird dann ein Algorithmus angewandt, welcher Objekte und Personen in Bildern erkennt. Hierfür wird beispielsweise eine Konturfindung durchgeführt. Somit wird in dem gesamten Umgebungsbild nach entsprechenden Konturen gesucht und somit eine Fußgängerdetektion durchgeführt. Geeignet hierfür sind beispielsweise sog. Convolutional Nerual Networks (CNN) bzw. neuronale Netzwerke. Diese CNNs können unter anderem für eine Fußgängererkennung trainiert werden, um anhand von bestimmten Merkmalen in dem Umgebungsbild auf einen Fußgänger schließen zu können.
- Nach dem Erkennen der Konturen eines Fußgängers können diese aus dem Umgebungsbild ausgeschnitten werden. Durch das Ausschneiden entlang der erkannten Konturen kann im Gegensatz zu einem klassischen Bounding-Box Ansatz, bei welchem eine Bounding-Box den gesamten Fußgänger umgibt, verhindert werden, dass potentielle Landmarken fälschlicherweise ausgeschnitten werden, da die Kontur in der Regel direkt am Fußgänger oder zumindest sehr nahe am Fußgänger verläuft. So wird nur der Fußgänger selbst und kein bzw. nur sehr wenig von dem Umfeld des Fußgängers ausgeschnitten.
- Hiernach können in dem bearbeiteten Bild Landmarken ermittelt werden.
- In einer besonders Bevorzugten Ausführungsform wird nach der Konturfindung eine Pose des Fußgängers segmentiert. Für den detektierten Fußgänger kann als Ausgestaltung der Konturfindung eine skelettähnliche Darstellung generiert werden. Diese skelettähnliche Darstellung wird mittels Detektion von Schlüsselpunkten bzw. Key-Points generiert, indem die erkannten Key-Points miteinander verbunden werden. Die skelettähnliche Darstellung stellt demnach eine relative Position und Ausrichtung einzelner Körperteile des Fußgängers dar. In dem neuronalen Netz ist beispielsweise eine Liste hinterlegt, mittels welcher sich die Segmente bestimmten Körperteilen zuordnen lassen. Denkbar wäre auch, dass anstelle der skelettähnlichen Darstellung und der Key-Point Detektion als Ausgestaltung der Konturfindung eine semantische Segmentierung durchgeführt wird, mittels welcher ebenfalls Fußgänger und Posen dieser Fußgänger detektierbar sind.
- In einer weiteren bevorzugten Ausführungsform wird nach der Segmentierung der Pose des Fußgängers jedem Segment eine Segment-Bounding-Box zugeordnet. Durch das Zuordnen einer Segment-Bounding-Box zu jedem Segment der Pose lässt sich die Kontur bzw. allgemein die Größe des Fußgängers genauer bestimmen. Dies ist insbesondere dann vorteilhaft, wenn die Bereiche mit Fußgängern für einen Lokalisierungsalgorithmus ausgespart werden, da die ausgesparten Bereiche der einzelnen Segment-Bounding-Boxes kleiner sind, als ein Bereich einer einzigen, den gesamten Fußgänger umfassenden Bounding-Box. Auf diese Weise wird verhindert, dass Landmarken, welche für die Lokalisierung potentiell wichtig sind, aufgrund einer zu großen Bounding-Box ausgespart werden und dem Lokalisierungsalgorithmus nicht mehr zur Verfügung stehen. Das Verfahren ist weiterhin insbesondere bei mehreren erkannten Fußgängern besonders vorteilhaft. Bei mehreren Personen wäre mit dem derzeitigen Stand der Technik ein weitaus größerer Bereich durch die Bounding-Boxes abgedeckt und noch mehr potentiell nutzbare Landmarken würden ausgespart werden. So ist bevorzugt vorgesehen, die Segment-Bounding-Boxes auszuschneiden, um dann in dem verbliebenen Umgebungsbild eine Landmarkenerkennung durchzuführen. Das verbliebene Umgebungsbild entspricht dann lediglich der Umgebung ohne Fußgänger. Dies ist vorteilhaft, da dadurch das Bild bzw. die Datenmenge verkleinert wird und ein kleinerer Bereich des Umgebungsbildes auf Landmarken überprüft werden muss. Die Landmarkenerkennung selbst kann ebenfalls mittels einer semantischen Segmentierung realisiert werden. Unter Ausschneiden der Bounding-Boxes wird im Lichte der Erfindung das Aussparen der durch die Segment-Bounding-Boxes abgedeckten Bereiche verstanden.
- In einer bevorzugten Ausführungsform wird für die Segmentierung der Pose eine räumliche Ausdehnung von bestimmten Key-Points im Bildbereich modelliert. Diese bestimmten Key-Points können beispielsweise Gelenkverbindungen von Armen und Beinen sein. Alternativ oder kumulativ können mit diesen Key-Points beispielsweise die Verbindung zwischen Kopf und Torso festgelegt werden.
- In einer weiteren Ausgestaltung entspricht die räumliche Ausdehnung einer Modellierung der Proportionen des zumindest einen erkannten Fußgängers. Hiermit lässt sich auf vorteilhafte Weise die Größe der einzelnen Körperteile modellieren, um dann die Größe der Segment-Bounding-Boxes entsprechend daran anpassen zu können.
- Eine weitere vorteilhafte Ausführungsform sieht vor, dass auf Basis der modellierten Proportionen Annahmen über die Kontur des Fußgängers getroffen werden. Auch dies kann bei der Berechnung der Größe der Segment-Bounding-Boxes berücksichtigt werden.
- Weiter wird in einer Ausgestaltung die Pose in Kopf, Torso, Beine und Arme segmentiert. Auf diese Weise lässt dich die Pose auf einfache Weise segmentieren. Weiterhin ist die präzise Erkennung der einzelnen Körperteile für verschiedene Assistenzsysteme vorteilhaft, da sich bspw. aus der Ausrichtung des Kopfes oder der Beine eine Fußgängerintention ableiten lässt. Hierbei werden Segment-Boundig-Boxes für die Arme, Beine, den Kopf und den Torso erzeugt.
- Weitere vorteilhafte Ausgestaltungen ergeben sich aus den Zeichnungen.
- Darin zeigen:
-
1a und1b jeweils eine schematische Ansicht eines Bounding-Box Ansatzes gemäß dem Stand der Technik -
2a und2b jeweils eine schematische Darstellung einer skelettähnlichen Darstellung eines Fußgängers; -
3 eine schematische Darstellung eines erfindungsgemäßen Bounding-Box Ansatzes; -
4 ein schematisches Ablaufdiagramm einer Ausführungsform der Erfindung. -
1a und1b zeigen jeweils eine schematische Ansicht eines Bounding-Box Ansatzes gemäß dem Stand der Technik. In den1a und1b wird ein Fußgänger1 mittels einer Kamera eines Fahrzeugs erfasst. Um diesen erkannten Fußgänger1 wird eine Bounding-Box2 gelegt, um die Abmessungen des Fußgängers1 abschätzen zu können. Wie in den beiden Figuren gezeigt liegt innerhalb der Bounding-Box2 ein Bereich3 mit einer potentiellen Landmarke. Würde nun die Bounding-Box2 der1a und1b für einen Lokalisierungsalgorithmus ausgespart, würde die Bereiche3 mit einer potentiellen Landmarke ebenfalls ausgespart und diese Landmarken würden für die Lokalisierung nicht zur Verfügung stehen. - Die
2a und2b zeigen eine schematische Darstellung einer skelettähnlichen Darstellung4 eines Fußgängers1 . Hierbei wird eine skelettähnliche Darstellung4 für den erkannten Fußgänger1 generiert. Weiterhin zu sehen sind Key-Points6 bzw. Schlüsselpunkte, welche zum Teil Gelenkpunkten des Fußgängers1 entsprechen und welche den groben Verlauf der skelettähnlichen Darstellung4 festlegen. Mit dieser Darstellung lässt sich bereits die Pose des Fußgängers1 abschätzen. Allerdings ist diese Darstellung nicht geeignet die genaue Größe bzw. die Abmessungen des Fußgängers1 zu beschreiben, da die skelettähnliche Darstellung4 lediglich eine grobe Darstellung des Fußgängers beschreibt. - In
3 ist eine schematische Darstellung eines erfindungsgemäßen Bounding-Box Ansatzes gezeigt. Hierbei ist auch eine skelettähnliche Darstellung4 mit den entsprechenden Key-Points6 wie in2b gezeigt. Diese dient als Ausgangsbasis für die jeweiligen Segment-Bounding-Boxes5 , welche die einzelnen Segmente der Pose des Fußgängers1 beschreiben. Hierfür wird eine räumliche Ausdehnung der Fußgängerproportionen modelliert. Auf Basis dieser Modellierung werden die Segment-Bounding-Boxes5 erzeugt und somit kann auf die Kontur des Fußgängers1 geschlossen werden. -
4 zeigt ein schematisches Ablaufdiagramm einer Ausführungsform der Erfindung. In SchrittS1 wird ein Umgebungsbild mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs aufgenommen. In SchrittS2 wird daraufhin eine Konturfindung zum Erkennen eines Fußgängers durchgeführt. In SchrittS3 wird die erkannte Kontur des Fußgängers aus dem Umgebungsbild ausgeschnitten und in einem darauffolgenden SchrittS4 werden daraufhin Landmarken in dem Umgebungsbild ermittelt. - Bezugszeichenliste
-
- 1
- Fußgänger
- 2
- Bounding-Box
- 3
- Bereich mit potentieller Landmarke
- 4
- skelettähnliche Darstellung
- 5
- Segment-Bounding-Box
- 6
- Key-Points
- 7
- Umgebungsbild
- S1-S6
- Verfahrensschritte
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- EP 2580739 A2 [0002, 0003]
- US 2009175540 A1 [0002]
Claims (7)
- Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern (1) mit den folgenden Schritten: - Aufnehmen (S1) eines Umgebungsbildes (7) mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs; - Durchführen (S2) einer Konturfindung in dem Umgebungsbild (7) zum Erkennen eines Fußgängers - Ausschneiden (S3) einer erkannten Kontur des Fußgängers (1) aus dem Umgebungsbild (7) und; - Ermitteln (S4) von Landmarken in dem Umgebungsbild (7) .
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass nach der Konturfindung eine Pose des Fußgängers (1) segmentiert wird. - Verfahren nach
Anspruch 2 , dadurch gekennzeichnet, dass nach der Segmentierung der Pose jedem Segment der segmentierten Pose des Fußgängers (1) eine Segment-Bounding-Box (5) zugeordnet wird. - Verfahren nach
Anspruch 2 , dadurch gekennzeichnet, dass für die Segmentierung der Pose eine räumliche Ausdehnung von bestimmten Key-Points (6) im Bildbereich modelliert wird. - Verfahren nach
Anspruch 4 , dadurch gekennzeichnet, dass die räumliche Ausdehnung einer Modellierung der Proportionen des zumindest einen erkannten Fußgängers (1) entspricht. - Verfahren nach
Anspruch 5 , dadurch gekennzeichnet, dass auf Basis der modellierten Proportionen Annahmen über die Kontur des Fußgängers (1) getroffen werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Pose in Kopf, Torso, Beine und Arme segmentiert wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE112020006161.2T DE112020006161A5 (de) | 2019-12-18 | 2020-12-08 | Verfahren zur Erkennung von Landmarken und Fußgängern |
PCT/DE2020/200110 WO2021121489A1 (de) | 2019-12-18 | 2020-12-08 | Verfahren zur erkennung von landmarken und fussgängern |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019220013.3 | 2019-12-18 | ||
DE102019220013 | 2019-12-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020200572A1 true DE102020200572A1 (de) | 2021-06-24 |
Family
ID=76206561
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020200572.9A Withdrawn DE102020200572A1 (de) | 2019-12-18 | 2020-01-20 | Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern |
DE112020006161.2T Pending DE112020006161A5 (de) | 2019-12-18 | 2020-12-08 | Verfahren zur Erkennung von Landmarken und Fußgängern |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112020006161.2T Pending DE112020006161A5 (de) | 2019-12-18 | 2020-12-08 | Verfahren zur Erkennung von Landmarken und Fußgängern |
Country Status (2)
Country | Link |
---|---|
DE (2) | DE102020200572A1 (de) |
WO (1) | WO2021121489A1 (de) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060098865A1 (en) * | 2004-11-05 | 2006-05-11 | Ming-Hsuan Yang | Human pose estimation with data driven belief propagation |
WO2018104563A2 (en) * | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
DE102017216000A1 (de) * | 2017-09-11 | 2019-03-14 | Conti Temic Microelectronic Gmbh | Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009086088A1 (en) | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
EP2395478A1 (de) | 2010-06-12 | 2011-12-14 | Toyota Motor Europe NV/SA | Monokulare 3D-Poseneinschätzung und deren Verfolgung durch Erkennung |
US10712556B2 (en) * | 2015-12-31 | 2020-07-14 | Huawei Technologies Co., Ltd. | Image information processing method and augmented reality AR device |
CN106250867B (zh) * | 2016-08-12 | 2017-11-14 | 南京华捷艾米软件科技有限公司 | 一种基于深度数据的人体骨骼跟踪系统的实现方法 |
DE102016219503A1 (de) * | 2016-10-07 | 2018-04-12 | Audi Ag | Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur |
-
2020
- 2020-01-20 DE DE102020200572.9A patent/DE102020200572A1/de not_active Withdrawn
- 2020-12-08 DE DE112020006161.2T patent/DE112020006161A5/de active Pending
- 2020-12-08 WO PCT/DE2020/200110 patent/WO2021121489A1/de active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060098865A1 (en) * | 2004-11-05 | 2006-05-11 | Ming-Hsuan Yang | Human pose estimation with data driven belief propagation |
WO2018104563A2 (en) * | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
DE102017216000A1 (de) * | 2017-09-11 | 2019-03-14 | Conti Temic Microelectronic Gmbh | Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera |
Also Published As
Publication number | Publication date |
---|---|
WO2021121489A1 (de) | 2021-06-24 |
DE112020006161A5 (de) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014222617B4 (de) | Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem | |
DE102014209137B4 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs | |
DE102018206208A1 (de) | Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems | |
EP2927844A1 (de) | Positions- und lagebestimmung von 3d objekten | |
DE102017203276B4 (de) | Verfahren und Vorrichtung zur Ermittlung einer Trajektorie in Off-road-Szenarien | |
EP2920741B1 (de) | Verfahren und vorrichtung zur bildgestützten landebahnlokalisierung | |
DE102004028763A1 (de) | Andockassistent | |
DE112016001150T5 (de) | Schätzung extrinsischer kameraparameter anhand von bildlinien | |
DE102017208718A1 (de) | Verfahren zur Erkennung von Objekten in einem Bild einer Kamera | |
DE102018100909A1 (de) | Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden | |
DE102017122010A1 (de) | Erkennungsverfahren und Erkennungseinrichtung zur Erkennung einer dreidimensionalen Position eines Objekts | |
EP2562681B1 (de) | Objektverfolgungsverfahren für ein Kamerabasiertes Fahrerassistenzsystem | |
DE102014114221A1 (de) | Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug | |
DE102013017621A1 (de) | Verfahren zur Auswertung von stereoskopisch erfassten Einzelbildern | |
DE102020200572A1 (de) | Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern | |
DE102022202548B3 (de) | Verfahren zum Trainieren eines Computerprogrammprodukts | |
DE102018109680A1 (de) | Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt | |
DE102017221381A1 (de) | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt | |
DE102017104957A1 (de) | Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug | |
WO2019072451A1 (de) | Verfahren zum verarbeiten von bildern | |
EP3714398A1 (de) | Verfahren zur objekterkennung für ein fahrzeug mit einer thermografiekamera und modifizierter entrauschungsfilter | |
EP4253188A1 (de) | Justage einer detektion eines schienenstrangs auf basis einer registrierung eines schienenmodells mit einem kamerabild | |
DE102016225073A1 (de) | Vorrichtung zur bereitstellung einer verbesserten hinderniserkennung | |
DE102020215639A1 (de) | Verfahren zum Erzeugen eines Erkennungsmodells zum Erkennen von Merkmalen in Kamerabilddaten und Verfahren zum Erkennen von Merkmalen in Kamerabilddaten | |
DE102022119865A1 (de) | Verfahren zum Schätzen von Positionen von Gelenkpunkten und Steuereinrichtung für ein Kraftfahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE |
|
R118 | Application deemed withdrawn due to claim for domestic priority |