DE102020200572A1 - Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern - Google Patents

Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern Download PDF

Info

Publication number
DE102020200572A1
DE102020200572A1 DE102020200572.9A DE102020200572A DE102020200572A1 DE 102020200572 A1 DE102020200572 A1 DE 102020200572A1 DE 102020200572 A DE102020200572 A DE 102020200572A DE 102020200572 A1 DE102020200572 A1 DE 102020200572A1
Authority
DE
Germany
Prior art keywords
pedestrian
surroundings
image
pose
landmarks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020200572.9A
Other languages
English (en)
Inventor
Martin Pfitzer
Stefan Heinrich
Manuel du Bois
Felix HACHFELD
Elias Strigel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE112020006161.2T priority Critical patent/DE112020006161A5/de
Priority to PCT/DE2020/200110 priority patent/WO2021121489A1/de
Publication of DE102020200572A1 publication Critical patent/DE102020200572A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern (1) mit den folgenden Schritten:- Aufnehmen (S1) eines Umgebungsbildes (7) mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs;- Durchführen (S2) einer Konturfindung in dem Umgebungsbild (7) zum Erkennen eines Fußgängers- Ausschneiden (S3) einer erkannten Kontur des Fußgängers (1) aus dem Umgebungsbild (7) und;- Ermitteln (S4) von Landmarken in dem Umgebungsbild (7) .

Description

  • Die Erfindung betrifft ein Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern.
  • Aus dem Stand der Technik sind bereits Verfahren zur Detektion und Erfassung von Fußgängern hinreichend bekannt. So zeigt beispielsweise die Druckschrift EP2580739A2 eine Monokulare 3D-Poseneinschätzung und Verfolgung durch Erkennung. Ebenso zeigt die Druckschrift US2009175540A1 ein System, ein Verfahren und ein Computerprogrammprodukt zum Einschätzen einer Pose eines menschlichen Oberkörpers.
  • Bei den bisher bekannten Verfahren wird die Pose über eine Skelettdarstellung repräsentiert. Zum Festlegen eines relevanten Bereichs, in welchem sich der Fußgänger befindet, wird jeweils eine rechteckige Bounding-Box um den erkannten Fußgänger gelegt, da das Erfassen der genauen Kontur schwierig ist. Dies ist so auch in den Figuren der EP2580739A2 gezeigt. Dieser Ansatz wird auch bei anderen Objekten wie Fahrzeugen verwendet, um schnell die maximalen Ausmaße des jeweiligen Objekts abschätzen zu können.
  • Nachteilig bei den genannten Verfahren ist, dass die Bounding-Box je nach Objekt bzw. Ausrichtung und/oder Entfernung des Objekts zum optischen Sensor sehr groß werden kann und ggf. relevante Umgebungsmerkmale durch die Bounding-Box verdeckt sind.
  • Aus diesem Grund ist es eine Aufgabe der vorliegenden Erfindung ein Verfahren für eine verbesserte Objekt- und Fußgängererkennung bereitzustellen, wodurch auch die weitere Bildverarbeitung sowie eine Landmarkenerkennung verbessert werden kann.
  • Diese Aufgabe wird durch den Gegenstand des unabhängigen Anspruchs 1 gelöst. Weitere vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche.
  • Erste Überlegungen waren dahingehend, dass die Bounding-Box eines Fußgängers je nach Entfernung zur Kamera oder bei entsprechender Körperhaltung, wie z.B. vom Körper weggestreckte Arme sehr groß ausfallen kann. Dies ist dann ein Problem, wenn Fußgänger für eine Lokalisierung aus dem Bild ausgespart werden sollen, um eine eindeutigere Landmarkenerkennung durchzuführen, da bei zu großen Bounding-Boxes ggf. relevante Landmarken nicht erkannt werden können.
  • Hierfür wird erfindungsgemäß ein Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern mit den folgenden Schritten vorgeschlagen:
    • - Aufnehmen eines Umgebungsbildes mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs;
    • - Durchführen einer Konturfindung in dem Umgebungsbild zum Erkennen eines Fußgängers;
    • - Ausschneiden einer erkannten Kontur des Fußgängers aus dem Umgebungsbild und;
    • - Ermitteln von Landmarken in dem Umgebungsbild.
  • Bei dem Umfelderfassungssensor handelt es sich bevorzugt um eine Monokamera oder eine Stereokamera eines Fahrzeugs. Denkbar wäre auch die Verwendung einer oder mehrerer Surroundview Kameras. Mit zumindest einer dieser Kameras wird ein Umgebungsbild bzw. eine folge an Umgebungsbildern aufgenommen. Auf dieses Umgebungsbild bzw. die Folge aus Bildern wird dann ein Algorithmus angewandt, welcher Objekte und Personen in Bildern erkennt. Hierfür wird beispielsweise eine Konturfindung durchgeführt. Somit wird in dem gesamten Umgebungsbild nach entsprechenden Konturen gesucht und somit eine Fußgängerdetektion durchgeführt. Geeignet hierfür sind beispielsweise sog. Convolutional Nerual Networks (CNN) bzw. neuronale Netzwerke. Diese CNNs können unter anderem für eine Fußgängererkennung trainiert werden, um anhand von bestimmten Merkmalen in dem Umgebungsbild auf einen Fußgänger schließen zu können.
  • Nach dem Erkennen der Konturen eines Fußgängers können diese aus dem Umgebungsbild ausgeschnitten werden. Durch das Ausschneiden entlang der erkannten Konturen kann im Gegensatz zu einem klassischen Bounding-Box Ansatz, bei welchem eine Bounding-Box den gesamten Fußgänger umgibt, verhindert werden, dass potentielle Landmarken fälschlicherweise ausgeschnitten werden, da die Kontur in der Regel direkt am Fußgänger oder zumindest sehr nahe am Fußgänger verläuft. So wird nur der Fußgänger selbst und kein bzw. nur sehr wenig von dem Umfeld des Fußgängers ausgeschnitten.
  • Hiernach können in dem bearbeiteten Bild Landmarken ermittelt werden.
  • In einer besonders Bevorzugten Ausführungsform wird nach der Konturfindung eine Pose des Fußgängers segmentiert. Für den detektierten Fußgänger kann als Ausgestaltung der Konturfindung eine skelettähnliche Darstellung generiert werden. Diese skelettähnliche Darstellung wird mittels Detektion von Schlüsselpunkten bzw. Key-Points generiert, indem die erkannten Key-Points miteinander verbunden werden. Die skelettähnliche Darstellung stellt demnach eine relative Position und Ausrichtung einzelner Körperteile des Fußgängers dar. In dem neuronalen Netz ist beispielsweise eine Liste hinterlegt, mittels welcher sich die Segmente bestimmten Körperteilen zuordnen lassen. Denkbar wäre auch, dass anstelle der skelettähnlichen Darstellung und der Key-Point Detektion als Ausgestaltung der Konturfindung eine semantische Segmentierung durchgeführt wird, mittels welcher ebenfalls Fußgänger und Posen dieser Fußgänger detektierbar sind.
  • In einer weiteren bevorzugten Ausführungsform wird nach der Segmentierung der Pose des Fußgängers jedem Segment eine Segment-Bounding-Box zugeordnet. Durch das Zuordnen einer Segment-Bounding-Box zu jedem Segment der Pose lässt sich die Kontur bzw. allgemein die Größe des Fußgängers genauer bestimmen. Dies ist insbesondere dann vorteilhaft, wenn die Bereiche mit Fußgängern für einen Lokalisierungsalgorithmus ausgespart werden, da die ausgesparten Bereiche der einzelnen Segment-Bounding-Boxes kleiner sind, als ein Bereich einer einzigen, den gesamten Fußgänger umfassenden Bounding-Box. Auf diese Weise wird verhindert, dass Landmarken, welche für die Lokalisierung potentiell wichtig sind, aufgrund einer zu großen Bounding-Box ausgespart werden und dem Lokalisierungsalgorithmus nicht mehr zur Verfügung stehen. Das Verfahren ist weiterhin insbesondere bei mehreren erkannten Fußgängern besonders vorteilhaft. Bei mehreren Personen wäre mit dem derzeitigen Stand der Technik ein weitaus größerer Bereich durch die Bounding-Boxes abgedeckt und noch mehr potentiell nutzbare Landmarken würden ausgespart werden. So ist bevorzugt vorgesehen, die Segment-Bounding-Boxes auszuschneiden, um dann in dem verbliebenen Umgebungsbild eine Landmarkenerkennung durchzuführen. Das verbliebene Umgebungsbild entspricht dann lediglich der Umgebung ohne Fußgänger. Dies ist vorteilhaft, da dadurch das Bild bzw. die Datenmenge verkleinert wird und ein kleinerer Bereich des Umgebungsbildes auf Landmarken überprüft werden muss. Die Landmarkenerkennung selbst kann ebenfalls mittels einer semantischen Segmentierung realisiert werden. Unter Ausschneiden der Bounding-Boxes wird im Lichte der Erfindung das Aussparen der durch die Segment-Bounding-Boxes abgedeckten Bereiche verstanden.
  • In einer bevorzugten Ausführungsform wird für die Segmentierung der Pose eine räumliche Ausdehnung von bestimmten Key-Points im Bildbereich modelliert. Diese bestimmten Key-Points können beispielsweise Gelenkverbindungen von Armen und Beinen sein. Alternativ oder kumulativ können mit diesen Key-Points beispielsweise die Verbindung zwischen Kopf und Torso festgelegt werden.
  • In einer weiteren Ausgestaltung entspricht die räumliche Ausdehnung einer Modellierung der Proportionen des zumindest einen erkannten Fußgängers. Hiermit lässt sich auf vorteilhafte Weise die Größe der einzelnen Körperteile modellieren, um dann die Größe der Segment-Bounding-Boxes entsprechend daran anpassen zu können.
  • Eine weitere vorteilhafte Ausführungsform sieht vor, dass auf Basis der modellierten Proportionen Annahmen über die Kontur des Fußgängers getroffen werden. Auch dies kann bei der Berechnung der Größe der Segment-Bounding-Boxes berücksichtigt werden.
  • Weiter wird in einer Ausgestaltung die Pose in Kopf, Torso, Beine und Arme segmentiert. Auf diese Weise lässt dich die Pose auf einfache Weise segmentieren. Weiterhin ist die präzise Erkennung der einzelnen Körperteile für verschiedene Assistenzsysteme vorteilhaft, da sich bspw. aus der Ausrichtung des Kopfes oder der Beine eine Fußgängerintention ableiten lässt. Hierbei werden Segment-Boundig-Boxes für die Arme, Beine, den Kopf und den Torso erzeugt.
  • Weitere vorteilhafte Ausgestaltungen ergeben sich aus den Zeichnungen.
  • Darin zeigen:
    • 1a und 1b jeweils eine schematische Ansicht eines Bounding-Box Ansatzes gemäß dem Stand der Technik
    • 2a und 2b jeweils eine schematische Darstellung einer skelettähnlichen Darstellung eines Fußgängers;
    • 3 eine schematische Darstellung eines erfindungsgemäßen Bounding-Box Ansatzes;
    • 4 ein schematisches Ablaufdiagramm einer Ausführungsform der Erfindung.
  • 1a und 1b zeigen jeweils eine schematische Ansicht eines Bounding-Box Ansatzes gemäß dem Stand der Technik. In den 1a und 1b wird ein Fußgänger 1 mittels einer Kamera eines Fahrzeugs erfasst. Um diesen erkannten Fußgänger 1 wird eine Bounding-Box 2 gelegt, um die Abmessungen des Fußgängers 1 abschätzen zu können. Wie in den beiden Figuren gezeigt liegt innerhalb der Bounding-Box 2 ein Bereich 3 mit einer potentiellen Landmarke. Würde nun die Bounding-Box 2 der 1a und 1b für einen Lokalisierungsalgorithmus ausgespart, würde die Bereiche 3 mit einer potentiellen Landmarke ebenfalls ausgespart und diese Landmarken würden für die Lokalisierung nicht zur Verfügung stehen.
  • Die 2a und 2b zeigen eine schematische Darstellung einer skelettähnlichen Darstellung 4 eines Fußgängers 1. Hierbei wird eine skelettähnliche Darstellung 4 für den erkannten Fußgänger 1 generiert. Weiterhin zu sehen sind Key-Points 6 bzw. Schlüsselpunkte, welche zum Teil Gelenkpunkten des Fußgängers 1 entsprechen und welche den groben Verlauf der skelettähnlichen Darstellung 4 festlegen. Mit dieser Darstellung lässt sich bereits die Pose des Fußgängers 1 abschätzen. Allerdings ist diese Darstellung nicht geeignet die genaue Größe bzw. die Abmessungen des Fußgängers 1 zu beschreiben, da die skelettähnliche Darstellung 4 lediglich eine grobe Darstellung des Fußgängers beschreibt.
  • In 3 ist eine schematische Darstellung eines erfindungsgemäßen Bounding-Box Ansatzes gezeigt. Hierbei ist auch eine skelettähnliche Darstellung 4 mit den entsprechenden Key-Points 6 wie in 2b gezeigt. Diese dient als Ausgangsbasis für die jeweiligen Segment-Bounding-Boxes 5, welche die einzelnen Segmente der Pose des Fußgängers 1 beschreiben. Hierfür wird eine räumliche Ausdehnung der Fußgängerproportionen modelliert. Auf Basis dieser Modellierung werden die Segment-Bounding-Boxes 5 erzeugt und somit kann auf die Kontur des Fußgängers 1 geschlossen werden.
  • 4 zeigt ein schematisches Ablaufdiagramm einer Ausführungsform der Erfindung. In Schritt S1 wird ein Umgebungsbild mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs aufgenommen. In Schritt S2 wird daraufhin eine Konturfindung zum Erkennen eines Fußgängers durchgeführt. In Schritt S3 wird die erkannte Kontur des Fußgängers aus dem Umgebungsbild ausgeschnitten und in einem darauffolgenden Schritt S4 werden daraufhin Landmarken in dem Umgebungsbild ermittelt.
  • Bezugszeichenliste
  • 1
    Fußgänger
    2
    Bounding-Box
    3
    Bereich mit potentieller Landmarke
    4
    skelettähnliche Darstellung
    5
    Segment-Bounding-Box
    6
    Key-Points
    7
    Umgebungsbild
    S1-S6
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2580739 A2 [0002, 0003]
    • US 2009175540 A1 [0002]

Claims (7)

  1. Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern (1) mit den folgenden Schritten: - Aufnehmen (S1) eines Umgebungsbildes (7) mittels zumindest eines Umfelderfassungssensors eines Fahrzeugs; - Durchführen (S2) einer Konturfindung in dem Umgebungsbild (7) zum Erkennen eines Fußgängers - Ausschneiden (S3) einer erkannten Kontur des Fußgängers (1) aus dem Umgebungsbild (7) und; - Ermitteln (S4) von Landmarken in dem Umgebungsbild (7) .
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass nach der Konturfindung eine Pose des Fußgängers (1) segmentiert wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass nach der Segmentierung der Pose jedem Segment der segmentierten Pose des Fußgängers (1) eine Segment-Bounding-Box (5) zugeordnet wird.
  4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass für die Segmentierung der Pose eine räumliche Ausdehnung von bestimmten Key-Points (6) im Bildbereich modelliert wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die räumliche Ausdehnung einer Modellierung der Proportionen des zumindest einen erkannten Fußgängers (1) entspricht.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass auf Basis der modellierten Proportionen Annahmen über die Kontur des Fußgängers (1) getroffen werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Pose in Kopf, Torso, Beine und Arme segmentiert wird.
DE102020200572.9A 2019-12-18 2020-01-20 Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern Withdrawn DE102020200572A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112020006161.2T DE112020006161A5 (de) 2019-12-18 2020-12-08 Verfahren zur Erkennung von Landmarken und Fußgängern
PCT/DE2020/200110 WO2021121489A1 (de) 2019-12-18 2020-12-08 Verfahren zur erkennung von landmarken und fussgängern

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019220013.3 2019-12-18
DE102019220013 2019-12-18

Publications (1)

Publication Number Publication Date
DE102020200572A1 true DE102020200572A1 (de) 2021-06-24

Family

ID=76206561

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102020200572.9A Withdrawn DE102020200572A1 (de) 2019-12-18 2020-01-20 Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern
DE112020006161.2T Pending DE112020006161A5 (de) 2019-12-18 2020-12-08 Verfahren zur Erkennung von Landmarken und Fußgängern

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112020006161.2T Pending DE112020006161A5 (de) 2019-12-18 2020-12-08 Verfahren zur Erkennung von Landmarken und Fußgängern

Country Status (2)

Country Link
DE (2) DE102020200572A1 (de)
WO (1) WO2021121489A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060098865A1 (en) * 2004-11-05 2006-05-11 Ming-Hsuan Yang Human pose estimation with data driven belief propagation
WO2018104563A2 (en) * 2016-12-09 2018-06-14 Tomtom Global Content B.V. Method and system for video-based positioning and mapping
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009086088A1 (en) 2007-12-21 2009-07-09 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
EP2395478A1 (de) 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Monokulare 3D-Poseneinschätzung und deren Verfolgung durch Erkennung
US10712556B2 (en) * 2015-12-31 2020-07-14 Huawei Technologies Co., Ltd. Image information processing method and augmented reality AR device
CN106250867B (zh) * 2016-08-12 2017-11-14 南京华捷艾米软件科技有限公司 一种基于深度数据的人体骨骼跟踪系统的实现方法
DE102016219503A1 (de) * 2016-10-07 2018-04-12 Audi Ag Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060098865A1 (en) * 2004-11-05 2006-05-11 Ming-Hsuan Yang Human pose estimation with data driven belief propagation
WO2018104563A2 (en) * 2016-12-09 2018-06-14 Tomtom Global Content B.V. Method and system for video-based positioning and mapping
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera

Also Published As

Publication number Publication date
WO2021121489A1 (de) 2021-06-24
DE112020006161A5 (de) 2022-09-29

Similar Documents

Publication Publication Date Title
DE102014222617B4 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
EP2927844A1 (de) Positions- und lagebestimmung von 3d objekten
DE102017203276B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Trajektorie in Off-road-Szenarien
EP2920741B1 (de) Verfahren und vorrichtung zur bildgestützten landebahnlokalisierung
DE102004028763A1 (de) Andockassistent
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
DE102017208718A1 (de) Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102017122010A1 (de) Erkennungsverfahren und Erkennungseinrichtung zur Erkennung einer dreidimensionalen Position eines Objekts
EP2562681B1 (de) Objektverfolgungsverfahren für ein Kamerabasiertes Fahrerassistenzsystem
DE102014114221A1 (de) Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102013017621A1 (de) Verfahren zur Auswertung von stereoskopisch erfassten Einzelbildern
DE102020200572A1 (de) Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern
DE102022202548B3 (de) Verfahren zum Trainieren eines Computerprogrammprodukts
DE102018109680A1 (de) Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
DE102017104957A1 (de) Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2019072451A1 (de) Verfahren zum verarbeiten von bildern
EP3714398A1 (de) Verfahren zur objekterkennung für ein fahrzeug mit einer thermografiekamera und modifizierter entrauschungsfilter
EP4253188A1 (de) Justage einer detektion eines schienenstrangs auf basis einer registrierung eines schienenmodells mit einem kamerabild
DE102016225073A1 (de) Vorrichtung zur bereitstellung einer verbesserten hinderniserkennung
DE102020215639A1 (de) Verfahren zum Erzeugen eines Erkennungsmodells zum Erkennen von Merkmalen in Kamerabilddaten und Verfahren zum Erkennen von Merkmalen in Kamerabilddaten
DE102022119865A1 (de) Verfahren zum Schätzen von Positionen von Gelenkpunkten und Steuereinrichtung für ein Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE

R118 Application deemed withdrawn due to claim for domestic priority