DE102022001327A1 - Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System - Google Patents

Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System Download PDF

Info

Publication number
DE102022001327A1
DE102022001327A1 DE102022001327.4A DE102022001327A DE102022001327A1 DE 102022001327 A1 DE102022001327 A1 DE 102022001327A1 DE 102022001327 A DE102022001327 A DE 102022001327A DE 102022001327 A1 DE102022001327 A1 DE 102022001327A1
Authority
DE
Germany
Prior art keywords
pose
person
image
vehicle
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022001327.4A
Other languages
English (en)
Inventor
Julian Wiederer
Sebastian Krebs
Phillip Czech
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102022001327.4A priority Critical patent/DE102022001327A1/de
Publication of DE102022001327A1 publication Critical patent/DE102022001327A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Darstellung einer Pose (7) einer Person (4) in einem Bild (6), aufweisend folgende Schritte:
- Bestimmen von Informationen zu einer Pose (7) eines Körperteils (8) der Person (4) in einer Umgebung (3) eines Fahrzeugs (1) mit einer Auswerteeinheit (9) abhängig von Sensorinformationen eines Sensors (10), der an dem Körperteil (8) angeordnet ist, wobei die Sensorinformationen die Pose (7) charakterisieren;
- Erfassen der Person (4) in der Umgebung (3) des Fahrzeugs (1) mit einer bildgebenden Erfassungseinheit (2);
- Bestimmen einer Position der Person (4) in Bezug zum Fahrzeug (1) mit einer Positionsbestimmungseinheit (12, 13);
- Darstellung der bestimmten Pose (7) des Körperteils (8) in dem von der Erfassungseinheit (2) erzeugten Bild (6) in Abhängigkeit von der bestimmten Position der Person (4) in Bezug zum Fahrzeug (1) und in Abhängigkeit von den bestimmten Informationen zu der Pose (7). Des Weiteren betrifft die Erfindung ein System (11).

Description

  • Die Erfindung betrifft ein Verfahren zur Darstellung einer Pose einer Person in einem Bild.
  • Des Weiteren betrifft die Erfindung ein elektronisches System mit zumindest einer Positionsbestimmungseinheit, zumindest einem Sensor, zumindest einer Erfassungseinheit und zumindest einer Auswerteeinheit.
  • Beispielsweise wird bei der Entwicklung und Evolution von Methoden zur Schätzung einer Körperpose ein, insbesondere genaues, Referenzmesssystem zur Bestimmung der Körperpose benötigt beziehungsweise verwendet. Ziel dabei ist es, zu jedem Zeitpunkt eine genaue Messung einer 3D-Position der einzelnen Gelenkpunkte des Körpers einer Person zu erhalten. Aktuell sogenannte „Machine-Learning“-Verfahren benötigen dabei große Mengen an annotierten Daten für das Trainieren sowie zur Auswertung. Die Annotation der Gelenkpunkte des Körpers wird derzeit manuell durchgeführt. Dabei werden die Gelenkpunkte von Fachkräften in ein Kamerabild eingezeichnet. Der Prozess ist sehr zeit- und kostenaufwendig und ist nur für die Annotation im Zweidimensionalen geeignet. Dreidimensionale Annotationen der Körperpose, welche für komplexe Verhaltensanalysen, wie Aktions- oder Intensions-Analyse, benötigt werden, können somit aufgrund fehlender Tiefeninformation nicht in ausreichender Genauigkeit annotiert werden.
  • Beispielsweise existieren bereits Ansätze zur Annotation von 3D-Körperposen. In Indoor-Umgebungen kommen häufig visuelle Motion-Capture-Systeme zum Einsatz. Dabei werden am Körper eines Probanden angebrachte Marker in mehreren Kamerabildern simultan erkannt und die 3D-Pose durch Triangulation berechnet. Das System ist jedoch nur für Anwendungen mit geringem Aktionsraum geeignet. Weiterhin kommt es durch die in den Kamerabildern sichtbaren Marker zu einer unnatürlichen Beeinflussung des Machine-Learning-Algorithmus. Für Outdoor-Anwendungen mit großem Aktionsradius bieten sich besonders sogenannte Motion-Capture-Anzüge an. IMU-Sensoren an diesem Anzug messen die Beschleunigung der Gelenke. Durch Integration der Beschleunigungssignale wird die Pose des Probanden in 3D nachgebildet. Jedoch ist die zeitliche Integration fehleranfällig für Drifts. Um diese Drifts auszugleichen, wurden verschiedene Sensor-Fusions-Systeme entwickelt. Hierbei kommen beispielsweise Laser-Sensoren, optische Sensoren oder Satellitensignale zum Einsatz. Durch die Fusion der IMU-Posen-Erkennung mit der Posen-Schätzung aus dem Signal eines Laser-Sensors, zum Beispiel Lidarsensor, kann der ursprüngliche Drift deutlich verringert werden. Die Qualität der annotierten 3D-Pose ist jedoch stark abhängig von der Posenschätzung im Lidar-Signal des Sensors.
  • Beispielsweise können Ground Truth Posen für das Trainieren von Algorithmen zur Posenschätzung generiert werden.
  • Beispielsweise offenbart die DE 10 2018 214 635 A1 ein Verfahren zur Vorhersage zumindest eines zukünftigen Geschwindigkeitsvektors und/oder einer zukünftigen Pose eines Fußgängers in einem Vorhersagebereich. Eine Karte einer Umgebung des Fußgängers und aktuelle Geschwindigkeitsvektoren weiterer Fußgänger im Vorhersagebereich werden bei der Vorhersage berücksichtigt.
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, eine Darstellung einer Person in einem von einem Fahrzeug erfassten Bild zu verbessern.
  • Diese Aufgabe wird durch ein Verfahren und ein System gemäß den unabhängigen Patentansprüchen gelöst. Sinnvolle Weiterbildungen ergeben sich aus den abhängigen Patentansprüchen.
  • Ein Aspekt der Erfindung betrifft ein Verfahren zur Darstellung einer Pose einer Person in einem Bild, aufweisend folgende Schritte:
    • - Bestimmen von Informationen zu einer Pose zumindest eines Körperteils der Person in einer Umgebung eines Fahrzeugs mit einer Auswerteeinheit abhängig von Sensorinformationen zumindest eines Sensors, der an dem Körperteil angeordnet ist, wobei die Sensorinformationen die Pose charakterisieren;
    • - Erfassen der Person in der Umgebung des Fahrzeugs mit einer bildgebenden Erfassungseinheit, die extern zur Person angeordnet ist;
    • - Bestimmen einer Position der Person in Bezug zum Fahrzeug mit zumindest einer Positionsbestimmungseinheit;
    • - Darstellung der bestimmten Pose zumindest des Körperteils in dem von der Erfassungseinheit erzeugten Bild in Abhängigkeit von der bestimmten Position der Person in Bezug zum Fahrzeug und in Abhängigkeit von den bestimmten Informationen zu der Pose.
  • Durch das vorgeschlagene Verfahren werden Darstellungen von Personen und insbesondere von Posen der Person in einem von einem Fahrzeug erfassten beziehungsweise aufgezeichneten Bild ermöglicht. Somit können zum einen einem Fahrzeugsystem oder mehreren Fahrzeugsystemen des Fahrzeuges genauere und insbesondere detailliertere Informationen bezüglich einer erfassten Person in der Umgebung des Fahrzeugs zur Verfügung gestellt werden. Insbesondere kann durch das vorgeschlagene Verfahren ein Informationsgehalt des von der Erfassungseinheit erzeugten Bilds erhöht beziehungsweise verbessert werden.
  • Mit anderen Worten ausgedrückt können mithilfe des vorgeschlagenen Verfahrens Poseninformationen einer Person beispielsweise in ein Bild beziehungsweise ein Kamerabild genutzt werden. Somit können beispielsweise Sensorinformationen, insbesondere hochgenaue Sensorinformationen, so genutzt werden, dass beispielsweise fehlerrobuste Annotationen beziehungsweise Einbindungen beziehungsweise Hinzufügungen von Poseninformationen in ein Bild automatisiert erreicht beziehungsweise durchgeführt werden kann. Des Weiteren kann durch das vorgeschlagene Verfahren eine Annotation von Daten, insbesondere von Informationen zu der Pose, in dynamischen Szenarien, also während einer Fortbewegungsfahrt des Fahrzeuges, durchgeführt werden.
  • Des Weiteren bietet das vorgeschlagene Verfahren Vorteile bei der Reduzierung von Kosten für Annotationen von Posen einer Person in einem Bild. Ebenso ergibt sich mithilfe des vorgeschlagenen Verfahrens eine verbesserte beziehungsweise erhöhte Genauigkeit der Darstellung der Pose in dem Bild.
  • Im Vergleich zu den eingangs genannten visuellen Markern von Motion-Capture-Systemen kann hier nun auf visuelle Marker verzichtet werden. Somit können beispielsweise Bias-Probleme verhindert werden.
  • Insbesondere kann es sich bei dem vorgeschlagenen Verfahren um ein computerimplementiertes Verfahren handeln.
  • Ein weiterer Aspekt der Erfindung betrifft ein elektronisches System mit zumindest einer Positionsbestimmungseinheit, zumindest einem Sensor, zumindest einer Erfassungseinheit und zumindest einer Auswerteeinheit, wobei das elektronische System zum Durchführen eines Verfahrens nach dem vorherigen Aspekt oder einer vorteilhaften Weiterbildung daraus ausgebildet ist.
  • Insbesondere kann das vorhin geschilderte Verfahren mit dem soeben geschilderten elektronischen System durchgeführt beziehungsweise ausgeführt werden.
  • Bei dem elektronischen System kann es sich um ein komplexes System beziehungsweise eine Vorrichtung handeln, welche die verschiedensten Einheiten beziehungsweise Geräte aufweist.
  • Vorteilhafte Ausführungen eines Aspekts können als vorteilhafte Ausführungen des anderen Aspekts und umgekehrt angesehen werden.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnung(en). Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in der einzigen Figur alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Dabei zeigt die einzige Figur (1) ein elektronisches System, mit welchem eine Pose einer Person in einem Bild dargestellt werden kann.
  • Die 1 zeigt eine schematische Darstellung eines Fahrzeugs 1. Dabei kann es sich bei dem Fahrzeug 1 beispielsweise um ein Kraftfahrzeug, wie einen Lastkraftwagen oder einen Personenkraftwagen, handeln. Insbesondere befindet sich das Fahrzeug 1 in einer Fortbewegung beziehungsweise einer Fortbewegungsfahrt im realen Straßenverkehr. Beispielsweise weist das Fahrzeug 1 zumindest eine Erfassungseinheit 2 auf, mit welcher eine Umgebung 3 des Fahrzeugs 1 erfasst werden kann. Bei der Erfassungseinheit 2 kann es sich beispielsweise um ein Sensorsystem oder um eine Kamera handeln. Mithilfe der Erfassungseinheit 2 kann beispielsweise eine Person 4, welche sich in der Umgebung 3 des Fahrzeugs 1 befindet, insbesondere in einem Erfassungsbereich 5 der Erfassungseinheit 2, erfasst werden.
  • Beispielsweise kann mit der Erfassungseinheit 2 ein Bild 6 erzeugt beziehungsweise generiert werden. Beispielsweise kann es sich bei dem Bild 6 um ein Kamerabild handeln. Beispielsweise kann das Bild 6 für Fahrerassistenzsysteme, insbesondere einem Fahrzeugführungssystem, zur Verfügung gestellt werden. Ebenso denkbar ist, dass das Bild 6 in einer Anzeigeeinheit oder auf einem Display im Fahrzeug 1 angezeigt wird.
  • Damit Fahrzeugsystemen eine verbesserte Information bezüglich der erfassten Person 4 in dem Bild 6 bereitgestellt werden kann, ist es erfindungsgemäß vorgesehen, dass eine Pose 7 der Person 4 in dem Bild 6 dargestellt wird. Insbesondere handelt es sich bei der Pose 7 um eine Pose, insbesondere Körperpose, zumindest eines Körperteils 8. Hierzu kann zunächst eine Information zu der Pose 7 in der Umgebung 3 des Fahrzeugs 1 mit einer Auswerteeinheit 9 abhängig von Sensorinformationen zumindest eines Sensors 10, der an dem Körperteil 7 angeordnet ist, bestimmt werden. Mit der Sensorinformation kann die Pose 7 charakterisiert werden. Beispielsweise handelt es sich bei dem zumindest einen Sensor 10 um einen IMU-Sensor („Inertial Measurement Unit“). Beispielsweise kann der Sensor 10 Bestandteil eines Bewegungserfassungssystems sein. Bei einem solchen Bewegungserfassungssystem kann es sich beispielsweise um ein eingangs genanntes Motion-Capture-System handeln. Beispielsweise kann ein solches System als Motion-Capture-Anzug ausgebildet sein. Solch ein System kann durch den Nutzer 4 am Körper getragen werden. Somit können vor allem Bewegungen des zumindest einen Körperteils 8 und insbesondere allgemeine Bewegungen der Person 4 erfasst werden.
  • Bei der Auswerteeinheit 9 kann es sich insbesondere um eine elektronische Auswerteeinheit beziehungsweise ein elektronisches Auswertesystem handeln.
  • Insbesondere kann die Erfassungseinheit 2 eine bildgebende Erfassungseinheit sein, die vor allem extern zur Person 4 angeordnet ist. Insbesondere ist die Erfassungseinheit 2 am Fahrzeug 1 angeordnet.
  • Beispielsweise kann die Auswerteeinheit 9 Bestandteil eines elektronischen Systems 11 sein. Mithilfe des Systems 11 kann die Pose 7, also eine menschliche Körperpose, automatisch erzeugt beziehungsweise generiert werden. Diese kann mithilfe des Systems 11 dreidimensionale Annotationen erzeugen und für das Darstellen der Pose 7 in dem Bild 6 genutzt werden. Für das Einbinden beziehungsweise Annotieren der Pose 7 in das Bild 6 werden beispielsweise geografische Positionsinformationen benötigt. Hierzu kann mithilfe zumindest einer Positionsbestimmungseinheit 12, 13 eine Position der Person 4 in Bezug zum Fahrzeug 1 bestimmt werden. Hierzu kann die Positionsbestimmungseinheit 12 an der Person 4 angeordnet sein, beispielsweise in einem Rucksack der Person 4. Insbesondere kann die Positionsbestimmungseinheit 12 Teil des Motion-Capture-Systems sein. Die Bestimmungseinheit 13 kann beispielsweise am Fahrzeug 1 angeordnet werden. Somit kann eine relative Positionierung der Person 4 im Bezug zum Fahrzeug 1 bestimmt werden. Beispielsweise kann hierzu ebenfalls ein Abstand beziehungsweise eine Entfernung zwischen der aktuellen Position des Fahrzeugs 1 und der aktuellen Position der Person 4 bestimmt werden.
  • Beispielsweise können die Positionsbestimmungseinheiten 12, 13 mit einem Positionsbestimmungssensor 14 umgesetzt sein. Beispielsweise können die Positionsbestimmungssensoren 14 als DGPS-Sensoren („Differential Global Positioning System“) ausgebildet sein. Das GPS-System 15 kann beispielsweise als GNSS-System („Globales Navigationssatellitensystem“) oder als GPS-System („Global Positioning System“) ausgebildet sein. Beispielswese weist das GPS-System 15 mehrere Satelliten und einen DGPS-Receiver auf.
  • Somit kann beispielsweise ein globales Navigationssatellitensystem zur Projektion der Poseninformationen in das Bild 6 genutzt werden. Dies hat den Vorteil, dass hochgenaue Sensorinformationen, insbesondere des Sensors 10, fehlerrobuste Annotationen ermöglichen können. Beispielsweise kann folglich eine Kopplung eines sich bewegenden Referenzsystems, beispielsweise das Fahrzeug 1, mit einem Motion-Capture-System, hier die Person 4, durchgeführt werden. Dies ermöglicht die Annotation von Daten in dynamischen Szenarien, welche beispielsweise in dem Bild 6 dargestellt sind.
  • Insbesondere kann mithilfe des Systems 11 die bestimmte Pose 7 zumindest des Körperteils 8 in dem von der Erfassungseinheit 2 erzeugten Bild 6 in Abhängigkeit von einer bestimmten Position der Person 4 in Bezug zum Fahrzeug 1 und in Abhängigkeit von den bestimmten Informationen zu der Pose 7 dargestellt werden. Somit kann eine hochgenaue Pose des Probanden beziehungsweise der Person 4, welche durch den Sensor 10 beispielsweise erfasst wurde, in das Bild 6 beziehungsweise Kamerabild des sich bewegenden Versuchsfahrzeugs beziehungsweise Fahrzeugs 1 projiziert werden. Hierzu wird die Position der Person 4 in Bezug zum Fahrzeug 1 benötigt. Mithilfe der Positionsbestimmungseinheit 12, 13 können für das Darstellen der, insbesondere dreidimensionalen, Pose 7 die Informationen bezüglich der Person 4 so transformiert werden, dass sie in das Bild 6 annotiert beziehungsweise eingefügt werden können.
  • Mit dem zumindest einen Sensor können als Sensorinformationen dreidimensionale (3D) Bewegungsdaten beziehungsweise Bewegungsposen beziehungsweise Posen zumindest des Körperteils 8 der Person 4 erfasst werden.
  • Beispielsweise kann in einer Transformationskette für das Darstellen der Pose 7 gegeben sein durch: Posenerfassung mittels des Motion-Capture-Systems; die Positionsbestimmungseinheit 12; die Positionsbestimmungseinheit 13; Mitte einer Hinterachse des Fahrzeugs 1; Einbauposition der Erfassungseinheit 2; und dem Bild 6.
  • Somit erfolgt eine komplexe Transformation der verschiedensten Positionen und/oder Einbaupositionen des Systems 11. Somit können beispielsweise zum System 11 die Positionsbestimmungseinheiten 12, 13, der zumindest eine Sensor 10, die Erfassungseinheit 2 und die Auswerteeinheit 9 dazugehören. Somit werden zum einen die Positionen des Fahrzeugs 1 und der Person 4 bestimmt und für das Einbinden beziehungsweise Annotieren beziehungsweise Darstellen der Pose 7 in das Bild 6 eine Einbauposition der Erfassungseinheit 2 und beispielsweise als Bezugsgröße die Mitte der Fahrzeughinterachse des Fahrzeugs 1. Für die Transformation zwischen den Koordinatensystemen kann ein kalibriertes Kamerasystem, beispielsweise die Erfassungseinheit 2, verwendet werden. In anderen Worten ausgedrückt, sind speziell die intrinsischen und extrinsischen Kalibrierungsparameter des Kamerasystems Voraussetzung für die Transformation.
  • Des Weiteren ist ein einheitliches Probanden-Referenzsystem, also das Motion-Capture-System, von Vorteil. Hierzu kann beispielsweise durch die Bestimmungseinheit 12, welche beispielsweise in einem Rucksack durch die Person 4 getragen wird, eine vorgegebene Position eingestellt werden. Insbesondere kann darauf geachtet werden, dass die Bestimmungseinheit 12 innerhalb eines vorgegebenen Positionierungsbereichs liegt. Somit kann beispielsweise mithilfe eines Rucksacks eine Position der Bestimmungseinheit 12 manuell eingestellt werden.
  • Insbesondere sind die Positionsbestimmungseinheiten 12, 13 derart ausgebildet, dass eine globale Position der Person 4 und eine globale Position des Fahrzeugs 1 bestimmt werden kann. Die beiden globalen Positionen können bei der Bestimmung der Pose 7 in dem Bild 6 berücksichtigt werden. Insbesondere kann die bestimmte Pose 7 in dem Bild 6 derart dargestellt werden, dass diese Pose 7, insbesondere zusätzlich, in das Bild 6 projiziert wird. Somit kann eine 3D-Pose, insbesondere die Pose 7, zusätzlich in ein Kamerabild projiziert werden. Besonders vorteilhaft ist, wenn die Pose 7 in dem Bild 6, insbesondere exakt, auf der untersuchten beziehungsweise erfassten Person 4 liegen soll.
  • Dies kann beispielsweise als „Ground Truth“ für ein Trainieren eines Algorithmus zur Posen-Erkennung genutzt werden.
  • Besonders vorteilhaft ist das vorgeschlagene Verfahren für die Verwendung eines Trainingsverfahrens, bei welchem die bestimmte Pose 7 im Kamerabild 6 als Ground-Truth verwendet wird. Dabei wird das Verfahren trainiert, die Pose 7 basierend auf dem Kamerabild 6 zu schätzen. Somit kann die bestimmte Pose 7 nicht nur für das Darstellen in dem Kamerabild 6, sondern auch für ein Trainieren zur Posen-Erkennung genutzt werden. Insbesondere kann durch das Darstellen der bestimmten Pose 7 in dem Bild 6 eine potentielle Abweichung beziehungsweise Ungenauigkeit der geschätzten Pose, wie sie durch die Erfassungseinheit 2 in dem Bild 6 erfasst wird, zur realen Pose 7 der Person 4 ermittelt werden.
  • Insbesondere kann somit mithilfe der bestimmten Pose automatisiert Posen-Ground-Truth generiert werden. Unter „Ground-Truth“ (Grundwahrheit) wird eine Information verstanden, von der man weiß, dass sie real oder wahr ist, und die durch direkte Beobachtung und Messung, d. h. empirische Beweise, bereitgestellt wird, im Gegensatz zu Informationen, die durch Schlussfolgerung bereitgestellt werden .
  • Im Nachfolgenden wird ein Ausführungsbeispiel der vorliegenden Erfindung in anderen Worten erläutert. Mithilfe des Systems 11 kann beispielsweise ein Labeln beziehungsweise Annotieren von 3D-Posen einer Person 4 in ein Kamerabild 6 eines Fahrzeugs 1 durchgeführt werden. Hierbei werden mittels eines Motion-Capture-Systems in Form eines Anzugs mit Inertialsensoren Ground-Truth-Daten erstellt und auf Basis dieser kann das Bild 6 beispielsweise gelabelt beziehungsweise annotiert werden. Zusätzlich werden DGPS-Sensoren verwendet, um die Bewegung des Fahrzeugs 1 und der Person 4 zueinander beim Labeln beziehungsweise Annotieren zu berücksichtigen.
  • Das GPS-System 15 kann einen GPS-Receiver aufweisen. Dieser dient als Fixposition beziehungsweise Referenzposition. Insbesondere kann es sich hierbei um eine Basisstation handeln. Insbesondere stehen die Bestimmungseinheiten 12, 13 und das GPS-System 15, insbesondere in ständiger, Kommunikationsverbindung zueinander.
  • Beispielsweise können die von dem vorgestellten Verfahren ermittelten Posen dazu verwendet werden, um eine Pose 7 einer Person 4, insbesondere die keine Sensoren zur Bestimmung der Pose eines Körperteils aufweist, in einer Umgebung des Fahrzeugs 1, in welcher die Person 4 mit der bildgebenden Erfassungseinheit 2 erfasst wird, zu schätzen. Hierbei kann die im Bild 6 enthaltene Pose der Person 4 genutzt werden um die Ergebnisse eines Trainingsalgorithmus zu bewerten. Dies kann insbesondere zur Konfiguration, Erstellung und Produktion von Fahrerassistenzsystemen genutzt werden.
  • Insbesondere können mithilfe der bestimmten Pose Bewegungsdaten der Person 4 in das Bild 6 in Abhängigkeit von der globalen Position der Person und des Fahrzeugs 1 eingebunden werden. Somit kann beispielsweise eine Informationserweiterung des Bildes 6 durchgeführt werden.
  • Des Weiteren können Informationen zu weiteren Posen 16 weiterer Körperteile 17 abhängig von Sensorinformationen weiterer Sensoren 18, welche ebenfalls verteilt an den Körperteilen 17 angeordnet sind, bestimmt werden. Diese weiteren Posen 16 können zusätzlich in dem erzeugten Bild 6 abhängig von der bestimmten Position der Person 4 in Bezug zum Fahrzeug 1 und abhängig von den bestimmten Informationen zu den weiteren Posen 16 dargestellt werden. Somit kann abhängig von den Informationen zu weiteren Posen 16 und den Informationen zu der Pose 7 eine dreidimensionale Pose des Körpers 19 der Person 4 bestimmt werden. Diese dreidimensionale Pose des Körpers 19 kann in Abhängigkeit von der bestimmten Position der Person 4 in Bezug zum Fahrzeug 1 in dem Bild 6 dargestellt werden. Somit kann insbesondere die in dem Bild 6 erfasste Person 4 mithilfe einer dreidimensionalen Pose der Person 4 annotiert werden. Somit kann das Bild 6 verbessert werden.
  • Insbesondere können die weiteren Sensoren 18 und der zumindest eine Sensor 10 über drahtlose oder drahtgebundene Kommunikationsmöglichkeiten mit dem Motion-Capture-System verbunden werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018214635 A1 [0006]

Claims (9)

  1. Verfahren zur Darstellung einer Pose (7) einer Person (4) in einem Bild (6), aufweisend folgende Schritte: - Bestimmen von Informationen zu einer Pose (7) zumindest eines Körperteils (8) der Person (4) in einer Umgebung (3) eines Fahrzeugs (1) mit einer Auswerteeinheit (9) abhängig von Sensorinformationen zumindest eines Sensors (10), der an dem Körperteil (8) angeordnet ist, wobei die Sensorinformationen die Pose (7) charakterisieren; - Erfassen der Person (4) in der Umgebung (3) des Fahrzeugs (1) mit einer bildgebenden Erfassungseinheit (2), die extern zur Person (4) angeordnet ist; - Bestimmen einer Position der Person (4) in Bezug zum Fahrzeug (1) mit zumindest einer Positionsbestimmungseinheit (12, 13); - Darstellung der bestimmten Pose (7) zumindest des Körperteils (8) in dem von der Erfassungseinheit (2) erzeugten Bild (6) in Abhängigkeit von der bestimmten Position der Person (4) in Bezug zum Fahrzeug (1) und in Abhängigkeit von den bestimmten Informationen zu der Pose (7).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mit dem zumindest einen Sensor (10) als Sensorinformationen dreidimensionale Bewegungsdaten zumindest des Körperteils (8) der Person (4) erfasst werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mit der Positionsbestimmungseinheit (12, 13) eine globale Position als Position der Person (4) und eine globale Position des Fahrzeugs (1) bestimmt wird, wobei diese beiden globalen Positionen bei der Darstellung der bestimmten Pose (7) zumindest des Körperteils (8) in dem Bild (6) berücksichtigt werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass für die Darstellung der bestimmten Pose (7) zumindest des Körperteils (8) in dem Bild (6) eine intrinsische Kalibrierung und/oder eine extrinsische Kalibrierung der Erfassungseinheit (2) auf Basis der globalen Positionen durchgeführt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die bestimmte Pose (7) zumindest des Körperteils (8) in dem erzeugten Bild (6) derart dargestellt wird, dass diese Pose (7), insbesondere zusätzlich, in das Bild (6) projiziert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Informationen zu weiteren Posen (16) weiterer Körperteile (17) der Person (4) abhängig von Sensorinformationen weiterer Sensoren (18), welche an den weiteren Körperteilen (17), insbesondere verteilt, angeordnet sind, bestimmt werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die weiteren Posen (16) der weiteren Körperteile (17) zusätzlich in dem erzeugten Bild (6) in Abhängigkeit von der bestimmten Position der Person (4) in Bezug zum Fahrzeug (1) und in Abhängigkeit von den bestimmten Informationen zu den weiteren Posen (16) dargestellt werden.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass abhängig von den Informationen zu weiteren Posen (16) der weiteren Körperteile (17) und den Informationen zu der Pose (7) des Körperteils (8) eine dreidimensionale Pose des Körpers (19) der Person (4) bestimmt wird, wobei diese drei-dimensionale Pose des Körpers (19) in Abhängigkeit von der bestimmten Position der Person (4) in Bezug zum Fahrzeug (1) in dem Bild (6) dargestellt wird.
  9. Elektronisches System (11) mit zumindest einer Positionsbestimmungseinheit (12, 13), zumindest einem Sensor (10, 18), zumindest einer Erfassungseinheit (2) und zumindest einer Auswerteeinheit (9), wobei das elektronische System (11) zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgebildet ist.
DE102022001327.4A 2022-04-19 2022-04-19 Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System Pending DE102022001327A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022001327.4A DE102022001327A1 (de) 2022-04-19 2022-04-19 Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022001327.4A DE102022001327A1 (de) 2022-04-19 2022-04-19 Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System

Publications (1)

Publication Number Publication Date
DE102022001327A1 true DE102022001327A1 (de) 2022-06-02

Family

ID=81585823

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022001327.4A Pending DE102022001327A1 (de) 2022-04-19 2022-04-19 Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System

Country Status (1)

Country Link
DE (1) DE102022001327A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022211958A1 (de) 2022-11-11 2024-05-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Trainieren eines Klassifikators und Vorrichtung

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214635A1 (de) 2018-08-29 2020-03-05 Robert Bosch Gmbh Verfahren zur Vorhersage zumindest eines zukünftigen Geschwindigkeitsvektors und/oder einer zukünftigen Pose eines Fußgängers

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214635A1 (de) 2018-08-29 2020-03-05 Robert Bosch Gmbh Verfahren zur Vorhersage zumindest eines zukünftigen Geschwindigkeitsvektors und/oder einer zukünftigen Pose eines Fußgängers

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022211958A1 (de) 2022-11-11 2024-05-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Trainieren eines Klassifikators und Vorrichtung

Similar Documents

Publication Publication Date Title
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
DE112014002019B4 (de) Kurvenformmodelliereinrichtung, Fahrzeuginformationsverarbeitungssystem, Kurvenformmodellierverfahren und Kurvenformmodellierprogramm
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
DE102014206623A1 (de) Lokalisierung eines Head-mounted Displays (HMD) im Fahrzeug
DE112008003341T5 (de) Navigationsvorrichtung
DE102020200843A1 (de) Lokalisierung mit neuronalen Netz basierend auf Bildregistrierung von Sensordaten und Kartendaten
DE102016224329A1 (de) Verfahren und System zur Lokalisierung eines Fahrzeugs
DE102012014397A1 (de) Verfahren zum Ermitteln einer Position eines Fahrzeugs und Fahrzeug
DE102020105649A1 (de) Verfahren und vorrichtung zur parallelen verfolgung und lokalisierung mittels eines multimodalen schmelzverfahrens
DE102017118078A1 (de) Lokalisationseinrichtung für ein Kraftfahrzeug, Fahrerassistenzeinrichtung, Kraftfahrzeug sowie Verfahren zum Lokalisieren eines Kraftfahrzeugs
DE112016005798T5 (de) Fahrzeuginternes system und verfahren zur bereitstellung von informationen in bezug auf punkte von interesse
DE102022001327A1 (de) Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System
DE102019101405A1 (de) Verfahren zum Bewerten einer Positionsinformation einer Landmarke in einer Umgebung eines Kraftfahrzeugs, Bewertungssystem, Fahrerassistenzsystem und Kraftfahrzeug
DE10137582B4 (de) Bildverarbeitungsvorrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Bildverarbeitungsvorrichtung
WO2016000919A1 (de) Verfahren zum ermitteln in einem backend und bereitstellen an ein fahrzeug eines eine landmarke beschreibenden datensatzes zur eigenpositionsbestimmung durch das fahrzeug
DE102022202548B3 (de) Verfahren zum Trainieren eines Computerprogrammprodukts
EP4148386A1 (de) Ermittlung einer absoluten initialposition eines fahrzeugs
DE102007022588A1 (de) Verfahren zur Anzeige von Videobildern und Videosystemen
DE102021110449A1 (de) Verfahren und System zum Navigieren einer mobilen Plattform in einer Umgebung
DE102017200303A1 (de) Digitale kartierung von strassenmarkierungen
EP3008636A1 (de) Verfahren und system zum auffinden einer oder mehrerer personen durch ein fahrzeug
DE102020111471A1 (de) Verfahren und System zur Bilderkennung für ein automatisiert fahrendes Fahrzeug
DE102018205142A1 (de) Verfahren zur Erfassung einer aktuellen Position eines Kraftfahrzeugs, Vorrichtung zur Durchführung des Verfahrens und Kraftfahrzeug

Legal Events

Date Code Title Description
R230 Request for early publication
R012 Request for examination validly filed