DE102007052763A1 - Verfahren zur Vorhersage einer Aktion eines bewegten Objekts - Google Patents

Verfahren zur Vorhersage einer Aktion eines bewegten Objekts Download PDF

Info

Publication number
DE102007052763A1
DE102007052763A1 DE200710052763 DE102007052763A DE102007052763A1 DE 102007052763 A1 DE102007052763 A1 DE 102007052763A1 DE 200710052763 DE200710052763 DE 200710052763 DE 102007052763 A DE102007052763 A DE 102007052763A DE 102007052763 A1 DE102007052763 A1 DE 102007052763A1
Authority
DE
Germany
Prior art keywords
trajectory
movement
tracing
action
sections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE200710052763
Other languages
English (en)
Inventor
Markus Dipl.-Inform. Hahn
Lars Dr. Krüger
Christian Dr.rer.nat. Wöhler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE200710052763 priority Critical patent/DE102007052763A1/de
Publication of DE102007052763A1 publication Critical patent/DE102007052763A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39098Estimate stop, brake distance in predef time, then verify if in safe distance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Abstract

Die Erfindung betrifft ein Verfahren zur Vorhersage einer Aktion (A) eines bewegten Objekts (1), bei dem eine Bewegung des Objekts (1) verfolgt und mit mindestens einer Referenzbewegung verglichen wird, wobei aus einer dreidimensionalen Bewegung des Objekts (1) während der Verfolgung fortschreitend eine Trajektorie (4) gebildet wird, wobei die Trajektorie (4) in semantisch relevante Abschnitte (4.1 bis 4.n) segmentiert wird und wobei die Trajektorie (4) und/oder deren semantisch relevante Abschnitte (4.1 bis 4.n) während der Verfolgung mit mindestens einer Referenztrajektorie (6), die einer bestimmten Aktion (A) zugeordnet ist, und/oder semantisch relevanten Abschnitten (6.1 bis 6.n) der Referenztrajektorie (6) verglichen werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Vorhersage einer Aktion eines bewegten Objekts, bei dem eine Bewegung des Objekts verfolgt und mit mindestens einer Referenzbewegung verglichen wird.
  • In einer Reihe von Anwendungsgebieten wird angestrebt, aus einer beobachteten Bewegung eines Objekts eine zukünftige Bewegung oder eine Aktion zu prognostizieren. So existieren Systeme zur Überprüfung von Montageprozessen in der industriellen Produktion, die einen Zusammenbau hinsichtlich des Vorhandenseins und der korrekten Lage und Orientierung einzelner Bauteile überwachen. Bei manuellen Montageprozessen kann auch eine die Montage durchführende Person hinsichtlich ihrer Bewegungen beobachtet werden, wobei der Bewegungsablauf bezüglich seiner Übereinstimmung mit einem Referenzbewegungsablauf geprüft wird.
  • Ist die Referenzbewegung sehr genau bekannt, wie z.B. im Fall von Industrierobotern, lassen sich Abweichungen zwischen einer beobachteten Trajektorie und einer Referenztrajektorie durch Normierung und anschließende Ermittlung eines Abstandsmaßes in einem durch eine Hauptkomponentenanalyse des aufgenommenen Bildmaterials erzeugten Raum erkennen. Für Personen, bei denen die Referenzbewegungsabläufe wesentlich weniger fest vorgegeben sind, ist dieses Verfahren jedoch nicht hinreichend robust.
  • Es ist auch bekannt, für eine schritthaltende Gefahrenwarnung auf eine zeitliche Trajektorienextrapolation z. B. durch Berechnung einer Zeitspanne bis zur Kollision ("time to collision") zurückzugreifen. Derartige Verfahren, die keine Vorkenntnisse über zu erwartende Bewegungsabläufe verwenden, führen allerdings erfahrungsgemäß zu einer großen Anzahl von Fehlalarmen. Systeme, die das zeitliche Verhalten einer Postur eines Körperteils, z. B. einer Hand, oder des gesamten Körpers analysieren, arbeiten häufig auf Basis der im Bild oder im dreidimensionalen Raum gemessenen Trajektorie, wie beispielsweise in [Moeslund, T. B., Hilton, A., Krüger, V., 2006. A survey of advances in vision-based human motion capture and analysis. Computer Vision and Image Understanding 104, pp. 90–126.] beschrieben ist.
  • In [Schmidt, J., Wähler, C., Krüger, L., Gövert, T., Hermes, C., 2007. 3D scene segmentation and object tracking in multiocular image sequences. Proc. 5th Int. Conf. an Computer Vision Systems, Bielefeld, Germany. http://biecoll.ub.unibielefeld.de/volltexte/2007/29] werden zur Vorhersage eines Bewegungsverhaltens auch Tracking-Verfahren, z. B. Kaiman-Filter oder Partikel-Filter, eingesetzt. Aus [Hoey, J., von Bertoldi, A., Poupart, P., Mihailidis, A., 2007. Assisting persons with dementia during handwashing using a partially observable Markov decision process. Proc. 5th Int. Conf. an Computer Vision Systems, Bielefeld, Germany. http://biecoll.ub.uni-bielefeld.de/volltexte/2007/12/] ist bekannt, dass die Erkennung von Aktionen anhand von Klassifikationsverfahren, z. B. neuronalen Netzwerken, oder auch mit Hidden-Markov-Modellen bzw. Erweiterungen dieses Konzepts erfolgen kann. Diese Ansätze erfordern eine große Anzahl von Lernbeispielen, wenn eine gute Generalisierungsfähigkeit erreicht werden soll. Aus gemessenen Trajektorien können durch Vergleich mit Referenztrajektorien Aktionen abgeleitet werden, wie in [Croitoru, A., Agouris, P., Stefanidis, A., 2005. 3D trajectory matching by pose normalisation. Proc. 13th ACM International Workshop an Geographic Information Systems, pp. 153–162, Bremen, Germany.] beschrieben ist. Hierbei kann zwar die Anzahl der Lernbeispiele gering gehalten werden, doch können üblicherweise die gemessenen Trajektorien erst dann den Referenztrajektorien zugeordnet werden, wenn die Trajektorie bereits vollständig durchlaufen worden ist.
  • Wünschenswert sind jedoch Verfahren, die auch für die Erkennung von Aktionen und die Prädiktion des Bewegungsverhaltens von Personen geeignet sind.
  • Es ist daher eine Aufgabe der Erfindung, ein verbessertes Verfahren zur Vorhersage einer Aktion eines bewegten Objekts anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1.
  • Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.
  • Bei einem erfindungsgemäßen Verfahren zur Vorhersage einer Aktion eines bewegten Objekts wird eine Bewegung des Objekts verfolgt und mit mindestens einer Referenzbewegung verglichen. Dabei wird aus einer dreidimensionalen Bewegung des Objekts während der Verfolgung fortschreitend eine Trajektorie gebildet und die Trajektorie in semantisch relevante Abschnitte segmentiert. Die Trajektorie und/oder deren semantisch relevante Abschnitte werden während der Verfolgung dann mit mindestens einer Referenztrajektorie, die einer bestimmten Aktion zugeordnet ist, und/oder mit semantisch relevanten Abschnitten der Referenztrajektorie verglichen. Bei hinreichender Übereinstimmung kann die entsprechende Aktion damit vorhergesagt werden.
  • Die Erzeugung der Trajektorie kann beispielsweise mittels eines in [Hahn, M., Krüger, L., Wähler, C., Groß, H.-M., 2007. Tracking of Human Body Parts using the Multiocular Contracting Curve Density Algorithm. Proc. Int. Conf. an 3-D Digital Imaging and Modeling, pp. 257–264, Montreal, Canada.] beschriebenen Verfahrens erfolgen.
  • Die Segmentierung kann beispielsweise mittels eines in [Bashir, F. I., Khokhar, A. A., Schonfeld, D., 2007. Real-Time Mution Trajectory-Based Indexing and Retrieval of Video Sequences. IEEE Trans. an Multimedia 9(1), pp. 58–65.] beschriebenen Ansatzes erfolgen. Die Segmentierung erfolgt dort an Punkten einer starken oder maximalen Krümmung der Trajektorie.
  • Mit einem solchen Verfahren ist eine schritthaltende Erkennung der Bewegung und eine entsprechende Prognose einer zukünftigen Bewegung oder Aktion des Objekts möglich, auch bei komplexen Bewegungsabläufen, wie sie bei der Beobachtung von Personen oder Körperteilen von Personen auftreten.
  • Das Verfahren wird insbesondere in folgenden Anwendungsgebieten eingesetzt:
    Kamerabasierte Überwachung von manuellen Montagevorgängen: Ein Referenzmontagevorgang kann dabei einmal korrekt durch einen "Lehrer" ausgeführt werden. Jeder weitere Montagevorgang wird dann mit dem Referenzmontagevorgang verglichen, um sicherzustellen, dass kein falscher Handgriff erfolgte und kein Handgriff ausgelassen wurde.
  • Sichere Mensch-Roboter-Interaktion:
  • Im Bereich der industriellen Sicherheitstechnik ermöglicht die Erkennung der Aktion einer an einem Werkstück arbeitenden Person die Prädiktion der Bewegung über einen längeren Zeitraum, als dies durch einfache zeitliche Extrapolation der gemessenen Bewegung möglich wäre. Die Referenztrajektorie der erkannten Aktion dient hierbei als A-Priori-Wahrscheinlichkeit für ein im Sicherheitssystem enthaltenes Bildverarbeitungsmodul zur Vorhersage der Wahrscheinlichkeit von Kollisionen zwischen Mensch und Roboter. Eine entsprechende A-Priori-Wahrscheinlichkeit für das Verhalten des Roboters wird z. B. aus Achswinkeln des Roboters abgeleitet oder ermittelt, indem Abweichungen zwischen der beobachteten Trajektorie und der Referenztrajektorie durch Normierung und anschließende Ermittlung eines Abstandsmaßes in einem durch eine Hauptkomponentenanalyse des aufgenommenen Bildmaterials erzeugten Raum erkannt werden. Auf diese Weise kann eine hohe Kollisionswahrscheinlichkeit zwischen Mensch und Roboter auch dann erkannt werden, wenn der aktuelle Bewegungszustand selbst noch gar keine Gefahr vermuten lässt, da z. B. plötzliche Wendepunkte in der Trajektorie der Person aufgrund der von ihr ausgeführten, bereits erkannten Aktion zu erwarten sind.
  • Fahrerassistenzsysteme: Insbesondere in Kreuzungsbereichen vollführen Verkehrsteilnehmer komplexe, durch starke Beschleunigungen oder Abbremsungen gekennzeichnete Bewegungen auf engem Raum. Das erfindungsgemäße Verfahren ermöglicht es, eine Handlungsabsicht von Verkehrsteilnehmern (z. B. Abbiegen, Geradeausfahren, Anhalten, etc.) frühzeitig bereits im Ansatz zu erkennen. Diese Fähigkeit ermöglicht eine zuverlässigere Aussage über mögliche Gefahrensituationen als die traditionelle zeitliche Extrapolation von Trajektorien (z. B. time to collision). Dabei warnt das erfindungsgemäße Verfahren vor drohenden Gefahren, während Fehlalarme vermieden werden.
  • Im Folgenden wird ein Ausführungsbeispiel der Erfindung anhand einer Zeichnung näher erläutert.
  • Dabei zeigt:
  • 1 einen Ablaufplan eines Verfahrens zur Vorhersage einer Aktion eines bewegten Objekts.
  • 1 zeigt einen Ablaufplan eines Verfahrens zur Vorhersage einer Aktion eines bewegten Objekts 1. Das Objekt 1 wird mittels zweier Kameras 2 beobachtet. Ein stereoskopisches Verfahren ermittelt aus Bildern 3 der Kameras 2 eine dreidimensionale Position des Objekts 1. Durch fortgesetzte Beobachtung des Objekts 1 wird aus den Positionsdaten eine dreidimensionale Trajektorie 4 ermittelt, auf der das Objekt 1 sich in Richtung des Pfeils bewegt. Die Trajektorie 4 wird während der Beobachtung in semantisch relevante Abschnitte 4.1 bis 4.n segmentiert. Die Segmentierung erfolgt beispielsweise in Bereichen 5 einer maximalen Krümmung der Trajektorie 4. Die Trajektorie 4 und/oder ihre Abschnitte 4.1 bis 4.n werden während der Beobachtung mit mindestens einer Referenztrajektorie bzw. Referenzabschnitten 6.1 bis 6.n einer Referenztrajektorie 6 verglichen. Die Referenztrajektorie 6 wird aus einer Menge 7 von Referenztrajektorien 6 ausgewählt, denen jeweils eine Aktion A zugeordnet ist, die das Objekt 1 ausführt. Ergibt sich eine hinreichende Ähnlichkeit zwischen der Trajektorie 4 und der Referenztrajektorie 6, kann prognostiziert werden, dass das Objekt 1 die Aktion A ausführen wird.
  • Vorzugsweise kann mindestens eine Referenztrajektorie 6 und/oder deren Referenzabschnitte 6.1 bis 6.n aus der Menge 7 von Referenztrajektorien 6 bzw. Referenzabschnitten 6.1 bis 6.n zum Vergleich mit der gebildeten Trajektorie 4 bzw. deren Abschnitte 4.1 bis 4.n mittels mindestens eines Multiskalen-Zeitreihen-Histogramms ausgewählt werden, wie in [Chen, L., 2005. Similarity search over time series and trajectory data. PhD thesis, University of Waterloo, Canada.] beschrieben ist.
  • Beim Vergleich der Trajektorie 4 mit der Referenztrajektorie 6 kann ein hierarchisches Vergleichsverfahren, beispielsweise ein B+-Baum, oder ein Nearest-Neighbour-Klassifikator angewandt werden. Auf diese Weise können erkannte Trajektorien 4 der Menge 7 der Referenztrajektorien 6 hinzugefügt werden, so dass initial nur wenige Referenztrajektorien 6 erforderlich sind. Ein B+-Baum ist eine Erweiterung des Konzepts des B-Baums, der in der Informatik eine Daten- oder Indexstruktur darstellt, die häufig in Datenbanken und Dateisystemen eingesetzt wird. Beim B+-Baum werden Datenelemente in Blattknoten gespeichert, während innere Knoten lediglich Schlüssel enthalten. Das Nearest-Neighbour-Verfahren ist ein einfaches Klassifikationsverfahren, das beispielsweise bei der Lösung des bekannten Problems des Handlungsreisenden angewandt wird.
  • Vorzugsweise wird außer der dreidimensionalen Position des Objekts 1 auch eine Pose des Objekts 1 berücksichtigt.
  • 1
    Objekt
    2
    Kamera
    3
    Bild
    4
    Trajektorie
    4.1 bis 4.n
    semantisch relevanter Abschnitt der Trajektorie
    5
    Bereich einer starken Krümmung
    6
    Referenztrajektorie
    6.1 bis 6.n
    semantisch relevanter Referenzabschnitt der Referenztrajektorie
    7
    Menge der Referenztrajektorien
    A
    Aktion

Claims (5)

  1. Verfahren zur Vorhersage einer Aktion (A) eines bewegten Objekts (1), bei dem eine Bewegung des Objekts (1) verfolgt und mit mindestens einer Referenzbewegung verglichen wird, dadurch gekennzeichnet, dass aus einer dreidimensionalen Bewegung des Objekts (1) während der Verfolgung fortschreitend eine Trajektorie (4) gebildet wird, die in semantisch relevante Abschnitte (4.1 bis 4.n) segmentiert wird, wobei die Trajektorie (4) und/oder deren semantisch relevante Abschnitte (4.1 bis 4.n) während der Verfolgung mit mindestens einer Referenztrajektorie (6), die einer bestimmten Aktion (A) zugeordnet ist, und/oder mit semantisch relevanten Referenzabschnitten (6.1 bis 6.n) der Referenztrajektorie (6) verglichen werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die gebildete Trajektorie (4) in Bereichen (5) einer starken Krümmung in semantisch relevante Abschnitte (4.1 bis 4.n) segmentiert wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die mindestens eine Referenztrajektorie (6) und/oder deren semantisch relevanten Referenzabschnitte (6.1 bis 6.n) aus einer Menge (7) von Referenztrajektorien (6) bzw. Referenzabschnitten (6.1 bis 6.n) zum Vergleich mit der gebildeten Trajektorie (4) und/oder deren Abschnitte (4.1 bis 4.n) mittels mindestens eines Multiskalen-Zeitreihen-Histogramms ausgewählt wird bzw. werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Trajektorie (4) mit der Referenztrajektorie (6) anhand eines hierarchisches Vergleichsverfahrens oder eines Nearest-Neighbour-Klassifikators verglichen wird.
  5. Verfahren nach einem der Ansprüche 3 oder 4, dadurch gekennzeichnet, dass die gebildete Trajektorie (4) der Menge (7) von Referenztrajektorien (6) hinzugefügt wird.
DE200710052763 2007-11-06 2007-11-06 Verfahren zur Vorhersage einer Aktion eines bewegten Objekts Withdrawn DE102007052763A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200710052763 DE102007052763A1 (de) 2007-11-06 2007-11-06 Verfahren zur Vorhersage einer Aktion eines bewegten Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200710052763 DE102007052763A1 (de) 2007-11-06 2007-11-06 Verfahren zur Vorhersage einer Aktion eines bewegten Objekts

Publications (1)

Publication Number Publication Date
DE102007052763A1 true DE102007052763A1 (de) 2008-06-12

Family

ID=39363342

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200710052763 Withdrawn DE102007052763A1 (de) 2007-11-06 2007-11-06 Verfahren zur Vorhersage einer Aktion eines bewegten Objekts

Country Status (1)

Country Link
DE (1) DE102007052763A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008061910A1 (de) 2008-12-15 2009-09-03 Daimler Ag Verfahren zur Erfassung und Vorhersage von Aktionen eines oder meherer bewegter Objekte
DE112010000802B4 (de) * 2009-02-09 2014-12-11 Toyota Jidosha Kabushiki Kaisha Vorrichtung zum vorhersagen der bewegung eines mobilen körpers
EP3557549A1 (de) 2018-04-19 2019-10-23 PKE Holding AG Verfahren zur bewertung eines bewegungsereignisses

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008061910A1 (de) 2008-12-15 2009-09-03 Daimler Ag Verfahren zur Erfassung und Vorhersage von Aktionen eines oder meherer bewegter Objekte
DE112010000802B4 (de) * 2009-02-09 2014-12-11 Toyota Jidosha Kabushiki Kaisha Vorrichtung zum vorhersagen der bewegung eines mobilen körpers
EP3557549A1 (de) 2018-04-19 2019-10-23 PKE Holding AG Verfahren zur bewertung eines bewegungsereignisses

Similar Documents

Publication Publication Date Title
DE102014106210B4 (de) Probabilistische Personennachführung unter Verwendung der Mehr- Ansichts-Vereinigung
DE102006048163B4 (de) Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung
Pang et al. A novel method for resolving vehicle occlusion in a monocular traffic-image sequence
EP2043045B1 (de) Verfahren zur Objektverfolgung
DE102015104954A1 (de) Sichtbasiertes Überwachungssystem zur Validierung von Aktivitätssequenzen
WO2008014831A2 (de) Verfahren zur beobachtung einer person in einem industriellen umfeld
DE102014106211A1 (de) Sichtbasierte Mehrkamera-Fabriküberwachung mit dynamischer Integritätsbewertung
DE102012102236A1 (de) Verfahren und Vorrichtung zum Absichern eines gefährlichen Arbeitsbereichs einer automatisiert arbeitenden Maschine
DE10325762A1 (de) Bildverarbeitungssystem für ein Fahrzeug
WO2018215031A1 (de) Verfahren zur erkennung von objekten in einem bild einer kamera
EP2875498B1 (de) Überwachungssystem mit positionsabhängigem schutzbereich, verfahren zur überwachung eines überwachungsbereichs sowie computerprogramm
EP3173817B1 (de) Verfahren zur detektion und lokalisierung einer garage und kraftfahrzeug
DE102018118265A1 (de) Verfahren und Überwachungssystem zum Absichern einer Maschine
DE102019123483B4 (de) Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
DE102007052763A1 (de) Verfahren zur Vorhersage einer Aktion eines bewegten Objekts
DE102021003567A1 (de) Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten
DE102020201939A1 (de) Verfahren und Vorrichtung zur Bewertung eines Bildklassifikators
DE102020207929A1 (de) Verfahren, Computerprogramm und Vorrichtung zum Erkennen einer gewalttätigen Handlung einer Person gegenüber einem Objekt
DE102017206396A1 (de) Steuerverfahren, Steuereinheit, Umfelderfassungssystem und mobile und/oder stationäre Einrichtung
DE102020126690A1 (de) Verfahren zum Bestimmen eines Bewegungsmodells eines Objekts in einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
DE102020208080A1 (de) Erkennung von Objekten in Bildern unter Äquivarianz oder Invarianz gegenüber der Objektgröße
DE102020122023B3 (de) Verfahren und Vorrichtung zur Echtzeit-Ermittlung der Sollgeschwindigkeit eines zumindest teilautonom fahrenden Fahrzeugs in Umgebungen mit Fußgängerverkehr
WO2022268375A1 (de) Hindernisdetektion im gleisbereich auf basis von tiefendaten
DE102022119865A1 (de) Verfahren zum Schätzen von Positionen von Gelenkpunkten und Steuereinrichtung für ein Kraftfahrzeug
DE102022200353A1 (de) Verfahren zum Erzeugen von Daten zum Trainieren eines auf künstlicher Intelligenz basierenden Objekterkennungsverfahrens

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
R005 Application deemed withdrawn due to failure to request examination
R005 Application deemed withdrawn due to failure to request examination

Effective date: 20141107