DE102010012340B4 - Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug - Google Patents

Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug Download PDF

Info

Publication number
DE102010012340B4
DE102010012340B4 DE102010012340.4A DE102010012340A DE102010012340B4 DE 102010012340 B4 DE102010012340 B4 DE 102010012340B4 DE 102010012340 A DE102010012340 A DE 102010012340A DE 102010012340 B4 DE102010012340 B4 DE 102010012340B4
Authority
DE
Germany
Prior art keywords
manufacturing process
inertial sensors
movement
human
inertial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010012340.4A
Other languages
English (en)
Other versions
DE102010012340A1 (de
Inventor
Christian Bade
Andreas Hoffmeyer
Fabian Doil
Dr.-Ing. Busche Cord
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102010012340.4A priority Critical patent/DE102010012340B4/de
Publication of DE102010012340A1 publication Critical patent/DE102010012340A1/de
Application granted granted Critical
Publication of DE102010012340B4 publication Critical patent/DE102010012340B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zum Erfassen einer Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug, wobei ein Proband (30) mit n Markern (10.1, 10.2, ... , 10.n) und mit m Inertialsensoren (12.1, 12.2, ..., 12.m) ausgestattet wird, wobei mittels zumindest zweier Kameras (11.1, 11.2, ... , 11.q) jeweils ein Bild des Probanden (30) aufgenommen wird, wobei aus den Bildern der zumindest zwei Kameras (11.1, 11.2, ... , 11.q) die Position von zumindest p der m Inertialsensoren (12.1, 12.2, ... , 12.m) ermittelt wird, und wobei in Abhängigkeit der ermittelten Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) und deren Inertialsensor-Ausgangssignale zumindest ein Driftkorrekturwert (korr) gebildet wird,wobei ein Ausgangssignal gebildet wird, das die ermittelte Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) sowie die Positionen weiterer der m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ..., 12.m) umfasst,wobei die Inertialsensor-Ausgangssignale der weiteren m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ... , 12.m) mittels des Driftkorrekturwertes korrigiert werden, und wobei die Bewegung eines Menschen in einem Fertigungsprozess in Abhängigkeit des Ausgangssignals mittels eines mathematischen Menschenmodells beurteilt und angepasst wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug. Die Erfindung betrifft insbesondere sogenanntes Motion Capturing.
  • Simulationsmodelle zur Abbildung menschlicher Bewegungen werden unter hohem manuellen Aufwand erstellt, da die menschliche Arbeit den komplizierteren Teil der Planung mit vielen Freiheitsgraden darstellt und im Prinzip unendlich variabel ist. Sie ist ergonomisch durchsetzt und oft schwer fassbar und konkretisierbar. Die in den Planungstools der Digitalen Fabrik zur Verfügung stehenden Menschmodelle (em-Human, DELMIA Human Task Simulation) legen ihren Fokus auf die Planung und Visualisierung von menschlichen Arbeitsabläufen nach ästhetischen Gesichtspunkten und Animations-Skalierung auf vorberechnete Vorgabezeiten. Weiterhin erfolgt eine vereinfachte Bewegungsgenerierung ohne wissenschaftliche Durchdringung, und ergonomische und biomechanische Aspekte werden aktuell nur in rudimentärer Form berücksichtigt
  • Mit dem auf der Internetseite www.tu-chemnitz.de/ifm/produktehtml/DYNAMICUS_MoCaSim.html beschriebenen Produkt MoCaShn (Bewegungsanalyse für Motion Capture Systeme) kann eine automatische Analyse von menschlichen Bewegungsvorgängen durchgeführt werden. Grundlage sind dabei Raum-Trajektorion von probandenfesten Markern, generiert von Motion Capture Systemen. Von MoCaSim werden Methoden zur Beurteilung und Glättung dieser Trajektorien bereitgestellt. Unter Verwendung einer neben der zu analysierenden Bewegung erfassten Referenzhaltung sowie Masse, Körperhöhe und Geschlecht des Probanden wird ein komplettes probandenspezifisches Anthropometrie-Datenset inklusive der Lagen den Gelenkzentren und Gelenkachsen ermittelt. Die bereitgestellte Bewegung wird mit dem auf den Internetseiten www.tu-chemnitz.de/ifm/produktehtml/alaskaDYNAMICUS.html und www.tu-chemnitz.de/ifm/produkte-medien/alaskaDYNAMICUS.pdf beschriebenen Produkt DYNAMICUS simuliert und visualisiert.
  • Die DE 10 2004 051 600 B4 offenbart ein Verfahren zur periodischen Bestimmung der Position eines Objekts, insbesondere einer Person oder eines Körperteils einer Person, bei welchem mindestens zwei Positions-Zwischenergebnisse, die sich hinsichtlich ihrer Aktualisierungsrate und hinsichtlich ihrer Genauigkeit unterscheiden, jeweils periodisch errechnet werden, bei welchem die zur Berechnung eines Positions-Zwischenergebnisses dienenden Messdaten jeweils von einem Positionsaufnehmer mit einer Aktualisierungsrate größer oder gleich der Aktualisierungsrate des Positions-Zwischenergebnisses aufgenommen, gegebenenfalls vorverarbeitet und zur Auswertung an eine Recheneinheit übertragen werden, und bei welchem aus den mindestens zwei Positions-Zwischenergebnissen ein Positions-Endergebnis errechnet wird, dessen Aktualisierungsrate größer ist als die kleinere der Aktualisierungsraten der beiden Positions-Zwischenergebnisse. Dabei ist vorgesehen, dass die Berechnung eines ersten Positions-Zwischenergebnisses in einer tragbaren ersten Recheneinheit durchgeführt wird, die Berechnung eines zweiten Positions-Zwischenergebnisses mit kleinerer Aktualisierungsrate in einer stationären zweiten Recheneinheit durchgeführt wird, das zweite Positions-Zwischenergebnis von der zweiten Recheneinheit an die erste Recheneinheit übertragen wird und das Positions-Endergebnis in der ersten Recheneinheit errechnet wird.
  • Die DE 10 2005 045 973 A1 offenbart ein Verfahren zur Ermittlung einer Pose mittels optischen Trackings, wobei eine reale Umgebung erfasst wird, wobei Abbilder von einem innerhalb eines Zeitintervalls erfassten Umgebungsbereichs erfasst werden, wobei Bewegungsinformationen durch Auswertung der Abbilder bestimmt werden, wobei die Bewegungsinformationen eine innerhalb des Zeitintervalls geschehene Veränderung der Position eines Objektes innerhalb der Abbilder kennzeichnen.
  • Die DE 10 2005 058 240 A1 offenbart ein Verfahren zur Posenbestimmung eines Anwenders oder einer beweglichen Vorrichtung sowie ein Augmented-Reality-System mit einem Trackingsystem, wobei Umgebungsverhältnisse des Anwenders mit einem Sensor erfasst und in Abhängigkeit dieser Umgebungsverhältnisse automatisch ein geeignetes Trackingverfahren und ein Konfigurationsdatensatz zu dessen Konfiguration bestimmt werden.
  • Die US 5 592 401 A offenbart eine Vorrichtung zur Bereitstellung eines Signalwerts in Bezug auf eine Positionsänderung eines beweglichen Objekts entlang eines Pfads, wobei die Vorrichtung mindestens zwei Sensoren umfasst, wobei jeder Sensor eines Paars der Sensoren einen Fehler aufweist, den der andere Sensor nicht teilt, und eine Fähigkeit aufweist, die der andere Sensor nicht teilt, wobei sich die Fehler und Fähigkeiten auf Position und Zeit beziehen.
  • Es ist Aufgabe der Erfindung, das Erfassen der Bewegung eines Menschen in einem Fertigungsprozess zu verbessern. Es ist eine weitere Aufgabe der Erfindung, Fertigungsprozesse, an denen Menschen beteiligt sind, zu optimieren bzw. zu verbessern. Es ist eine weitere Aufgabe der Erfindung, die Qualität bei der Herstellung von Kraftfahrzeugen zu verbessern. Es ist eine weitere Aufgabe der Erfindung, die Kosten bei der Produktion von Kraftfahrzeugen zu senken.
  • Vorgenannte Aufgabe wird durch ein Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeuges gemäß Anspruch 1 gelöst, wobei unter anderen vorgesehen ist, dass ein Proband mit n Markern und mit m Inertialsensoren ausgestattet wird, wobei insbesondere vorgesehen ist, dass die relative Position der Inertialsensoren zu der Position der Marker bekannt ist und/oder gespeichert wird, wobei mittels zumindest zweier Kameras jeweils ein Bild des Probanden aufgenommen wird, wobei aus den Bildern der zumindest zwei Kameras die Position von zumindest p der m Inertialsensoren ermittelt wird (wobei insbesondere vorgesehen ist, dass die Position der p Inertialsensoren in Abhängigkeit des Teils der n Marker bestimmt wird, deren Position zuvor bestimmt wurde), und wobei in Abhängigkeit der ermittelten Position der p Inertialsensoren und deren Inertialsensor-Ausgangssignale zumindest ein Driftkorrekturwert gebildet wird. Zudem wird ein Ausgangssignal gebildet, das die Position der p Inertialsensoren sowie die Positionen weiterer der m und/oder der übrigen m-p Inertialsensoren umfasst, wobei die Inertialsensor-Ausgangssignale weiterer der m und/oder der übrigen m-p Inertialsensoren mittels des Driftkorrekturwertes korrigiert werden.
  • Der Driftkorrekturwert wird insbesondere in Abhängigkeit eines Wertes der ermittelten Position zumindest eines der p Inertialsensoren, eines verzögerten Wertes der ermittelten Position zumindest dieses Inertialsensors, eines Inertialsensor-Ausgangssignals dieses Inertialsensors und/oder eines verzögerten Wertes des Inertialsensor-Ausgangssignals dieses Inertialsensors gebildet.
  • In weiterhin vorteilhafter Ausgestaltung der Erfindung ist p kleiner als m. In weiterhin vorteilhafter Ausgestaltung der Erfindung ist n kleiner als m. In weiterhin vorteilhafter Ausgestaltung der Erfindung gilt 5 ≤ n ≤ 10. In weiterhin vorteilhafter Ausgestaltung der Erfindung gilt 17 ≤ m.
  • Vorgenannte Aufgabe wird zudem durch ein Verfahren gemäß Anspruch 6 gelöst.
    n, m und p sind natürliche Zahlen.
  • Ein Inertialsensor im Sinne der Erfindung ist insbesondere ein zur Messung linearer Beschleunigungskräfte und Rotationskräfte dienender Sensor. Ein Inertialsensor im Sinne der Erfindung umfasst insbesondere drei orthogonal angeordnete Beschleunigungssensoren, die lineare Beschleunigungen in orthogonalen Richtungen messen. Ein Inertialsensor im Sinne der Erfindung umfasst insbesondere drei orthogonal angeordnete Drehratensensoren zum Messen der Winkelbeschleunigung um drei orthogonale Achsen.
  • Kraftfahrzeug im Sinne der Erfindung ist insbesondere ein individuell im Straßenverkehr benutzbares Landfahrzeug. Kraftfahrzeuge im Sinne der Erfindung sind insbesondere nicht auf Landfahrzeuge mit Verbrennungsmotor beschränkt.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen. Dabei zeigen:
    • 1 ein Ausführungsbeispiel eines Systems 1 zur Durchführung eines Verfahrens zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess,
    • 2 eine Anordnung von Kameras zur Erfassung eines Markers,
    • 3 ein Ausführungsbeispiel von Markerpositionen an einem Probanden,
    • 4 die Anordnung von Inertialsensoren an einem Probanden,
    • 5 ein Ausführungsbeispiel einer Maske zur Konfiguration von Inertialsensoren sowie deren Positionierung,
    • 6 ein Ausführungsbeispiel von Ausgangssignalen von Inertialsensoren,
    • 7 ein Ausführungsbeispiel eines Ausgangssignal eines Korrekturmoduls,
    • 8 ein Ausführungsbeispiel eines Ausgangssignals einer Bildauswertungsvorrichtung,
    • 9 ein Ausführungsbeispiel eines Ausgangssignals eines Synthesemoduls,
    • 10 ein Ausführungsbeispiel eines Verfahrens zur Herstellung eines Kraftfahrzeuges und
    • 11 ein Ausführungsbeispiel für eine entsprechende Fertigungsumgebung und deren Simulation unter Anwendung des erfindungsgemäßen Verfahrens.
  • 1 zeigt ein Ausführungsbeispiel eines Systems 1 zur Durchführung eines Verfahrens zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess. Dabei wird zunächst ein Proband 30, wie beispielhaft in 3 dargestellt, mit Markern 10.1, 10.2, ..., 10.n versehen, wobei die in 3 dargestellten schwarzen Punkte mögliche Markerpositionen bezeichnen. Bei einem üblichen markerbasierten Tracking eines Probanden sind an allen mit den schwarzen Punkten markierten Stellen entsprechende Marker vorgesehen. Das erfindungsgemäße Verfahren kommt jedoch mit deutlich weniger Markern aus. So kann insbesondere vorgesehen sein, dass lediglich n = 5 Marker vorgesehen sind.
  • Das System 1 umfasst eine Mehrzahl von Kameras 11.1, 11.2, ..., 11.q, insbesondere Infrarotkameras, mittels deren ein Bild des Probanden 30 mit den Markern 10.1, 10.2, ..., 10.n erzeugt wird. Dabei wird die Position eines Markers 10.1 nur dann ausgewertet, wenn dieser, wie beispielhaft in 2 dargestellt, zumindest von zwei Kameras 11.1, 11.2 erfasst wird. Den Kameras 11.1, 11.2, ..., 11.n kann jeweils ein Infrarotstrahler zugeordnet sein, mittels dessen eine Infrarotstrahlung ausgesandt wird, wie sie beispielhaft in 2 mit Bezugszeichen 40.1 und 40.2 bezeichnet ist.
  • Es sind zudem mehrere Inertialsensoren 12.1, 12.2, 12.3, ..., 12.m vorgesehen, mittels derer eine relative Position bzw. Bewegung im Raum gemessen und ausgegeben wird. Diese Inertialsensoren werden, wie beispielhaft in 4 dargestellt, ebenfalls am Probanden 30 angeordnet. 5 zeigt ein Ausführungsbeispiel einer Maske zur Konfiguration von derartigen Inertialsensoren sowie deren Positionierung. Die Ausgangswerte der Inertialsensoren 12.1, 12.2, 12.3, ..., 12.m, also die gemessenen (relativen) Positionen der Inertialsensoren sind, wie in 6 dargestellt, beispielhaft mit Bezugszeichen y1, y2, ..., y17 bezeichnet, wobei ihre Gesamtheit als Y bezeichnet ist.
  • Die mittels der Inertialsensoren 12.1, 12.2, 12.3, ... , 12.m gemessenen Positionen y1, y2, ... , y17 der Inertialsensoren 12.1, 12.2, 12.3, ... , 12.m werden mittels eines Korrekturmoduls 18 in Abhängigkeit eines Driftkorrekturwertes korr zu einem korrigierten Wert Y_korr der gemessenen Positionen y1, y2, ... , y17 der Inertialsensoren 12.1, 12.2, 12.3, ... , 12.m korrigiert, wobei einzelne oder - wie in 7 dargestellt - alle Werte y1, y2, y3, ..., y17 zu korrigierten Werten y_korr1, y_korr2, y_korr3, ..., y_korr17 korrigiert werden.
  • Die von den Kameras 11.1, 11.2, ..., 11.q aufgenommenen Bilder werden einer Bildauswertungsvorrichtung 14 zugeführt, die die Position einzelner Inertialsensoren ausgibt. Das Ausgangssignal der Bildauswertungsvorrichtung 14 ist - wie beispielhaft in 8 dargestellt - mit X bezeichnet. In dem in 8 dargestellten Ausführungsbeispiel umfasst das Ausgangssignal X der Bildauswertungsvorrichtung 14 einen mittels der Marker 10.1, 10.2, ..., 10.n ermittelten Wert für die Position des Inertialsensors 12.1, für die Position des Inertialsensors 12.6, für die Position des Inertialsensors 12.9, für die Position des Inertialsensors 12.12 und/oder für die Position des Inertialsensors 12.15. Dabei ist in dem dargestellten Ausführungsbeispiel ein Fall dargestellt, in dem durch Verdeckung der entsprechenden Marker die Position x12 des Inertialsensors 12.12 nicht ermittelt werden konnte, sodass das Ausgangssignal X der Bildauswertungsvorrichtung 14 keine entsprechenden Werte enthält.
  • Bezugszeichen 15 in 1 bezeichnet ein Verzögerungsglied zur Verzögerung des Ausgangssignals X der Bildauswertungsvorrichtung 14 und Bezugszeichen 17 in 1 bezeichnet ein Verzögerungsglied zur Verzögerung des Ausgangssignals Y _ k o r r ¯
    Figure DE102010012340B4_0001
    des Korrekturmoduls 18. Dabei ist vorgesehen, dass die Verzögerungsglieder 15 und 17 ihre Eingangssignale um das gleiche Zeitintervall verzögern. In Abhängigkeit der Ausgangssignale der Verzögerungsglieder 15 und 17 sowie des Ausgangssignals X der Bildauswertungsvorrichtung 14 und des Ausgangssignals Y _ k o r r ¯
    Figure DE102010012340B4_0002
    des Korrekturmoduls 18 ermittelt ein Korrekturblock 16 den Korrekturwert korr.
  • Bezugszeichen 19 in 1 bezeichnet ein Synthesemodul zur Zusammenfassung des Ausgangssignals X der Bildauswertungsvorrichtung 14 und des Ausgangssignals Y _ k o r r ¯
    Figure DE102010012340B4_0003
    des Korrekturmoduls 18 zu einem Ausgangssignal Z, wie es beispielhaft in 9 dargestellt ist. Dabei werden in Y _ k o r r ¯
    Figure DE102010012340B4_0004
    der Wert y_korr1 durch den Wert x1, der Wert y_korr6 durch den Wert x6, der Wert y_korr9 durch den Wert x9 und der Wert y_korr15 durch den Wert x15 ersetzt.
  • Das Ausgangssignal Z des Synthesemoduls 19 kann als Eingangssignal in ein mathematisches Menschmodell 2 verwendet werden, wie es zum Beispiel das eingangs diskutierte Programm/Produkt MoCaSim darstellt. In Abhängigkeit des Ausgangssignals Z liefert das Menschmodell 2 zum Beispiel Gelenkwinkel, die Orientierung einzelner Körpersegmente im Raum sowie die Position der einzelnen Gelenke.
  • 10 zeigt ein Ausführungsbeispiel eines Verfahrens zur Herstellung eines Kraftfahrzeuges. Dabei wird zunächst in einem Schritt 51 das Ausgangssignal Z für einen Probanden in einer Fertigungsumgebung für ein Kraftfahrzeug erzeugt und aus diesem Ausgangssignal Z mittels eines geeigneten Menschmodells 2 ein Abbild der Bewegung des Probanden erzeugt. Es folgt ein Schritt 52, in dem ein Fertigungsprozess in der Fertigungsumgebung in Abhängigkeit der erfassten menschlichen Bewegung beurteilt und angepasst wird. Anschließend wird mittels des derartig gestalteten Fertigungsprozesses in einem Schritt 53 ein Kraftfahrzeug hergestellt.
  • 11 zeigt ein Ausführungsbeispiel für eine Fertigungsumgebung und deren (grafische) Simulation unter Anwendung des erfindungsgemäßen Verfahrens, wobei ein durch entsprechende Simulation generiertes Bild mit Bezugszeichen 60 bezeichnet ist. Dabei zeigt sich, dass es trotz der teilweisen Verdeckung des Probanden 30 durch eine Fahrzeugkarosserie 31 mittels des erfindungsgemäßen Verfahrens möglich ist, die Bewegung des Probanden 30 vollständig in den virtuellen Fertigungsprozess zu integrieren. Das erfindungsgemäße Verfahren ist daher besonders für Fertigungsprozesse für Kraftfahrzeuge geeignet, bei denen durch ein hohes Maß an Abdeckung durch Kraftfahrzeugteile bzw. Kraftfahrzeugkarosserien die Erfassung einer menschlichen Bewegung sehr schwierig ist.

Claims (6)

  1. Verfahren zum Erfassen einer Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug, wobei ein Proband (30) mit n Markern (10.1, 10.2, ... , 10.n) und mit m Inertialsensoren (12.1, 12.2, ..., 12.m) ausgestattet wird, wobei mittels zumindest zweier Kameras (11.1, 11.2, ... , 11.q) jeweils ein Bild des Probanden (30) aufgenommen wird, wobei aus den Bildern der zumindest zwei Kameras (11.1, 11.2, ... , 11.q) die Position von zumindest p der m Inertialsensoren (12.1, 12.2, ... , 12.m) ermittelt wird, und wobei in Abhängigkeit der ermittelten Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) und deren Inertialsensor-Ausgangssignale zumindest ein Driftkorrekturwert (korr) gebildet wird, wobei ein Ausgangssignal gebildet wird, das die ermittelte Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) sowie die Positionen weiterer der m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ..., 12.m) umfasst, wobei die Inertialsensor-Ausgangssignale der weiteren m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ... , 12.m) mittels des Driftkorrekturwertes korrigiert werden, und wobei die Bewegung eines Menschen in einem Fertigungsprozess in Abhängigkeit des Ausgangssignals mittels eines mathematischen Menschenmodells beurteilt und angepasst wird.
  2. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass p kleiner ist als m.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass n kleiner ist als m.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass gilt 5 ≤ n ≤ 10.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass gilt 17 ≤ m.
  6. Verfahren, dadurch gekennzeichnet, dass ein Kraftfahrzeug in Abhängigkeit einer gemäß einem der Ansprüche 1 bis 5 ermittelten Bewegung eines Menschen in diesem Fertigungsprozess hergestellt wird.
DE102010012340.4A 2010-02-27 2010-03-23 Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug Active DE102010012340B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010012340.4A DE102010012340B4 (de) 2010-02-27 2010-03-23 Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102010009621.0 2010-02-27
DE102010009621 2010-02-27
DE102010012340.4A DE102010012340B4 (de) 2010-02-27 2010-03-23 Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug

Publications (2)

Publication Number Publication Date
DE102010012340A1 DE102010012340A1 (de) 2011-09-01
DE102010012340B4 true DE102010012340B4 (de) 2023-10-19

Family

ID=44502027

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010012340.4A Active DE102010012340B4 (de) 2010-02-27 2010-03-23 Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102010012340B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012024212A1 (de) 2012-12-11 2014-06-12 Volkswagen Aktiengesellschaft Verfahren und Einrichtung zur automatisierten Analyse eines Fertigungsprozesses, insbesondere eines Fertigungsprozesses für ein Kraftfahrzeug
CN104197987A (zh) * 2014-09-01 2014-12-10 北京诺亦腾科技有限公司 一种组合式运动捕捉系统
DE102015200529A1 (de) 2015-01-15 2016-08-04 Volkswagen Aktiengesellschaft Verfahren zur Herstellung eines Kraftfahrzeuges

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5592401A (en) 1995-02-28 1997-01-07 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
DE102005045973A1 (de) 2005-09-26 2007-04-05 Siemens Ag Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking
DE102004051600B4 (de) 2004-10-23 2007-04-12 Bayerische Motoren Werke Ag Verfahren zur periodischen Bestimmung der Position eines Objekts
DE102005058240A1 (de) 2005-12-06 2007-06-14 Siemens Ag Trackingsystem und Verfahren zur Posenbestimmung
WO2009007917A2 (en) 2007-07-10 2009-01-15 Koninklijke Philips Electronics N.V. Object motion capturing system and method
DE102008005761A1 (de) 2008-01-24 2009-07-30 Volkswagen Ag Verfahren zur Fabrikplanung
US20100164862A1 (en) 2008-12-31 2010-07-01 Lucasfilm Entertainment Company Ltd. Visual and Physical Motion Sensing for Three-Dimensional Motion Capture

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5592401A (en) 1995-02-28 1997-01-07 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
DE102004051600B4 (de) 2004-10-23 2007-04-12 Bayerische Motoren Werke Ag Verfahren zur periodischen Bestimmung der Position eines Objekts
DE102005045973A1 (de) 2005-09-26 2007-04-05 Siemens Ag Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking
DE102005058240A1 (de) 2005-12-06 2007-06-14 Siemens Ag Trackingsystem und Verfahren zur Posenbestimmung
WO2009007917A2 (en) 2007-07-10 2009-01-15 Koninklijke Philips Electronics N.V. Object motion capturing system and method
DE102008005761A1 (de) 2008-01-24 2009-07-30 Volkswagen Ag Verfahren zur Fabrikplanung
US20100164862A1 (en) 2008-12-31 2010-07-01 Lucasfilm Entertainment Company Ltd. Visual and Physical Motion Sensing for Three-Dimensional Motion Capture

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FRITZSCHE, F., BUBB, H.: Prediction of Discomfort During Arm Movements. In: Digital Human Modeling, HCII 2007, LNCS 4561, Seiten 66-73, 2007
GARCIA, G. J. [et. al.]:Visual Servoing Path Tracking for Safe Human-Robot Interaction. In: Proceedings of the 2009 IEEE International Conference on Mechatronics, April 2009

Also Published As

Publication number Publication date
DE102010012340A1 (de) 2011-09-01

Similar Documents

Publication Publication Date Title
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
EP2515101B1 (de) Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
DE10326943B4 (de) Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtungen zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung
DE102013009288B4 (de) 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
EP2915022B1 (de) Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens
DE112006002674T5 (de) Verfahren und Vorrichtungen für praktisches 3D-Sichtigkeitssystem
EP2325725A1 (de) Verfahren zum reduzieren eines effekts auf virtuelle objekte
DE102017207696A1 (de) Kalibrierungsvorrichtung und Kalibrierungsverfahren
DE102017222534B3 (de) Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille
DE112018006164B4 (de) Sichtlinienrichtungskalibrierungsvorrichtung, sichtlinienrichtungskalibrierungsverfahren und sichtlinienrichtungskalibrierungsprogramm
GB2394543A (en) Positional measurement of a feature within an image
DE102017202194A1 (de) Verfahren und Vorrichtung zum Ermitteln einer visuellen Ablenkung eines Fahrers eines Fahrzeugs
DE102015214116A1 (de) Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE102010012340B4 (de) Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug
EP3707547B1 (de) System und verfahren zum bestimmen einer pose einer augmented-reality-brille, system und verfahren zum einmessen einer augmented-reality-brille, verfahren zum unterstützen einer posenbestimmung einer augmented-reality-brille und für das verfahren geeignetes kraftfahrzeug
DE10118397C2 (de) System und Verfahren zur subjektiven Beurteilung einer Fahrzeugkonstruktion in einer virtuellen Umgebung mit Hilfe von virtueller Realität
DE102009056013A1 (de) Verfahren zum Erzeugen eines Augmented-Reality-Bildes
DE102019201134B4 (de) Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
DE102004050020B4 (de) Auswertevorrichtung und Auswerteverfahren für einen Crashversuch
EP3922526A1 (de) Bestimmung eines rollwinkels oder eines nickwinkels eines fortbewegungsmittels
DE102013102528B4 (de) Verfahren zur Bestimmung einer Verbauposition einer Innenraumsensorik in einem Fahrzeug
DE102019206977A1 (de) Vorrichtung und Verfahren zur Vermessung mindestens eines schräg im Raum stehenden Messobjekts
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE102018121921A1 (de) Erstellungsvorrichtung für ein dreidimensionales Modell
DE102012003256A1 (de) Auswerteverfahren für ein ortsauflösendes Messergebnis und Auswerteeinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final