DE102010012340B4 - Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug - Google Patents
Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug Download PDFInfo
- Publication number
- DE102010012340B4 DE102010012340B4 DE102010012340.4A DE102010012340A DE102010012340B4 DE 102010012340 B4 DE102010012340 B4 DE 102010012340B4 DE 102010012340 A DE102010012340 A DE 102010012340A DE 102010012340 B4 DE102010012340 B4 DE 102010012340B4
- Authority
- DE
- Germany
- Prior art keywords
- manufacturing process
- inertial sensors
- movement
- human
- inertial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 25
- 241000282414 Homo sapiens Species 0.000 title claims abstract description 22
- 238000012937 correction Methods 0.000 claims abstract description 15
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 238000011156 evaluation Methods 0.000 description 8
- 238000004088 simulation Methods 0.000 description 6
- 239000003550 marker Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren zum Erfassen einer Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug, wobei ein Proband (30) mit n Markern (10.1, 10.2, ... , 10.n) und mit m Inertialsensoren (12.1, 12.2, ..., 12.m) ausgestattet wird, wobei mittels zumindest zweier Kameras (11.1, 11.2, ... , 11.q) jeweils ein Bild des Probanden (30) aufgenommen wird, wobei aus den Bildern der zumindest zwei Kameras (11.1, 11.2, ... , 11.q) die Position von zumindest p der m Inertialsensoren (12.1, 12.2, ... , 12.m) ermittelt wird, und wobei in Abhängigkeit der ermittelten Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) und deren Inertialsensor-Ausgangssignale zumindest ein Driftkorrekturwert (korr) gebildet wird,wobei ein Ausgangssignal gebildet wird, das die ermittelte Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) sowie die Positionen weiterer der m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ..., 12.m) umfasst,wobei die Inertialsensor-Ausgangssignale der weiteren m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ... , 12.m) mittels des Driftkorrekturwertes korrigiert werden, und wobei die Bewegung eines Menschen in einem Fertigungsprozess in Abhängigkeit des Ausgangssignals mittels eines mathematischen Menschenmodells beurteilt und angepasst wird.
Description
- Die Erfindung betrifft ein Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug. Die Erfindung betrifft insbesondere sogenanntes Motion Capturing.
- Simulationsmodelle zur Abbildung menschlicher Bewegungen werden unter hohem manuellen Aufwand erstellt, da die menschliche Arbeit den komplizierteren Teil der Planung mit vielen Freiheitsgraden darstellt und im Prinzip unendlich variabel ist. Sie ist ergonomisch durchsetzt und oft schwer fassbar und konkretisierbar. Die in den Planungstools der Digitalen Fabrik zur Verfügung stehenden Menschmodelle (em-Human, DELMIA Human Task Simulation) legen ihren Fokus auf die Planung und Visualisierung von menschlichen Arbeitsabläufen nach ästhetischen Gesichtspunkten und Animations-Skalierung auf vorberechnete Vorgabezeiten. Weiterhin erfolgt eine vereinfachte Bewegungsgenerierung ohne wissenschaftliche Durchdringung, und ergonomische und biomechanische Aspekte werden aktuell nur in rudimentärer Form berücksichtigt
- Mit dem auf der Internetseite www.tu-chemnitz.de/ifm/produktehtml/DYNAMICUS_MoCaSim.html beschriebenen Produkt MoCaShn (Bewegungsanalyse für Motion Capture Systeme) kann eine automatische Analyse von menschlichen Bewegungsvorgängen durchgeführt werden. Grundlage sind dabei Raum-Trajektorion von probandenfesten Markern, generiert von Motion Capture Systemen. Von MoCaSim werden Methoden zur Beurteilung und Glättung dieser Trajektorien bereitgestellt. Unter Verwendung einer neben der zu analysierenden Bewegung erfassten Referenzhaltung sowie Masse, Körperhöhe und Geschlecht des Probanden wird ein komplettes probandenspezifisches Anthropometrie-Datenset inklusive der Lagen den Gelenkzentren und Gelenkachsen ermittelt. Die bereitgestellte Bewegung wird mit dem auf den Internetseiten www.tu-chemnitz.de/ifm/produktehtml/alaskaDYNAMICUS.html und www.tu-chemnitz.de/ifm/produkte-medien/alaskaDYNAMICUS.pdf beschriebenen Produkt DYNAMICUS simuliert und visualisiert.
- Die
DE 10 2004 051 600 B4 offenbart ein Verfahren zur periodischen Bestimmung der Position eines Objekts, insbesondere einer Person oder eines Körperteils einer Person, bei welchem mindestens zwei Positions-Zwischenergebnisse, die sich hinsichtlich ihrer Aktualisierungsrate und hinsichtlich ihrer Genauigkeit unterscheiden, jeweils periodisch errechnet werden, bei welchem die zur Berechnung eines Positions-Zwischenergebnisses dienenden Messdaten jeweils von einem Positionsaufnehmer mit einer Aktualisierungsrate größer oder gleich der Aktualisierungsrate des Positions-Zwischenergebnisses aufgenommen, gegebenenfalls vorverarbeitet und zur Auswertung an eine Recheneinheit übertragen werden, und bei welchem aus den mindestens zwei Positions-Zwischenergebnissen ein Positions-Endergebnis errechnet wird, dessen Aktualisierungsrate größer ist als die kleinere der Aktualisierungsraten der beiden Positions-Zwischenergebnisse. Dabei ist vorgesehen, dass die Berechnung eines ersten Positions-Zwischenergebnisses in einer tragbaren ersten Recheneinheit durchgeführt wird, die Berechnung eines zweiten Positions-Zwischenergebnisses mit kleinerer Aktualisierungsrate in einer stationären zweiten Recheneinheit durchgeführt wird, das zweite Positions-Zwischenergebnis von der zweiten Recheneinheit an die erste Recheneinheit übertragen wird und das Positions-Endergebnis in der ersten Recheneinheit errechnet wird. - Die
DE 10 2005 045 973 A1 offenbart ein Verfahren zur Ermittlung einer Pose mittels optischen Trackings, wobei eine reale Umgebung erfasst wird, wobei Abbilder von einem innerhalb eines Zeitintervalls erfassten Umgebungsbereichs erfasst werden, wobei Bewegungsinformationen durch Auswertung der Abbilder bestimmt werden, wobei die Bewegungsinformationen eine innerhalb des Zeitintervalls geschehene Veränderung der Position eines Objektes innerhalb der Abbilder kennzeichnen. - Die
DE 10 2005 058 240 A1 offenbart ein Verfahren zur Posenbestimmung eines Anwenders oder einer beweglichen Vorrichtung sowie ein Augmented-Reality-System mit einem Trackingsystem, wobei Umgebungsverhältnisse des Anwenders mit einem Sensor erfasst und in Abhängigkeit dieser Umgebungsverhältnisse automatisch ein geeignetes Trackingverfahren und ein Konfigurationsdatensatz zu dessen Konfiguration bestimmt werden. - Die
US 5 592 401 A offenbart eine Vorrichtung zur Bereitstellung eines Signalwerts in Bezug auf eine Positionsänderung eines beweglichen Objekts entlang eines Pfads, wobei die Vorrichtung mindestens zwei Sensoren umfasst, wobei jeder Sensor eines Paars der Sensoren einen Fehler aufweist, den der andere Sensor nicht teilt, und eine Fähigkeit aufweist, die der andere Sensor nicht teilt, wobei sich die Fehler und Fähigkeiten auf Position und Zeit beziehen. - Es ist Aufgabe der Erfindung, das Erfassen der Bewegung eines Menschen in einem Fertigungsprozess zu verbessern. Es ist eine weitere Aufgabe der Erfindung, Fertigungsprozesse, an denen Menschen beteiligt sind, zu optimieren bzw. zu verbessern. Es ist eine weitere Aufgabe der Erfindung, die Qualität bei der Herstellung von Kraftfahrzeugen zu verbessern. Es ist eine weitere Aufgabe der Erfindung, die Kosten bei der Produktion von Kraftfahrzeugen zu senken.
- Vorgenannte Aufgabe wird durch ein Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeuges gemäß Anspruch 1 gelöst, wobei unter anderen vorgesehen ist, dass ein Proband mit n Markern und mit m Inertialsensoren ausgestattet wird, wobei insbesondere vorgesehen ist, dass die relative Position der Inertialsensoren zu der Position der Marker bekannt ist und/oder gespeichert wird, wobei mittels zumindest zweier Kameras jeweils ein Bild des Probanden aufgenommen wird, wobei aus den Bildern der zumindest zwei Kameras die Position von zumindest p der m Inertialsensoren ermittelt wird (wobei insbesondere vorgesehen ist, dass die Position der p Inertialsensoren in Abhängigkeit des Teils der n Marker bestimmt wird, deren Position zuvor bestimmt wurde), und wobei in Abhängigkeit der ermittelten Position der p Inertialsensoren und deren Inertialsensor-Ausgangssignale zumindest ein Driftkorrekturwert gebildet wird. Zudem wird ein Ausgangssignal gebildet, das die Position der p Inertialsensoren sowie die Positionen weiterer der m und/oder der übrigen m-p Inertialsensoren umfasst, wobei die Inertialsensor-Ausgangssignale weiterer der m und/oder der übrigen m-p Inertialsensoren mittels des Driftkorrekturwertes korrigiert werden.
- Der Driftkorrekturwert wird insbesondere in Abhängigkeit eines Wertes der ermittelten Position zumindest eines der p Inertialsensoren, eines verzögerten Wertes der ermittelten Position zumindest dieses Inertialsensors, eines Inertialsensor-Ausgangssignals dieses Inertialsensors und/oder eines verzögerten Wertes des Inertialsensor-Ausgangssignals dieses Inertialsensors gebildet.
- In weiterhin vorteilhafter Ausgestaltung der Erfindung ist p kleiner als m. In weiterhin vorteilhafter Ausgestaltung der Erfindung ist n kleiner als m. In weiterhin vorteilhafter Ausgestaltung der Erfindung gilt 5 ≤ n ≤ 10. In weiterhin vorteilhafter Ausgestaltung der Erfindung gilt 17 ≤ m.
- Vorgenannte Aufgabe wird zudem durch ein Verfahren gemäß Anspruch 6 gelöst.
n, m und p sind natürliche Zahlen. - Ein Inertialsensor im Sinne der Erfindung ist insbesondere ein zur Messung linearer Beschleunigungskräfte und Rotationskräfte dienender Sensor. Ein Inertialsensor im Sinne der Erfindung umfasst insbesondere drei orthogonal angeordnete Beschleunigungssensoren, die lineare Beschleunigungen in orthogonalen Richtungen messen. Ein Inertialsensor im Sinne der Erfindung umfasst insbesondere drei orthogonal angeordnete Drehratensensoren zum Messen der Winkelbeschleunigung um drei orthogonale Achsen.
- Kraftfahrzeug im Sinne der Erfindung ist insbesondere ein individuell im Straßenverkehr benutzbares Landfahrzeug. Kraftfahrzeuge im Sinne der Erfindung sind insbesondere nicht auf Landfahrzeuge mit Verbrennungsmotor beschränkt.
- Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen. Dabei zeigen:
-
1 ein Ausführungsbeispiel eines Systems 1 zur Durchführung eines Verfahrens zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, -
2 eine Anordnung von Kameras zur Erfassung eines Markers, -
3 ein Ausführungsbeispiel von Markerpositionen an einem Probanden, -
4 die Anordnung von Inertialsensoren an einem Probanden, -
5 ein Ausführungsbeispiel einer Maske zur Konfiguration von Inertialsensoren sowie deren Positionierung, -
6 ein Ausführungsbeispiel von Ausgangssignalen von Inertialsensoren, -
7 ein Ausführungsbeispiel eines Ausgangssignal eines Korrekturmoduls, -
8 ein Ausführungsbeispiel eines Ausgangssignals einer Bildauswertungsvorrichtung, -
9 ein Ausführungsbeispiel eines Ausgangssignals eines Synthesemoduls, -
10 ein Ausführungsbeispiel eines Verfahrens zur Herstellung eines Kraftfahrzeuges und -
11 ein Ausführungsbeispiel für eine entsprechende Fertigungsumgebung und deren Simulation unter Anwendung des erfindungsgemäßen Verfahrens. -
1 zeigt ein Ausführungsbeispiel eines Systems 1 zur Durchführung eines Verfahrens zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess. Dabei wird zunächst ein Proband 30, wie beispielhaft in3 dargestellt, mit Markern 10.1, 10.2, ..., 10.n versehen, wobei die in3 dargestellten schwarzen Punkte mögliche Markerpositionen bezeichnen. Bei einem üblichen markerbasierten Tracking eines Probanden sind an allen mit den schwarzen Punkten markierten Stellen entsprechende Marker vorgesehen. Das erfindungsgemäße Verfahren kommt jedoch mit deutlich weniger Markern aus. So kann insbesondere vorgesehen sein, dass lediglich n = 5 Marker vorgesehen sind. - Das System 1 umfasst eine Mehrzahl von Kameras 11.1, 11.2, ..., 11.q, insbesondere Infrarotkameras, mittels deren ein Bild des Probanden 30 mit den Markern 10.1, 10.2, ..., 10.n erzeugt wird. Dabei wird die Position eines Markers 10.1 nur dann ausgewertet, wenn dieser, wie beispielhaft in
2 dargestellt, zumindest von zwei Kameras 11.1, 11.2 erfasst wird. Den Kameras 11.1, 11.2, ..., 11.n kann jeweils ein Infrarotstrahler zugeordnet sein, mittels dessen eine Infrarotstrahlung ausgesandt wird, wie sie beispielhaft in2 mit Bezugszeichen 40.1 und 40.2 bezeichnet ist. - Es sind zudem mehrere Inertialsensoren 12.1, 12.2, 12.3, ..., 12.m vorgesehen, mittels derer eine relative Position bzw. Bewegung im Raum gemessen und ausgegeben wird. Diese Inertialsensoren werden, wie beispielhaft in
4 dargestellt, ebenfalls am Probanden 30 angeordnet.5 zeigt ein Ausführungsbeispiel einer Maske zur Konfiguration von derartigen Inertialsensoren sowie deren Positionierung. Die Ausgangswerte der Inertialsensoren 12.1, 12.2, 12.3, ..., 12.m, also die gemessenen (relativen) Positionen der Inertialsensoren sind, wie in6 dargestellt, beispielhaft mit Bezugszeichen y1, y2, ..., y17 bezeichnet, wobei ihre Gesamtheit als Y bezeichnet ist. - Die mittels der Inertialsensoren 12.1, 12.2, 12.3, ... , 12.m gemessenen Positionen y1, y2, ... , y17 der Inertialsensoren 12.1, 12.2, 12.3, ... , 12.m werden mittels eines Korrekturmoduls 18 in Abhängigkeit eines Driftkorrekturwertes korr zu einem korrigierten Wert
Y_korr der gemessenen Positionen y1, y2, ... , y17 der Inertialsensoren 12.1, 12.2, 12.3, ... , 12.m korrigiert, wobei einzelne oder - wie in7 dargestellt - alle Werte y1, y2, y3, ..., y17 zu korrigierten Werten y_korr1, y_korr2, y_korr3, ..., y_korr17 korrigiert werden. - Die von den Kameras 11.1, 11.2, ..., 11.q aufgenommenen Bilder werden einer Bildauswertungsvorrichtung 14 zugeführt, die die Position einzelner Inertialsensoren ausgibt. Das Ausgangssignal der Bildauswertungsvorrichtung 14 ist - wie beispielhaft in
8 dargestellt - mit X bezeichnet. In dem in8 dargestellten Ausführungsbeispiel umfasst das Ausgangssignal X der Bildauswertungsvorrichtung 14 einen mittels der Marker 10.1, 10.2, ..., 10.n ermittelten Wert für die Position des Inertialsensors 12.1, für die Position des Inertialsensors 12.6, für die Position des Inertialsensors 12.9, für die Position des Inertialsensors 12.12 und/oder für die Position des Inertialsensors 12.15. Dabei ist in dem dargestellten Ausführungsbeispiel ein Fall dargestellt, in dem durch Verdeckung der entsprechenden Marker die Position x12 des Inertialsensors 12.12 nicht ermittelt werden konnte, sodass das AusgangssignalX der Bildauswertungsvorrichtung 14 keine entsprechenden Werte enthält. - Bezugszeichen 15 in
1 bezeichnet ein Verzögerungsglied zur Verzögerung des AusgangssignalsX der Bildauswertungsvorrichtung 14 und Bezugszeichen 17 in1 bezeichnet ein Verzögerungsglied zur Verzögerung des AusgangssignalsX der Bildauswertungsvorrichtung 14 und des Ausgangssignals - Bezugszeichen 19 in
1 bezeichnet ein Synthesemodul zur Zusammenfassung des AusgangssignalsX der Bildauswertungsvorrichtung 14 und des AusgangssignalsZ , wie es beispielhaft in9 dargestellt ist. Dabei werden in - Das Ausgangssignal Z des Synthesemoduls 19 kann als Eingangssignal in ein mathematisches Menschmodell 2 verwendet werden, wie es zum Beispiel das eingangs diskutierte Programm/Produkt MoCaSim darstellt. In Abhängigkeit des Ausgangssignals Z liefert das Menschmodell 2 zum Beispiel Gelenkwinkel, die Orientierung einzelner Körpersegmente im Raum sowie die Position der einzelnen Gelenke.
-
10 zeigt ein Ausführungsbeispiel eines Verfahrens zur Herstellung eines Kraftfahrzeuges. Dabei wird zunächst in einem Schritt 51 das Ausgangssignal Z für einen Probanden in einer Fertigungsumgebung für ein Kraftfahrzeug erzeugt und aus diesem Ausgangssignal Z mittels eines geeigneten Menschmodells 2 ein Abbild der Bewegung des Probanden erzeugt. Es folgt ein Schritt 52, in dem ein Fertigungsprozess in der Fertigungsumgebung in Abhängigkeit der erfassten menschlichen Bewegung beurteilt und angepasst wird. Anschließend wird mittels des derartig gestalteten Fertigungsprozesses in einem Schritt 53 ein Kraftfahrzeug hergestellt. -
11 zeigt ein Ausführungsbeispiel für eine Fertigungsumgebung und deren (grafische) Simulation unter Anwendung des erfindungsgemäßen Verfahrens, wobei ein durch entsprechende Simulation generiertes Bild mit Bezugszeichen 60 bezeichnet ist. Dabei zeigt sich, dass es trotz der teilweisen Verdeckung des Probanden 30 durch eine Fahrzeugkarosserie 31 mittels des erfindungsgemäßen Verfahrens möglich ist, die Bewegung des Probanden 30 vollständig in den virtuellen Fertigungsprozess zu integrieren. Das erfindungsgemäße Verfahren ist daher besonders für Fertigungsprozesse für Kraftfahrzeuge geeignet, bei denen durch ein hohes Maß an Abdeckung durch Kraftfahrzeugteile bzw. Kraftfahrzeugkarosserien die Erfassung einer menschlichen Bewegung sehr schwierig ist.
Claims (6)
- Verfahren zum Erfassen einer Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug, wobei ein Proband (30) mit n Markern (10.1, 10.2, ... , 10.n) und mit m Inertialsensoren (12.1, 12.2, ..., 12.m) ausgestattet wird, wobei mittels zumindest zweier Kameras (11.1, 11.2, ... , 11.q) jeweils ein Bild des Probanden (30) aufgenommen wird, wobei aus den Bildern der zumindest zwei Kameras (11.1, 11.2, ... , 11.q) die Position von zumindest p der m Inertialsensoren (12.1, 12.2, ... , 12.m) ermittelt wird, und wobei in Abhängigkeit der ermittelten Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) und deren Inertialsensor-Ausgangssignale zumindest ein Driftkorrekturwert (korr) gebildet wird, wobei ein Ausgangssignal gebildet wird, das die ermittelte Position der p Inertialsensoren (12.1, 12.2, ... , 12.m) sowie die Positionen weiterer der m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ..., 12.m) umfasst, wobei die Inertialsensor-Ausgangssignale der weiteren m und/oder der übrigen m-p Inertialsensoren (12.1, 12.2, ... , 12.m) mittels des Driftkorrekturwertes korrigiert werden, und wobei die Bewegung eines Menschen in einem Fertigungsprozess in Abhängigkeit des Ausgangssignals mittels eines mathematischen Menschenmodells beurteilt und angepasst wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass p kleiner ist als m.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass n kleiner ist als m.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass gilt 5 ≤ n ≤ 10.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass gilt 17 ≤ m.
- Verfahren, dadurch gekennzeichnet, dass ein Kraftfahrzeug in Abhängigkeit einer gemäß einem der
Ansprüche 1 bis5 ermittelten Bewegung eines Menschen in diesem Fertigungsprozess hergestellt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010012340.4A DE102010012340B4 (de) | 2010-02-27 | 2010-03-23 | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010009621.0 | 2010-02-27 | ||
DE102010009621 | 2010-02-27 | ||
DE102010012340.4A DE102010012340B4 (de) | 2010-02-27 | 2010-03-23 | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102010012340A1 DE102010012340A1 (de) | 2011-09-01 |
DE102010012340B4 true DE102010012340B4 (de) | 2023-10-19 |
Family
ID=44502027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010012340.4A Active DE102010012340B4 (de) | 2010-02-27 | 2010-03-23 | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010012340B4 (de) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012024212A1 (de) | 2012-12-11 | 2014-06-12 | Volkswagen Aktiengesellschaft | Verfahren und Einrichtung zur automatisierten Analyse eines Fertigungsprozesses, insbesondere eines Fertigungsprozesses für ein Kraftfahrzeug |
CN104197987A (zh) * | 2014-09-01 | 2014-12-10 | 北京诺亦腾科技有限公司 | 一种组合式运动捕捉系统 |
DE102015200529A1 (de) | 2015-01-15 | 2016-08-04 | Volkswagen Aktiengesellschaft | Verfahren zur Herstellung eines Kraftfahrzeuges |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5592401A (en) | 1995-02-28 | 1997-01-07 | Virtual Technologies, Inc. | Accurate, rapid, reliable position sensing using multiple sensing technologies |
DE102005045973A1 (de) | 2005-09-26 | 2007-04-05 | Siemens Ag | Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking |
DE102004051600B4 (de) | 2004-10-23 | 2007-04-12 | Bayerische Motoren Werke Ag | Verfahren zur periodischen Bestimmung der Position eines Objekts |
DE102005058240A1 (de) | 2005-12-06 | 2007-06-14 | Siemens Ag | Trackingsystem und Verfahren zur Posenbestimmung |
WO2009007917A2 (en) | 2007-07-10 | 2009-01-15 | Koninklijke Philips Electronics N.V. | Object motion capturing system and method |
DE102008005761A1 (de) | 2008-01-24 | 2009-07-30 | Volkswagen Ag | Verfahren zur Fabrikplanung |
US20100164862A1 (en) | 2008-12-31 | 2010-07-01 | Lucasfilm Entertainment Company Ltd. | Visual and Physical Motion Sensing for Three-Dimensional Motion Capture |
-
2010
- 2010-03-23 DE DE102010012340.4A patent/DE102010012340B4/de active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5592401A (en) | 1995-02-28 | 1997-01-07 | Virtual Technologies, Inc. | Accurate, rapid, reliable position sensing using multiple sensing technologies |
DE102004051600B4 (de) | 2004-10-23 | 2007-04-12 | Bayerische Motoren Werke Ag | Verfahren zur periodischen Bestimmung der Position eines Objekts |
DE102005045973A1 (de) | 2005-09-26 | 2007-04-05 | Siemens Ag | Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking |
DE102005058240A1 (de) | 2005-12-06 | 2007-06-14 | Siemens Ag | Trackingsystem und Verfahren zur Posenbestimmung |
WO2009007917A2 (en) | 2007-07-10 | 2009-01-15 | Koninklijke Philips Electronics N.V. | Object motion capturing system and method |
DE102008005761A1 (de) | 2008-01-24 | 2009-07-30 | Volkswagen Ag | Verfahren zur Fabrikplanung |
US20100164862A1 (en) | 2008-12-31 | 2010-07-01 | Lucasfilm Entertainment Company Ltd. | Visual and Physical Motion Sensing for Three-Dimensional Motion Capture |
Non-Patent Citations (2)
Title |
---|
FRITZSCHE, F., BUBB, H.: Prediction of Discomfort During Arm Movements. In: Digital Human Modeling, HCII 2007, LNCS 4561, Seiten 66-73, 2007 |
GARCIA, G. J. [et. al.]:Visual Servoing Path Tracking for Safe Human-Robot Interaction. In: Proceedings of the 2009 IEEE International Conference on Mechatronics, April 2009 |
Also Published As
Publication number | Publication date |
---|---|
DE102010012340A1 (de) | 2011-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112010005008B4 (de) | System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb | |
EP2515101B1 (de) | Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen | |
DE10326943B4 (de) | Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtungen zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung | |
DE102013009288B4 (de) | 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung | |
EP2915022B1 (de) | Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens | |
DE112006002674T5 (de) | Verfahren und Vorrichtungen für praktisches 3D-Sichtigkeitssystem | |
EP2325725A1 (de) | Verfahren zum reduzieren eines effekts auf virtuelle objekte | |
DE102017207696A1 (de) | Kalibrierungsvorrichtung und Kalibrierungsverfahren | |
DE102017222534B3 (de) | Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille | |
DE112018006164B4 (de) | Sichtlinienrichtungskalibrierungsvorrichtung, sichtlinienrichtungskalibrierungsverfahren und sichtlinienrichtungskalibrierungsprogramm | |
GB2394543A (en) | Positional measurement of a feature within an image | |
DE102017202194A1 (de) | Verfahren und Vorrichtung zum Ermitteln einer visuellen Ablenkung eines Fahrers eines Fahrzeugs | |
DE102015214116A1 (de) | Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen | |
DE102010012340B4 (de) | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug | |
EP3707547B1 (de) | System und verfahren zum bestimmen einer pose einer augmented-reality-brille, system und verfahren zum einmessen einer augmented-reality-brille, verfahren zum unterstützen einer posenbestimmung einer augmented-reality-brille und für das verfahren geeignetes kraftfahrzeug | |
DE10118397C2 (de) | System und Verfahren zur subjektiven Beurteilung einer Fahrzeugkonstruktion in einer virtuellen Umgebung mit Hilfe von virtueller Realität | |
DE102009056013A1 (de) | Verfahren zum Erzeugen eines Augmented-Reality-Bildes | |
DE102019201134B4 (de) | Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug | |
DE102004050020B4 (de) | Auswertevorrichtung und Auswerteverfahren für einen Crashversuch | |
EP3922526A1 (de) | Bestimmung eines rollwinkels oder eines nickwinkels eines fortbewegungsmittels | |
DE102013102528B4 (de) | Verfahren zur Bestimmung einer Verbauposition einer Innenraumsensorik in einem Fahrzeug | |
DE102019206977A1 (de) | Vorrichtung und Verfahren zur Vermessung mindestens eines schräg im Raum stehenden Messobjekts | |
DE102019102423A1 (de) | Verfahren zur Live-Annotation von Sensordaten | |
DE102018121921A1 (de) | Erstellungsvorrichtung für ein dreidimensionales Modell | |
DE102012003256A1 (de) | Auswerteverfahren für ein ortsauflösendes Messergebnis und Auswerteeinrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |