DE102004023322A1 - Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren - Google Patents

Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren Download PDF

Info

Publication number
DE102004023322A1
DE102004023322A1 DE102004023322A DE102004023322A DE102004023322A1 DE 102004023322 A1 DE102004023322 A1 DE 102004023322A1 DE 102004023322 A DE102004023322 A DE 102004023322A DE 102004023322 A DE102004023322 A DE 102004023322A DE 102004023322 A1 DE102004023322 A1 DE 102004023322A1
Authority
DE
Germany
Prior art keywords
objects
image
image processing
position measurement
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004023322A
Other languages
English (en)
Inventor
Marc Michael Ellenrieder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE102004023322A priority Critical patent/DE102004023322A1/de
Priority to GB0508184A priority patent/GB2413845A/en
Priority to FR0551136A priority patent/FR2869983A1/fr
Priority to JP2005135063A priority patent/JP2005326405A/ja
Priority to US11/125,050 priority patent/US20050286059A1/en
Publication of DE102004023322A1 publication Critical patent/DE102004023322A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren. Dabei wird in einem Kalibrierprozessbild die durch einen definierten nicht ebenen Kalibrierkörper (3) hervorgerufene Selbstabschattung ermittelt und anhand der erfassten Selbstabschattung sodann Parameter (8) zur Entzerrung von Schatten bestimmt. Zur Lage- und/oder Positionsvermessung wird dabei wenigstens ein zu vermessendes Objekt in den Erfassungsbereich einer Kamera (1) und den von einer Beleuchtung (2) bestrahlten Bereich eingebracht, um eine Bildaufnahme des Objekts zu erzeugen. Die Bildaufnahme des Objekts wird anschließend mittels der bestimmten Parameter (8) entzerrt und daraus die Lage und/oder Position des Objekts ermittelt. Mit der Erfindung wird es daher möglich, unter Verwendung einer einzigen Bildaufnahme anhand der Selbstabschattung eines bekannten Kalibrierkörpers (3) die Lage und/oder Position von Objekten im Raum zuverlässig zu vermessen. Die durch die Beleuchtung (2) entstehenden verzerrten Schattenbegrenzungslinien des zu vermessenden Objekts können mit dem Verfahren eindeutig bestimmt werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren.
  • Es sind bereits verschiedene Bildverarbeitungsverfahren bekannt, welche zur Vermessung der Lage und/oder Position von Objekten geeignet sind. Derartige Verfahren werden hauptsächlich im Industriellen Bereich im Zusammenhang mit sehenden Handhabungssystemen z.B. bei der Montage oder im Zusammenhang mit autonomen mobilen Systemen eingesetzt.
  • Zur Vermessung der Lage und/oder Position von Objekten können Bildverarbeitungsverfahren zum Einsatz kommen, die unter Verwendung geeigneter Bildsensoren entweder auf der Verarbeitung zweidimensionaler oder dreidimensionaler Umgebungsinformationen beruhen. Bildsensoren, welche zur Erfassung dreidimensionaler Umgebungsinformationen geeignet sind, liefern dabei zu jedem Bildpunkt einen zugehörigen Tiefenwert. Bei der Erfassung von dreidimensionalen Umgebungsinformationen fallen jedoch große Datenmengen an, daher ist die Verarbeitung dreidimensionaler Umgebungsinformationen mit einem hohen Rechen- und Zeitaufwand verbunden. Zudem sind die Anschaffungskosten bei Bildsensoren zur dreidimensionalen Umgebungserfassung deutlich höher als bei denen, welche für die zweidimensionale Umgebungserfassung geeigneten sind.
  • Zur Vermessung der Lage und/oder Position von Objekten anhand zweidimensionaler Bilddaten sind bereits unterschiedliche Bildverarbeitungsverfahren bekannt. Es können beispielsweise zwei Bildsensoren in Stereoanordnung angeordnet sein, wobei es bei bekanntem Abstand der Bildsensoren möglich ist, dass mittels Bildverarbeitungsverfahren Tiefenwerte rechnerisch ermittelt werden. Auch sind Bildverarbeitungsverfahren bekannt bei denen ein Objekt unter Verwendung mehrerer Kameras aus unterschiedlichen Positionen und Orientierung aufgezeichnet wird und anhand der einzelnen Bildaufnahmen die Position und Orientierung des Objekts im Raum vermessen wird.
  • Aus der unveröffentlichten Patentanmeldung mit dem Aktenzeichen DE 10346481.6 ist ein Verfahren zur Rekonstruktion des Profils von Strukturen auf Oberflächen bekannt. Hierbei werden mindestens zwei Bildaufnahmen desselben Bereichs der zu untersuchenden Oberfläche ausgewertet, wobei die zu untersuchende Oberfläche aus verschiedenen Richtungen unter flachem Einstrahlwinkel beleuchtet wird und dabei Aufnahmen der Oberfläche aus einer Kameraposition mit steilem Winkel zur Oberfläche angefertigt werden. Erhebungen oder Vertiefungen auf der Oberfläche zeigen so auf den Aufnahmen einen deutlichen Schattenwurf, dessen Lage mit der Lichteinstrahlung variiert. Geneigte Flächen sind durch hellere Reflektion identifizierbar. Durch Analyse von Schattenkonturen und Umrisslinien heller Bereiche lässt sich das Höhenprofil einer Struktur auf der Oberfläche bestimmen und so beispielsweise der Verlauf eines Grates rekonstruieren. Durch Integration der Shapefrom-Shading-Methode können auch flache Neigungsänderungen durch Auswertung von Helligkeitsverläufen bestimmt werden und somit eine gut mit dem Original übereinstimmende 3D-Rekonstruktion der Oberfläche erreicht werden.
  • Aus der EP 0747870 B1 ist eine Vorrichtung und ein Verfahren zur Beobachtung von Objekten bekannt. Die Vorrichtung umfasst wenigstens zwei Kameras, welche in eine vorbestimmte Beobachtungsposition gerichtet sind und gleichzeitig Bilder von zu beobachtenden Objekten erfassen. Dabei wird ein gemeinsames charakteristisches Teil in jedem der aufgenommenen Bilder ausgewählt, indem ausgewählte charakteristische Teile in jedem der Bilder korreliert werden. Die Position von Objekten, insbesondere die dreidimensionalen Koordinaten des ausgewählten gemeinsamen charakteristischen Teils werden unter Verwendung der Positionsdaten des ausgewählten charakteristischen Teils in jedem der Bilder berechnet. Nachteilig ist hierbei die rechenintensive Vorverarbeitung von Bilddaten, wobei insbesondere in unterschiedlichen Bildaufnahmen zunächst nach gemeinsamen Merkmalen gesucht werden muss, um diese anschließend miteinander zu korrelieren und aufgrund dieser Information sodann die dreidimensionalen Koordinaten des Objekts zu berechnen. Ein besonderer Nachteil ist es, dass zur Bestimmung der Lage- und/oder Position von Objekten mehrere Kameras bzw. Bildaufnahmen benötigt werden.
  • Der Erfindung liegt daher die Aufgabe zu Grunde, ein Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren gemäß dem Oberbegriff des Patentanspruchs 1 zu schaffen, mit dem unter Verwendung einer einzigen Bildaufnahme auf einfache und zuverlässige Weise die Lage- und/oder Position von Objekten bestimmt werden kann.
  • Die Aufgabe wird gemäß der Erfindung durch ein Verfahren mit den Merkmalen des Patentspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung werden in den Unteransprüchen aufgezeigt.
  • Gemäß der Erfindung wird ein Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren eingesetzt. Dabei wird in einem Kalibrierprozessbild zunächst eine durch einen definierten nicht ebenen Kalibrierkörper hervorgerufene Selbstabschattung erfasst. Anhand der erfassten Selbstabschattung werden sodann Parameter zur Entzerrung von Schatten bestimmt. Zur Lage- und/oder Positionsvermessung wird wenigstens ein zu vermessendes Objekt in den Erfassungsbereich einer Kamera und den mittels einer Beleuchtung bestrahlten Bereich eingebracht. Dabei wird mittels der Kamera wenigstens eine Bildaufnahme des Objekts erzeugt. Die wenigstens eine Bildaufnahme des Objekts wird anschließend mittels der bestimmten Parameter entzerrt und daraus die Lage und/oder Position des Objekts bestimmt. Mit der Erfindung wird es erst möglich, unter Verwendung einer einzigen Bildaufnahme die Lage- und/oder Position von Objekten auf einfache und zuverlässige Weise zu vermessen. Insbesondere durch die Einbeziehung des definierten nicht ebenen Kalibrierkörpers und dessen Selbstabschattung können die bei der Vermessung des Objekts durch die Beleuchtung entstehenden verzerrten Schattenbegrenzungslinien des Objekts erst eindeutig bestimmt werden.
  • In einer gewinnbringenden Ausführungsform der Erfindung wird zusätzlich ein Schattenbild erzeugt. Hierzu wird zunächst die wenigstens eine Bildaufnahme, welche das Abbild des Objekts enthält, in das Kalibrierprozessbild übertragen. Dem Fachmann sind hierzu Bildverarbeitungsprogramme sowie Ray-Tracer bekannt. Es bietet es sich dabei an, für das Kalibrierprozessbild die selben Kamera- und Beleuchtungsparameter wie in der realen Szene zu wählen, um eine aufwendige Umrechnung von Kamera- und Beleuchtungsparametern zu vermeiden. Das Kalibrierprozessbild das den Kalibrierkörper enthält wird dabei vorzugsweise in der Ray-Tracing Umgebung generiert, jedoch besteht auch die Möglichkeit eine mittels einer Kamera gewonnene Bildaufnahme eines bekannten Kalibrierkörpers heranzuziehen. Nach der Übertragung der wenigstens einen Bildaufnahme wirft das zu vermessende Objekt im Kalibrierprozessbild sodann Schatten auf den definierten nichtebenen Kalibrierkörper. Der Schatten des Objekts weist hierbei verzerrte Begrenzungslinien auf, welche es eindeutig zu bestimmen gilt, um damit die Lage- und/oder Position des Objekts zu ermitteln. Das Schattenbild wird im Anschluss daran in ein binäres Schattenbild gewandelt. Die im Kalibrierprozessbild enthaltenen Grauwertpixel werden hierzu in schwarze oder weise Pixel gewandelt. Zur Erzeugung des Binärbildes wird vorzugsweise ein Quotientenbild anhand zweier Schattenbilder gebildet, wobei eines der Schattenbilder mit Beleuchtung und das andere Schattenbild ohne Beleuchtung entstanden ist. Diese Vorgehensweise ist dem Fachmann auf dem Gebiet der Bildverarbeitung bekannt und findet z.B. bei "Shape from Shadow" Verfahren Anwendung. Schließlich wird aus dem gewonnenen binären Schattenbild anhand der zuvor bestimmten Entzerrungsparameter ein entzerrtes Schattenbild generiert. Der Schatten des Objekts weist hierbei keine verzerrten Begrenzungslinien mehr auf, sondern fällt auf eine Ebene und stellt nun ein skaliertes Abbild des Objekts dar, woraus die tatsächliche Lage- und/oder Position im Raum bestimmt werden kann.
  • In einer weiteren vorteilhaften Ausführungsform der Erfindung wird anhand des entzerrten Schattenbilds eine Schar von 3D-Verbindungslinien ermittelt. Diese Schar von 3D- Verbindungslinien verbindet die abgeschatteten Bereiche des Kalibrierkörpers und die Position der Beleuchtung miteinander. Anhand der Schar von 3D-Verbindungslinien ist daher eine Rekonstruktion der Lage und/oder Position des zu vermessenden Objekts möglich, wobei die Schar von ermittelten 3D-Verbindungslinien die Lage und/oder Position des zu vermessenden Objekts beschriebt. Zur Ermittlung der Lage- und/oder Position wird hierzu in einer gewinnbringenden Weise sodann ein hinterlegtes Geometriemodell des wenigstens einen zu vermessenden Objekts in die Schar der 3D-Verbindungslinien eingepasst. Verfahren zum Einpassen von hinterlegten Geometriemodellen in eine Bildszene sind bereits bekannt. In vorteilhafter Weise wird im Rahmen der Erfindung zum Einpassen des Geometriemodells des zu vermessenden Objekts in die Schar von 3D-Verbindungslinien ein „Active Contour Algorithmus" eingesetzt.
  • Bei dem Geometriemodell des zu vermessenden Objekts handelt es sich in bevorzugter Weise um das Modell wenigstens eines starren und/oder flexiblen Objekts. Beispielsweise kann es sich bei industriellen Anwendungen hierbei um starre Montage- oder Befestigungsmittel z.B. Schrauben, Deckel und Flansche oder um flexible Bauelemente wie z.B. Schläuche oder Leitungen handeln. Im Zusammenhang mit der Erfindung ist es von Vorteil, falls neben den reinen Geometriedaten weitere Modelldaten des Objekts hinterlegt sind. Hierbei kann es sich beispielsweise um die die Oberfläche des Objekts beschreibenden Parameter handeln, wie z.B. Texturen. Es sind aber auch beliebige weitere physikalische Parameter möglich. Das Geometriemodell sowie die weiteren Modelldaten können hierbei direkt innerhalb der Ray-Tracing Umgebung generiert und hinterlegt sein oder aus einer anderen geeigneten Entwicklungsumgebung, beispielsweise von einem CAD-System stammen.
  • Auch besteht im Zusammenhang mit dem erfindungsgemäßen Verfahren die Möglichkeit, dass das Bild des Kalibrierkörpers aus unterschiedlichen Raumrichtungen erzeugt wird, wofür mehrere virtuelle Kameras definiert sind. Darüber hinaus ist es weiterhin vorteilhaft dass das Bild des Kalibrierkörpers aus unterschiedlichen Raumrichtungen beleuchtet wird, wofür mehrere virtuelle Beleuchtungseinheiten definiert sind. Indem mehrere Kameras und/oder Beleuchtungseinheiten definiert werden, kann die Lage und/oder Position von beliebigen Objekten bestimmt werden. Dadurch entfällt der Schritt wonach ein hinterlegtes Geometriemodell des wenigstens einen zu vermessenden Objekts in die Schar der 3D-Verbindungslinien eingepasst wird, was zu einer Einsparung bei der Rechenzeit beiträgt. Besonders vorteilhaft ist jedoch, dass bei der Verwendung mehrerer Kameras und/oder Beleuchtungseinheiten auch die Genauigkeit des Verfahrens verbessert wird.
  • Der in Verbindung mit der Erfindung eingesetzte Kalibrierkörper ist in vorteilhafter Weise derart ausgestaltet, dass es sich hierbei um einen Körper mit stufenförmiger Struktur handelt. Einerseits kann die stufenförmige Struktur auf einfache Weise generiert werden, wozu beispielsweise Makros zur Verfügung stehen mit denen eine stufenförmige Struktur unter Abgabe der Stufenhöhe, Stufenweite und der Anzahl an Stufen generiert werden kann. Andererseits kann bei der Verwendung einer stufenförmigen Struktur auf besonders einfache Weise die bei geeigneter Beleuchtung hervorgerufene Selbstabschattung genau bestimmt werden, um anhand dieser sodann die Lage und/oder Position von zu vermessenden Objekten zu bestimmen. Darüber hinaus sind im Zusammenhang mit der Erfindung auch beliebige andere Formen von Kalibrierkörpern möglich. Es besteht darüber hinaus die Möglichkeit, dass der Kalibrierkörper durch wenigstens einen Teil des Hintergrunds des Erfassungsbereichs der Kamera gebildet wird. Beispielsweise kann es sich hierbei um wenigstens einen Teil eines Motors, insbesondere eines Kurbelgehäuses handeln, welches den Hintergrund des Erfassungsbereich der Kamera bildet. Bei dem zu vermessenden Objekt kann es sich z.B. um einen am Kurbelgehäuse zu befestigenden Schlauch handeln. Da sowohl das Modell des Schlauchs als auch CAD-Daten vom Kurbelgehäuse bekannt sind, wird in diesem Fall zur Lage- und/oder Positivermessung nur eine Kamera benötigt.
  • Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung von bevorzugten Ausführungsbeispielen anhand der Figuren. Dabei zeigen:
  • 1 eine Prinzipdarstellung zur Ermittlung der Selbstabschattung
  • 2 eine Prinzipdarstellung zur Ermittlung von Parametern zur Entzerrung von Schatten
  • 3 ein verzerrtes Schattenbild
  • 4 ein entzerrtes Schattenbild
  • 5 eine Darstellung zur Ermittlung der Lage und/oder Position eines Objekts
  • Die 1 zeigt beispielhaft das Prinzip zur Ermittlung der Selbstabschattung bei einem definierten nichtebenen Kalibrierkörper (3). Dabei wird die Lage des Kalibrierkörpers (3) sowie der Beleuchtung (2) im Kamerakoordinatensystem (4) als bekannt vorausgesetzt. Außerdem ist das Geometriemodell des Kalibrierkörpers (3) bekannt, hier in einer Stufenform. Zusätzlich kann ein Geometriemodell eines hier nicht gezeigten zu vermessenden Objekts hinterlegt sein. Zur Bestimmung der Selbstabschattung wird das CAD-Modell des Kalibrierkörpers (3) über ein der Kamera (1) entsprechendes Kameramodell abgebildet, wie dies anhand der 1 beispielhaft gezeigt wird. Danach wird für jedes Pixel im Bild der Verlauf von Sehstrahlen (5), ausgehend von der Beleuchtung (2) bis hin zur Kamera (1) bestimmt (Ray-Tracing). Jeder Sehstrahl (5) der zwischen einem Schnittpunkt (6) des Kalibrierkörpers und der Beleuchtung (2) verläuft wird dabei dahingehend überprüft, ob dieser den Kalibrierkörper (3) schneidet und deshalb eine Selbstabschattung vorliegt. Wie am Beispiel des Sehstrahl (5a) zu sehen ist, wird der Kalibrierkörper nicht geschnitten, daher liegt im Schnittpunkt (6a) keine Selbstabschattung vor. Im Fall des Sehstrahls (5b) wird dagegen der Kalibrierkörper (3) geschnitten, daher liegt im Schnittpunkt (6b) eine Selbstabschattung vor.
  • In 2 wird beispielhaft das Prinzip zur Ermittlung von Parametern zur Entzerrung von Schatten gezeigt. Dabei wird in einem ersten Schritt unter Berücksichtigung aller nicht selbstabgeschatteten Schnittpunkte (6) des Kalibrierkörpers (3) vorzugsweise diejenige Ebene (7) ermittelt, welche den geringsten Abstand D min zwischen dem Kalibrierkörper (3) und der Kamera (4) aufweist und dabei parallel zur X,Y-Ebene der Kamera (1) orientiert ist. Alternativ kann aber auch ein beliebiger anderer bekannter Abstand sowie eine beliebige andere Orientierung der Ebene (7) gewählt werden. In einem zweiten Schritt wird sodann für alle nicht selbstabgeschatteten Schnittpunkte (6) des Kalibrierkörpers (3) anhand einer Verschiebung des Schnittpunkts (6) in Richtung der Beleuchtung (2) auf dem zugehörigen Sehstrahl (5) der Schnittpunkt (8) mit der Ebene (7) ermittelt. An diesem Schnittpunkt (8) auf der Ebene (7) wäre ein Schattenpunkt eines hier nicht gezeigten zu vermessenden Objektes abgebildet worden, falls die Oberfläche des Kalibrierkörpers (3) eine Ebene (7) parallel zur Bildebene der Kamera (1) gewesen wäre. Die Verschiebung auf dem Sehstrahl (5) beschreibt hierbei die Parameter zur Entzerrung von Schatten, woraus sich im Folgenden die Lage und/oder Position von Objekten auf einfache Weise rekonstruieren lässt. Ein zu vermessendes Objekt wird hierbei in den Bereich zwischen den mittels der Beleuchtung (2) bestrahlten Erfassungsbereich der Kamera (1) und dem Kalibrierkörper (3) zur Bildaufnahme eingebracht.
  • 3 zeigt ein verzerrtes Schattenbild. Hierbei handelt es sich um das verzerrte Schattenbild eines stufenförmigen Kalibrierkörpers in binärer Darstellung. Die Binärdarstellung des Schattenbilds wird dabei mittels eines Quotientenbildes gebildet, wobei das Quotientenbild aus zwei Schattenbildern stammt. Die beiden Schattenbilder unterscheiden sich lediglich darin, dass eines der Schattenbilder mit Beleuchtung und das andere Schattenbild ohne Beleuchtung erzeugt wird. Die Schattenpixel sind im Bild weis dargestellt. Jeder Schattenpixel wird daraufhin geprüft, ob es sich um ein selbstabgeschatteten Pixel handelt. Falls es sich um ein selbstabgeschatteten Pixel handelt, wird dieser gelöscht. Für die verbleibenden Schattenpixel wird unter Verwendung der zuvor bestimmten Parameter zur Entzerrung, wie dies anhand der 2 beschrieben wurde, eine neue Position im Bild ermittelt. Die entzerrten Schatten sind nun, wie in der 4 gezeigt, stückweise parallel. Dabei wurden die entzerrten, stückweise parallelen, Schatten zusätzlich um einen bestimmten Winkel gedreht, damit diese in horizontaler Richtung im Bild verlaufen.
  • Wie in 5 dargestellt werden zur Rekonstruktion der Lage und/oder Position eines Objekts (9) anschließend alle 3D-Verbindungslinien (10) zwischen der den Schattenpixel zugeordneten Objektpunkten auf dem Kalibrierkörper (3) und der Beleuchtung (2) ermittelt. Falls Modelldaten des zu vermessenden Objekts (9) hinterlegt sind, wird dieses unter Verwendung eines geeigneten Algorithmus in die Schar der 3D-Verbindungslinien (10) eingepasst.

Claims (10)

  1. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren, bei welchem in einem Kalibrierprozessbild eine durch einen definierten nicht ebenen Kalibrierkörper hervorgerufene Selbstabschattung erfasst wird, anhand der erfassten Selbstabschattung Parameter zur Entzerrung von Schatten bestimmt werden, wenigstens ein zu vermessendes Objekt in den Erfassungsbereich einer Kamera und den mittels einer Beleuchtung bestrahlten Bereich eingebracht wird und mittels der Kamera wenigstens eine Bildaufnahme des Objekts erzeugt wird, die wenigstens eine Bildaufnahme des Objekts mittels der bestimmten Parameter entzerrt und daraus die Lage und/oder Position bestimmt wird.
  2. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Schattenbild erzeugt wird, wobei die wenigstens eine Bildaufnahme des Objekts in das Kalibrierprozessbild übertragen wird, wobei das Objekt Schatten auf den Kalibrierkörper wirft, das Schattenbild in ein binäres Schattenbild umgewandelt wird und aus dem binären Schattenbild anhand zuvor bestimmter Entzerrungsparameter ein entzerrtes Schattenbild generiert wird.
  3. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass mittels dem entzerrten Schattenbild eine Schar von 3D-Verbindungslinien ermittelt wird, welche die abgeschatteten Bereiche des Kalibrierkörpers und die Beleuchtung miteinander verbindet, wobei die Schar von 3D-Verbindungslinien die Lage und/oder Position des Objekts beschreibt.
  4. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach Anspruch 3, dadurch gekennzeichnet, dass ein hinterlegtes Geometriemodell des wenigstens einen zu vermessenden Objekts in die Schar der 3D-Verbindungslinien eingepasst wird.
  5. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach Anspruch 4, dadurch gekennzeichnet, dass zum Einpassen des Geometriemodells in die Schar von 3D-Verbindungslinien ein Active Contour Algorithmus eingesetzt wird.
  6. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass es sich bei dem Geometriemodell des zu vermessenden Objekts um das Modell wenigstens eines starren und/oder flexiblen Objekts handelt.
  7. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Bild des Kalibrierkörpers aus unterschiedlichen Raumrichtungen erzeugt wird, wofür mehrere virtuelle Kameras definiert sind.
  8. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Bild des Kalibrierkörpers aus unterschiedlichen Raumrichtungen beleuchtet wird, wofür mehrere virtuelle Beleuchtungseinheiten definiert sind.
  9. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass es sich bei dem Kalibrierkörper um einen Körper mit stufenförmiger Struktur handelt.
  10. Verfahren zur Lage- und/oder Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der Kalibrierkörper durch wenigstens einen Teil des Hintergrunds des Erfassungsbereichs der Kamera gebildet wird.
DE102004023322A 2004-05-07 2004-05-07 Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren Withdrawn DE102004023322A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102004023322A DE102004023322A1 (de) 2004-05-07 2004-05-07 Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren
GB0508184A GB2413845A (en) 2004-05-07 2005-04-22 Measuring the attitude and/or position of objects by means of image processing methods
FR0551136A FR2869983A1 (fr) 2004-05-07 2005-05-02 Procede de mesure de la position et/ou de l'orientation d'objets au moyen de procedes de traitement de l'image
JP2005135063A JP2005326405A (ja) 2004-05-07 2005-05-06 画像処理方法により対象物の姿勢及び/又は位置を測定する方法
US11/125,050 US20050286059A1 (en) 2004-05-07 2005-05-09 Attitude and position measurement of objects using image processing processes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004023322A DE102004023322A1 (de) 2004-05-07 2004-05-07 Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren

Publications (1)

Publication Number Publication Date
DE102004023322A1 true DE102004023322A1 (de) 2005-11-24

Family

ID=34638877

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004023322A Withdrawn DE102004023322A1 (de) 2004-05-07 2004-05-07 Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren

Country Status (5)

Country Link
US (1) US20050286059A1 (de)
JP (1) JP2005326405A (de)
DE (1) DE102004023322A1 (de)
FR (1) FR2869983A1 (de)
GB (1) GB2413845A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008059551A1 (de) 2008-11-28 2010-06-02 Hella Kgaa Hueck & Co. Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP6736257B2 (ja) * 2015-04-02 2020-08-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN107990873B (zh) * 2017-09-22 2020-04-17 东莞市光劲光电有限公司 一种用led智能灯定位的方式
CN108917722B (zh) * 2018-08-01 2021-08-06 北斗导航位置服务(北京)有限公司 植被覆盖度计算方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4575637A (en) * 1983-07-28 1986-03-11 Polaroid Corporation Part positioning system employing a mask and photodetector array
JPS62274466A (ja) * 1986-05-23 1987-11-28 Hitachi Ltd 3次元形状の計測方式
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
US5506683A (en) * 1990-04-30 1996-04-09 Kumho & Co., Inc. Non-contact measuring apparatus for the section profile of a tire and its method
US5943164A (en) * 1994-11-14 1999-08-24 Texas Instruments Incorporated Curved 3-D object description from single aerial images using shadows
EP1143375A2 (de) * 2000-04-03 2001-10-10 Nec Corporation Vorrichtung, Verfahren und Aufzeichnungsdatenträger zum Vergleichen von Bildern
EP0747870B1 (de) * 1995-05-18 2002-11-27 Omron Corporation Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3431616A1 (de) * 1984-08-28 1986-03-06 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Messvorrichtung zur bestimmung der relativlage zweier koerper
GB2183820A (en) * 1985-11-09 1987-06-10 Dynapert Precima Ltd Electronic component placement
US7831358B2 (en) * 1992-05-05 2010-11-09 Automotive Technologies International, Inc. Arrangement and method for obtaining information using phase difference of modulated illumination
JPH07151702A (ja) * 1993-12-01 1995-06-16 Sekisui Chem Co Ltd 物品の検査装置
KR100367272B1 (ko) * 1994-08-11 2003-03-15 사이버옵틱스 코포레이션 부품정렬센서및부품검출시스템
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US6512507B1 (en) * 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium
US6282461B1 (en) * 1998-07-15 2001-08-28 Westinghouse Electric Company Llc Independent tube position verification system
US7084386B2 (en) * 2003-05-02 2006-08-01 International Business Machines Corporation System and method for light source calibration

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4575637A (en) * 1983-07-28 1986-03-11 Polaroid Corporation Part positioning system employing a mask and photodetector array
JPS62274466A (ja) * 1986-05-23 1987-11-28 Hitachi Ltd 3次元形状の計測方式
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
US5506683A (en) * 1990-04-30 1996-04-09 Kumho & Co., Inc. Non-contact measuring apparatus for the section profile of a tire and its method
US5943164A (en) * 1994-11-14 1999-08-24 Texas Instruments Incorporated Curved 3-D object description from single aerial images using shadows
EP0747870B1 (de) * 1995-05-18 2002-11-27 Omron Corporation Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras
EP1143375A2 (de) * 2000-04-03 2001-10-10 Nec Corporation Vorrichtung, Verfahren und Aufzeichnungsdatenträger zum Vergleichen von Bildern
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LOWE,David G.: Fitting Parameterized Three-Dimensional Models to Images. In: IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.13,No.5,May 1991,S.441-450 *
LOWE,David G.: Fitting Parameterized Three-Dimensional Models to Images. In: IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.13,No.5,May 1991,S.441-450;

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008059551A1 (de) 2008-11-28 2010-06-02 Hella Kgaa Hueck & Co. Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
EP2192550A1 (de) 2008-11-28 2010-06-02 Hella KG Hueck & Co. Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
DE102008059551B4 (de) 2008-11-28 2021-08-12 Car.Software Estonia As Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern

Also Published As

Publication number Publication date
GB2413845A (en) 2005-11-09
US20050286059A1 (en) 2005-12-29
FR2869983A1 (fr) 2005-11-11
JP2005326405A (ja) 2005-11-24
GB0508184D0 (en) 2005-06-01

Similar Documents

Publication Publication Date Title
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
DE10020893B4 (de) Verfahren zur optischen Formerfassung von Gegenständen
DE69726025T2 (de) Verfahren und vorrichtung zum erhalten einer dreidimensionalen form
DE102008015499C5 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102010015566B4 (de) Verfahren und System zur Vermessung spiegelnder Oberflächen
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE102008031942A1 (de) Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
EP1718926A1 (de) Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts
EP3014569A1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
DE112020004301T5 (de) Objekterkennungsvorrichtung
DE102008002725A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP2504659B1 (de) Vorrichtung und verfahren zur messung und kompensation von bewegungseinflüssen bei phasenschiebe-profilometern und dessen anwendung auf mobile, freihandgeführte profilometrie
DE10151983A1 (de) Verfahren zur Dokumentation einer Unfallsituation
DE102017117211B3 (de) Verfahren zur trajektorienbasierten Merkmalszuordnung in einem von einer Bilderfassungseinheit eines Fahrzeugs erfassten Bild
DE102004023322A1 (de) Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren
WO2017162329A1 (de) Verfahren und vorrichtung zur ermittlung von 3d-koordinaten zumindest eines vorbestimmten punktes eines objekts
EP3214602A1 (de) Verfahren zur dreidimensionalen erfassung von objekten
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit
DE102020201379A1 (de) Konturerkennungsvorrichtung, konturerkennungssystem und konturerkennungsverfahren
DE102010029627B4 (de) Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts
DE102015112411A1 (de) System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
EP3049757A1 (de) Fahrwerksvermessung bei umgebungslicht
EP0824827B1 (de) Verfahren zur erstellung einer objektmaske für videoüberwachungsanlagen

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee