DE102015103877A1 - Kamerakalibrierung - Google Patents
Kamerakalibrierung Download PDFInfo
- Publication number
- DE102015103877A1 DE102015103877A1 DE102015103877.3A DE102015103877A DE102015103877A1 DE 102015103877 A1 DE102015103877 A1 DE 102015103877A1 DE 102015103877 A DE102015103877 A DE 102015103877A DE 102015103877 A1 DE102015103877 A1 DE 102015103877A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- angle
- panel
- computing device
- angles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 5
- 239000013256 coordination polymer Substances 0.000 description 14
- 238000005259 measurement Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 244000309464 bull Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/06—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/06—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
- G01B11/0608—Height gauges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/26—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
- G01B11/27—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
Abstract
Es werden erste und zweite Winkel von einer nominellen Kameramittellinie aus zu jeweiligen ersten und zweiten Positionen gemessen. Die erste Position wird dadurch bestimmt, dass die Kamera einen ersten Mittelpunkt in einer ersten Tafel ortet. Die zweite Position wird dadurch bestimmt, dass die Kamera einen zweiten Mittelpunkt in einer zweiten Tafel ortet. Die ersten und zweiten Winkel und ersten und zweiten horizontalen Entfernungen der Kamera von der ersten Tafel bzw. der zweiten Tafel werden zum Erhalten einer bestimmten senkrechten Entfernung und eines bestimmten Winkels benutzt. Die bestimmte senkrechte Entfernung misst eine Entfernung von einem zweiten Mittelpunkt zu einem durch eine Schnittstelle einer ersten Linie durch die zweite Tafel und einer zweiten Linie, die parallel zum Fußboden verläuft und einen Endpunkt an der Kamera aufweist, bestimmten Punkt. Der bestimmte Winkel misst einen Winkel zwischen einer sich von der Kamera in der nominellen Position erstreckenden dritten Linie und der zweiten Linie.
Description
- VERWANDTE ANMELDUNG
- Die vorliegende Anmeldung beansprucht Priorität über der am 25. März 2014 eingereichten vorläufigen US-Patentanmeldung Serien-Nr. 61/969,956 mit dem Titel “CAMERA CALIBRATION” (Kamerakalibrierung). Der Inhalt der vorangehenden vorläufigen Patentanmeldung wird hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen.
- HINTERGRUND
- Verschiedene Arten von Fahrzeugen wie beispielsweise Autos, Sport-Nutzfahrzeuge, Kleinlastwagen, mittlere Lastwagen und Schwerlastwagen usw. können dem Äußeren zugewandte, z.B. im Inneren eines Fahrzeugs hinter einer Windschutzscheibe befestigte Kameras umfassen. Solche Kameras werden für eine Vielzahl von Operationen benutzt, wie beispielsweise Spurabweichungs- oder Spurbewahrungswarnungen, Scheinwerfersteuerung (z.B. Fernlichtsteuerung), Erkennung von Verkehrsschildern und -signalen, entgegenkommenden Fahrzeugen usw. benutzt. Wenn jedoch eine Kamerahöhe und ein Ausrichtungswinkel (Winkel der Kamera zum Horizont) nicht richtig bestimmt werden, dann ist die Kamera möglicherweise nicht in der Lage, genaue Messungs- und/oder Erkennungsdaten (z.B. seitlicher Abstand von Kamera zur Spurmarkierung) für Operationen wie die Vorangehenden bereitzustellen. Ein Kameraausrichtungswinkel kann durch Kenntnis einer Höhe einer Kamera, z.B. einer Entfernung vom Boden, in der die Kamera in einem Fahrzeug befestigt ist und Parameter einer Zieltafel (Entfernung, Größe) bestimmt werden. So ist Bestimmen eines Kameraausrichtungswinkels von einer vorhersagbaren Fahrzeughöhe abhängig. Einige Fahrzeuge weisen jedoch viele Gestaltungen und/oder Gewichte auf und so kann die Fahrzeughöhe am Ende des Zusammenbauvorgangs, wenn eine Kamera typischerweise kalibriert wird, bedeutsam veränderlich sein. Es mangelt an Mechanismen zum Bestimmen von Kamerahöhen und/oder Ausrichtungswinkeln für Fahrzeuge, wo eine Höhe unbekannt ist (z.B. ohne zusätzliche Bezugshöhenmessungen wie beispielsweise Radkasten- oder Fahrzeug-Bodenfreiheit).
- ZEICHNUNGEN
-
1 offenbart ein beispielhaftes System zum Bestimmen eines Winkels von Kamerafehlausrichtung und einer -höhe. -
2 zeigt eine im System der1 enthaltene beispielhafte erste Kamera-Zieltafel. -
3 zeigt eine im System der1 enthaltene beispielhafte zweite Kamera-Zieltafel. -
4 zeigt ein beispielhaftes Verfahren zum Bestimmen eines Kamerawinkels und einer -höhe. - AUSFÜHRLICHE BESCHREIBUNG
-
1 zeigt ein beispielhaftes System10 zum Bestimmen eines Winkels von Fehlausrichtung und Höhe der Kamera12 , z.B. die Kamera12 kann sich während, z.B. in der Nähe des Endes eines Zusammenbauverfahrens in einem Fahrzeug befinden. Die Kamera12 wird in einem ersten vorbestimmten und bekannten horizontalen Abstand R1 von einer ersten Kamera-Zieltafel14 und einem zweiten vorbestimmten und bekannten horizontalen Abstand R2 von einer zweiten Kamera-Zieltafel16 angebracht. Die Tafeln14 ,16 können so angebracht sein, dass sich jeweilige Mittelpunkte CP1, CP2 im gleichen senkrechten Abstand von einem Fußboden18 befinden. Man beachte, dass die Mittelpunkte CP1, CP2 nicht eigentliche geometrische Mitten der Tafeln14 ,16 sein können, sondern sich oft allgemein in einer Mitte der Tafeln14 ,16 befinden und hier sowieso zur einfachen Bezugnahme als Mittelpunkte bezeichnet werden, aber allgemeiner als Bezugspunkte bezeichnet werden könnten. Weiterhin ist zu beachten, dass die Mittelpunkte CP1, CP2 sich an unterschiedlichen senkrechten Abständen vom Fußboden18 befinden könnten, obwohl es sich versteht, dass Festlegen der Mittelpunkte CP1, CP2 im gleichen senkrechten Abstand vom Fußboden18 Berechnungen wie unten beschrieben vereinfacht. -
2 zeigt eine beispielhafte erste Kamera-Zieltafel14 , wo der Mittelpunkt CP1 in Bezug auf ein Bullaugenmuster festgelegt ist.3 zeigt eine beispielhafte zweite Kamera-Zieltafel16 , wo der Mittelpunkt CP2 in Bezug auf ein Schachbrettmuster festgelegt ist. Weiterhin kann ein Punkt I3 einen nominellen oder Startpunkt anzeigen, auf den sich die Kamera12 konzentriert, und ein Punkt I2 kann ein Ziel- oder Horizontpunkt zum Orientieren der Kamera12 anzeigen. Es versteht sich, dass in der Ausführung die Punkte CP2, I2, I3 über verschiedene auf der Tafel16 vorgesehene Formen, Muster usw. wie beispielsweise Linien, Bullaugenmuster usw. angezeigt sein können. Zum Beispiel umfasst die in3 gezeigte Tafel16 ein Schachbrettmuster, wo der Punkt CP2 durch die Kamera12 identifiziert sein kann. Die Tafeln14 ,16 können dementsprechend zum Ausrichten der Kamera12 benutzt werden, wodurch Messungen wie hier beschrieben durchgeführt werden können, um dadurch eine Höhe der Kamera12 in Bezug auf die Mittelpunkte CP1, CP2, und damit eine Höhe der Kamera12 zum Fußboden18 zu bestimmen. - Wie in
1 gezeigt durchlaufen senkrechte Achsen V1 und V2 die Tafeln14 bzw.16 . Eine sich von einem Ursprungspunkt O an der Kamera12 erstreckende horizontale Achse A schneidet die senkrechte Achse V1 an einem Punkte I1 und die senkrechte Achse V2 an einem Punkt I2. Der Ursprungspunkt O ist allgemein ein Mittelpunkt der Linse der Kamera12 . Die horizontale Linie A stellt einen Horizont zur Kamera12 dar, d.h. eine horizontale Orientierung der Kamera12 , wenn die Kamera12 eine parallele Orientierung zum Fußboden18 hätte. Eine Linie D stellt eine sogenannte nominelle oder Mittellinien-Orientierung des Blickfeldes der im Fahrzeug befestigten Kamera12 dar, d.h. die Kamera12 kann auf einen Punkt I3 auf der Tafel16 ausgerichtet sein. Eine Linie C stellt eine Linie zwischen der Mittellinie der Kamera12 und einem erkannten Muster am Mittelpunkt CP1 auf der Zieltafel14 dar. Eine Linie B stellt eine Linie zwischen der Mittellinie der Kamera12 und einem erkannten Muster am Mittelpunkt CP2 auf der Zieltafel16 dar. - Ein Winkel θ1 ist zwischen der Linie D und der Linie C definiert, d.h. der Winkel θ1 stellt den Winkel von der nominellen Mittellinie der Kamera
12 (Linie D) zum Mittelpunkt CP1 der Tafel14 (Linie C) dar. Gleicherweise stellt ein Winkel θ2 den Winkel von der nominellen Mittellinie der Kamera12 (Linie D) zum Mittelpunkt der Tafel16 dar (Linie B). Wie hier offenbart sind Mechanismen zum Bestimmen eines Winkels θA zwischen der nominellen oder Startstelle (Linie D) und einem Horizont, d.h. einer horizontalen Orientierung der Kamera12 (Linie A) vorgesehen. Weiterhin sind Mechanismen zum Bestimmen einer Höhe H, d.h. einer Entfernung zwischen einem Mittelpunkt CP2 der Tafel16 und dem die Horizontlinie A definierenden Punkt I2 vorgesehen. Durch Bestimmen der Höhe H und Kenntnis einer Entfernung des Mittelpunkts CP2 von einem Fußboden18 , z.B. bestimmt gemäß einem Ort des Mittelpunkts CP2 in der Tafel16 , und einer Höhe, in der die Tafel16 über dem Fußboden18 hängt, kann dadurch eine Höhe CH der Kamera12 in Bezug auf den Fußboden18 bestimmt werden. - Die Kamera
12 kann einen Prozessor und einen Speicher enthalten, wobei der Speicher Anweisungen zum Messen von Winkeln θ1, θ2 speichert. Zum Beispiel kann Erkennen der Mittelpunkte CP1, CP2 und Messen von Winkeln θ1, θ2 unter Verwendung standardmäßiger Bildverarbeitungsverfahren durchgeführt werden, z.B. Zählen von Pixeln an einem bekannten Mittelpunkt CP1, CP2 auf einer Tafel14 ,16 und einer Stelle (z.B. Reihe von Pixeln) an der ein Zielmerkmal (z.B. Rand, Fadenkreuz usw.) auf der Tafel14 ,16 erkannt wird. In der Kamera12 gespeicherte und durch sie ausführbare Anweisungen können weiterhin solche Messungen verwenden, zusammen mit Daten bezüglich der Entfernungen zum Erhalten der Höhe H und des Winkels θA, z.B. wie unten beschrieben. Der Winkel θA wird manchmal als ein Fehlausrichtungswinkel bezeichnet, da er einen Unterschied zwischen einer wirklichen und einer erwarteten bzw. idealen Ausrichtung der Kamera12 misst. Auf jeden Fall können Informationen einschließlich des Winkels θA und/oder der Höhe H dann von der Kamera12 und/oder anderen Rechenvorrichtungen in einem Fahrzeug zum Verwenden von Daten von der Kamera12 bei der Durchführung verschiedener Operationen benutzt werden, z.B. Überwachen von Spurwechsel, entgegenkommenden Fahrzeugen, Verkehrsschildern und/oder Ampeln usw. Man beachte dass zusätzlich oder alternativ die Kamera kommunikationstechnisch, z.B. über bekannte drahtgebundene oder drahtlose Verbindungen, an eine zweite Vorrichtung angekoppelt sein könnte, z.B. eine Rechenvorrichtung mit einem Prozessor und einem Speicher und eingerichtet zum Durchführen einiger oder aller der hier offenbarten Bestimmungen basierend auf durch die Kamera12 durchgeführten Messungen. - Da zum Beispiel die Entfernungen R1, R2 bekannt sind, wie auch die Winkel θ1, θ2, kann die Höhe H und der Winkel θA wie in den folgenden Gleichungen dargestellt unter Verwendung von Algebra und Trigonometrie bestimmt werden. (Man beachte dass, obwohl die Tangentenfunktion in den erläuternden Gleichungen unten benutzt wird, sonstige trigonometrische Funktionen für sich oder in Kombination miteinander benutzt werden könnten, zusammen mit Werten für R1, R2, θ1 und θ2, die wie oben beschrieben erhalten werden können).
H = R1(tan(θA – θ1) Gleichung (3); H = R2(tan(θA – θ2) Gleichung (4); R1(tan(θA – θ1) = R2(tan(θA – θ2) Gleichung (5); R1[(tan θA – tanθ1)/(tanθAtanθ1 + 1)] = R2[(tanθA – tanθ2)/(tanθAtanθ2 +1)] Gleichung (6); R1[(x + y)/(xz +)] = R2[(x – z)/(xy + 1)] Gleichung (7); R1(zx2 + x – yzx – y) = R2(yx2 + x – yzx – z) Gleichung (8); R1zx2 + R1x – R1yzx – R1y = R2yx2 + R2x – R2yzx – R2z) Gleichung (9); R1zx2 + R1x – R1yzx – R1y – R2yx2 – R2x + R2yzx + R2z = 0 Gleichung (10); x2(R1z – R2y) + x(R1 – R2) – R1yzx – R1y + R2yzx + R2z = 0 Gleichung (11); x2(R1z – R2y) + x(R1 – R2) – x(R1yz + R2yz) – R1y + R2z = 0 Gleichung (12). - Man erinnere sich, dass x = tanθA ist. Daher ermöglicht aus Gleichung 11 das Lösen von x eine Bestimmung von θA. Weiterhin kann, sobald θA gekannt ist, die Höhe H aus einer beliebigen der Gleichungen 1–4 oben bestimmt werden.
-
4 zeigt ein beispielhaftes Verfahren zum Bestimmen eines Winkels θA und einer Höhe der Kamera12 . Das Verfahren48 beginnt in einem Block50 , in dem eine Kamera12 positioniert wird. Zum Beispiel kann ein Fahrzeug in einem Herstellungsverfahren hinsichtlich der Tafeln14 ,16 wie oben beschrieben positioniert werden. - Als Nächstes kann die Kamera
12 in einem Block52 Bilder von den Tafeln14 ,16 wie oben beschrieben aufzeichnen und Orientierungswinkel der Kamera12 können wie oben beschrieben gemessen werden, z.B. die Winkel θ1, θ2. - Als Nächstes kann in Block
54 der Fehlausrichtungswinkel θA berechnet werden, z.B. nach Gleichungen wie den oben beschriebenen Gleichungen 1–12. Zum Beispiel könnte wie oben aufgeführt die Kamera12 einen Prozessor und einen Speicher enthalten, wobei der Speicher mit Anweisungen zum Berechnen des Winkels wie auch mit Daten zum Berechnen des Winkels einschließlich der Entfernungen R1, R2 wie auch der aufgezeichneten Winkel θ1, θ2 versehen war. - Als Nächstes berechnet und speichert die Kamera
12 in Block56 die Höhe H. - Als Nächstes berechnet die Kamera
12 in Block58 eine in der1 dargestellte senkrechte Höhe CH basierend auf der Höhe H, die eine Entfernung der Kamera12 vom Fußboden18 darstellt, wodurch die Kamera12 die senkrechte Höhe der Kamera12 in Operationen benutzen kann, die Daten von der Kamera12 verwenden. - Nach Block
56 endet das Verfahren48 . - SCHLUSSFOLGERUNG
- Rechenvorrichtungen wie die hier besprochenen umfassen allgemein jeweils durch eine oder mehrere Rechenvorrichtungen wie die oben identifizierten ausführbare Anweisungen und zum Ausführen von Blöcken oder Schritten von oben beschriebenen Verfahren. Zum Beispiel können oben besprochene Prozessblöcke als computerausführbare Anweisungen ausgeführt sein.
- Computerausführbare Anweisungen können aus Computerprogrammen zusammengesetzt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmierungssprachen und/oder Techniken erstellt wurden, einschließlich ohne Begrenzung und entweder für sich oder in Kombination, von Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z.B. ein Mikroprozessor) Anweisungen, z.B. aus einem Speicher, einem computerlesbaren Medium usw. und führt diese Anweisungen aus und führt dadurch ein oder mehrere Verfahren durch, einschließlich eines oder mehrerer der hier beschriebenen Verfahren. Solche Anweisungen und sonstige Daten können unter Verwendung einer Vielzahl von computerlesbaren Medien gespeichert und übertragen werden. Eine Datei in einer Rechenvorrichtung ist allgemein eine Ansammlung von auf einem computerlesbaren Medium wie beispielsweise einem Speichermedium, einem Direktzugriffsspeicher usw. gespeicherten Daten.
- Ein computerlesbares Medium umfasst jedes Medium, das an der Bereitstellung von Daten (z.B. Anweisungen) teilnimmt, die durch einen Computer gelesen werden können. Ein solches Medium kann viele Formen annehmen, einschließlich von aber nicht begrenzt auf nichtflüchtige Medien, flüchtige Medien usw. Nichtflüchtige Medien umfassen beispielsweise optische oder magnetische Platten und sonstige beständige Speicher. Flüchtige Medien umfassen dynamischen Direktzugriffsspeicher (DRAM – Dynamic Random Access Memory), der typischerweise einen Hauptspeicher bildet. Gebräuchliche Formen von computerlesbaren Medien umfassen beispielsweise eine Diskette, eine flexible Platte, Festplatte, Magnetband, jedes andere magnetische Medium, eine CD-ROM, DVD, jedes andere optische Medium, Lochkarten, Papierband, jedes andere physikalische Medium mit Lochmustern, einen RAM, PROM, einen EPROM, einen FLASH-EEPROM, jeden sonstigen Speicher-Chip oder -Einsatz oder jedes andere Medium, aus dem ein Computer auslesen kann.
- In den Zeichnungen zeigen die gleichen Bezugsziffern die gleichen Elemente an. Weiterhin könnten einige oder alle dieser Elemente geändert sein. Hinsichtlich der hier beschriebenen Medien, Verfahren, Systeme, Methoden usw. versteht es sich, dass, obwohl die Schritte solcher Verfahren usw. als in einer gewissen geordneten Reihenfolge stattfindend beschrieben worden sind, solche Verfahren mit den in einer anderen Reihenfolge als der hier beschriebenen Reihenfolge durchgeführten beschriebenen Schritten ausgeübt werden könnten. Es versteht sich weiterhin, dass gewisse Schritte gleichzeitig durchgeführt werden könnten, dass andere Schritte zugefügt werden könnten oder dass gewisse hier beschriebene Schritte weggelassen werden könnten. Anders gesagt sind die hiesigen Beschreibungen von Verfahren zur Darstellung gewisser Ausführungsformen vorgesehen und sollten auf keine Weise als die beanspruchte Erfindung begrenzend ausgelegt werden.
- Dementsprechend versteht es sich, dass die obige Beschreibung erläuternd und nicht beschränkend sein soll. Dem Fachmann würden beim Lesen der obigen Beschreibung viele andere Ausführungsformen und Anwendungen als die vorgesehenen Beispiele offenbar sein. Der Schutzumfang der Erfindung sollte nicht unter Bezugnahme auf die obige Beschreibung bestimmt werden, sondern sollte stattdessen unter Bezugnahme auf die beiliegenden Ansprüche bestimmt werden, zusammen mit dem vollen Schutzumfang von Entsprechungen, zu denen diese Ansprüche berechtigt sind. Es wird vorausgesehen und ist beabsichtigt, das zukünftige Entwicklungen in der hier besprochenen Technik stattfinden werden und dass die offenbarten Systeme und Verfahren in solchen zukünftigen Ausführungsformen aufgenommen sein werden. Zusammengefasst versteht es sich, dass die Erfindung der Abänderung und Änderung fähig ist und nur durch die nachfolgenden Ansprüche begrenzt ist.
- Allen in den Ansprüchen benutzten Begriffen sollen ihre gewöhnlichen Bedeutungen erteilt werden, so wie sie vom Fachmann verstanden werden, sofern nicht eine ausdrückliche gegensätzliche Anzeige hier getroffen wird. Insbesondere sollte Verwendung der Singularartikel wie beispielsweise „ein“, „der“, „besagter“ usw. als ein oder mehrere der angezeigten Elemente aufführend gelesen werden, sofern ein Anspruch nicht eine ausdrückliche gegensätzliche Begrenzung aufführt.
- Es wird ferner beschrieben:
- A. Eine Rechenvorrichtung umfassend einen Prozessor und einen Speicher, wobei die Rechenvorrichtung programmiert ist zum: Speichern im Speicher einer ersten horizontalen Entfernung einer Kamera von einer ersten Tafel und einer zweiten horizontalen Entfernung der Kamera von einer zweiten Tafel; Empfangen erster und zweiter Winkel von einer nominellen Kameramittellinie zu jeweiligen ersten und zweiten Positionen, wobei die erste Position durch Orten eines ersten Mittelpunkts in der ersten Tafel mit der Kamera bestimmt wird und die zweite Position durch Ordnen eines zweiten Mittelpunkts in einer zweiten Tafel mit der Kamera bestimmt wird; und Verwenden der ersten und zweiten Winkel und ersten und zweiten horizontalen Entfernungen der Kamera von der ersten Tafel bzw. der zweiten Tafel zum Bestimmen einer senkrechten Entfernung vom zweiten Mittelpunkt zu einem durch eine Schnittstelle einer ersten Linie durch die zweite Tafel und einer zweiten Linie, die parallel zum Fußboden liegt und einen Endpunkt an der Kamera und einen bestimmten Winkel aufweist, bestimmten Punkt und eines Fehlausrichtungswinkels zwischen einer sich von der Kamera in der nominellen Position erstreckenden dritten Linie und der zweiten Linie.
- B. Rechenvorrichtung nach A, wobei die ersten und zweiten Winkel durch Verarbeiten wenigstens eines durch die Kamera erhaltenen Bildes bestimmt werden.
- C. Rechenvorrichtung nach A, wobei die Rechenvorrichtung weiterhin programmiert ist zum Bestimmen des Fehlausrichtungswinkels durch Auswerten jeweiliger trigonometrischer Funktionen der ersten und zweiten Winkel und Verwenden der ausgewerteten trigonometrischen Funktionen und der ersten und zweiten horizontalen Entfernungen zum Bestimmen eines Wertes einer trigonometrischen Funktion des Fehlausrichtungswinkels.
- D. Rechenvorrichtung nach C, wobei die Rechenvorrichtung weiterhin programmiert ist zum Bestimmen des Fehlausrichtungswinkels durch Suchen der Tangente des Fehlausrichtungswinkels nach einer Form der Gleichung
x2(R1z – R2y) + x(R1 – R2) – x(R1yz + R2yz) – R1y + R2z = 0, - E. Rechenvorrichtung nach A, wobei die Rechenvorrichtung in der Kamera enthalten ist.
- F. Rechenvorrichtung nach A, wobei der erste Mittelpunkt der ersten Tafel sich in einer ersten senkrechten Entfernung von einem Fußboden befindet und der zweite Mittelpunkt der zweiten Tafel sich in einer zweiten senkrechten Entfernung von einem Fußboden befindet.
- G. Rechenvorrichtung nach F, wobei die erste senkrechte Entfernung und die zweite senkrechte Entfernung eine gleiche senkrechte Entfernung sind.
- H. Rechenvorrichtung nach F, wobei die Rechenvorrichtung weiterhin programmiert ist zum Verwenden wenigstens eines der ersten senkrechten Entfernung und der zweiten senkrechten Entfernung zum Bestimmen einer Höhe der Kamera in Bezug auf den Fußboden.
- I. Verfahren, ausgeführt in einer Rechenvorrichtung, die einen Prozessor und einen Speicher enthält, wobei das Verfahren umfasst: Messen erster und zweiter Winkel von einer nominellen Kameramittellinie zu jeweiligen ersten und zweiten Positionen, wobei die erste Position dadurch bestimmt wird, dass die Kamera einen ersten Mittelpunkt in einer ersten Tafel ortet, und die zweite Position dadurch bestimmt wird, dass die Kamera einen zweiten Mittelpunkt in einer zweiten Tafel ortet; und Verwenden der ersten und zweiten Winkel und ersten und zweiten horizontalen Entfernungen der Kamera von der ersten Tafel bzw. der zweiten Tafel, Erhalten einer bestimmten senkrechten Entfernung und eines bestimmten Winkels; wobei die bestimmte senkrechte Entfernung eine Entfernung vom zweiten Mittelpunkt zu einem durch eine Schnittstelle einer ersten Linie durch die zweite Tafel und einer zweiten Linie, die parallel zum Fußboden verläuft und einen Endpunkt an der Kamera aufweist, bestimmten Punkt misst und der bestimmte Winkel einen Winkel zwischen einer sich von der Kamera in der nominellen Position erstreckenden dritten Linie und einer zweiten Linie misst.
- J. Verfahren nach I, wobei die ersten und zweiten Winkel durch Verarbeiten wenigstens eines durch die Kamera erhaltenen Bildes bestimmt werden.
- K. Verfahren nach I, weiterhin umfassend Bestimmen des Fehlausrichtungswinkels durch Auswerten jeweiliger trigonometrischer Funktionen der ersten und zweiten Winkel und Verwenden der ausgewerteten trigonometrischen Funktionen und der ersten und zweiten horizontalen Entfernungen zum Bestimmen eines Wertes einer trigonometrischen Funktion des Fehlausrichtungswinkels.
- L. Verfahren nach K, wobei die Rechenvorrichtung weiterhin programmiert ist zum Bestimmen des Fehlausrichtungswinkels durch Suchen der Tangente des Fehlausrichtungswinkels nach einer Form der Gleichung
x2(R1z – R2y) + x(R1 – R2) – x(R1yz + R2yz) – R1y + R2z = 0, - M. Verfahren nach K, wobei die Rechenvorrichtung in der Kamera enthalten ist.
- N. Verfahren nach K, wobei sich der erste Mittelpunkt der ersten Tafel in einer ersten senkrechten Entfernung von einem Fußboden befindet und der zweite Mittelpunkt der zweiten Tafel sich in einer zweiten senkrechten Entfernung von einem Fußboden befindet.
- O. Verfahren nach N, wobei die erste senkrechte Entfernung und die zweite senkrechte Entfernung eine gleiche senkrechte Entfernung sind.
- P. Verfahren nach N, weiterhin umfassend Verwenden wenigstens eines der ersten senkrechten Entfernung und der zweiten senkrechten Entfernung zum Bestimmen einer Höhe der Kamera hinsichtlich des Fußbodens.
- Q. System umfassend: eine erste Tafel, die einen ersten Mittelpunkt enthält, und eine zweite Tafel, die einen zweiten Mittelpunkt enthält; eine Kamera, die sich in einer ersten horizontalen Entfernung von der ersten Tafel und in einer zweiten horizontalen Entfernung von der zweiten Tafel befindet; und eine Rechenvorrichtung umfassend einen Prozessor und einen Speicher, wobei der Speicher die ersten und zweiten horizontalen Entfernungen speichert, wie auch durch den Prozessor ausführbare Anweisungen zum: Messen erster und zweiter Winkel von einer nominellen Kameramittellinie zu jeweiligen ersten und zweiten Positionen, wobei die erste Position dadurch bestimmt wird, dass die Kamera den ersten Mittelpunkt ortet, und die zweite Position dadurch bestimmt wird, dass die Kamera den zweiten Mittelpunkt ortet; und Verwenden der ersten und zweiten Winkel und der ersten und zweiten horizontalen Entfernungen, Erhalten einer bestimmten senkrechten Entfernung und eines bestimmten Winkels; wobei die bestimmte senkrechte Entfernung eine Entfernung vom zweiten Mittelpunkt zu einem durch eine Schnittstelle einer ersten Linie durch die zweite Tafel und einer zweiten Linie, die parallel zum Fußboden verläuft und einen Endpunkt an der Kamera aufweist, bestimmten Punkt misst; und der bestimmte Winkel einen Winkel zwischen einer sich von der Kamera in der nominellen Position erstreckenden dritten Linie und der zweiten Linie misst.
- R. System nach Q, wobei sich der erste Mittelpunkt der ersten Tafel in einer ersten senkrechten Entfernung von einem Fußboden befindet und der zweite Mittelpunkt der zweiten Tafel sich in einer zweiten senkrechten Entfernung von einem Fußboden befindet.
- S. System nach R, wobei die erste senkrechte Entfernung und die zweite senkrechte Entfernung eine gleiche senkrechte Entfernung sind.
- T. System nach S, wobei die durch den Prozessor ausführbaren Anweisungen weiterhin Anweisungen zum Verwenden wenigstens eines der ersten senkrechten Entfernung und der zweiten senkrechten Entfernung zum Bestimmen einer Höhe der Kamera hinsichtlich des Fußbodens umfassen.
Claims (10)
- Eine Rechenvorrichtung umfassend einen Prozessor und einen Speicher, wobei die Rechenvorrichtung programmiert ist zum: Speichern im Speicher einer ersten horizontalen Entfernung einer Kamera von einer ersten Tafel und einer zweiten horizontalen Entfernung der Kamera von einer zweiten Tafel; Empfangen erster und zweiter Winkel von einer nominellen Kameramittellinie zu jeweiligen ersten und zweiten Positionen, wobei die erste Position durch Orten eines ersten Mittelpunkts in der ersten Tafel mit der Kamera bestimmt wird und die zweite Position durch Ordnen eines zweiten Mittelpunkts in einer zweiten Tafel mit der Kamera bestimmt wird; und Verwenden der ersten und zweiten Winkel und ersten und zweiten horizontalen Entfernungen der Kamera von der ersten Tafel bzw. der zweiten Tafel zum Bestimmen einer senkrechten Entfernung vom zweiten Mittelpunkt zu einem durch eine Schnittstelle einer ersten Linie durch die zweite Tafel und einer zweiten Linie, die parallel zum Fußboden liegt und einen Endpunkt an der Kamera und einen bestimmten Winkel aufweist, bestimmten Punkt und eines Fehlausrichtungswinkels zwischen einer sich von der Kamera in der nominellen Position erstreckenden dritten Linie und der zweiten Linie.
- Rechenvorrichtung nach Anspruch 1, wobei die ersten und zweiten Winkel durch Verarbeiten wenigstens eines durch die Kamera erhaltenen Bildes bestimmt werden.
- Rechenvorrichtung nach Anspruch 1, wobei die Rechenvorrichtung weiterhin programmiert ist zum Bestimmen des Fehlausrichtungswinkels durch Auswerten jeweiliger trigonometrischer Funktionen der ersten und zweiten Winkel und Verwenden der ausgewerteten trigonometrischen Funktionen und der ersten und zweiten horizontalen Entfernungen zum Bestimmen eines Wertes einer trigonometrischen Funktion des Fehlausrichtungswinkels.
- Rechenvorrichtung nach Anspruch 3, wobei die Rechenvorrichtung weiterhin programmiert ist zum Bestimmen des Fehlausrichtungswinkels durch Suchen der Tangente des Fehlausrichtungswinkels nach einer Form der Gleichung
x2(R1z – R2y) + x(R1 – R2) – x(R1yz + R2yz) – R1y + R2z = 0, - Rechenvorrichtung nach Anspruch 1, wobei die Rechenvorrichtung in der Kamera enthalten ist.
- Verfahren, ausgeführt in einer Rechenvorrichtung, die einen Prozessor und einen Speicher enthält, wobei das Verfahren umfasst: Messen erster und zweiter Winkel von einer nominellen Kameramittellinie zu jeweiligen ersten und zweiten Positionen, wobei die erste Position dadurch bestimmt wird, dass die Kamera einen ersten Mittelpunkt in einer ersten Tafel ortet, und die zweite Position dadurch bestimmt wird, dass die Kamera einen zweiten Mittelpunkt in einer zweiten Tafel ortet; und Verwenden der ersten und zweiten Winkel und ersten und zweiten horizontalen Entfernungen der Kamera von der ersten Tafel bzw. der zweiten Tafel, Erhalten einer bestimmten senkrechten Entfernung und eines bestimmten Winkels; wobei die bestimmte senkrechte Entfernung eine Entfernung vom zweiten Mittelpunkt zu einem durch eine Schnittstelle einer ersten Linie durch die zweite Tafel und einer zweiten Linie, die parallel zum Fußboden verläuft und einen Endpunkt an der Kamera aufweist, bestimmten Punkt misst und der bestimmte Winkel einen Winkel zwischen einer sich von der Kamera in der nominellen Position erstreckenden dritten Linie und einer zweiten Linie misst.
- Verfahren nach Anspruch 6, wobei die ersten und zweiten Winkel durch Verarbeiten wenigstens eines durch die Kamera erhaltenen Bildes bestimmt werden.
- Verfahren nach Anspruch 6, weiterhin umfassend Bestimmen des Fehlausrichtungswinkels durch Auswerten jeweiliger trigonometrischer Funktionen der ersten und zweiten Winkel und Verwenden der ausgewerteten trigonometrischen Funktionen und der ersten und zweiten horizontalen Entfernungen zum Bestimmen eines Wertes einer trigonometrischen Funktion des Fehlausrichtungswinkels.
- Verfahren nach Anspruch 8, wobei die Rechenvorrichtung weiterhin programmiert ist zum Bestimmen des Fehlausrichtungswinkels durch Suchen der Tangente des Fehlausrichtungswinkels nach einer Form der Gleichung
x2(R1z – R2y) + x(R1 – R2) – x(R1yz + R2yz) – R1y + R2z = 0, - Verfahren nach Anspruch 8, wobei die Rechenvorrichtung in der Kamera enthalten ist.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461969956P | 2014-03-25 | 2014-03-25 | |
US61/969,956 | 2014-03-25 | ||
US14/607,095 | 2015-01-28 | ||
US14/607,095 US9953420B2 (en) | 2014-03-25 | 2015-01-28 | Camera calibration |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015103877A1 true DE102015103877A1 (de) | 2015-10-01 |
Family
ID=54066953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015103877.3A Pending DE102015103877A1 (de) | 2014-03-25 | 2015-03-17 | Kamerakalibrierung |
Country Status (5)
Country | Link |
---|---|
US (1) | US9953420B2 (de) |
CN (1) | CN104952062B (de) |
DE (1) | DE102015103877A1 (de) |
MX (1) | MX351805B (de) |
RU (1) | RU2662411C2 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652944A (zh) * | 2020-06-03 | 2020-09-11 | 北京方程奇迹科技有限公司 | 一种标定相机光心的方法 |
CN114565681A (zh) * | 2022-03-01 | 2022-05-31 | 禾多科技(北京)有限公司 | 一种相机标定方法、装置、设备、介质及产品 |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3173979A1 (de) * | 2015-11-30 | 2017-05-31 | Delphi Technologies, Inc. | Verfahren zur identifizierung charakteristischer punkte einer musterkalibrierung in einer menge von kandidatenpunkten in einem umgebungsbild der musterkalibrierung |
US10222201B2 (en) * | 2016-07-14 | 2019-03-05 | United Technologies Corporation | Visual depth measurement gage |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US11978011B2 (en) | 2017-05-01 | 2024-05-07 | Symbol Technologies, Llc | Method and apparatus for object status detection |
WO2018204342A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Product status detection system |
US11600084B2 (en) | 2017-05-05 | 2023-03-07 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
US10304210B2 (en) * | 2017-05-25 | 2019-05-28 | GM Global Technology Operations LLC | Method and apparatus for camera calibration |
CN107525475B (zh) * | 2017-08-30 | 2019-10-25 | 河海大学 | 一种目标物高度测量方法 |
US9940535B1 (en) * | 2017-09-07 | 2018-04-10 | Symbol Technologies, Llc | Imaging-based sensor calibration |
GB2567544B (en) * | 2017-09-07 | 2020-09-02 | Symbol Technologies Llc | Imaging-based sensor calibration |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
RU2719429C1 (ru) * | 2019-06-13 | 2020-04-17 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" | Тест-объект для одновременной калибровки телевизионной и инфракрасной видеокамер с различными полями зрения |
US10818034B1 (en) | 2019-06-24 | 2020-10-27 | Ford Global Technologies, Llc | Concealed fiducial markers for vehicle camera calibration |
CN110658503B (zh) * | 2019-10-17 | 2022-03-01 | 北京百度网讯科技有限公司 | 用于修正雷达的测量角度的方法及装置 |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
CN111862231B (zh) * | 2020-06-15 | 2024-04-12 | 南方科技大学 | 一种相机标定方法、车道偏离预警方法及系统 |
CN111696160B (zh) * | 2020-06-22 | 2023-08-18 | 江苏中天安驰科技有限公司 | 车载摄像头自动标定方法、设备及可读存储介质 |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
EP4383199A1 (de) * | 2021-08-06 | 2024-06-12 | Obshchestvo s Ogranichennoi Otvetstvennostiu "Evokargo" | Verfahren zur kalibrierung extrinsischer videokameraparameter |
CN114777744B (zh) * | 2022-04-25 | 2024-03-08 | 中国科学院古脊椎动物与古人类研究所 | 一种古生物领域的地质测量方法、装置及电子设备 |
CN114619487B (zh) * | 2022-04-27 | 2023-08-18 | 杭州翼菲机器人智能制造有限公司 | 并联机器人的零点标定方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2199150C2 (ru) * | 2001-02-02 | 2003-02-20 | Курский государственный технический университет | Устройство калибровки оптикоэлектронной системы |
CN100567886C (zh) * | 2007-01-15 | 2009-12-09 | 中国北方车辆研究所 | 一种三点定标测量方法 |
JP2008209354A (ja) | 2007-02-28 | 2008-09-11 | Toyota Motor Corp | キャリブレーション方法及び装置、並びに自動検知装置 |
US8259174B2 (en) * | 2009-02-06 | 2012-09-04 | GM Global Technology Operations LLC | Camera auto-calibration by horizon estimation |
JP4751939B2 (ja) * | 2009-03-31 | 2011-08-17 | アイシン精機株式会社 | 車載カメラの校正装置 |
KR101023275B1 (ko) * | 2009-04-06 | 2011-03-18 | 삼성전기주식회사 | 차량용 카메라 시스템의 캘리브레이션 방법 및 장치, 차량용 카메라 시스템의 각도상 오정렬을 판단하는 방법 및 이를 수행하는 전자 제어 유닛 |
CN101726318B (zh) * | 2009-11-04 | 2011-06-15 | 北京控制工程研究所 | 一种月球车双目视觉导航系统标定方法 |
CN102136140B (zh) * | 2010-12-24 | 2012-07-18 | 东南大学 | 一种基于矩形图样的视频图像距离检测方法 |
CN102902884A (zh) * | 2012-09-24 | 2013-01-30 | 天津市亚安科技股份有限公司 | 云台摄像机自动定位角度计算方法 |
JP6009894B2 (ja) | 2012-10-02 | 2016-10-19 | 株式会社デンソー | キャリブレーション方法、及びキャリブレーション装置 |
-
2015
- 2015-01-28 US US14/607,095 patent/US9953420B2/en active Active
- 2015-03-17 DE DE102015103877.3A patent/DE102015103877A1/de active Pending
- 2015-03-25 RU RU2015110577A patent/RU2662411C2/ru active
- 2015-03-25 MX MX2015003775A patent/MX351805B/es active IP Right Grant
- 2015-03-25 CN CN201510132990.9A patent/CN104952062B/zh active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652944A (zh) * | 2020-06-03 | 2020-09-11 | 北京方程奇迹科技有限公司 | 一种标定相机光心的方法 |
CN114565681A (zh) * | 2022-03-01 | 2022-05-31 | 禾多科技(北京)有限公司 | 一种相机标定方法、装置、设备、介质及产品 |
CN114565681B (zh) * | 2022-03-01 | 2022-11-22 | 禾多科技(北京)有限公司 | 一种相机标定方法、装置、设备、介质及产品 |
Also Published As
Publication number | Publication date |
---|---|
MX351805B (es) | 2017-10-27 |
MX2015003775A (es) | 2015-10-14 |
CN104952062A (zh) | 2015-09-30 |
RU2015110577A3 (de) | 2018-05-16 |
RU2662411C2 (ru) | 2018-07-25 |
US20150279035A1 (en) | 2015-10-01 |
US9953420B2 (en) | 2018-04-24 |
CN104952062B (zh) | 2019-06-11 |
RU2015110577A (ru) | 2016-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015103877A1 (de) | Kamerakalibrierung | |
EP3009794B1 (de) | Redundantes bestimmen von positionsdaten für ein automatisches landesystem | |
DE102013206707A1 (de) | Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs | |
DE102019114511A1 (de) | Radar-odometrie für ein fahrzeug | |
EP3714286B1 (de) | Verfahren und vorrichtung zur ermittlung eines installationswinkels zwischen einer fahrbahn, auf der ein fahrzeug fährt, und einer erfassungsrichtung eines mess- bzw. radarsensors | |
EP1673589A1 (de) | Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes | |
DE102011100628A1 (de) | Verfahren und Vorrichtung zur Bestimmung mindestens eines Kameraparameters | |
DE102012224104A1 (de) | Verfahren zum Bereitstellen eines GNSS-Signals | |
DE102017207614A1 (de) | Vorrichtung und Verfahren zur Kalibrierung eines Kamerasystems eines Fahrzeugs | |
DE102018204451A1 (de) | Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems | |
DE102018113559A1 (de) | Verfahren zum Erkennen einer Fahrbahnmarkierung durch Validieren anhand der Linienbreite; Steuereinrichtung; Stellplatzerkennungssystem; sowie Fahrerassistenzsystem | |
DE102014003152A1 (de) | Verfahren und Vorrichtung zum Bestimmen zumindest eines Objektparameters eines Verkehrsmittels | |
DE102007021106B4 (de) | Verfahren und Vorrichtung zum Kalibrieren eines Kamerasystems | |
DE102017126495B4 (de) | Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters | |
DE102020215420A1 (de) | Verfahren zum Kalibrieren mindestens einer Kamera | |
EP3759517B1 (de) | Verfahren und vorrichtung zur schätzung der höhe eines reflektors eines fahrzeugs | |
DE102013001867A1 (de) | Verfahren zur Ermittlung einer Fahrzeugorientierung und/oder einer korrigierten Fahrzeugposition eines Kraftfahrzeugs und Kraftfahrzeug | |
WO2023083620A1 (de) | Prüfung der umfeldsensorik und/oder umfeldperzeption eines fahrzeugs | |
DE102010042821B4 (de) | Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems | |
EP3673234A1 (de) | Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs | |
DE102017217140A1 (de) | Verfahren und Vorrichtung zur Ansteuerung eines Fahrerassistenzsystems unter Verwendung eines Stereokamerasystems mit einer ersten und einer zweiten Kamera | |
DE102018202571A1 (de) | Verfahren und Vorrichtung zur Aufbereitung von Daten zweier Fahrzeugsensoren für ein autonomes Fahrzeug | |
DE112017006844T5 (de) | Sensordatenintegrationseinrichtung, sensordatenintegrationsverfahren und sensordatenintegrationsprogramm | |
DE102016223290A1 (de) | Verfahren und Vorrichtung zum Kalibrieren eines Sensors für ein Fahrzeug | |
DE102019132151A1 (de) | Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs anhand von Daten eines Referenz-Umfeldsensors unter Berücksichtigung von Belegungskarten, Recheneinrichtung sowie Sensorsystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: ETL IP PATENTANWALTSGESELLSCHAFT MBH, DE Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE Representative=s name: ETL WABLAT & KOLLEGEN PATENT- UND RECHTSANWALT, DE |
|
R082 | Change of representative |
Representative=s name: ETL IP PATENTANWALTSGESELLSCHAFT MBH, DE Representative=s name: ETL IP PATENT- UND RECHTSANWALTSGESELLSCHAFT M, DE |
|
R012 | Request for examination validly filed |