DE10042387A1 - Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder - Google Patents

Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder

Info

Publication number
DE10042387A1
DE10042387A1 DE10042387A DE10042387A DE10042387A1 DE 10042387 A1 DE10042387 A1 DE 10042387A1 DE 10042387 A DE10042387 A DE 10042387A DE 10042387 A DE10042387 A DE 10042387A DE 10042387 A1 DE10042387 A1 DE 10042387A1
Authority
DE
Germany
Prior art keywords
coordinate
fan beam
beam sensor
linear
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10042387A
Other languages
English (en)
Inventor
Tae Jung Kim
Dong Seok Shin
Tag Gon Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea Advanced Institute of Science and Technology KAIST
Original Assignee
Korea Advanced Institute of Science and Technology KAIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea Advanced Institute of Science and Technology KAIST filed Critical Korea Advanced Institute of Science and Technology KAIST
Publication of DE10042387A1 publication Critical patent/DE10042387A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Durch die Erfindung ist ein Verfahren zum Transformieren von 3-D-Objektpunkten in 2-D-Bildpunkte für Linear-Fächerstrahlsensor-Bilder geschaffen. Das Transformationsproblem wird in das Problem des Auffindens von Sensorzeile-Koordinaten und das Problem des Auffindens von Sensorspalte-Koordinaten aus Linear-Fächerstrahlsensor-Kollinearitätsgleichungen zerlegt. Die Prozeduren zum Lösen des Problems sind die folgenden. Als Erstes wird ein Anfangswert für eine aufzusuchende Bildlinienkoordinate angenommen, und unter Verwendung dieses Werts wird die Sensorlage berechnet. Als Nächstes wird die Sensorlage als konstant angenommen und es wird eine neue Bildlinienkoordinate berechnet, die den Linear-Fächerstrahlsensor-Kollinearitätsgleichungen genügt. Als Nächstes wird der Anfangswert durch die berechnete Bildlinienkoordinate aktualisiert, und die Prozeduren werden fortgesetzt, bis die Differenz zwischen dem Anfangswert und dem neu berechneten Wert kleiner als ein Schwellenwert wird. Wenn die Differenz zwischen dem Anfangswert und dem berechneten Wert kleiner als der Schwellenwert ist, wird der berechnete Wert als Sensorzeile-Koordinate angenommen. Nach dem Auffinden der Sensorzeile-Koordinate wird die Sensorspalte-Koordinate berechnet, die die Linear-Fächerstrahlsensor-Kollinearitätsgleichungen erfüllt.

Description

In dieser Beschreibung bedeuten die Begriffe '2D' und '3D' '2-dimensional' bzw. '3-dimensional'. Ein 'Linear-Fächer­ strahlsensor' ist ein Sensor, der während der Bilderfassung linear verschoben wird und dabei einen Abtaststrahl aussen­ det, der um einen Brennpunkt verschwenkt wird, so dass im zeitlichen Verlauf ein fächerförmiges Strahlenbündel erzeugt wird. Ein derartiger Linear-Fächerstrahlsensor wird nachfol­ gend der Kürze halber als 'Sensor' bezeichnet. Ein Linear- Fächerstrahlsensor-Bild ist ein von einem derartigen Sensor aufgenommenes Bild, das demgemäß über einen Brennpunkt pro Zeile oder pro Teil verfügt. Zur weiteren Erläuterung sei darauf hingewiesen, dass ein perspektivisches Bild über ei­ nen einzelnen Brennpunkt pro Bild verfügt.
Die Erfindung betrifft ein Verfahren zum Transformieren ei­ nes 3D-Objektpunkts in einen 2D-Bildpunkt unter Verwendung von Linear-Fächerstrahlsensoren, genauer gesagt, ein Trans­ formationsverfahren zum Entzerren von Linear-Fächerstrahl­ sensor-Bilder in solcher Weise, dass auf diese eine geome­ trische Bezugnahme möglich ist, und zum Erzeugen geometri­ scher 3D-Information aus Linear-Fächerstrahlsensor-Bildern.
Hinsichtlich perspektivischer Bilder ist das Problem der Abbildung eines 3D-Objektpunkts auf einen 2D-Bildpunkt gut gelöst, und entsprechende Abbildungsverfahren werden in wei­ ter Verbreitung verwendet. Hinsichtlich Linear-Fächerstrahl­ sensor-Bildern wurde jedoch bisher keine robuste numerische Lösung für eine derartige Abbildung herausgefunden.
Eine bekannte Lösung für das eben genannte Problem besteht im sogenannten Newton-Raphson-Verfahren. Dieses Verfahren funktioniert jedoch nur innerhalb eines Bereichs, in dem sich die zu lösende Gleichung monoton verhält, weswegen das Verfahren sehr empfindlich auf Anfangswerte reagiert. In einigen Fällen divergiert das Verfahren oder erzeugt große Fehler. In anderen Fällen arbeitet es zwar, jedoch ist es nicht einfach, geeignete Anfangswerte auszuwählen. Daher kann die Lösung nicht immer auf die Entzerrung von Linear- Fächerstrahlsensor-Bildern oder auf die Erzeugung von 3D- Information aus solchen angewandt werden.
Der Erfindung liegt die Aufgabe zugrunde, ein leistungsfähi­ ges und robustes Verfahren zum Transformieren eines 3D-Ob­ jektpunkts in einen 2D-Bildpunkt für Linear-Fächerstrahlsen­ sor-Bilder zu schaffen.
Diese Aufgabe ist durch das Verfahren gemäß dem beigefügten Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen und Weiter­ bildungen desselben sind Gegenstand der abhängigen Ansprüche 2 und 3.
Die vorstehende Aufgabe sowie weitere Aufgaben, Merkmale und Vorteile der Erfindung werden aus der folgenden detaillier­ ten Beschreibung in Zusammenhang mit den beigefügten Zeich­ nungen besser erkennbar.
Fig. 1 zeigt ein Flussdiagramm zum Veranschaulichen eines Verfahrens zum Transformieren eines Objektpunkts in einen Bildpunkt hinsichtlich eines durch einen Linear-Fächer­ strahlsensor aufgenommenen Linear-Fächerstrahlsensor-Bilds gemäß einem bevorzugten Ausführungsbeispiel der Erfindung.
Fig. 2 und 3 zeigen jeweils ein Diagramm zum Veranschauli­ chen der Theorie, gemäß der das erfindungsgemäße Verfahren arbeitet.
Nun folgt eine detaillierte Beschreibung eines Verfahrens zum Transformieren eines Objektpunkts in einen Bildpunkt hinsichtlich eines durch einen Linear-Fächerstrahlsensor aufgenommenen Linear-Fächerstrahlsensor-Bilds gemäß einem bevorzugten Ausführungsbeispiel der Erfindung. Es ist erfor­ derlich, ein mathematisches Modell auf ein 2D-Koordinaten­ system eines Linear-Fächerstrahlsensor-Bilds und ein Koordi­ natensystem eines 3D-Objekts anzuwenden. Ein derartiges Mo­ dell wird häufig als Sensormodell bezeichnet. Bisher wurden viele Sensormodelle vorgeschlagen, jedoch wird die Erfindung unter Verwendung eines Sensormodells beschrieben, das auf Kollinearitätsgleichungen beruht, wie sie durch die folgen­ den Gleichungen 1 und 2 angegeben sind. Jedoch ist die Er­ findung nicht auf den Gebrauch nur der unten angegebenen Gleichungen beschränkt. Vielmehr funktioniert sie bei allen kollinearitäts-gestützten Sensormodellen für Linear-Fächer­ strahlsensor-Bilder, wobei die mathematische Wiedergabe von den nachfolgenden Gleichungen abweichen kann:
in denen X, Y und Z eine jeweilige Koordinate eines Objekt­ punkts bedeuten; XS, YS und ZS jeweils eine Koordinate des Sensors beim Erfassen eines Bilds des Objekts bedeuten; r11 bis r33 jeweils ein Element einer Rotationsmatrix R bedeu­ ten, die durch die Sensorlage beim Aufnehmen des Bilds des Objekts bestimmt wird; f die Brennweite der Kamera bedeutet und x sowie y jeweils eine Koordinate eines Bildpunkts be­ deuten.
Die Rotationsmatrix R dient zum Rotieren des Bildkoordina­ tensystems, um es zu einem Objekt-Bezugskoordinatensystem auszurichten. Diese Rotationsmatrix R ist durch die folgende Gleichung 3 repräsentiert.
In der Gleichung 3 bedeuten κ, Φ und ω einen jeweiligen Ro­ tationswinkel, der dazu dient, das Bildkoordinatensystem in der Z-, Y- bzw. X-Achse mit dem Bezugskoordinatensystem aus­ zurichten.
Linear-Fächerstrahlsensor-Bilder verfügen über einen Brenn­ punkt pro Zeile oder Teil, und für jede Zeile oder jeden Teil kann eine andere Sensorlage gelten. Daher sind die Po­ sition (Xs, Ys, Zs) des Sensors und die Rotationswinkel κ, Φ und ω durch linerare oder nicht lineare Polynome für eine Koordinate x auf einer Koordinatenachse in der Richtung der Sensorbewegung aus dem Bildkoordinatensystem entsprechend dem Abtastmechanismus repräsentiert.
Gemäß dem Algorithmus der Erfindung ist es möglich, eine Bildkoordinate (x, y) in einem 2D-Koordinatensystem für eine vorgegebene Objektkoordinate (X, Y, Z) in einem 3D-Koordina­ tensystem in einem Linear-Fächerstrahlsensor-Bild unter Ver­ wendung eines kollinearitäts-gestützten Linear-Fächerstrahl­ sensor-Modells, bei dem die Sensorposition und die Lage durch lineare oder nicht lineare Polynome repräsentiert sind, zu berechnen.
Die Prozedur zum Auffinden der Bildkoordinate (x, y) für eine vorgegebene Objektkoordinate (X, Y, Z) in Linear-Fä­ cherstrahlsensor-Bildern ist in zwei Schritte unterteilt: einen zum Auffinden der Koordinate x auf einer ersten Koor­ dinatenachse aus dem Bildkoordinatensystem in der folgenden aus der Gleichung 1 hergeleiteten Gleichung 4; und einen anderen zum Auffinden der Koordinate y auf einer zweiten Koordinatenachse aus dem Bildkoordinatensystem gemäß der Gleichung 2 unter Verwendung der Koordinate x auf der ersten Koordinatenachse:
0 = r11(X - XS) + r21(Y - YS) + r31(Z - ZS) (4)
In der Gleichung 4 sind die Sensorpositionskoordinaten Xs, Ys und Zs durch lineare oder nicht lineare Polynome der Ko­ ordinate x auf der ersten Koordinatenachse gemäß dem Abtast­ mechanismus repräsentiert, und r11, r21 und r31 sind Kombi­ nationen aus Sinus- und Cosinusfunktionen zur Sensorlage, d. h. betreffend die Rotationswinkel κ, Φ und ω, die durch eine lineare oder eine nicht lineare Funktion der Koordinate x auf der ersten Koordinatenachse repräsentiert sind. Daher ist die Gleichung 4 eine nicht lineare Gleichung für die Koordinate x auf der ersten Koordinatenachse.
Durch das bisherige Verfahren zum Lösen der Gleichung 4 wird die Koordinate x auf der ersten Koordinatenachse unter Ver­ wendung des Newton-Raphson-Verfahrens dadurch herausgefun­ den, dass für diese Koordinate x ein Anfangswert angenommen wird. Jedoch ist es gut bekannt, dass das Newton-Raphson- Verfahren nur innerhalb eines Bereichs funktioniert, in dem die zu lösende Gleichung monoton variiert, weswegen dieses Verfahren sehr empfindlich vom Anfangswert abhängt. Es ist schwierig, vorab monotone Bereiche der Gleichung 4 aufzufin­ den und einen Anfangswert für die Koordinate x auf der ers­ ten Koordinatenachse so herauszufinden, dass er in einem solchen Bereich liegt.
Durch die Erfindung wird eine Vorgehensweise vorgeschlagen, bei der die Koordinate x auf der ersten Koordinatenachse dadurch aufgefunden wird, dass die Gleichung 4 durch die folgenden neuen Prozeduren gelöst wird.
Als Erstes wird in einem in Fig. 1 dargestellten Schritt S11 ein Anfangswert x0 der Koordinate x auf der ersten Koordina­ tenachse angenommen, im nächsten Schritt S12 werden die Sen­ sor-Rotationswinkel κ, Φ und ω, unter Verwendung des Anfangs­ werts x0 berechnet, und dann wird die Rotationsmatrix (r11, r21, r31) im nächsten Schritt S13 unter Verwendung dieser Sensor-Rotationswinkel κ, Φ und ω berechnet.
Wenn die Rotationsmatrix (r11, r21, r31) konstant gemacht wird, d. h., wenn die Sensorlage nicht variiert wird, kann die Gleichung 4 durch eine lineare oder nicht lineare Glei­ chung von x entsprechend der Sensorplattform (Xs, Ys, Zs) vereinfacht werden.
Durch Lösen dieser vereinfachten Gleichung für die Koordina­ te x auf der ersten Koordinatenachse wird in einem nächsten Schritt S14 eine vorläufige Koordinate x1 auf der ersten Koordinatenachse neu erhalten.
Als Nächstes wird die Differenz zwischen dem Anfangswert x0 und der vorläufigen Koordinate x1 berechnet. Nach einem Ver­ gleich der Differenz mit einem vorgegebenen Schwellenwert im nächsten Schritt S15 wird die vorläufige Koordinate x1 im nächsten Schritt S17 als endgültige Koordinate auf der ers­ ten Koordinatenachse bestimmt, wenn die Differenz den vorge­ gebenen Schwellenwert nicht überschreitet. Jedoch sind die Schritte S12 bis S15 zu wiederholen, wenn die Differenz den vorgegebenen Schwellenwert überschreitet, während im nächs­ ten Schritt S17 der Anfangswert x0 durch die vorläufige Ko­ ordinate x1 ersetzt wird. Dies wird wiederholt, bis die Dif­ ferenz den vorgegebenen Schwellenwert nicht überschreitet.
Schließlich wird eine Koordinate y auf einer zweiten Koordi­ natenachse rechtwinklig zur Sensorbewegung im Bildkoordina­ tensystem durch Lösen der Gleichung 2 unter Verwendung der endgültigen Koordinate auf der ersten Koordinatenachse, die in den vorigen Schritten berechnet wurde, im nächsten Schritt S18 erhalten.
Nun erfolgt eine detailliertere Erläuterung zum in Fig. 1 dargestellten Flussdiagramm. Als Erstes wird die Iterations­ zahl i auf Null gesetzt und im Schritt S11 wird xi ein An­ fangswert zugeordnet. Als Nächstes werden, unter Verwendung von xi, die Sensorlage, d. h. die Rotationswinkel κ, Φ und ω im Schritt S12 berechnet, und im Schritt S13 werden Parame­ ter der Rotationsmatrix (r11, r21, r31) berechnet. Dann wird unter der Annahme, dass die Rotationsmatrix (r11, r21, r31) konstant ist, die Gleichung 4 gelöst, um im Schritt S14 xi+1 zu erhalten, und im Schritt S15 wird die Differenz zwischen xi und xi+1 mit einem vorgegebenen Schwellenwert verglichen. Wenn die Differenz den vorgegebenen Schwellenwert über­ schreitet, wird die Iterationszahl i im Schritt S16 um 1 erhöht, und die vorstehend genannten Schritte werden ab dem Schritt S12 wiederholt. Wenn die Differenz den vorgegebenen Schwellenwert nicht überschreitet, wird der im Schritt S14 im aktuellen Umlauf erhaltene Wert xi+1 als Lösung für die Koordinate x auf der ersten Koordinatenachse, die die Glei­ chung 4 erfüllt, akzeptiert. Wenn die Lösung für die Koordi­ nate x auf der ersten Koordinatenachse einmal erhalten ist, wird im Schritt S18 die Koordinate y auf der zweiten Koordi­ natenachse unter Verwendung der Gleichung 2 berechnet.
Das Prinzip des bei der Erfindung verwendeten Algorithmus kann anhand der Fig. 2 und 3 veranschaulicht werden.
Fig. 2 zeigt den Laufweg der Plattform (oder des Sensors), Bildaufnahmespuren auf einer Objektfläche an einer vorgege­ benen Position sowie einen Objektpunkt A. In den Schritten S12 und S13 werden die Lage der Plattform und die Elemente der Rotationsmatrix nach der Annahme eines Anfangswerts x0 berechnet. Dies entspricht dem Festlegen der Kamera (oder Sensor)achse auf x0, wie in der Figur dargestellt. Die Bild­ aufnahmespur bei x0 enthält den Objektpunkt A nicht, da x0 nicht die richtige Lösung ist, nach der gesucht wird.
Im Schritt S14 werden die Elemente der Rotationsmatrix je­ weils als konstant angesehen, und die Koordinate x1 wird dadurch aufgefunden, dass die vereinfachte Gleichung 4 ge­ löst wird. Dies entspricht der Annahme, dass die Lage der Plattform bei x0 während des ganzen Laufwegs gilt, und die Position der Plattform wird so verschoben, dass die Bildauf­ nahmespur auf der Objektfläche den Objektpunkt A enthält.
Jedoch unterscheidet sich, wie es in Fig. 3 veranschaulicht ist, die tatsächliche Lage der Plattform bei x1 von der Lage bei x0, und die richtige Bildaufnahmespur bei x1 enthält den Objektpunkt A nicht. In den Schritten S15 bis S16 wird der Anfangswert durch x1 aktualisiert, und es wird mit dem Schritt S12 fortgefahren. Dies entspricht einer Aktualisie­ rung der Lage der Plattform bei x1 durch die echte Lage, wobei die Prozeduren gemäß Fig. 2 iteriert werden, bis die Bildaufnahmespur auf der Objektfläche bei x1 die Lage bei x0 einnimmt und die richtige Bildaufnahmespur bei x1 konver­ giert und beide den Objektpunkt A enthalten.
Die Aufgabe der Erfindung besteht darin, das Problem der Transformation eines 3D-Objektpunkts auf einen 2D-Bildpunkt für ein Linear-Fächerstrahlsensor-Bild auf das Problem zu­ rückzuführen, eine vereinfachte Gleichung unter der Annahme zu lösen, dass die Lage der Plattform konstant ist. Die Er­ findung arbeitet unabhängig von der Wahl des Anfangswerts und konvergiert schnell auf die richtige Lösung.
Die obige Erläuterung arbeitet das Prinzip des erfindungsge­ mäßen Verfahrens durch einige Beispiele heraus. Jedoch ist durch die obige Erläuterung der Schutzumfang der Erfindung nicht beschränkt, sondern alle Variationen oder Abweichungen von der obigen Erläuterung sollen im Schutzumfang der Erfin­ dung enthalten sein.
Gemäß der Erfindung können 3D-Objektkoordinaten unmittelbar auf 2D-Bildkoordinaten für Linear-Fächerstrahlsensor-Bilder abgebildet werden. Dies ermöglicht eine schnellere Entzer­ rung von Linear-Fächerstrahlsensor-Bildern und verbessert die Genauigkeit. Auch ermöglicht die Erfindung die schnelle und genaue Entnahme von 3D-Information aus Linear-Fächer­ strahlsensor-Bildern.

Claims (4)

1. Verfahren zum Transformieren eines Objektpunkts in ei­ nem 3D-Koordinatensystem in einen Bildpunkt hinsichtlich eines durch einen Linear-Fächerstrahlsensor aufgenommenen Linear-Fächerstrahlsensor-Bilds mit Repräsentation in einem 2D-Koordinatensystem, mit den folgenden Schritten:
  • - Aufstellen von Kollinearitätsgleichungen in Beziehung zum Objektpunkt und zum Bildpunkt für das Linear-Fächerstrahl­ sensor-Bild;
  • - Annehmen einer Anfangskoordinate auf einer ersten Ko­ ordinatenachse im 2D-Koordinatensystem und Berechnen der Lage des Linear-Fächerstrahlsensors unter Verwendung dieser Anfangskoordinate;
  • - Erhalten einer vorläufigen Koordinate durch Lösen der Kol­ linearitätsgleichung unter der Annahme, dass der Linear- Fächerstrahlsensor die berechnete konstante Lage beibehält;
  • - Berechnen der Differenz zwischen der Anfangskoordinate und der vorläufigen Koordinate;
  • - Vergleichen der Differenz mit einem vorgegebenen Schwel­ lenwert;
  • - Wiederholen des Schritts zum Berechnen der Lage mittels des Differenzvergleichsschritts unter Annahme der vorläufi­ gen Koordinate als Anfangskoordinate, wenn die Differenz den vorgegebenen Schwellenwert überschreitet;
  • - Festlegen der vorläufigen Koordinate als endgültige Koor­ dinate auf der ersten Koordinatenachse, wenn die Differenz den vorgegebenen Schwellenwert nicht überschreitet; und
  • - Erhalten einer Koordinate auf einer zweiten Koordinaten­ achse im 2D-Koordinatensystem durch Lösen der Kollineari­ tätsgleichungen unter Verwendung der endgültigen Koordinate auf der ersten Koordinatenachse.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Kollinearitätsgleichungen wie folgt aufgestellt sind:
in denen X, Y und Z eine jeweilige Koordinate eines Objekt­ punkts bedeuten; XS, YS und ZS jeweils eine Koordinate des Sensors beim Erfassen eines Bilds des Objekts bedeuten; r11 bis r33 jeweils ein Element einer Rotationsmatrix R bedeu­ ten, die durch die Sensorlage beim Aufnehmen des Bilds des Objekts bestimmt wird; f die Brennweite der Kamera bedeutet und x sowie y jeweils eine Koordinate eines Bildpunkts be­ deuten.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Schritt zum Erhalten der vorläufigen Koordinate Unter­ schritte für Folgendes aufweist:
Berechnen von Elementen der Rotationsmatrix R unter Ver­ wendung der Lage des Linear-Fächerstrahlsensors; und
Lösen der Kollinearitätsgleichung unter Verwendung dieser Elemente der Rotationsmatrix R.
4. Maschinenlesbarer Datenträger, auf dem ein Programm aufgezeichnet ist, dadurch gekennzeichnet, dass das Programm so beschaffen ist, dass es für die Ausführung des Verfahrens gemäß einem der vorstehenden Ansprüche sorgt.
DE10042387A 2000-08-16 2000-08-29 Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder Ceased DE10042387A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0047224A KR100374509B1 (ko) 2000-08-16 2000-08-16 선형 푸시브룸 영상에서 3차원 지상점의 2차원 영상 좌표값을 구하는 방법 및 기록매체

Publications (1)

Publication Number Publication Date
DE10042387A1 true DE10042387A1 (de) 2002-03-14

Family

ID=19683310

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10042387A Ceased DE10042387A1 (de) 2000-08-16 2000-08-29 Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder

Country Status (4)

Country Link
US (1) US6633665B1 (de)
KR (1) KR100374509B1 (de)
CA (1) CA2317035C (de)
DE (1) DE10042387A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100376962B1 (ko) * 2000-08-21 2003-03-26 한국과학기술원 선형 푸시브룸센서에서 촬영한 스테레오 영상의 에피폴라특성곡선 추출방법
KR100519054B1 (ko) * 2002-12-18 2005-10-06 한국과학기술원 기하학적으로 왜곡된 위성영상을 정밀 보정하는 방법 및기록매체
JP5058686B2 (ja) * 2007-06-14 2012-10-24 キヤノン株式会社 情報処理方法及び情報処理装置
KR101020117B1 (ko) * 2010-08-31 2011-03-08 한진정보통신(주) 선형푸쉬브룸방식의 스트립영상 편집 시스템 및 그 방법
KR101690950B1 (ko) * 2015-11-19 2016-12-29 국방과학연구소 최소 기준점을 이용한 푸시브롬 스캔 방식 스트립 위성영상의 기하보정 방법 및 이의 시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5559334A (en) * 1995-05-22 1996-09-24 General Electric Company Epipolar reconstruction of 3D structures
US6028606A (en) * 1996-08-02 2000-02-22 The Board Of Trustees Of The Leland Stanford Junior University Camera simulation system
JPH11213178A (ja) * 1998-01-21 1999-08-06 Shinko Electric Co Ltd 3次元データ表示装置および3次元データ変換プログラムを記録した記録媒体
US6556195B1 (en) * 1998-06-02 2003-04-29 Sony Corporation Image processing device and image processing method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NING, S.: Restitution geometrique des images spatiales par la methode de lCÑquation de colinÑaritÑ, Bulletin Societe Francaise de Photogrammetrie et de Teledetection (1987) No. 105, p. 27-40 *
WERNSTEDT, J.: Experimentelle Prozeßanalyse, Verlag Technik Berlin, 1989, S. 198-206, 212-216, 222-228 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts

Also Published As

Publication number Publication date
US6633665B1 (en) 2003-10-14
KR20020014123A (ko) 2002-02-25
KR100374509B1 (ko) 2003-03-04
CA2317035A1 (en) 2002-02-16
CA2317035C (en) 2008-07-22

Similar Documents

Publication Publication Date Title
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE112010004767B4 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE69726025T2 (de) Verfahren und vorrichtung zum erhalten einer dreidimensionalen form
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE102007054906B4 (de) Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
DE69413384T2 (de) Verfahren zum bestimmen der ungleichheit zwischen monoskopischen bildern, die ein stereoskopisches bild darstellen
DE69226512T2 (de) Verfahren zur Bildverarbeitung
DE19928341A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE4444593A1 (de) Entfernungsmeßvorrichtung
DE69833813T2 (de) Vorrichtung zur Korrespondenzsuche in einem Bildpaar
DE102019207448A1 (de) Simultane Lokalisierung und Kartenerstellung in 2D unter Verwendung eines 3D-Scanners
DE112017003426T5 (de) Verfahren und System zum Rekonstruieren einer dreidimensionalen Darstellung
EP3420531A1 (de) Verfahren und bildverarbeitungsvorrichtung zur bestimmung einer geometrischen messgrösse eines objektes
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
DE10042387A1 (de) Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
WO2016202562A1 (de) Streifenprojetionsverfahren, streifenprojektionsvorrichtung und computerprogrammprodukt
EP3214602B1 (de) Verfahren zur dreidimensionalen erfassung von objekten
EP3174010A2 (de) Verfahren zur erstellung einer 3d-repräsentation und korrespondierende bildaufnahmevorrichtung
DE102021109386B4 (de) Verfahren zur Korrektur von Tiefenbildern einer Lichtlaufzeitkamera
EP3142068B1 (de) Verfahren zur dreidimensionalen erfassung von objekten
DE19627938B4 (de) Verfahren zur dynamischen Spurverfolgung in Bewegtbildsequenzen
DE69310695T2 (de) Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection