DE10042387A1 - Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder - Google Patents
Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-BilderInfo
- Publication number
- DE10042387A1 DE10042387A1 DE10042387A DE10042387A DE10042387A1 DE 10042387 A1 DE10042387 A1 DE 10042387A1 DE 10042387 A DE10042387 A DE 10042387A DE 10042387 A DE10042387 A DE 10042387A DE 10042387 A1 DE10042387 A1 DE 10042387A1
- Authority
- DE
- Germany
- Prior art keywords
- coordinate
- fan beam
- beam sensor
- linear
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
- G01C11/025—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Durch die Erfindung ist ein Verfahren zum Transformieren von 3-D-Objektpunkten in 2-D-Bildpunkte für Linear-Fächerstrahlsensor-Bilder geschaffen. Das Transformationsproblem wird in das Problem des Auffindens von Sensorzeile-Koordinaten und das Problem des Auffindens von Sensorspalte-Koordinaten aus Linear-Fächerstrahlsensor-Kollinearitätsgleichungen zerlegt. Die Prozeduren zum Lösen des Problems sind die folgenden. Als Erstes wird ein Anfangswert für eine aufzusuchende Bildlinienkoordinate angenommen, und unter Verwendung dieses Werts wird die Sensorlage berechnet. Als Nächstes wird die Sensorlage als konstant angenommen und es wird eine neue Bildlinienkoordinate berechnet, die den Linear-Fächerstrahlsensor-Kollinearitätsgleichungen genügt. Als Nächstes wird der Anfangswert durch die berechnete Bildlinienkoordinate aktualisiert, und die Prozeduren werden fortgesetzt, bis die Differenz zwischen dem Anfangswert und dem neu berechneten Wert kleiner als ein Schwellenwert wird. Wenn die Differenz zwischen dem Anfangswert und dem berechneten Wert kleiner als der Schwellenwert ist, wird der berechnete Wert als Sensorzeile-Koordinate angenommen. Nach dem Auffinden der Sensorzeile-Koordinate wird die Sensorspalte-Koordinate berechnet, die die Linear-Fächerstrahlsensor-Kollinearitätsgleichungen erfüllt.
Description
In dieser Beschreibung bedeuten die Begriffe '2D' und '3D'
'2-dimensional' bzw. '3-dimensional'. Ein 'Linear-Fächer
strahlsensor' ist ein Sensor, der während der Bilderfassung
linear verschoben wird und dabei einen Abtaststrahl aussen
det, der um einen Brennpunkt verschwenkt wird, so dass im
zeitlichen Verlauf ein fächerförmiges Strahlenbündel erzeugt
wird. Ein derartiger Linear-Fächerstrahlsensor wird nachfol
gend der Kürze halber als 'Sensor' bezeichnet. Ein Linear-
Fächerstrahlsensor-Bild ist ein von einem derartigen Sensor
aufgenommenes Bild, das demgemäß über einen Brennpunkt pro
Zeile oder pro Teil verfügt. Zur weiteren Erläuterung sei
darauf hingewiesen, dass ein perspektivisches Bild über ei
nen einzelnen Brennpunkt pro Bild verfügt.
Die Erfindung betrifft ein Verfahren zum Transformieren ei
nes 3D-Objektpunkts in einen 2D-Bildpunkt unter Verwendung
von Linear-Fächerstrahlsensoren, genauer gesagt, ein Trans
formationsverfahren zum Entzerren von Linear-Fächerstrahl
sensor-Bilder in solcher Weise, dass auf diese eine geome
trische Bezugnahme möglich ist, und zum Erzeugen geometri
scher 3D-Information aus Linear-Fächerstrahlsensor-Bildern.
Hinsichtlich perspektivischer Bilder ist das Problem der
Abbildung eines 3D-Objektpunkts auf einen 2D-Bildpunkt gut
gelöst, und entsprechende Abbildungsverfahren werden in wei
ter Verbreitung verwendet. Hinsichtlich Linear-Fächerstrahl
sensor-Bildern wurde jedoch bisher keine robuste numerische
Lösung für eine derartige Abbildung herausgefunden.
Eine bekannte Lösung für das eben genannte Problem besteht
im sogenannten Newton-Raphson-Verfahren. Dieses Verfahren
funktioniert jedoch nur innerhalb eines Bereichs, in dem
sich die zu lösende Gleichung monoton verhält, weswegen das
Verfahren sehr empfindlich auf Anfangswerte reagiert. In
einigen Fällen divergiert das Verfahren oder erzeugt große
Fehler. In anderen Fällen arbeitet es zwar, jedoch ist es
nicht einfach, geeignete Anfangswerte auszuwählen. Daher
kann die Lösung nicht immer auf die Entzerrung von Linear-
Fächerstrahlsensor-Bildern oder auf die Erzeugung von 3D-
Information aus solchen angewandt werden.
Der Erfindung liegt die Aufgabe zugrunde, ein leistungsfähi
ges und robustes Verfahren zum Transformieren eines 3D-Ob
jektpunkts in einen 2D-Bildpunkt für Linear-Fächerstrahlsen
sor-Bilder zu schaffen.
Diese Aufgabe ist durch das Verfahren gemäß dem beigefügten
Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen und Weiter
bildungen desselben sind Gegenstand der abhängigen Ansprüche
2 und 3.
Die vorstehende Aufgabe sowie weitere Aufgaben, Merkmale und
Vorteile der Erfindung werden aus der folgenden detaillier
ten Beschreibung in Zusammenhang mit den beigefügten Zeich
nungen besser erkennbar.
Fig. 1 zeigt ein Flussdiagramm zum Veranschaulichen eines
Verfahrens zum Transformieren eines Objektpunkts in einen
Bildpunkt hinsichtlich eines durch einen Linear-Fächer
strahlsensor aufgenommenen Linear-Fächerstrahlsensor-Bilds
gemäß einem bevorzugten Ausführungsbeispiel der Erfindung.
Fig. 2 und 3 zeigen jeweils ein Diagramm zum Veranschauli
chen der Theorie, gemäß der das erfindungsgemäße Verfahren
arbeitet.
Nun folgt eine detaillierte Beschreibung eines Verfahrens
zum Transformieren eines Objektpunkts in einen Bildpunkt
hinsichtlich eines durch einen Linear-Fächerstrahlsensor
aufgenommenen Linear-Fächerstrahlsensor-Bilds gemäß einem
bevorzugten Ausführungsbeispiel der Erfindung. Es ist erfor
derlich, ein mathematisches Modell auf ein 2D-Koordinaten
system eines Linear-Fächerstrahlsensor-Bilds und ein Koordi
natensystem eines 3D-Objekts anzuwenden. Ein derartiges Mo
dell wird häufig als Sensormodell bezeichnet. Bisher wurden
viele Sensormodelle vorgeschlagen, jedoch wird die Erfindung
unter Verwendung eines Sensormodells beschrieben, das auf
Kollinearitätsgleichungen beruht, wie sie durch die folgen
den Gleichungen 1 und 2 angegeben sind. Jedoch ist die Er
findung nicht auf den Gebrauch nur der unten angegebenen
Gleichungen beschränkt. Vielmehr funktioniert sie bei allen
kollinearitäts-gestützten Sensormodellen für Linear-Fächer
strahlsensor-Bilder, wobei die mathematische Wiedergabe von
den nachfolgenden Gleichungen abweichen kann:
in denen X, Y und Z eine jeweilige Koordinate eines Objekt
punkts bedeuten; XS, YS und ZS jeweils eine Koordinate des
Sensors beim Erfassen eines Bilds des Objekts bedeuten; r11
bis r33 jeweils ein Element einer Rotationsmatrix R bedeu
ten, die durch die Sensorlage beim Aufnehmen des Bilds des
Objekts bestimmt wird; f die Brennweite der Kamera bedeutet
und x sowie y jeweils eine Koordinate eines Bildpunkts be
deuten.
Die Rotationsmatrix R dient zum Rotieren des Bildkoordina
tensystems, um es zu einem Objekt-Bezugskoordinatensystem
auszurichten. Diese Rotationsmatrix R ist durch die folgende
Gleichung 3 repräsentiert.
In der Gleichung 3 bedeuten κ, Φ und ω einen jeweiligen Ro
tationswinkel, der dazu dient, das Bildkoordinatensystem in
der Z-, Y- bzw. X-Achse mit dem Bezugskoordinatensystem aus
zurichten.
Linear-Fächerstrahlsensor-Bilder verfügen über einen Brenn
punkt pro Zeile oder Teil, und für jede Zeile oder jeden
Teil kann eine andere Sensorlage gelten. Daher sind die Po
sition (Xs, Ys, Zs) des Sensors und die Rotationswinkel κ, Φ
und ω durch linerare oder nicht lineare Polynome für eine
Koordinate x auf einer Koordinatenachse in der Richtung der
Sensorbewegung aus dem Bildkoordinatensystem entsprechend
dem Abtastmechanismus repräsentiert.
Gemäß dem Algorithmus der Erfindung ist es möglich, eine
Bildkoordinate (x, y) in einem 2D-Koordinatensystem für eine
vorgegebene Objektkoordinate (X, Y, Z) in einem 3D-Koordina
tensystem in einem Linear-Fächerstrahlsensor-Bild unter Ver
wendung eines kollinearitäts-gestützten Linear-Fächerstrahl
sensor-Modells, bei dem die Sensorposition und die Lage
durch lineare oder nicht lineare Polynome repräsentiert
sind, zu berechnen.
Die Prozedur zum Auffinden der Bildkoordinate (x, y) für
eine vorgegebene Objektkoordinate (X, Y, Z) in Linear-Fä
cherstrahlsensor-Bildern ist in zwei Schritte unterteilt:
einen zum Auffinden der Koordinate x auf einer ersten Koor
dinatenachse aus dem Bildkoordinatensystem in der folgenden
aus der Gleichung 1 hergeleiteten Gleichung 4; und einen
anderen zum Auffinden der Koordinate y auf einer zweiten
Koordinatenachse aus dem Bildkoordinatensystem gemäß der
Gleichung 2 unter Verwendung der Koordinate x auf der ersten
Koordinatenachse:
0 = r11(X - XS) + r21(Y - YS) + r31(Z - ZS) (4)
In der Gleichung 4 sind die Sensorpositionskoordinaten Xs,
Ys und Zs durch lineare oder nicht lineare Polynome der Ko
ordinate x auf der ersten Koordinatenachse gemäß dem Abtast
mechanismus repräsentiert, und r11, r21 und r31 sind Kombi
nationen aus Sinus- und Cosinusfunktionen zur Sensorlage,
d. h. betreffend die Rotationswinkel κ, Φ und ω, die durch
eine lineare oder eine nicht lineare Funktion der Koordinate
x auf der ersten Koordinatenachse repräsentiert sind. Daher
ist die Gleichung 4 eine nicht lineare Gleichung für die
Koordinate x auf der ersten Koordinatenachse.
Durch das bisherige Verfahren zum Lösen der Gleichung 4 wird
die Koordinate x auf der ersten Koordinatenachse unter Ver
wendung des Newton-Raphson-Verfahrens dadurch herausgefun
den, dass für diese Koordinate x ein Anfangswert angenommen
wird. Jedoch ist es gut bekannt, dass das Newton-Raphson-
Verfahren nur innerhalb eines Bereichs funktioniert, in dem
die zu lösende Gleichung monoton variiert, weswegen dieses
Verfahren sehr empfindlich vom Anfangswert abhängt. Es ist
schwierig, vorab monotone Bereiche der Gleichung 4 aufzufin
den und einen Anfangswert für die Koordinate x auf der ers
ten Koordinatenachse so herauszufinden, dass er in einem
solchen Bereich liegt.
Durch die Erfindung wird eine Vorgehensweise vorgeschlagen,
bei der die Koordinate x auf der ersten Koordinatenachse
dadurch aufgefunden wird, dass die Gleichung 4 durch die
folgenden neuen Prozeduren gelöst wird.
Als Erstes wird in einem in Fig. 1 dargestellten Schritt S11
ein Anfangswert x0 der Koordinate x auf der ersten Koordina
tenachse angenommen, im nächsten Schritt S12 werden die Sen
sor-Rotationswinkel κ, Φ und ω, unter Verwendung des Anfangs
werts x0 berechnet, und dann wird die Rotationsmatrix (r11,
r21, r31) im nächsten Schritt S13 unter Verwendung dieser
Sensor-Rotationswinkel κ, Φ und ω berechnet.
Wenn die Rotationsmatrix (r11, r21, r31) konstant gemacht
wird, d. h., wenn die Sensorlage nicht variiert wird, kann
die Gleichung 4 durch eine lineare oder nicht lineare Glei
chung von x entsprechend der Sensorplattform (Xs, Ys, Zs)
vereinfacht werden.
Durch Lösen dieser vereinfachten Gleichung für die Koordina
te x auf der ersten Koordinatenachse wird in einem nächsten
Schritt S14 eine vorläufige Koordinate x1 auf der ersten
Koordinatenachse neu erhalten.
Als Nächstes wird die Differenz zwischen dem Anfangswert x0
und der vorläufigen Koordinate x1 berechnet. Nach einem Ver
gleich der Differenz mit einem vorgegebenen Schwellenwert im
nächsten Schritt S15 wird die vorläufige Koordinate x1 im
nächsten Schritt S17 als endgültige Koordinate auf der ers
ten Koordinatenachse bestimmt, wenn die Differenz den vorge
gebenen Schwellenwert nicht überschreitet. Jedoch sind die
Schritte S12 bis S15 zu wiederholen, wenn die Differenz den
vorgegebenen Schwellenwert überschreitet, während im nächs
ten Schritt S17 der Anfangswert x0 durch die vorläufige Ko
ordinate x1 ersetzt wird. Dies wird wiederholt, bis die Dif
ferenz den vorgegebenen Schwellenwert nicht überschreitet.
Schließlich wird eine Koordinate y auf einer zweiten Koordi
natenachse rechtwinklig zur Sensorbewegung im Bildkoordina
tensystem durch Lösen der Gleichung 2 unter Verwendung der
endgültigen Koordinate auf der ersten Koordinatenachse, die
in den vorigen Schritten berechnet wurde, im nächsten
Schritt S18 erhalten.
Nun erfolgt eine detailliertere Erläuterung zum in Fig. 1
dargestellten Flussdiagramm. Als Erstes wird die Iterations
zahl i auf Null gesetzt und im Schritt S11 wird xi ein An
fangswert zugeordnet. Als Nächstes werden, unter Verwendung
von xi, die Sensorlage, d. h. die Rotationswinkel κ, Φ und ω
im Schritt S12 berechnet, und im Schritt S13 werden Parame
ter der Rotationsmatrix (r11, r21, r31) berechnet. Dann wird
unter der Annahme, dass die Rotationsmatrix (r11, r21, r31)
konstant ist, die Gleichung 4 gelöst, um im Schritt S14 xi+1
zu erhalten, und im Schritt S15 wird die Differenz zwischen
xi und xi+1 mit einem vorgegebenen Schwellenwert verglichen.
Wenn die Differenz den vorgegebenen Schwellenwert über
schreitet, wird die Iterationszahl i im Schritt S16 um 1
erhöht, und die vorstehend genannten Schritte werden ab dem
Schritt S12 wiederholt. Wenn die Differenz den vorgegebenen
Schwellenwert nicht überschreitet, wird der im Schritt S14
im aktuellen Umlauf erhaltene Wert xi+1 als Lösung für die
Koordinate x auf der ersten Koordinatenachse, die die Glei
chung 4 erfüllt, akzeptiert. Wenn die Lösung für die Koordi
nate x auf der ersten Koordinatenachse einmal erhalten ist,
wird im Schritt S18 die Koordinate y auf der zweiten Koordi
natenachse unter Verwendung der Gleichung 2 berechnet.
Das Prinzip des bei der Erfindung verwendeten Algorithmus
kann anhand der Fig. 2 und 3 veranschaulicht werden.
Fig. 2 zeigt den Laufweg der Plattform (oder des Sensors),
Bildaufnahmespuren auf einer Objektfläche an einer vorgege
benen Position sowie einen Objektpunkt A. In den Schritten
S12 und S13 werden die Lage der Plattform und die Elemente
der Rotationsmatrix nach der Annahme eines Anfangswerts x0
berechnet. Dies entspricht dem Festlegen der Kamera (oder
Sensor)achse auf x0, wie in der Figur dargestellt. Die Bild
aufnahmespur bei x0 enthält den Objektpunkt A nicht, da x0
nicht die richtige Lösung ist, nach der gesucht wird.
Im Schritt S14 werden die Elemente der Rotationsmatrix je
weils als konstant angesehen, und die Koordinate x1 wird
dadurch aufgefunden, dass die vereinfachte Gleichung 4 ge
löst wird. Dies entspricht der Annahme, dass die Lage der
Plattform bei x0 während des ganzen Laufwegs gilt, und die
Position der Plattform wird so verschoben, dass die Bildauf
nahmespur auf der Objektfläche den Objektpunkt A enthält.
Jedoch unterscheidet sich, wie es in Fig. 3 veranschaulicht
ist, die tatsächliche Lage der Plattform bei x1 von der Lage
bei x0, und die richtige Bildaufnahmespur bei x1 enthält den
Objektpunkt A nicht. In den Schritten S15 bis S16 wird der
Anfangswert durch x1 aktualisiert, und es wird mit dem
Schritt S12 fortgefahren. Dies entspricht einer Aktualisie
rung der Lage der Plattform bei x1 durch die echte Lage,
wobei die Prozeduren gemäß Fig. 2 iteriert werden, bis die
Bildaufnahmespur auf der Objektfläche bei x1 die Lage bei x0
einnimmt und die richtige Bildaufnahmespur bei x1 konver
giert und beide den Objektpunkt A enthalten.
Die Aufgabe der Erfindung besteht darin, das Problem der
Transformation eines 3D-Objektpunkts auf einen 2D-Bildpunkt
für ein Linear-Fächerstrahlsensor-Bild auf das Problem zu
rückzuführen, eine vereinfachte Gleichung unter der Annahme
zu lösen, dass die Lage der Plattform konstant ist. Die Er
findung arbeitet unabhängig von der Wahl des Anfangswerts
und konvergiert schnell auf die richtige Lösung.
Die obige Erläuterung arbeitet das Prinzip des erfindungsge
mäßen Verfahrens durch einige Beispiele heraus. Jedoch ist
durch die obige Erläuterung der Schutzumfang der Erfindung
nicht beschränkt, sondern alle Variationen oder Abweichungen
von der obigen Erläuterung sollen im Schutzumfang der Erfin
dung enthalten sein.
Gemäß der Erfindung können 3D-Objektkoordinaten unmittelbar
auf 2D-Bildkoordinaten für Linear-Fächerstrahlsensor-Bilder
abgebildet werden. Dies ermöglicht eine schnellere Entzer
rung von Linear-Fächerstrahlsensor-Bildern und verbessert
die Genauigkeit. Auch ermöglicht die Erfindung die schnelle
und genaue Entnahme von 3D-Information aus Linear-Fächer
strahlsensor-Bildern.
Claims (4)
1. Verfahren zum Transformieren eines Objektpunkts in ei
nem 3D-Koordinatensystem in einen Bildpunkt hinsichtlich
eines durch einen Linear-Fächerstrahlsensor aufgenommenen
Linear-Fächerstrahlsensor-Bilds mit Repräsentation in einem
2D-Koordinatensystem, mit den folgenden Schritten:
- - Aufstellen von Kollinearitätsgleichungen in Beziehung zum Objektpunkt und zum Bildpunkt für das Linear-Fächerstrahl sensor-Bild;
- - Annehmen einer Anfangskoordinate auf einer ersten Ko ordinatenachse im 2D-Koordinatensystem und Berechnen der Lage des Linear-Fächerstrahlsensors unter Verwendung dieser Anfangskoordinate;
- - Erhalten einer vorläufigen Koordinate durch Lösen der Kol linearitätsgleichung unter der Annahme, dass der Linear- Fächerstrahlsensor die berechnete konstante Lage beibehält;
- - Berechnen der Differenz zwischen der Anfangskoordinate und der vorläufigen Koordinate;
- - Vergleichen der Differenz mit einem vorgegebenen Schwel lenwert;
- - Wiederholen des Schritts zum Berechnen der Lage mittels des Differenzvergleichsschritts unter Annahme der vorläufi gen Koordinate als Anfangskoordinate, wenn die Differenz den vorgegebenen Schwellenwert überschreitet;
- - Festlegen der vorläufigen Koordinate als endgültige Koor dinate auf der ersten Koordinatenachse, wenn die Differenz den vorgegebenen Schwellenwert nicht überschreitet; und
- - Erhalten einer Koordinate auf einer zweiten Koordinaten achse im 2D-Koordinatensystem durch Lösen der Kollineari tätsgleichungen unter Verwendung der endgültigen Koordinate auf der ersten Koordinatenachse.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass
die Kollinearitätsgleichungen wie folgt aufgestellt sind:
in denen X, Y und Z eine jeweilige Koordinate eines Objekt punkts bedeuten; XS, YS und ZS jeweils eine Koordinate des Sensors beim Erfassen eines Bilds des Objekts bedeuten; r11 bis r33 jeweils ein Element einer Rotationsmatrix R bedeu ten, die durch die Sensorlage beim Aufnehmen des Bilds des Objekts bestimmt wird; f die Brennweite der Kamera bedeutet und x sowie y jeweils eine Koordinate eines Bildpunkts be deuten.
in denen X, Y und Z eine jeweilige Koordinate eines Objekt punkts bedeuten; XS, YS und ZS jeweils eine Koordinate des Sensors beim Erfassen eines Bilds des Objekts bedeuten; r11 bis r33 jeweils ein Element einer Rotationsmatrix R bedeu ten, die durch die Sensorlage beim Aufnehmen des Bilds des Objekts bestimmt wird; f die Brennweite der Kamera bedeutet und x sowie y jeweils eine Koordinate eines Bildpunkts be deuten.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass
der Schritt zum Erhalten der vorläufigen Koordinate Unter
schritte für Folgendes aufweist:
Berechnen von Elementen der Rotationsmatrix R unter Ver wendung der Lage des Linear-Fächerstrahlsensors; und
Lösen der Kollinearitätsgleichung unter Verwendung dieser Elemente der Rotationsmatrix R.
Berechnen von Elementen der Rotationsmatrix R unter Ver wendung der Lage des Linear-Fächerstrahlsensors; und
Lösen der Kollinearitätsgleichung unter Verwendung dieser Elemente der Rotationsmatrix R.
4. Maschinenlesbarer Datenträger, auf dem ein Programm
aufgezeichnet ist, dadurch gekennzeichnet, dass das Programm
so beschaffen ist, dass es für die Ausführung des Verfahrens
gemäß einem der vorstehenden Ansprüche sorgt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2000-0047224A KR100374509B1 (ko) | 2000-08-16 | 2000-08-16 | 선형 푸시브룸 영상에서 3차원 지상점의 2차원 영상 좌표값을 구하는 방법 및 기록매체 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10042387A1 true DE10042387A1 (de) | 2002-03-14 |
Family
ID=19683310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10042387A Ceased DE10042387A1 (de) | 2000-08-16 | 2000-08-29 | Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder |
Country Status (4)
Country | Link |
---|---|
US (1) | US6633665B1 (de) |
KR (1) | KR100374509B1 (de) |
CA (1) | CA2317035C (de) |
DE (1) | DE10042387A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10359415A1 (de) * | 2003-12-16 | 2005-07-14 | Trimble Jena Gmbh | Verfahren zur Kalibrierung eines Vermessungsgeräts |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100376962B1 (ko) * | 2000-08-21 | 2003-03-26 | 한국과학기술원 | 선형 푸시브룸센서에서 촬영한 스테레오 영상의 에피폴라특성곡선 추출방법 |
KR100519054B1 (ko) * | 2002-12-18 | 2005-10-06 | 한국과학기술원 | 기하학적으로 왜곡된 위성영상을 정밀 보정하는 방법 및기록매체 |
JP5058686B2 (ja) * | 2007-06-14 | 2012-10-24 | キヤノン株式会社 | 情報処理方法及び情報処理装置 |
KR101020117B1 (ko) * | 2010-08-31 | 2011-03-08 | 한진정보통신(주) | 선형푸쉬브룸방식의 스트립영상 편집 시스템 및 그 방법 |
KR101690950B1 (ko) * | 2015-11-19 | 2016-12-29 | 국방과학연구소 | 최소 기준점을 이용한 푸시브롬 스캔 방식 스트립 위성영상의 기하보정 방법 및 이의 시스템 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5559334A (en) * | 1995-05-22 | 1996-09-24 | General Electric Company | Epipolar reconstruction of 3D structures |
US6028606A (en) * | 1996-08-02 | 2000-02-22 | The Board Of Trustees Of The Leland Stanford Junior University | Camera simulation system |
JPH11213178A (ja) * | 1998-01-21 | 1999-08-06 | Shinko Electric Co Ltd | 3次元データ表示装置および3次元データ変換プログラムを記録した記録媒体 |
US6556195B1 (en) * | 1998-06-02 | 2003-04-29 | Sony Corporation | Image processing device and image processing method |
-
2000
- 2000-08-16 KR KR10-2000-0047224A patent/KR100374509B1/ko not_active IP Right Cessation
- 2000-08-25 CA CA002317035A patent/CA2317035C/en not_active Expired - Fee Related
- 2000-08-29 DE DE10042387A patent/DE10042387A1/de not_active Ceased
- 2000-08-29 US US09/649,652 patent/US6633665B1/en not_active Expired - Fee Related
Non-Patent Citations (2)
Title |
---|
NING, S.: Restitution geometrique des images spatiales par la methode de lCÑquation de colinÑaritÑ, Bulletin Societe Francaise de Photogrammetrie et de Teledetection (1987) No. 105, p. 27-40 * |
WERNSTEDT, J.: Experimentelle Prozeßanalyse, Verlag Technik Berlin, 1989, S. 198-206, 212-216, 222-228 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10359415A1 (de) * | 2003-12-16 | 2005-07-14 | Trimble Jena Gmbh | Verfahren zur Kalibrierung eines Vermessungsgeräts |
Also Published As
Publication number | Publication date |
---|---|
US6633665B1 (en) | 2003-10-14 |
KR20020014123A (ko) | 2002-02-25 |
KR100374509B1 (ko) | 2003-03-04 |
CA2317035A1 (en) | 2002-02-16 |
CA2317035C (en) | 2008-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69836522T2 (de) | Lagenerkennungssystem eines selbstbewegenden Kraftwagens | |
DE112012001984B4 (de) | Integrieren von Video-Metadaten in 3D-Modelle | |
DE112010004767B4 (de) | Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm | |
DE69726025T2 (de) | Verfahren und vorrichtung zum erhalten einer dreidimensionalen form | |
EP1173749B1 (de) | Bildbearbeitung zur vorbereitung einer texturanalyse | |
DE102007054906B4 (de) | Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten | |
DE69413384T2 (de) | Verfahren zum bestimmen der ungleichheit zwischen monoskopischen bildern, die ein stereoskopisches bild darstellen | |
DE69226512T2 (de) | Verfahren zur Bildverarbeitung | |
DE19928341A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE4444593A1 (de) | Entfernungsmeßvorrichtung | |
DE69833813T2 (de) | Vorrichtung zur Korrespondenzsuche in einem Bildpaar | |
DE102019207448A1 (de) | Simultane Lokalisierung und Kartenerstellung in 2D unter Verwendung eines 3D-Scanners | |
DE112017003426T5 (de) | Verfahren und System zum Rekonstruieren einer dreidimensionalen Darstellung | |
EP3420531A1 (de) | Verfahren und bildverarbeitungsvorrichtung zur bestimmung einer geometrischen messgrösse eines objektes | |
DE4416557A1 (de) | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers | |
AT511460B1 (de) | Verfahren zur bestimmung der position eines luftfahrzeugs | |
DE10042387A1 (de) | Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder | |
DE19953063A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
WO2016202562A1 (de) | Streifenprojetionsverfahren, streifenprojektionsvorrichtung und computerprogrammprodukt | |
EP3214602B1 (de) | Verfahren zur dreidimensionalen erfassung von objekten | |
EP3174010A2 (de) | Verfahren zur erstellung einer 3d-repräsentation und korrespondierende bildaufnahmevorrichtung | |
DE102021109386B4 (de) | Verfahren zur Korrektur von Tiefenbildern einer Lichtlaufzeitkamera | |
EP3142068B1 (de) | Verfahren zur dreidimensionalen erfassung von objekten | |
DE19627938B4 (de) | Verfahren zur dynamischen Spurverfolgung in Bewegtbildsequenzen | |
DE69310695T2 (de) | Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |