DE19800447A1 - Kamera, insbesondere zum fotogrammetrischen Vermessen - Google Patents
Kamera, insbesondere zum fotogrammetrischen VermessenInfo
- Publication number
- DE19800447A1 DE19800447A1 DE19800447A DE19800447A DE19800447A1 DE 19800447 A1 DE19800447 A1 DE 19800447A1 DE 19800447 A DE19800447 A DE 19800447A DE 19800447 A DE19800447 A DE 19800447A DE 19800447 A1 DE19800447 A1 DE 19800447A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- data
- dimensional
- coordinate system
- storage medium
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die Erfindung betrifft eine Kamera, insbesondere zum fotogrammetrischen Ver
messen. Ferner betrifft sie ein Speichermedium zum Speichern von durch eine
Kamera erzeugten, eine Aufnahme definierenden Bilddaten.
Die Erfindung bezieht sich auf eine Kamera, die beim fotogrammetrischen Ver
messen verwendet wird, bei dem auf Grundlage mehrerer, an verschiedenen
Aufnahmepositionen fotografierter Aufnahmen eine Vermessungskarte erstellt
wird.
Beispielsweise wird die Fotogrammetrie am Ort eines Verkehrsunfalls eingesetzt.
Der Unfallort wird von einer Kamera aus mindestens zwei verschiedenen Auf
nahmepositionen fotografiert. Auf Grundlage der an den verschiedenen Aufnah
mepositionen fotografierten Aufnahmen wird anschließend eine Vermessungskar
te des Unfallortes erstellt.
Hierzu wird in jeder Aufnahme zunächst ein zweidimensionales Koordinatensy
stem definiert, mit dem zweidimensionale Positionen von in jeder Aufnahme ent
haltenen Objekten bestimmt werden. Anschließend wird auf Grundlage der zwei
zweidimensionalen Koordinatensysteme ein dreidimensionales Koordinatensy
stem definiert, mit dem dreidimensionale Positionen der aufgezeichneten Objekte
angegeben werden. Indem die Objekte auf eine der drei von dem dreidimensio
nalen Koordinatensystem definierten Ebenen projiziert auf ein Blatt Papier so auf
gezeichnet werden, kann eine Vermessungskarte des Unfallortes erstellt werden.
Bevor genau skalierte Abstände und Längen auf der Vermessungskarte repro
duziert werden können, muß gemeinsam mit den Objekten ein Standardmaßstab
in den Aufnahmen fotografiert worden sein. Des weiteren muß in den Aufnahme
eine Referenzebene definiert sein, in der die Vermessungskarte liegen soll.
Um den Standardmaßstab und die Referenzebene zu definieren, werden übli
cherweise drei zueinander identische, kegelförmige Markierungen an geeigneten
Positionen um den Unfallort herum angeordnet. Ferner wird der Abstand zwischen
zwei Spitzen der kegelförmigen Markierungen beispielsweise mit Hilfe eines
Maßbandes gemessen und als Standardmaßstab gesetzt. Die durch die drei
Spitzen der kegelförmigen Markierungen definierte Ebene wird als Referenz
ebene verwendet.
Bevor die dreidimensionalen Positionen der Objekte durch Verwendung des
dreidimensionalen Koordinatensystems bestimmt werden können, sollte zunächst
aus dem dreidimensionalen Koordinatensystem eine relative Lagebeziehung
zwischen den Aufnahmepositionen bestimmt werden. Hierzu muß mit einem sehr
umständlichen und verwickelten Verfahren gearbeitet werden, mit dem die relative
Lagebeziehung zwischen den Aufnahmepositionen berechnet werden kann. Aus
diesem Grund wird üblicherweise die relative Lagebeziehung zwischen den Auf
nahmepositionen mit Hilfe eines Computers bestimmt, der wiederholt Näherungs
rechnungen ausführt. Allerdings ist bei Einsatz eines iterativen Verfahrens die
Erstellungszeit einer Vermessungskarte sehr lang.
Es ist daher Aufgabe der Erfindung, eine Kamera bzw. ein Speichermedium be
reitzustellen, durch deren bzw. durch dessen Einsatz die Erstellungszeit für eine
Vermessungskarte verkürzt ist.
Diese Aufgabe wird durch eine Kamera mit den Merkmalen des Patentanspruchs
1 bzw. durch ein Speichermedium mit den Merkmalen des Patentanspruchs 12
gelöst. Vorteilhafte Weiterbildungen ergeben sich aus den jeweils zugeordneten
Unteransprüchen.
Bei der Erfindung ist die Kamera mit einer Positionserfassungseinrichtung aus
gestattet, mit der die relative Lagebeziehung zwischen den verschiedenen Auf
nahmepositionen erfaßt wird.
Weitere Vorteile der vorliegenden Erfindung werden aus der nachfolgenden Be
schreibung unter Bezugnahme auf die Zeichnungen besser verständlich. Darin
zeigen:
Fig. 1 eine schematische perspektivische Darstellung einer erfindungsge
mäßen elektronischen Standbild-Videokamera,
Fig. 2 ein Blockschaltbild der Standbild-Videokamera nach Fig. 1,
Fig. 3 ein Ablaufdiagramm einer Sensorsteuerroutine, die von einer im
Blockschaltbild nach Fig. 2 enthaltenen Sensorsteuerschaltung
ausgeführt wird,
Fig. 4 ein Ablaufdiagramm einer von der Sensorsteuerschaltung nach Fig.
2 ausgeführten Unterbrechungsroutine,
Fig. 5 ein Ablaufdiagramm einer von der Standbild-Videokamera nach Fig.
1 und 2 ausgeführten Aufnahmeroutine,
Fig. 6 eine konzeptionelle schematische Darstellung eines Formatbeispiels
einer IC-Speicherkarte, die in die Standbild-Videokamera nach Fig.
1 und 2 eingelegt werden kann,
Fig. 7 eine konzeptionelle perspektivische Darstellung einer fotogramme
trischen Meßeinrichtung, die die Standbild-Videokamera nach Fig. 1
und 2 verwendet,
Fig. 8 eine konzeptionelle Darstellung einer aus einer ersten Position der
Meßeinrichtung nach Fig. 7 fotografierten Aufnahme,
Fig. 9 eine konzeptionelle Darstellung einer aus einer zweiten Position der
Meßeinrichtungen nach Fig. 7 fotografierten weiteren Aufnahme,
Fig. 10 eine konzeptionelle Darstellung der relativen Lagebeziehung zwi
schen einem Standardmaßstab und der ersten bzw. zweiten Auf
nahme der Fig. 8 bzw. 9
Fig. 11 ein Blockschaltbild eines Computersystems, in dem die erfindungs
gemäße fotogrammetrische Messung durchgeführt wird,
Fig. 12 ein Ablaufdiagramm einer fotogrammetrischen Meßroutine zur Er
zeugung einer Vermessungskarte auf Grundlage der in den Fig. 8
und 9 dargestellten ersten und zweiten Aufnahme,
Fig. 13 eine konzeptionelle perspektivische Darstellung eines dreidimen
sionalen Koordinatensystems zur Erzeugung der Vermessungskarte,
Fig. 14 ein Ablaufdiagramm einer Abwandlung der Aufnahmeroutine nach
Fig. 5,
Fig. 15 ein Ablaufdiagramm, in dem der verbleibende Restschnitt der ab
gewandelten Aufnahmeroutine nach Fig. 15 gezeigt ist, und
Fig. 16 Teil eines Ablaufdiagramms, das eine Abwandlung der fotogramme
trischen Meßroutine nach Fig. 12 zeigt.
Fig. 1 zeigt das Äußere einer erfindungsgemäßen elektronischen Standbild-Vi
deokamera. Die Standbild-Videokamera hat einen Kamerakörper 10, eine etwa
mittig an einer Vorderseite des Kamerakörpers 10 angeordnete Aufnahmeoptik
12, eine an der Vorderseite des Kamerakörpers 10, rechtsseitig der Kameraoptik
12, über dieser angeordnete elektronische Blitzeinheit 14 und an der Vorderseite
einen, bezogen auf die Aufnahmeoptik 12, der elektronischen Blitzeinheit 14
gegenüberliegend angeordneten Auslöser 16.
Des weiteren hat die Kamera auf der Oberseite ihres Kamerakörpers 10 einen
mittig angeordneten Sucher 18, ein seitlich der einen Seite des Suchers 18 ange
ordnetes LCD-Feld 20 (LCD= Liquid Cristal Display) sowie einen seitlich der an
deren Seite des Suchers 18 angeordneten Hauptschalterknopf 24. Ferner hat der
Kamerakörper 10 einen an seiner Seitenwand ausgebildeten länglichen Schlitz 26,
durch den ein Aufzeichnungsträger wie beispielsweise eine IC-Speicherkarte
28 in die Kamera eingelegt oder aus ihr entnommen werden kann. Zum Auswer
fen bzw. Ausgeben der IC-Speicherkarte 28 aus dem länglichen Schlitz 26 der
Kamera dient ein Ausgabeknopf 30.
Obwohl in Fig. 1 nicht dargestellt, ist in der Rückwand des Kamerakörpers 10 ein
LCD-Bildschirm 62 eingelassen (vgl. Fig. 2), auf dem eine Aufnahme reproduziert
und betrachtet werden kann.
Fig. 2 zeigt ein Blockschaltbild der erfindungsgemäßen Videokamera. Die Video
kamera hat eine Steuereinheit 32 mit einem Mikrocomputer bzw. Mikroprozessor,
einem ROM-Speicher, einem RAM-Speicher und dergleichen, die die Videoka
mera insgesamt steuert.
Die Aufnahmeoptik 12 hat mehrere Linsengruppen und eine zwischen diesen
angeordnete Blende 34. Hinter der Aufnahmeoptik 12 ist ein Festkörper-Bildsen
sor 36 angeordnet, der als Vorrichtung zum fotoelektrischen Umwandeln der
Lichtstrahlen dient und der vorzugsweise ein CCD-Bildsensor (CCD = charge
coupled device) ist. Zwischen der Aufnahmeoptik 12 und dem CCD-Bildsensor 36
ist ein Schnellklappspiegel 38 angeordnet, über dem seinerseits eine Einstell
scheibe 40 gehalten ist, die Bestandteil des optischen Systems des Suchers 18
ist.
Der Schnellklappspiegel 38 kann von einer Spiegelantriebsschaltung 42 zwischen
einer abgesenkten Stellung, d. h. der mit durchgezogenen Linien in Fig. 2
gezeigten geneigten Stellung, und einer hochgeklappten Stellung bewegt werden,
d. h. der mit gestrichelten Linien in Fig. 2 gezeigten, horizontalen Stellung. Die
Spiegelantriebsschaltung 42 wird durch eine Belichtungssteuerung 44 gesteuert,
mit der ein Belichtungssensor 46 verbunden ist. Die Belichtungssteuerung 44 wird
von der Steuereinheit 32 auf Grundlage des Ausgangssignals des
Belichtungssensors 46 betätigt.
Der Schnellklappspiegel 38 ist üblicherweise in der abgesenkten bzw. geneigten
Stellung angeordnet, um die durch die Aufnahmeoptik 12 einfallenden Lichtstrah
len in Richtung des optischen Systems des Suchers 18 abzulenken, damit der
Fotograf das zu fotografierende Objekt im Sucher 18 betrachten kann. Sobald
fotografiert wird, schwenkt die Spiegelantriebsschaltung 42 den Schnellklapp
spiegel 38 nach oben in die hochgeklappte Stellung, damit die durch die Auf
nahmeoptik 12 einfallenden Lichtstrahlen auf die lichtempfangende Fläche des
CCD-Bildsensors 36 gerichtet sind. Dadurch wird durch die Aufnahmeoptik 12
eine optische Abbildung auf die lichtempfangende Fläche des CCD-Bildsensors
36 projiziert.
Dabei ist zu bemerken, daß, obwohl in Fig. 2 nicht gezeigt eine gleichfalls von
der Belichtungssteuerung 44 angesteuerte Blendenstellschaltung vorgesehen ist,
mit der die Blende 34 verstellt wird.
Der CCD-Bildsensor 36 hat eine elektronische Verschlußfunktion, mit der eine
Belichtungszeit, d. h. eine für die elektrische Ladungsspeicherung erforderliche
Zeit, auf Grundlage eines Ausgangssignals des Belichtungssensors 46 reguliert
wird. Nachdem die Belichtungszeit abgelaufen ist, wird der Schnellklappspiegel
38 von seiner hochgeklappten in seine abgesenkte Stellung zurückbewegt. Wäh
rend der Belichtungsdauer wandelt der CCD-Bildsensor 36 die optische Abbil
dung in elektrische Pixelsignale um. Die umgewandelten elektrischen Pixelsignale
werden aus dem CCD-Bildsensor 36 von einer CCD-Steuerschaltung 48 gelesen,
die von der Steuereinheit 32 betätigt wird.
Die aus dem CCD-Bildsensor 36 ausgelesenen Pixelsignale werden von einem
Verstärker 50 verstärkt und anschließend durch einen Analog-Digital-Wandler 52
in digitale Pixelsignale umgewandelt. Die digitalen Pixelsignale werden von einer
von der Steuereinheit 32 überwachten Bildverarbeitungsschaltung 54 einer
Schattenkorrektur, einer Gammakorrektur und dergleichen unterzogen, und an
schließend zeitweise in einem Speicher 56 gespeichert, der eine ausreichende
Speicherkapazität zum Abspeichern eines aus den digitalen Pixelsignalen beste
henden Bildfeldes hat, das von dem CCD-Bildsensor 36 ausgegeben wird.
Die von dem Speicher 56 ausgegebenen Pixelsignale werden einer Speicherkar
ten-Steuerschaltung 58 zugeführt, durch die die eingespeisten digitalen Pixelsi
gnale als Pixeldaten-Bildfeld auf der IC-Speicherkarte 28 abgespeichert werden.
Darüber hinaus kann das aus Pixelsignalen bestehende Bildfeld von dem Spei
cher 56 an einen Farbcodierer 60 ausgegeben werden, der auf Grundlage der
Pixelsignale des Bildfeldes Farbvideosignale erzeugt, die anschließend in den,
wie zuvor bereits erläutert, in der Rückwand des Kamerakörpers 10 vorgesehe
nen LCD-Bildschirm 62 eingespeist werden, auf dem die fotografierte Aufnahme
reproduziert und beobachtet werden kann.
In diesem Ausführungsbeispiel ist die Videokamera mit einem Positionserfas
sungssystem ausgestattet, mit dem eine Relativbewegung der Videokamera ermit
telt werden kann. Das Positionserfassungssystem hat einen magnetischen Azi
mut-Sensor 64, einen ersten Drehwinkel-Sensor 66, einen zweiten Drehwinkel-
Sensor 68 sowie einen ersten, zweiten und dritten Beschleunigungs-Sensor 70,
72 bzw. 74. Die Sensoren 64 bis 74 sind mit der Steuereinheit 32 über eine zwi
schengeschaltete Sensorsteuerschaltung 76 verbunden. Die Sensorsteuerschal
tung 76 hat einen Microcomputer oder Microprozessor, einen ROM-Speicher, ei
nen RAM-Speicher und dergleichen, um die Sensoren 64 bis 74 anzusteuern.
Das Positionserfassungssystem ist mit einem dreidimensionalen χ-ψ-ω-Koordina
tensystem verknüpft, wie es in Fig. 1 gezeigt ist. Obwohl das dreidimensionale χ-
ψ-ω-Koordinatensystem aus Übersichtlichkeitsgründen von der Kamera getrennt
dargestellt ist, ist es vorzugsweise so in der Videokamera definiert, daß sein Ur
sprung am hinteren Hauptpunkt der Aufnahmeoptik 12 der Videokamera ange
ordnet ist. Die ψ-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems verläuft
vertikal. Die χ- und ω-Achsen verlaufen ausgehend vom Ursprung horizontal und
senkrecht zueinander.
Der magnetische Azimut-Sensor 64 ermittelt die Winkelbewegung der Kamera um
die ψ-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems. Genauer gesagt
werden die Winkelbewegung der Videokamera um die ψ-Achse als absolute
Winkeldaten bezogen auf eine durch den Erdmagnetismus definierte Richtung mit
Hilfe des Azimut-Sensors 64 ermittelt. Der erste und der zweite Drehwinkel-Sen
sor 66 und 68 ermitteln die Winkelbewegung der Videokamera um die χ-Achse
bzw. ω-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems. Die Sensor
steuerschaltung 76 berechnet die dreidimensionalen Winkeldaten der Videoka
mera auf Grundlage der von den Sensoren 64, 66 und 68 ermittelten dreidimen
sionalen Winkelbewegung. Kurz gesagt werden die dreidimensionalen Winkel der
optischen Achse der Aufnahmeoptik 12 der Videokamera von den Sensoren 64
66 und 68 bezogen auf die vertikale ψ-Achse des dreidimensionalen χ-ψ-ω-
Koordinatensystems bestimmt.
Des weiteren ermitteln der erste, zweite und dritte Beschleunigungssensor 70, 72
bzw. 74 jeweils die Beschleunigung der Videokamera entlang der ψ-, χ- und ω-
Achsen des dreidimensionalen χ-ψ-ω-Koordinatensystems. Mit den erfaßten Be
schleunigungen werden die Translationsbewegungen der Videokamera entlang
der ψ-, χ- und ω-Achsen des dreidimensionalen χ-ψ-ω-Koordinatensystems dar
gestellt. Die Sensorsteuerschaltung 76 berechnet dreidimensionale Translati
onsbewegungen und ermittelt auf deren Grundlage die dreidimensionalen Positi
onsdaten der Videokamera.
Die Sensorsteuerschaltung 76 wird von der Steuereinheit 32 überwacht und steu
ert jeden Sensor 64 bis 74 an. Die Sensorsteuerschaltung 76 ist mit einem Da
tenspeicher 78 ausgestattet, der zeitweise die von den Sensoren 64, 66 und 68
ermittelten dreidimensionalen Winkeldaten und die von den Sensoren 70, 72 und
74 erfaßten dreidimensionalen Positionsdaten abspeichert.
Im Idealfall sollte jeder der Sensoren 64 bis 74 in der Videokamera am Ursprung
des dreidimensionalen χ-ψ-ω-Koordinatensystems angeordnet sein, d. h. am hin
teren Hauptpunkt der Aufnahmeoptik 12 der Videokamera. Tatsächlich ist es aber
nicht möglich, jeden der Sensoren 64 bis 74 am hinteren Hauptpunkt der Aufnah
meoptik 12 anzuordnen.
Demzufolge muß jeder der Sensoren 64 bis 74 vom hinteren Hauptpunkt der Auf
nahmeoptik 12 versetzt angeordnet sein. Dadurch müssen auch die dreidimen
sionalen Winkeldaten und die dreidimensionalen Positionsdaten durch Versatzda
ten entsprechend korrigiert werden, die basierend auf dem Versatz jedes Sensors
vom hinteren Hauptpunkt der Aufnahmeoptik 12 vorprogrammiert sind. Der
Datenspeicher 78 wird gleichfalls zum Abspeichern der Versatzdaten verwendet.
Wie Fig. 2 zeigt, ist die Videokamera mit einem Hauptschalter 80 ausgestattet,
der mit dem Hauptschalterknopf 24 (vgl. Fig. 1) derart verbunden ist, daß er durch
Drücken des Hauptschalterknopfes 24 an- oder ausgeschaltet wird. Darüber hin
aus hat die Videokamera einen Belichtungssensorschalter 82 und einen Auslöse
schalter 78, die beide mit dem Auslöser 16 (vgl. Fig. 1) verbunden sind. Genauer
gesagt wird der Belichtungssensorschalter 82 angeschaltet, wenn der Auslöser 16
halb gedrückt ist. Wird der Auslöser 16 vollständig gedrückt, wird der Auslö
seschalter 84 angeschaltet. Ferner ist zu bemerken, daß der Hauptschalter 80
und der Auslöseschalter 84 mit der Sensorsteuerschaltung 76 verbunden sind,
um die Sensoren 64 bis 74 zu betätigen, wie später detailliert beschrieben wird.
Die elektronische Blitzeinheit 14 wird, wie Fig. 2 zeigt, von einer von der Steuer
einheit 32 überwachten Blitzsteuerschaltung 86 elektrisch erregt. Sofern erfor
derlich, wird die elektronische Blitzeinheit 14 betätigt, sobald der Auslöser 16
vollständig gedrückt wird. Darüber hinaus ist das LCD-Feld 20 mit der Steuerein
heit 32 verbunden, um verschiedene Einstellungen der Videokamera, geeignete
Mitteilungen und dergleichen anzuzeigen.
Fig. 3 zeigt ein Ablaufdiagramm einer von der Sensorsteuerschaltung 76 ausge
führten Sensorsteuerroutine, die durch Drücken des Hauptschalterknopfes 24
eingeleitet wird, der den Hauptschalter 80 anschaltet. Dabei ist zu bemerken, daß
das Drücken des Hauptschalterknopfes 24 und das damit verbundene Einschal
ten des Hauptschalters 80 vorzugsweise erst durchgeführt wird, nachdem die
Kamera auf einem Stativ befestigt worden ist, das an einer für die fotogrammetri
sche Vermessung des erwünschten Bereiches geeigneten Stelle positioniert ist.
In Schritt 301 wird der Datenspeicher 78 teilweise initialisiert, d. h. ein Bereich des
Datenspeichers 78 zum Abspeichern der dreidimensionalen Winkeldaten und der
dreidimensionalen Positionsdaten der Videokamera gelöscht.
In Schritt 302 werden von den Sensoren 64, 66 und 68 die Winkeldaten ermittelt,
die von den Winkelbewegungen der Videokamera um die ψ-, χ- bzw. ω-Achse des
dreidimensionalen χ-ψ-ω-Koordinatensystems abgeleitet werden. Ferner werden
von den Sensoren 70, 72 und 74 die Beschleunigungsdaten ermittelt, die von den
Beschleunigungsbewegungen der Videokamera entlang der ψ-, χ- bzw. ω-Achse
des dreidimensionalen χ-ψ-ω-Koordinatensystems abgeleitet werden. Bei
spielsweise werden die Winkeldaten und die Beschleunigungsdaten nacheinan
der mit einem zeitlichen Abstand von 1 ms erfaßt.
In Schritt 303 werden die anfänglich von den Sensoren 64, 66 und 68 ermittelten
Winkeldaten als Anfangsdaten in den RAM-Speicher der Sensorsteuerschaltung
76 abgespeichert.
In Schritt 304 wird ein in der Sensorsteuerschaltung 76 enthaltenes Steuerglied
eingeschaltet. Anschließend fährt die Steuerung mit Schritt 305 fort, bei dem
durch Integration der von den Sensoren 70, 72 und 74 ermittelten Beschleuni
gungsdaten dreidimensionale Translationsbewegungsdaten berechnet werden. In
Schritt 306 wird bestimmt, ob das Zeitglied einen Wert von 10 ms erreicht hat
oder nicht. Sind die 10 ms noch nicht abgelaufen, kehrt die Steuerung zu Schritt
305 zurück. Die Berechnung wird also auf Grundlage der erfaßten Beschleuni
gungsdaten in Zeitabständen von 1 ms durchgeführt, bis 10 ms abgelaufen sind.
Sobald die 10 ms abgelaufen sind, fährt die Steuerung ausgehend von Schritt 306
mit Schritt 207 fort, bei dem dreidimensionalen Positionsdaten auf Grundlage der
berechneten Translationsbewegungsdaten berechnet werden. Anschließend
werden in Schritt 308 die dreidimensionalen Winkeldaten auf Grundlage der zu
Anfang eingegebenen Winkeldaten berechnet, diese im RAM-Speicher der
Sensorsteuerschaltung 76 abgespeichert und nach Ablauf der 10 ms die
neuesten Winkeldaten erfaßt.
In Schritt 309 werden die dreidimensionalen Positionsdaten und Winkeldaten auf
Grundlage der zuvor im Datenspeicher 78 abgespeicherten Versatzdaten korri
giert. Danach werden in Schritt 310 die korrigierten Positionsdaten PD und die
korrigierten Winkeldaten AD im Datenspeicher 78 abgespeichert. Anschließend
kehrt die Steuerung ausgehend von Schritt 310 zu Schritt 304 zurück. Die dreidi
mensionalen Positionsdaten PD und die dreidimensionalen Winkeldaten AD
werden also alle 10 ms neu bestimmt.
Fig. 4 zeigt ein Ablaufdiagramm einer von der Sensorsteuerschaltung 76 ausge
führten Unterbrechungsroutine. Die Unterbrechungsroutine wird durch ein von der
Steuereinheit 32 an die Sensorsteuerschaltung 76 abgegebenes Unterbre
chungssignal eingeleitet.
Sobald ein vorgegebenes Unterbrechungssignal von der Steuereinheit 32 an die
Sensorsteuerschaltung 76 ausgegeben wird, wird in Schritt 401 die Eingabe wei
terer Unterbrechungssignale an die Sensorsteuerschaltung 76 verhindert. Dies
geschieht, weil die Steuereinheit 32 einen gemeinsamen Ausgang hat, aus dem
an verschiedene in der Videokamera enthaltene Steuerschaltungen Unterbre
chungssignale ausgegeben werden. Deshalb muß die Sensorsteuerschaltung 76
vor der Eingabe anderer Unterbrechungssignale geschützt werden, nachdem das
notwendige Unterbrechungssignal von der Steuereinheit 32 an die Sensorsteu
erschaltung 76 einmal eingegeben worden ist.
In Schritt 402 werden die Positionsdaten PD und die Winkeldaten AD von der
Sensorsteuerschaltung 76 aus dem Datenspeicher 78 gelesen und in die Steu
ereinheit 32 eingegeben.
Anschließend wird in Schritt 403 eine erneute Eingabe eines Unterbrechungssi
gnals in die Sensorsteuerschaltung 76 wieder ermöglicht, damit sie während der
nächsten Aufnahme von der Steuereinheit 32 unterbrochen werden kann.
Fig. 5 zeigt ein Ablaufdiagramm einer von der Steuereinheit 32 durchgeführten
Aufnahmeroutine. Die Aufnahmeroutine wird initiiert, indem der Hauptschalter 80
angeschaltet wird.
In Schritt 501 wird ein Anfangstestprogramm ausgeführt, das ermittelt, ob ver
schiedene Funktionen der Kamera ordnungsgemäß durchgeführt werden können
oder nicht. Sobald eine der Funktionen der Kamera nicht betriebsbereit ist, wird
im LCD-Feld 20 eine Warnungsmitteilung angezeigt, daß die Kamera nicht
ordnungsgemäß arbeitet.
Anschließend wird in Schritt 502 bestimmt, ob der Auslöser 16 zum Einschalten
des Belichtungssensorschalters 82 halb gedrückt ist oder nicht. Das Bestimmen,
ob der Auslöser 16 halb gedrückt ist, wird in Zeitabständen von beispielsweise 1
ms wiederholt.
Sobald bestätigt wird, daß der Auslöser 16 halb gedrückt worden ist, fährt die
Steuerung mit Schritt 503 fort, bei dem die Belichtungszeit bzw. die für die elek
trische Ladungsspeicherung erforderliche Dauer auf Grundlage des vom Belich
tungssensor 46 erzeugten Ausgangssignals bestimmt wird.
Danach wird in Schritt 504 bestimmt, ob der Auslöser 16 vollständig gedrückt
wurde oder nicht. Wurde der Auslöser 16, nachdem er zuvor halb gedrückt wor
den war, nicht vollständig gedrückt, kehrt die Steuerung von Schritt 504 zu Schritt
502 zurück. Dabei ist zu bemerken, daß in Zeitabständen von beispielsweise 1
ms wiederholt überprüft wird, ob der Auslöser 16 vollständig gedrückt worden ist.
Sobald bestätigt wird, daß der Auslöser 16 vollständig gedrückt wurde, wobei der
Auslöseschalter 84 angeschaltet wurde, fährt die Steuerung ausgehend von
Schritt 504 mit Schritt 505 fort, bei dem der Auslöser 16 deaktiviert wird.
Anschließend wird in Schritt 506 die Aufnahmefunktion ausgeführt. Bei der Auf
nahmefunktion wird die Größe der Blende 34 durch die von der Belichtungssteu
erschaltung 44 gesteuerte Blendenstellschaltung auf Grundlage des Ausgangs
signals des Belichtungssensors 46 eingestellt und anschließend der Schnell
klappspiegel 48 von der abgesenkten Stellung in die hochgeklappte Stellung nach
oben geschwenkt. Dadurch wird die lichtempfangende Fläche des CCD-
Bildsensors 36 den durch die Aufnahmeoptik 12 einfallenden Lichtstrahlen aus
gesetzt. Genauer gesagt wird eine von der Aufnahmeoptik 12 erfaßte optische
Abbildung fokussiert und auf die lichtempfangende Fläche des CCD-Bildsensors
46 projiziert, der die optische Abbildung in ein aus elektrischen Pixelsignalen be
stehendes Bildfeld umwandelt.
In Schritt 507 werden die Positionsdaten PD und die Winkeldaten AD über die
Sensorsteuerschaltung 76 aus dem Datenspeicher 78 gelesen. Hierzu gibt die
Steuereinheit 32 ein Unterbrechungssignal ab, damit die Positionsdaten PD und
die Winkeldaten AD in die Sensorsteuereinheit 76 eingelesen werden, wie oben
beschrieben wurde.
In Schritt 508 wird bestimmt, ob die Belichtungszeit zum Umwandeln der opti
schen Abbildung in elektrische Pixelsignale durch den CCD-Bildsensor 36, d. h.
die für die elektrische Ladungsspeicherung erforderliche Zeit, abgelaufen ist oder
nicht. Sobald die Belichtungszeit abgelaufen ist, wird der Schnellklappspiegel 48
von der hochgeklappten Stellung wieder in die abgesenkte Stellung zurückge
schwenkt.
In Schritt 509 werden die Pixelsignale des Bildfeldes aus dem CCD-Bildsensor 36
ausgelesen, von dem Verstärker 50 verstärkt, durch den Analog-Digital-Wandler
52 in die digitale Pixelsignale umgewandelt und von der Bildverarbeitungsschal
tung 54 weiterverarbeitet, bevor sie zeitweise im Speicher 56 abgespeichert wer
den.
In Schritt 510 werden die Pixelsignale von dem Speicher 56 in die Speicherkar
ten-Steuerschaltung 58 eingelesen, mit der die ausgegebenen Pixelsignale als
Pixeldaten des Bildfeldes auf der IC-Speicherkarte 28 abgespeichert werden.
Gleichzeitig werden die Positionsdaten PD und die Winkeldaten AD mit der
Nummer des Bildfeldes und weiteren Informationsdaten auf der IC-Speicherkarte
28 abgespeichert.
Wie konzeptionell in Fig. 6 gezeigt, ist der Speicherbereich der IC-Speicherkarte
28 so formatiert, daß er in ein Kopffeld und in ein Bilddatenspeicherfeld unterglie
dert ist. Die das Bildfeld bildenden Pixeldaten werden in dem Bilddatenspeicher
feld abgespeichert. Die Positionsdaten PD, die Winkeldaten AD, die Nummer des
Bildfeldes sowie weitere Informationsdaten wie die Aufnahmebedingungen,
Datum und Uhrzeit der Aufnahme oder ähnliches werden im Kopffeld abgespei
chert. Darüber hinaus kann der Speicherbereich der IC-Speicherkarte 28 auch ein
Reservefeld umfassen, wie Fig. 6 zeigt.
Nachdem die Pixeldaten, die Positionsdaten PD, die Winkeldaten AD, die Num
mer des Bildfeldes sowie die weiteren Informationsdaten auf der IC-Speicherkarte
28 abgespeichert worden sind, fährt die Steuerung mit Schritt 511 fort, bei dem
der Auslöser 16 wieder aktiviert wird. Anschließend kehrt die Steuerung zu Schritt
502 zurück und wartet auf die nächste Aufnahme.
Fig. 7 zeigt konzeptionell eine fotogrammetrische Meßeinrichtung, bei der eine er
findungsgemäße Videokamera verwendet wird. In dieser Darstellung ist ein
würfelförmiges Objekt OB an einer Stelle positioniert, die fotogrammetrisch ver
messen werden soll. Seitlich des zu vermessenden, würfelförmigen Objektes OB
ist ein Standard-Maßstab SC angeordnet. Der Standard-Maßstab SC und das
würfelförmige Objekt OB werden aus zwei verschiedenen Richtungen von der Vi
deokamera CA fotografiert. Wie Fig. 7 zeigt, wird der Standard-Maßstab SC und
das würfelförmige Objekt OB zunächst aus einer mit durchgezogener Linie dar
gestellten ersten Position M1 von der Videokamera CA fotografiert. Anschließend
werden sie aus einer zweiten Position M2 von der Videokamera CA fotografiert (in
gestrichelten Linien dargestellt). Bei der ersten Position M1 ist die optische Achse
der Videokamera CA mit dem Bezugszeichen O1 bezeichnet. An der zweiten
Position M2 ist die optische Achse der Videokamera CA durch das Be
zugszeichen O2 angegeben.
Dabei ist zu bemerken, daß sowohl die erste als auch die zweite Position M1 und
M2 jeweils als der hintere Hauptpunkt der Aufnahmeoptik 12 der Videokamera CA
definiert sein können.
Bei dem in Fig. 7 dargestellten Ausführungsbeispiel hat der Standard-Maßstab
SC die Form einer gleichseitigen dreieckigen Platte mit drei Referenzpunkten P1,
P2 und P3, die nahe der Eckpunkte der gleichseitigen dreieckigen Platte derart
angeordnet sind, daß durch die Referenzpunkte P1, P2 und P3 ein gleichseitiges
Dreieck definiert ist, wie es durch die schraffierte Fläche in Fig. 7 dargestellt ist.
Die schraffierte Fläche dient als Referenzebene. Die Seitenkanten des durch die
Referenzpunkte P1, P2 und P3 definierten gleichseitigen Dreiecks haben jeweils
eine vorgegebene Länge L, die als Standardmeßlänge verwendet wird.
Dabei ist zu bemerken, daß anstelle des Standard-Maßstabes SC drei zueinander
identische, kegelförmige Markierungen an geeigneten Stellen angeordnet sein
können. In diesem Fall wird zuvor der Abstand zwischen zwei Spitzen der
kegelförmigen Markierungen beispielsweise mit einem Maßband gemessen und
der Wert als Standardmeßlänge gesetzt. Ferner wird als Referenzebene die
durch die drei Spitzen der kegelförmigen Markierungen definierte Ebene verwen
det.
Fig. 8 zeigt eine durch die an der ersten Position M1 angeordnete Videokamera
CA fotografierte erste Aufnahme. Wie aus der Darstellung ersichtlich, ist in der
ersten Aufnahme ein rechtwinkliges x1-y1 Koordinatensystem definiert, dessen
Ursprung c1 im fotografischen Mittelpunkt der ersten Aufnahme angeordnet ist. In
diesem x1-y1-Koordinatensystem werden die Referenzpunkte P1, P2 und P3
durch die Punkte p11(px11, py11), p12(px12, py12) bzw. p13(px13, py13) darge
stellt.
Fig. 9 zeigt eine durch die Videokamera CA in der zweiten Position M2 fotogra
fierte zweite Aufnahme. Aus dieser Darstellung ist ersichtlich, daß in der zweiten
Aufnahme ein rechtwinkliges x2-y2-Koordinatensystem definiert ist, dessen Ur
sprung c2 im fotografischen Mittelpunkt der zweiten Aufnahme angeordnet ist. In
diesem x2-y2-Koordinatensystem werden die Referenzpunkte P1, P2 und P3
durch die Punkte p21(px21, py21), p22(px22, py22) bzw. p23(px23, py23) darge
stellt.
In Fig. 10 ist die dreidimensionale relative Lagebeziehung zwischen dem Stan
dard-Maßstab SC, der Videokamera CA und der ersten und zweiten Aufnahme
dargestellt. In diesem Fall wird der Standard-Maßstab SC auf Grundlage der an
der ersten Position M1 gemachten ersten Aufnahme und der an der zweiten
Position M2 gemachten zweiten Aufnahme reproduziert, wobei jedoch die Abmes
sung des Standard-Maßstabes SC einen Relativwert hat. Deshalb ist die Länge
der Seitenkanten des durch die Referenzpunkte P1, P2 und P3 definierten gleich
schenkligen Dreiecks durch die Angabe L' angezeigt.
Um die dreidimensionalen Koordinaten des würfelförmigen Objekts OB berechnen
zu können, ist es erforderlich, ein dreidimensionales X-Y-Z-Koordinatensystem zu
definieren, wie es Fig. 10 zeigt, bei dem die in der ersten und zweiten Aufnahme
abgespeicherten Referenzpunkte P1, P2 und P3 des Standard-Maßstabes SC
bezüglich dieses zweiten dreidimensionalen Koordinatensystems lagemäßig
bestimmt werden müssen.
Wie in Fig. 10 gezeigt, liegt der Ursprung des dreidimensionalen X-Y-Z-Koordi
natensystems an der ersten Position M1. Die erste Position M1 wird also durch
die Ursprungskoordinaten 0, 0 und 0 des dreidimensionalen X-Y-Z-Koordinaten
systems repräsentiert. Ferner fällt die Z-Achse des dreidimensionalen X-Y-Z-
Koordinatensystems mit der optischen Achse O1 der an der ersten Position M1
angeordneten Videokamera CA zusammen, und wird durch die Winkelkoordina
ten 0, 0 und 0 angegeben. Die zweite Position M2 wird durch die Koordinaten X0,
Y0 und Z0 und die optische Achse O2 der an der zweiten Position M2 angeord
neten Videokamera CA durch die Winkelkoordinaten α0, β0 und γ0 repräsentiert.
Die optische Achse O2 der Videokamera 14 definiert also Winkel α0, β0 und γ0
mit der X-Achse, Y-Achse bzw. Z-Achse des dreidimensionalen X-Y-Z-Koordina
tensystems.
Die Referenzpunkte P1, P2 und P3 des Standard-Maßstabes CA werden durch
die Koordinaten PXj, PYj und PZj der Punkte Pj (wobei j = 1, 2, 3) dargestellt. Wie
in Fig. 10 gezeigt, liegen jeder Referenzpunkt P1(PX1, PY1, PZ1), P2(PX2, PY2,
PZ2) bzw. P3(PX3, PY3, PZ3), der auf der ersten Aufnahme aufgenommene
Bildpunkt p11(px11 py11), p12(px12, py12) bzw. p13(px13, py13) des entspre
chenden Referenzpunktes sowie der hintere Hauptpunkt (M1) der Videokamera
CA zueinander ausgerichtet auf einer gemeinsamen Geraden. In gleicher Weise
liegen jeweils der Referenzpunkt P1(PX1, PY1, PZ1), P2(PX2, PY2, PZ2) bzw.
P3(PX3, PY3, PZ3), der auf der zweiten Aufnahme aufgenommene Bildpunkt
p21 (px21, py21), p22(px22, py22) bzw. p23(px23, py23) des entsprechenden
Referenzpunktes sowie der hintere Hauptpunkt (M2) der Videokamera CA zuein
ander ausgerichtet auf einer gemeinsamen Geraden.
Folglich können die Koordinaten PXj, PYj und PZj der Punkte Pj durch die folgen
den Kollinear-Gleichungen bestimmt werden:
Dabei ist zu bemerken, daß in diesen Gleichungen die Angabe C der Brennweite
der Videokamera CA entspricht, die als Abstand zwischen dem hinteren Haupt
punkt (M1) und dem fotografischen Mittelpunkt (c1) der ersten Aufnahme sowie
als Abstand zwischen dem hinteren Hauptpunkt (M2) und dem fotografischen
Mittelpunkt (c2) der zweiten Aufnahme definiert ist. Ferner entspricht die Angabe i
der jeweiligen Aufnahme und die Angabe j dem jeweiligen Referenzpunkt P1, P2
bzw. P3 des Standard-Maßstabes SC.
Wie zuvor bereits erläutert, werden, wenn die erste Aufnahme von der an der er
sten Position M1 angeordneten Videokamera CA fotografiert worden ist, Bildpi
xeldaten der ersten Aufnahme gemeinsam mit den Positionsdaten PD, den Win
keldaten AD, der Nummer des Bildfeldes und weiteren Informationsdaten auf der
IC-Speicherkarte 28 abgespeichert. In diesem Fall können die in dem dreidimen
sionalen χ-ψ-ω-Koordinatensystem ermittelten Positionsdaten PD durch die Ko
ordinate X1, Y1 und Z1 dargestellt werden. Die aus dem dreidimensionalen χ-ψ-ω-
Koordinatensystem ermittelten Winkeldaten AD können mit den Winkelkoordi
naten α1, β1 und γ1 repräsentiert werden.
In gleicher Weise werden, wenn die zweite Aufnahme von der an der zweiten
Position M2 angeordneten Videokamera CA fotografiert worden ist, Bildpixeldaten
der zweiten Aufnahme gemeinsam mit den Positionsdaten PD, den Winkeldaten
AD, der Nummer des Bildfeldes und weiteren Informationsdaten auf der IC-
Speicherkarte 28 abgespeichert. In diesem Fall werden die aus dem dreidimen
sionalen χ-ψ-ω-Koordinatensystem ermittelten Positionsdaten PD durch die Ko
ordinaten X2, Y2 und Z2 dargestellt. Die Winkeldaten AD, die sich gleichfalls aus
dem dreidimensionalen χ-ψ-ω-Koordinatensystem ergeben haben, können mit den
dreidimensionalen Winkelkoordinaten α2, β2 und γ2 repräsentiert werden.
Fig. 11 zeigt ein Blockschaltbild eines Computersystems, das auf Grundlage der
auf der IC-Speicherkarte 28 abgespeicherten Bildpixeldaten, Winkeldaten AD und
Positionsdaten PD die oben beschriebene fotogrammetrische Vermessung
durchführt.
Das Computersystem nach Fig. 11 hat einen Computer 90, in dem ein fotogram
metrisches Vermessungsprogramm installiert ist, sowie einen mit dem Computer
90 verbundenen IC-Speicherkartenleser 92. Der IC-Speicherkartenleser 92 ist mit
einem Schlitz zur Aufnahme der IC-Speicherkarte 28 ausgestattet und hat ein IC-
Speicherkartenlaufwerk 94 zum Einlesen des aus Bildpixeldaten bestehenden
Bildfeldes, der Winkeldaten AD, der Positionsdaten PD sowie der weiteren Infor
mationsdaten. Das Computersystem hat ferner einen Bildschirm 96 zur Darstel
lung einer fotografierten Aufnahme auf Grundlage der von der IC-Speicherkarte
28 eingelesenen Bildpixeldaten des Bildfeldes. Ferner hat das Computersystem
eine Tastatur 98 zur Eingabe verschiedener Befehle und Daten in den Computer
90 sowie eine Maus 100 zum Bewegen eines auf dem Bildschirm 96 dargestellten
Cursors.
Fig. 12 zeigt ein Ablaufdiagramm der in dem Computer 90 der Fig. 11 auszufüh
renden fotogrammetrischen Meßroutine, bei der auf Grundlage der in den Fig. 8
und 9 gezeigten ersten und zweiten Aufnahmen eine Vermessungskarte erstellt
wird. Bevor die Routine ausgeführt wird, werden die erste und die zweite Aufnah
me durch Eingabe der Bildfeldnummern mit Hilfe der Tastatur 98 ausgewählt, de
ren aus Bildpixeldaten bestehende Bildfelder von der IC-Speicherkarte 28 einge
lesen. Anschließend werden die erste und zweite Aufnahme gleichzeitig auf dem
Bildschirm 96 reproduziert und angezeigt, wie in den Fig. 8 und 9 dargestellt.
In Schritt 1201 werden auf Grundlage der aus dem dreidimensionalen χ-ψ-ω-Ko
ordinatensystem abgeleiteten und an der ersten Position M1 erhaltenen Positi
onsdatenkoordinaten X1, Y1 und Z1 sowie der Winkeldatenkoordinaten α1, β1
und γ1 sowie der aus dem χ-ψ-ω-Koordinatensystem abgeleiteten und an der
zweiten Position M2 erhaltenen Positionsdatenkoordinaten X2, Y2 und Z2 sowie
Winkeldatenkoordinaten α2, β2 und γ2 die nachfolgenden Berechnungen durch
geführt:
X0←X2-X1
X0←Y2-Y1
Z0←Z2-Z1
α0←α2-α1
β0←β2-β1
γ0←γ2-γ1.
X0←Y2-Y1
Z0←Z2-Z1
α0←α2-α1
β0←β2-β1
γ0←γ2-γ1.
Geht man nun davon aus, daß die erste Position M1 im Ursprung des dreidimen
sionalen X-Y-Z-Koordinatensystems angeordnet ist und die optische Achse O1
der Videokamera mit der Z-Achse des dreidimensionalen X-Y-Z-Koordinatensy
stems (vgl. Fig. 10) zusammenfällt, können die Koordinaten X0, Y0 und Z0 der
zweiten Position M2 sowie die Winkelkoordinaten α0, β0 und γ0 der optischen
Achse O2 der Videokamera auf Grundlage der aus dem dreidimensionalen χ-ψ-ω-
Koordinatensystem abgeleiteten Werten berechnet werden.
In Schritt 1202 werden die berechneten Ergebnisse, d. h. die Koordinaten X0, Y0
und Z0 der zweiten Position M2 und die Winkelkoordinaten α, β und γ der opti
schen Achse O2 im RAM-Speicher des Computers 90 zeitweise abgespeichert.
Anschließend werden in Schritt 1203 die jeweiligen Referenzpunkte Pij(pxij, pyij)
nacheinander durch den mit der Maus 100 verfahrbaren Cursor auf der auf dem
Bildschirm 96 dargestellten ersten und zweiten Aufnahme bestimmt. Genauer ge
sagt werden die Koordinaten der zwei Punkte P11(px11, py11) und P21(px21,
py21), der zwei Punkte P12(px12, py12) und P22(px22, py22) sowie der zwei
Punkte P13(px13, py13) und P23(px23, py23) im RAM-Speicher des Computers
90 zeitweise abgespeichert.
Nachdem die Referenzpunkte Pij(pxij, pyij) bestimmt worden sind, wird in Schritt
1204 der Zähler k auf Eins gesetzt. Anschließend wird in Schritt 1205 ein geeig
neter Punkt Q1(k=1) des würfelförmigen Objekts OB ausgewählt (vgl. Fig. 7) und
Bildpunkte qik (vgl. Fig. 8 und 9) des Punktes Q1, die in der ersten und zweiten
Aufnahme auf dem Bildschirm 96 dargestellt sind, durch den von der Maus 100
bewegten Cursor bestimmt. Genauer gesagt werden die Koordinaten der zwei
Punkte q11(qx11, qy11) und q21(qx21, qy21) des Bildpunktes Q1 im RAM-Spei
cher des Computers 90 zeitweise abgespeichert.
In Schritt 1206 werden die oben beschriebenen Kollinear-Gleichungen auf
Grundlage der im RAM-Speicher abgespeicherten Koordinaten gelöst und die
Koordinaten PXj, PYj und PZj der Referenzpunkte P1, P2 und P3 sowie die Ko
ordinaten QX1, QY1 und QZ1 des Objektpunktes Q1 bestimmt.
In Schritt 1207 wird ein Koeffizient m wie folgt berechnet:
m←L/L'.
Dabei ist zu bemerken, daß die Angabe L der wirklichen Länge zwischen den
Referenzpunkten P1, P2 und P3 und die Angabe L' der durch die Ermittlung der
Koordinaten PXj, PYj und PZj der Punkte Pj erhaltenen relativen Länge entspricht.
In Schritt 1208 wird durch Verwendung des Koeffizienten m eine Skalierung zwi
schen den ermittelten Punkten Pj(PXj, PYj, PZj) und dem Punkt Q1 (QX1, QY1,
QZ1) bestimmt, um eine genaue räumliche Beziehung zwischen diesen zu ermit
teln. Anschließend wird in Schritt 1209 das dreidimensionale X-Y-Z-Koordina
tensystem in ein dreidimensionales X'-Y'-Z'-Koordinatensystem transformiert, das
so definiert ist, wie es in Fig. 13 gezeigt ist.
Wie aus Fig. 13 ersichtlich, liegt der Ursprung des dreidimensionalen X'-Y'-Z'-
Koordinatensystems im Referenzpunkt P1, wobei deren X'-Achse durch die Refe
renzpunkte P1 und P2 definiert ist. Des weiteren definieren die X'- und die Z'-
Achse des Koordinatensystems eine Ebene Ps, die die durch die Referenzpunkte
P1, P2 und P3 definierte schraffierte dreieckige Fläche bzw. Referenzfläche
enthält. Dabei ist zu bemerken, daß bei dem in Fig. 13 gezeigten Beispiel, obwohl
der Ursprung des dreidimensionalen X'-Y'-Z'-Koordinatensystems mit dem
Referenzpunkt P1 zusammenfällt, der Ursprung an jeder Position in der Ebene Ps
angeordnet sein kann.
In Schritt 1210 wird die X'-Z'-Ebene, in der die Referenzpunkte P1, P2 und P3
sowie der Objektpunkt Q1 aufgezeichnet sind, als Vermessungskarte auf dem
Bildschirm 96 dargestellt. Anschließend wird in Schritt 1211 bestimmt, ob ein
weiterer Satz Punkte q1k und q2k am würfelförmigen Objekt OB ermittelt werden
soll oder nicht. Wenn ein weiterer Satz Punkte q1k und q2k bestimmt werden soll,
d. h., eine bis dahin nicht ausreichende Anzahl von Punkten q1k und q2k bestimmt
wurde, die für die Erzeugung einer genauen Vermessungskarte nötig sind, fährt
die Steuerung ausgehend von Schritt 1211 mit Schritt 1212 fort, bei dem der Zäh
ler k um Eins erhöht wird. Anschließend wird die Routine mit den Schritten 1205
bis 1210 wiederholt.
Wenn in Schritt 1211 kein weiterer Satz Punkte q1k und q2k ermittelt werden soll,
d. h. wenn ausreichend Sätze von Punkten q1k und q2k bestimmt worden sind, die
für die Erzeugung einer annehmbaren Vermessungskarte erforderlich sind, ist die
Routine abgeschlossen.
Die Fig. 14 und 15 zeigen ein Ablaufdiagramm einer von der Steuereinheit 32
durchgeführten weiteren Aufnahmeroutine. Diese Routine wird gleichfalls initiiert,
indem der Hauptschalterknopf 24 gedrückt wird, der den Hauptschalter 80 an
schaltet.
In Schritt 1401 wird ein Anfangstestprogramm ausgeführt, das ermittelt, ob ver
schiedene Funktionen der Kamera ordnungsgemäß durchgeführt werden können
oder nicht. Sobald eine der Funktionen der Kamera nicht betriebsbereit ist, wird
im LCD-Feld 20 eine Warnungsmitteilung angezeigt, daß die Videokamera nicht
ordnungsgemäß arbeitet.
Anschließend wird in Schritt 1402 ein Zähler n auf Null gesetzt. Danach wird in
Schritt 1403 bestimmt, ob der Auslöser 16 zum Einschalten des Belichtungssen
sorschalters 82 halb gedrückt worden ist oder nicht. Das Bestimmen, ob der
Auslöser 16 halb gedrückt worden ist, wird in Zeitabständen von beispielsweise 1
ms wiederholt.
Sobald bestätigt wird, daß der Auslöser 16 halb gedrückt worden ist, fährt die
Steuerung mit Schritt 1404 fort, bei dem die Belichtungszeit bzw. die für die elek
trische Ladungsspeicherung erforderliche Dauer auf Grundlage des vom Belich
tungssensor 46 erzeugten Ausgangssignals bestimmt wird.
Danach wird in Schritt 1405 bestimmt, ob der Auslöser 16 vollständig gedrückt
wurde oder nicht. Wurde der Auslöser 16, nachdem er halb gedrückt worden war,
nicht vollständig gedrückt, kehrt die Steuerung ausgehend von Schritt 1405 zu
Schritt 1403 zurück. Dabei ist zu bemerken, daß in Zeitabständen von beispiels
weise 1 ms wiederholt überprüft wird, ob der Auslöser 16 vollständig gedrückt
wurde.
Sobald bestätigt wird, daß der Auslöser 16 vollständig gedrückt wurde, wobei der
Auslöseschalter 84 angeschaltet wurde, fährt die Steuerung ausgehend von
Schritt 1405 mit Schritt 1406 fort, bei dem der Auslöser 16 deaktiviert wird.
Anschließend wird in Schritt 1407 die Aufnahmefunktion ausgeführt. Bei der Auf
nahmefunktion wird die Größe der Blende 34 durch die von der Belichtungssteue
rung 44 gesteuerte Blendenstellschaltung auf Grundlage des Ausgangssignals
des Belichtungssensors 46 eingestellt und anschließend der Schnellklappspiegel
38 von der abgesenkten Stellung in die hochgeklappte Stellung nach oben
geschwenkt. Dadurch wird die lichtempfangende Fläche des CCD-Bildsensors 36
den durch die Aufnahmeoptik 12 einfallenden Lichtstrahlen ausgesetzt. Genauer
gesagt wird eine von der Aufnahmeoptik 12 erfaßte optische Abbildung fokussiert
und auf die lichtempfangende Fläche des CCD-Bildsensors 36 projiziert, wobei
die optische Abbildung in ein aus elektrischen Pixelsignalen bestehendes Bildfeld
umgewandelt wird.
In Schritt 1408 werden die Positionsdaten PD und die Winkeldaten AD über die
Sensorsteuerschaltung 76 aus dem Datenspeicher 78 gelesen. Hierzu gibt die
Steuereinheit 32, wie bereits beschrieben, ein Unterbrechungssignal aus, wo
durch die Positionsdaten PD und die Winkeldaten AD in die Sensorsteuerschal
tung 76 eingelesen werden. Danach werden in Schritt 1409 die Positionsdaten PD
in die Positionsdaten PDn und die Winkeldaten AD in die Winkeldaten ADn um
gewandelt.
In Schritt 1410 wird bestimmt, ob die vorgegebene Belichtungszeit zum Umwan
deln der optischen Abbildung in elektrische Pixelsignale durch den CCD-Bildsen
sor 36, d. h. die für die elektrische Ladungsspeicherung erforderliche Zeit abge
laufen ist oder nicht. Sobald die Belichtungszeit abgelaufen ist, wird der Schnell
klappspiegel 38 von der hochgeklappten Stellung wieder in die abgesenkte Stel
lung zurückgeschwenkt.
In Schritt 1411 werden die Pixelsignale des Bildfeldes aus dem CCD-Bildsensor
36 ausgelesen, von dem Verstärker 50 verstärkt, durch den Analog-Digital-
Wandler 52 in digitale Pixelsignale umgewandelt und von der Bildverarbeitungs
schaltung 54 verarbeitet, bevor sie im Speicher 56 zeitweise abgespeichert wer
den.
In Schritt 1412 wird bestimmt, ob der Wert des Zählers n den numerischen Wert
Null übersteigt oder nicht. Da in Schritt 1402 der Zähler n auf Null gesetzt worden
ist, fährt in diesem Betriebszustand die Steuerung mit Schritt 1413 fort, bei dem
die Pixelsignale von dem Speicher 56 an die Speicherkarten-Steuerschaltung 58
abgegeben werden, mit der die ausgegebenen Pixelsignale als Pixeldaten des
Bildfeldes auf der IC-Speicherkarte 28 abgespeichert werden. Gleichzeitig werden
mit der Nummer des Bildfeldes und weiteren Informationsdaten die Positionsdaten
PDn und die Winkeldaten ADn auf der IC-Speicherkarte 28 abgespeichert. Wie in
Fig. 6 gezeigt, werden die Pixeldaten des Bildfeldes im Bilddatenspeicherfeld der
IC-Speicherkarte 28 abgespeichert. Die Positionsdaten PDn, die Winkeldaten
ADn, die Nummer des Bildfeldes und die weiteren Informationsdaten werden im
Kopffeld der IC-Speicherkarte 28 abgespeichert.
Nachdem die Pixeldaten, die Positionsdaten PDn, die Winkeldaten ADn, die
Nummer des Bildfeldes und die weiteren Informationsdaten auf der IC-Speicher
karte 28 abgespeichert worden sind, fährt die Steuerung mit Schritt 1414 fort, bei
dem der Auslöser 16 wieder aktiviert wird. Anschließend wird in Schritt 1415 der
Wert des Zählers n um Eins erhöht. Danach kehrt die Steuerung zu Schritt 1403
zurück und wartet auf die nächste Aufnahme.
Wenn eine nächste Aufnahme ausgeführt wird, ohne daß der Hauptschalter 28
ausgeschaltet wurde, fährt die Steuerung ausgehend von Schritt 1412 direkt mit
Schritt 1416 fort (n = 1), bei dem die nachfolgenden Berechnungen durchgeführt
werden:
ΔPD←PDn-PDn-1
ΔAD←ADn-ADn-1.
ΔAD←ADn-ADn-1.
Wie aus den zuvor genannten Erläuterungen ersichtlich, stellen bei der in Fig. 10
gezeigten fotogrammetrischen Vermessung die Differenzpositionsdaten ΔPD die
Koordinaten X0, Y0 und Z0 der Position M2 und die Differenzwinkeldaten ΔAD die
Winkelkoordinaten α0, β0 und γ0 der optischen Achse O2 dar.
In Schritt 1417 werden die Pixelsignale von dem Speicher 56 an die Speicherkar
ten-Steuerschaltung 58 weitergegeben, mit der die ausgegebenen Pixelsignale
als Pixeldaten des Bildfeldes auf der IC-Speicherkarte 28 abgespeichert werden.
Gleichzeitig werden die Positionsdaten PDn, die Differenzpositionsdaten ΔPD, die
Winkeldaten ADn und die Differenzwinkeldaten ΔAD gemeinsam mit der Nummer
des Bildfeldes und weiteren Informationsdaten auf der IC-Speicherkarte 28
abgespeichert. Dabei ist zu bemerken, daß die Differenzpositionsdaten ΔPD und
die Differenzwinkeldaten ΔAD im Reservefeld der IC-Speicherkarte 28 (vgl. Fig. 6)
abgespeichert werden können.
Wenn also bei der in den Fig. 14 und 15 gezeigten Aufnahmeroutine eine Reihe
Aufnahmen nacheinander durchgeführt wird, ohne den Hauptschalter 80 auszu
schalten, enthält das bei jeder Aufnahme erhaltene, aus Pixeldaten bestehende
Bildfeld relative Positionsdaten ΔPD und relative Winkeldaten ΔAD, die sich aus
dem unmittelbar vorher aufgenommenen Bildfeld ableiten.
Bei der in Fig. 12 gezeigten fotogrammetrischen Meßroutine werden zwei aufein
ander folgende Aufnahmen als ein aus erster und zweiter Aufnahme (vgl. Fig. 8
und 9) bestehender Satz ausgewählt. In diesem Fall sind die in Schritt 1201 der
Meßroutine nach Fig. 12 durchgeführten Berechnungen unnötig.
Fig. 16 zeigt eine Abwandlung der fotogrammetrischen Meßroutine nach Fig. 12,
die die auf der IC-Speicherkarte 28 abgespeicherte Daten verwendet, welche sich
bei Verwendung der Aufnahmeroutine nach den Fig. 14 und 15 ergeben haben.
In Schritt 1601 wird bestimmt, ob zwei nacheinander fotografierte Aufnahmen
ausgewählt worden sind, die der ersten bzw. zweiten Aufnahme nach Fig. 8 bzw.
9 entsprechen. Wurde ein Satz zweier nacheinander fotografierter Aufnahmen
ausgewählt, fährt die Steuerung mit Schritt 1602 fort. In Schritt 1602 werden die
Differenzpositionsdaten ΔPD und die Differenzwinkeldaten ΔAD, die sich auf die
letztere der beiden nacheinander fotografierten Aufnahmen bezieht, als Koordi
naten X0, Y0 und Z0 der Position M2 und als Winkelkoordinaten α0 β0 und γ0
der optischen Achse O2 im RAM-Speicher des Computers 90 zeitweise abge
speichert.
Wenn dagegen kein Satz zweier nacheinander fotografierter Aufnahmen ausge
wählt worden ist, fährt die Steuerung ausgehend von Schritt 1601 mit Schritt 1603
fort, bei dem in gleicher Weise wie in Schritt 1201 nach Fig. 12 die Berechnungen
durchgeführt werden. Anschließend werden in Schritt 1604 dieselben Funktionen
wie in Schritt 1201 durchgeführt.
Bei einer Abwandlung der in Fig. 16 dargestellten fotogrammetrischen Meßroutine
werden die Differenzpositionsdaten ΔPD bzw. die Koordinatendaten X0, Y0 und
Z0 der Position M2 sowie die Differenzwinkeldaten ΔAD bzw. die Winkelko
ordinaten α0 β0 und γ0 der optischen Achse O2 unmittelbar aus der IC-Spei
cherkarte 28 ausgelesen, sobald ein Satz zwei aufeinanderfolgend fotografierter
Aufnahmen ausgewählt worden ist, so daß die Schritte 1603 und 1604 nicht aus
geführt werden müssen. Dadurch kann das fotogrammetrische Meßverfahren
weiter vereinfacht werden.
Bei der in den Fig. 14 und 15 gezeigten zweiten Ausführungsform kann, obwohl
die Positionsdaten PDn, die Differenzpositionsdaten ΔPD, die Winkeldaten ADn
und die Differenzwinkeldaten ΔAD gemeinsam mit den Nummern der Bildfelder
und weiteren Informationsdaten auf der IC-Speicherkarte 28 abgespeichert wer
den, auf das Abspeichern der Positionsdaten PDn und der Winkeldaten ADn ver
zichtet werden, wodurch Speicherkapazität der IC-Speicherkarte 28 gespart wer
den kann.
Aus den vorher erfolgten Erläuterungen ist ersichtlich, daß mit einem die foto
grammetrische Meßroutine ausführenden Computer sehr schnell eine Vermes
sungskarte erstellt werden kann, da die erfindungsgemäße Kamera mit einem
Positionserfassungssystem ausgestattet ist, mit dem relative Lagebeziehungen
zwischen unterschiedlichen Positionen während des Fotografierens bestimmbar
sind.
Claims (17)
1. Kamera, insbesondere zum fotogrammetrischen Vermessen, gekennzeich
net durch eine Positionserfassungseinrichtung (64 bis 78) zum Ermitteln
einer dreidimensionalen relativen Lagebeziehung zwischen verschiedenen
Aufnahmepositionen (M1, M2) der Kamera (CA).
2. Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die Positionser
fassungseinrichtung (64 bis 78) ein nahe der Kamera (CA) definiertes drei
dimensionales Koordinatensystem verwendet, auf das sich die ermittelten
relativen Lagebeziehungen zwischen den unterschiedlichen Aufnahmeposi
tionen (M1, M2) bezieht.
3. Kamera nach Anspruch 2, dadurch gekennzeichnet, daß der Ursprung des
dreidimensionalen Koordinatensystems am hinteren Hauptpunkt (M1, M2)
einer Aufnahmeoptik (12) der Kamera (CA) angeordnet ist.
4. Kamera nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß das dreidi
mensionale Koordinatensystem eine vertikale erste Achse (ψ) sowie zwei
sich vom Ursprung des Koordinatensystems horizontal erstreckende Achsen
(χ, ω) hat, die rechtwinklig zueinander verlaufen.
5. Kamera nach Anspruch 1, 2, 3 oder 4, dadurch gekennzeichnet, daß die
Positionserfassungseinrichtung für jede der drei Achsen eines dreidimensio
nalen Koordinatensystems einen Drehwinkel-Sensor (64, 66, 68) zum Erfas
sen von Drehbewegungen um die jeweilige Achse (χ, ψ, ω) sowie einen
Beschleunigungssensor (70, 72 bzw. 74) zum Erfassen von Translationsbe
wegungen entlang der jeweiligen Achse (χ, ψ, ω) hat.
6. Kamera nach Anspruch 5, dadurch gekennzeichnet, daß der die Drehbe
wegung um die erste Achse (ψ) erfassende Drehwinkel-Sensor ein magne
tisch arbeitender Azimut-Sensor (64) ist.
7. Kamera nach Anspruch 5 oder 6, dadurch gekennzeichnet, daß die Positi
onserfassungseinrichtung mindestens eine Recheneinheit (76) hat, die auf
Grundlage der von den Drehwinkel-Sensoren (64, 66, 68) ermittelten Dreh
bewegungen sich auf die verschiedenen Aufnahmepositionen (M1, M2) be
ziehende Winkeldaten (AD) und auf Grundlage der von den Beschleuni
gungs-Sensoren (70, 72, 74) ermittelten Translationsbewegungen sich auf
die verschiedenen Aufnahmepositionen (M1, M2) beziehende Translations
daten berechnet.
8. Kamera nach Anspruch 7, dadurch gekennzeichnet, daß die Recheneinheit
(76) auf Grundlage der Translationsdaten sich auf die verschiedenen Auf
nahmepositionen (M1 und M2) beziehende Positionsdaten (PD) berechnet.
9. Kamera nach Anspruch 8, gekennzeichnet durch ein austauschbares Spei
chermedium (28), auf dem von der Kamera aufgenommene, eine Aufnahme
definierende Bilddaten gemeinsam mit den Positionsdaten (PD) und den
Winkeldaten (AD) abgespeichert werden.
10. Kamera nach Anspruch 8 oder 9, dadurch gekennzeichnet, daß die Positi
onserfassungseinrichtung eine Recheneinheit (76) hat, die eine Winkeldif
ferenz (ΔAD) zweier Winkeldaten (AD) nacheinander an verschiedenen
Positionen (M1, M2) fotografierter Aufnahmen, sowie eine Positionsdifferenz
(ΔPD) zweier Positionsdaten (PD) der zwei nacheinander fotografierten Auf
nahmen berechnet.
11. Kamera nach Anspruch 10, gekennzeichnet durch ein austauschbares
Speichermedium (28), auf dem von der Kamera (CA) aufgenommene, die
Aufnahmen definierende Bilddaten gemeinsam mit der Winkeldifferenz (ΔAD)
und der Positionsdifferenz (ΔPD) abgespeichert werden.
12. Speichermedium zum Speichern von durch eine Kamera (CA) erzeugten, ei
ne Aufnahme definierenden Bilddaten, dadurch gekennzeichnet, daß ge
meinsam mit den Bilddaten dreidimensionale Lagedaten (AD, ΔAD, PD, ΔPD)
auf dem Speichermedium (28) abspeicherbar sind, mit denen die Posi
tion (M1 bzw. M2) der Kamera (CA) während der Aufnahme angegeben
werden.
13. Speichermedium nach Anspruch 12, dadurch gekennzeichnet, daß sich die
Lagedaten (AD, ΔAD, PD, ΔPD) auf ein nahe der Kamera (CA) definiertes
dreidimensionales Koordinatensystem (χ, ψ ω) beziehen.
14. Speichermedium nach Anspruch 13, dadurch gekennzeichnet, daß der Ur
sprung des Koordinatensystems (χ, ψ, ω) in der Kamera (CA), vorzugsweise
am hinteren Hauptpunkt (M1 bzw. M2) einer Aufnahmeoptik (12) der Kamera
(CA) angeordnet ist.
15. Speichermedium nach Anspruch 14, dadurch gekennzeichnet, daß das
dreidimensionale Koordinatensystem eine vertikale erste Achse (ψ) sowie
zwei sich vom Ursprung des Koordinatensystems horizontal erstreckende
Achsen (χ, ω) hat, die rechtwinklig zueinander verlaufen.
16. Speichermedium nach einem der Ansprüche 12 bis 15, dadurch gekenn
zeichnet, daß die dreidimensionalen Lagedaten relative dreidimensionale
Winkeldaten (AD) und relative dreidimensionale Positionsdaten (PD) ver
schiedener Aufnahmepositionen (M1 und M2) der Kamera (CA) sind.
17. Speichermedium nach einem der Ansprüche 12 bis 16, dadurch gekenn
zeichnet, daß als Lagedaten eine Winkeldifferenz (ΔAD) von zwei relativen
dreidimensionalen Winkeldaten (AD) nacheinander an verschiedenen Posi
tionen (M1 und M2) fotografierter Aufnahmen sowie eine Positionsdifferenz (ΔPD) von zwei relativen dreidimensionalen Positionsdaten (PD) der zwei
nacheinander fotografierten Aufnahmen dienen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1313897 | 1997-01-08 | ||
JP26806697 | 1997-09-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19800447A1 true DE19800447A1 (de) | 1998-07-09 |
Family
ID=26348867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19800447A Withdrawn DE19800447A1 (de) | 1997-01-08 | 1998-01-08 | Kamera, insbesondere zum fotogrammetrischen Vermessen |
Country Status (2)
Country | Link |
---|---|
US (1) | US6600511B1 (de) |
DE (1) | DE19800447A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999063306A1 (en) * | 1998-05-29 | 1999-12-09 | Central Research Laboratories Limited | Method and apparatus for automated measurement |
DE19836303A1 (de) * | 1998-08-11 | 2000-02-17 | Dimension 3D Systems Gmbh | Kamerakalibrierung für multiokulare Aufnahmen |
EP1291617A1 (de) * | 2001-09-06 | 2003-03-12 | DaimlerChrysler AG | Verfahren und Anordnung zum Bestimmen der Position und Ausrichtung einer Bildaufnahme-Einrichtung beim optischen Vermessen von Objekten |
DE10125710B4 (de) * | 2000-05-25 | 2005-02-10 | Pentax Corp. | Zielobjekt für ein fotogrammetrisches, analytisches Meßsystem |
WO2007000491A1 (en) * | 2005-06-29 | 2007-01-04 | Nokia Corporation | Method, device, and program product for visually indicating a selected object, using a device equipped with camera |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6912293B1 (en) | 1998-06-26 | 2005-06-28 | Carl P. Korobkin | Photogrammetry engine for model construction |
JP2000010141A (ja) * | 1998-06-26 | 2000-01-14 | Ricoh Co Ltd | 手振れ補正機能付きデジタルカメラ |
US7053937B1 (en) * | 1999-05-21 | 2006-05-30 | Pentax Corporation | Three-dimensional image capturing device and recording medium |
US7893963B2 (en) * | 2000-03-27 | 2011-02-22 | Eastman Kodak Company | Digital camera which estimates and corrects small camera rotations |
JP4427891B2 (ja) * | 2000-10-27 | 2010-03-10 | コニカミノルタホールディングス株式会社 | 画像管理装置、デジタル撮像装置および画像生成装置 |
US7098997B2 (en) * | 2002-06-26 | 2006-08-29 | Pentax Corporation | Surveying system |
US7075634B2 (en) * | 2002-06-28 | 2006-07-11 | Pentax Corporation | Surveying system |
US20080255840A1 (en) * | 2007-04-16 | 2008-10-16 | Microsoft Corporation | Video Nametags |
US8526632B2 (en) * | 2007-06-28 | 2013-09-03 | Microsoft Corporation | Microphone array for a camera speakerphone |
US8330787B2 (en) | 2007-06-29 | 2012-12-11 | Microsoft Corporation | Capture device movement compensation for speaker indexing |
WO2009024758A1 (en) | 2007-08-17 | 2009-02-26 | Renishaw Plc | Non-contact probe |
FI123049B (fi) * | 2007-09-03 | 2012-10-15 | Mapvision Ltd Oy | Tallentava konenäköjärjestelmä |
GB0915904D0 (en) | 2009-09-11 | 2009-10-14 | Renishaw Plc | Non-contact object inspection |
US8897543B1 (en) * | 2012-05-18 | 2014-11-25 | Google Inc. | Bundle adjustment based on image capture intervals |
US9538336B2 (en) * | 2012-12-28 | 2017-01-03 | Trimble Inc. | Performing data collection based on internal raw observables using a mobile data collection platform |
US9544737B2 (en) * | 2012-12-28 | 2017-01-10 | Trimble Inc. | Performing data collection based on external raw observables using a mobile data collection platform |
US9462446B2 (en) * | 2012-12-28 | 2016-10-04 | Trimble Navigation Limited | Collecting external accessory data at a mobile data collection platform that obtains raw observables from an internal chipset |
US9467814B2 (en) * | 2012-12-28 | 2016-10-11 | Trimble Navigation Limited | Collecting external accessory data at a mobile data collection platform that obtains raw observables from an external GNSS raw observable provider |
US10951859B2 (en) | 2018-05-30 | 2021-03-16 | Microsoft Technology Licensing, Llc | Videoconferencing device and method |
RU2740445C2 (ru) * | 2018-09-14 | 2021-01-14 | Общество с ограниченной ответственностью "НАВИГАТОРСПАС" | Способ конвертации преобразования перевода 2D-изображений в формат 3D |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5335072A (en) | 1990-05-30 | 1994-08-02 | Minolta Camera Kabushiki Kaisha | Photographic system capable of storing information on photographed image data |
JP3021556B2 (ja) * | 1990-06-20 | 2000-03-15 | ソニー株式会社 | 映像情報処理装置とその方法 |
JP3391405B2 (ja) * | 1992-05-29 | 2003-03-31 | 株式会社エフ・エフ・シー | カメラ映像内の物体同定方法 |
JP3230605B2 (ja) | 1992-06-03 | 2001-11-19 | オリンパス光学工業株式会社 | カメラ |
JPH0667293A (ja) | 1992-08-14 | 1994-03-11 | Olympus Optical Co Ltd | カメラ |
US5764291A (en) * | 1994-09-30 | 1998-06-09 | Apple Computer, Inc. | Apparatus and method for orientation-dependent camera exposure and focus setting optimization |
US6195122B1 (en) * | 1995-01-31 | 2001-02-27 | Robert Vincent | Spatial referenced photography |
US5699444A (en) * | 1995-03-31 | 1997-12-16 | Synthonics Incorporated | Methods and apparatus for using image data to determine camera location and orientation |
JPH08285585A (ja) | 1995-04-13 | 1996-11-01 | Mitsui Constr Co Ltd | 写真測量用カメラユニット |
JPH08336069A (ja) * | 1995-04-13 | 1996-12-17 | Eastman Kodak Co | 電子スチルカメラ |
JPH08285588A (ja) * | 1995-04-13 | 1996-11-01 | Mitsui Constr Co Ltd | 撮影装置及びこれを用いた飛行撮影装置 |
US5794078A (en) * | 1995-09-11 | 1998-08-11 | Nikon Corporation | Image movement correction of camera |
US6282362B1 (en) * | 1995-11-07 | 2001-08-28 | Trimble Navigation Limited | Geographical position/image digital recording and display system |
JPH09187038A (ja) * | 1995-12-27 | 1997-07-15 | Canon Inc | 3次元形状抽出装置 |
JP3426459B2 (ja) * | 1997-02-03 | 2003-07-14 | ペンタックス株式会社 | 写真測量システムおよび写真測量方法 |
-
1998
- 1998-01-06 US US09/003,589 patent/US6600511B1/en not_active Expired - Fee Related
- 1998-01-08 DE DE19800447A patent/DE19800447A1/de not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999063306A1 (en) * | 1998-05-29 | 1999-12-09 | Central Research Laboratories Limited | Method and apparatus for automated measurement |
DE19836303A1 (de) * | 1998-08-11 | 2000-02-17 | Dimension 3D Systems Gmbh | Kamerakalibrierung für multiokulare Aufnahmen |
DE10125710B4 (de) * | 2000-05-25 | 2005-02-10 | Pentax Corp. | Zielobjekt für ein fotogrammetrisches, analytisches Meßsystem |
EP1291617A1 (de) * | 2001-09-06 | 2003-03-12 | DaimlerChrysler AG | Verfahren und Anordnung zum Bestimmen der Position und Ausrichtung einer Bildaufnahme-Einrichtung beim optischen Vermessen von Objekten |
WO2007000491A1 (en) * | 2005-06-29 | 2007-01-04 | Nokia Corporation | Method, device, and program product for visually indicating a selected object, using a device equipped with camera |
Also Published As
Publication number | Publication date |
---|---|
US6600511B1 (en) | 2003-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19804205B4 (de) | Fotogrammetrisches Meßverfahren und fotogrammetrische Meßeinrichtung | |
DE19800447A1 (de) | Kamera, insbesondere zum fotogrammetrischen Vermessen | |
DE19800336A1 (de) | Kamera mit Abstandsmessungs-Sensoreinheit | |
DE102018200154A1 (de) | Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor | |
DE60034166T2 (de) | Automatische Vermessungsgerät und Verfahren zum dreidimensionalen Messen | |
DE69124146T2 (de) | Elektronische Kamera | |
DE19922321C2 (de) | Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter | |
EP1606581B1 (de) | VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEODÄTISCHEN MESSGER T | |
DE60306301T2 (de) | Verfahren und Gerät zur Erfassung, Geolokalisierung und Vermessung schräg aufgenommener Bilder | |
DE3433412C3 (de) | Eingänge eines Rechners zum Berechnen einer optimalen Gegenstandsebene, die durch zu den ausgewählten Bildpunkten optisch konjugierte Gegenstandspunkte definiert ist, und zum Berechnen der Soll-Einstellung des Objektiv- und/oder Bildträgers einzugeben | |
EP1774401B1 (de) | Verfahren zum fokussieren des aufnahmeobjektivs einer laufbild- oder videokamera | |
EP1158271B1 (de) | Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte | |
EP3182065A1 (de) | Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen | |
DE4113537A1 (de) | Geraet zur automatischen scharfeinstellung | |
WO2013178609A1 (de) | Verfahren und handhaltbares entfernungsmessgerät zur indirekten entfernungsmessung mittels bildgestützter winkelbestimmungsfunktion | |
EP2044573A1 (de) | Überwachungskamera, verfahren zur kalibrierung der überwachungskamera sowie verwendung der überwachungskamera | |
DE3920160A1 (de) | Anordnung zur bildverarbeitung | |
WO2003091660A1 (de) | Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes | |
EP2886043A1 (de) | Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten | |
CH692873A5 (de) | Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras. | |
DE3921983A1 (de) | Verbundkamera mit automatischer parallaxenkorrektur | |
CH563013A5 (de) | ||
DE112018007660T5 (de) | Kalibriervorrichtung für eine abbildungsvorrichtung, überwachungsvorrichtung, arbeitsmaschine und kalibrierverfahren | |
DE3712958C1 (en) | Method and device for photographically measuring a three-dimensional object | |
WO1998008053A1 (de) | Stereokamera für die photogrammetrie |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8127 | New person/name/address of the applicant |
Owner name: PENTAX CORP., TOKIO/TOKYO, JP |
|
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G01C 1102 |
|
8130 | Withdrawal |