DE112012004055T5 - Bildaufnahmevorrichtung - Google Patents

Bildaufnahmevorrichtung Download PDF

Info

Publication number
DE112012004055T5
DE112012004055T5 DE112012004055.4T DE112012004055T DE112012004055T5 DE 112012004055 T5 DE112012004055 T5 DE 112012004055T5 DE 112012004055 T DE112012004055 T DE 112012004055T DE 112012004055 T5 DE112012004055 T5 DE 112012004055T5
Authority
DE
Germany
Prior art keywords
image
optical
point
unit
spectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112012004055.4T
Other languages
English (en)
Inventor
c/o Kabushiki Kaisha Topcon Osaragi Kazuki
c/o Kabushiki Kaisha Topcon Momiuchi Masayuki
c/o Kabushiki Kaisha Topcon Otani Hitoshi
c/o Kabushiki Kaisha OT Research Ohtomo Fumio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011212478A external-priority patent/JP5937799B2/ja
Priority claimed from JP2011230443A external-priority patent/JP5802516B2/ja
Application filed by Topcon Corp filed Critical Topcon Corp
Publication of DE112012004055T5 publication Critical patent/DE112012004055T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/255Details, e.g. use of specially adapted sources, lighting or optical systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0229Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using masks, aperture plates, spatial light modulators or spatial filters, e.g. reflective filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/32Investigating bands of a spectrum in sequence by a single detector
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J2003/1226Interference filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J2003/1226Interference filters
    • G01J2003/1243Pivoting IF or other position variation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/043Picture signal generators using solid-state devices having a single pick-up sensor using an alternating colour separation filter, e.g. colour wheel or colour LCD

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

Eine Bildaufnahmevorrichtung, die eine Optikeigenschaften-Änderungseinheit (15), ein optisches System (45), das eine Objektivlinse (47) enthält, zum Leiten von Licht von der Objektivlinse zu der Optikeigenschaften-Änderungseinheit und ein Bildaufnahmeelement (52) zum Empfangen von Licht über die Optikeigenschaften-Änderungseinheit umfasst, wobei die Optikeigenschaften-Änderungseinheit zwei oder mehr Teilereinheiten besitzt und eine Anordnung hat, in der eine der Teilereinheiten wahlweise entlang eines optischen Wegs angeordnet ist und die Teilereinheit einen ersten Bereich hat, um eine bestimmte Wellenlänge von dem Licht, das aus dem optischen System kommt, auszuwählen und einen zweiten Bereich hat, in dem optische Eigenschaften des Lichts aus dem optischen System nicht geändert werden.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Bildaufnahmevorrichtung, um optische Spektralcharakteristiken zu erhalten und um ferner ein Hyper-Spektralbild eines Objekts, das vermessen werden soll, zu erhalten.
  • Hintergrund
  • In der Vergangenheit war es üblich, ein Bild eines Objekts, das vermessen werden soll, zu derselben Zeit aufzunehmen wie die dreidimensionalen Daten des Objekts, das vermessen werden soll, und die dreidimensionalen Daten mit einem Bild durch ein Ausführen von einer digitalen Photogrammetrie des Objekts, das vermessen werden soll, zu erhalten, usw.
  • Die dreidimensionalen Daten mit Bildern, wie sie durch einen konventionellen Typ von dreidimensionaler Messvorrichtung erfasst werden, sind für Kartendaten und dergleichen verwendet worden und sie sind verwendet worden, um Effekte zu liefern wie etwa einen Effekt, um die Sicht eines Anwenders zu verbessern, oder irgendwelche anderen Effekte.
  • Auf der anderen Seite sind die erhaltenen Daten dreidimensionale Positionsdaten des Objekts, das vermessen werden soll, und die so erhaltenen Informationen stellen eine dreidimensionale Position des Objekts, das vermessen werden soll, dar.
  • Wenn eine Messung an dem Objekt, das vermessen werden soll, ausgeführt wird, ist es gewollt, mehrere Arten von Informationen zu erfassen, und es ist erwünscht, dass nicht nur die Positionsdaten des Objekts gemessen werden sollen, sondern auch Informationen über die Charakteristiken des Objekts gemessen werden, wobei zu diesem Zweck ein geographisches Informationssystem (GIS) verwendet wird.
  • Wenn zum Beispiel Informationen über die Wachstumsbedingungen von landwirtschaftlichen Produkten erhalten werden können, können eine angemessene Beurteilung und angebrachte Maßnahmen an landwirtschaftlicher Arbeit vorgenommen werden. Oder wenn ein Typ und andere Bedingungen einer mineralischen Substanz, die an der Bodenoberfläche freiliegt, identifiziert werden können, ist es möglich, ein bauingenieurtechnisches Arbeitsverfahren zu wählen, das für den Zweck angemessen ist.
  • Um die oben beschriebenen Ziele zu erreichen, stellt die vorliegende Erfindung eine Bildaufnahmevorrichtung bereit, mit der es möglich ist, optische Spektralcharakteristiken zu erhalten – insbesondere ein Hyper-Spektralbild.
  • Referenzen des Standes der Technik
    • [Patentdokument 1] Patentanmeldung JP-A-2011-89895
    • [Patentdokument 2] Patentanmeldung JP-A-2006-10376
  • Offenlegung der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildaufnahmevorrichtung, die eine Optikeigenschaften-Änderungseinheit, ein optisches System, das eine Objektivlinse enthält, zum Leiten von Licht von der Objektivlinse zu der Optikeigenschaften-Änderungseinheit und ein Bildaufnahmeelement zum Empfangen von Licht über die Optikeigenschaften-Änderungseinheit umfasst, wobei die Optikeigenschaften-Änderungseinheit zwei oder mehr Teilereinheiten besitzt und eine Anordnung besitzt, in der eine der Teilereinheiten wahlweise entlang eines optischen Wegs angeordnet ist und die Teilereinheit einen ersten Bereich hat, um eine bestimmte Wellenlänge von dem Licht, das aus dem optischen System kommt, auszuwählen, und einen zweiten Bereich hat, in dem optische Eigenschaften des Lichts aus dem optischen System nicht geändert werden.
  • Ferner bezieht sich die vorliegende Erfindung auf die Bildaufnahmevorrichtung, die ferner eine Bildaufnahme-Steuervorrichtung umfasst, wobei basierend auf einem Bildabgleich eines Bildes, das über den zweiten Bereich einer Teilereinheit aufgenommen ist, und eines Bildes, das über den zweiten Bereich einer anderen Teilereinheit aufgenommen ist, ein optisch-spektrales Synthesebild durch Synthetisieren eines Bildes, das über den ersten Bereich der einen Teilereinheit aufgenommen ist, mit einem Bild, das über den ersten Bereich einer anderen Teilereinheit aufgenommen ist, angefertigt wird.
  • Ferner bezieht sich die vorliegende Erfindung auf die Bildaufnahmevorrichtung, die ferner eine Blende umfasst, die entlang eines optischen Wegs angeordnet ist, wobei die Blende eine Blendenöffnung hat und die Wellenlänge, die von der Optikeigenschaften-Änderungseinheit gewählt wird, durch Bewegen der Blende geändert werden kann.
  • Ferner bezieht sich die vorliegende Erfindung auf die Bildaufnahmevorrichtung, wobei die Optikeigenschaften-Änderungseinheit ferner eine nochmals weitere Teilereinheit umfasst, um nicht optische Eigenschaften des ersten Bereichs und des zweiten Bereichs zu ändern.
  • Ferner bezieht sich die vorliegende Erfindung auf die Bildaufnahmevorrichtung, wobei die Bildaufnahme-Steuervorrichtung basierend auf einem Bildabgleich eines Bildes, das über den zweiten Bereich der zwei oder mehr Teilereinheiten aufgenommen ist, und eines Standbildes, das über die weitere Teilereinheit aufgenommen ist, ein Bild, das über den ersten Bereich der zwei oder mehr Teilereinheiten aufgenommen ist, und das Standbild synthetisiert und ein Hyper-Spektralbild anfertigt.
  • Ferner bezieht sich die Erfindung auf die Bildaufnahmevorrichtung, die ferner eine GPS-Vorrichtung zur Durchführung einer Messung der geozentrischen Koordinaten umfasst, wobei die Bildaufnahme-Steuervorrichtung ein Standbild über die weitere Teilereinheit an einem ersten Punkt aufnimmt, zwei oder mehr Merkmalspunkte aus dem Standbild an dem ersten Punkt extrahiert, ein Videobild, das ein Einzelbild, das in einer Zeitabfolge fortlaufend ist, enthält, über die weitere Teilereinheit während der Bewegung von dem ersten Punkt zu dem zweiten Punkt aufnimmt und ferner eine Videobildverfolgung durch ein Videobild, das sich von dem ersten Punkt zu dem zweiten Punkt bewegt, ausführt, ein Standbild über die weitere Teilereinheit an dem zweiten Punkt aufnimmt, den Merkmalspunkt auf dem Standbild an dem zweiten Punkt bestimmt, einen Stereo-Abgleich des Standbildes an dem ersten Punkt und des Standbildes an dem zweiten Punkt basierend auf dem Merkmalspunkt ausführt, ein dreidimensionales Modell basierend auf Positionen des ersten Punkts und des zweiten Punkts, die durch die GPS-Vorrichtung gemessen werden, in einem geozentrischen Koordinatensystem anfertigt, und die Bildaufnahme-Steuerungsvorrichtung ein vierdimensionales Modell mit dreidimensionalen Positionsdaten und optischen Spektrumsinformationen durch Synthetisieren des optisch-spektralen Synthesebildes und des dreidimensionalen Modells anfertigt.
  • Kurzbeschreibung der Figuren
  • 1 ist eine schematische Zeichnung, um ein kleines fliegendes Objekt darzustellen, an Bord dessen eine Bildaufnahmevorrichtung nach der vorliegenden Erfindung montiert ist.
  • 2 ist ein schematisches Blockdiagramm einer Kameraeinheit und einer Bildaufnahme-Steuervorrichtung der Bildaufnahmevorrichtung nach einer ersten Ausführungsform der vorliegenden Erfindung.
  • 3 ist eine Vorderansicht eines Interferenzfilters, der mit mehreren Transmissionsinterferenzmembranen mit verschiedenen Eigenschaften nach der ersten Ausführungsform versehen ist.
  • 4A und 4B stellen jeweils eine Veranschaulichung dar, um ein optisches System einer Kamera zu zeigen, die einen Interferenzfilter eines Transmissions-Typs hat, der in der Ausführungsform der vorliegenden Erfindung verwendet wird. 4A zeigt einen Zustand, in dem eine Blendenöffnung mit einer optischen Achse zusammenfällt, 4B zeigt einen Zustand, in dem die Blendenöffnung von der optischen Achse separiert ist.
  • 5 ist ein Graph, der eine Beziehung zwischen einem Einfallswinkel und einer Spitzenwellenlänge von transmittiertem Licht zeigt.
  • 6 ist ein Graph, der zeigt, dass Wellenlängentransmissionseigenschaften einem Einfallswinkel an einem Interferenzfilter entsprechen.
  • 7 ist eine Darstellung, um Bedingungen zu zeigen, unter denen ein Hyper-Spektralbild in der vorliegenden Ausführungsform aufgenommen wird.
  • 8 enthält Darstellungen, die Bedingungen zwischen Bildern zeigen, wenn mehrere Bilder in einem Schwebezustand aufgenommen werden.
  • 9 ist ein Flussdiagramm, um einen Betrieb der ersten Ausführungsform der vorliegenden Erfindung darzustellen.
  • 10 ist ein Flussdiagramm, um Einzelheiten der Vorgänge in Schritt 03 bis Schritt 06, die in 9 gezeigt sind, zu erklären.
  • 11A und 11B sind Darstellungen, die eine Kamera, die in einer zweiten Ausführungsform der vorliegenden Erfindung verwendet werden soll, und ein optisches System mit einem Interferenzfilter eines Reflexions-Typs zeigen.
  • 11A zeigt einen Zustand, in dem eine Blendenöffnung mit einer optischen Achse zusammenfällt, und 11B zeigt einen Zustand, in dem die Blendenöffnung von der optischen Achse separiert ist.
  • 12 stellt eine Vorderansicht eines Interferenzfilters, der in einer zweiten Ausführungsform mit mehreren Reflexionsinterferenzmembranen mit verschiedenen Eigenschaften versehen ist.
  • 13A und 13B sind Darstellungen, die eine Beispielvariante der Kamera, die in der zweiten Ausführungsform der Erfindung verwendet werden soll, zeigen.
  • 13A zeigt einen Zustand, in dem eine Blendenöffnung mit einer optischen Achse zusammenfällt, und 13B zeigt einen Zustand, in dem die Blendenöffnung von der optischen Achse separiert ist.
  • 14 ist ein schematisches Blockdiagramm, um eine Kameraeinheit und eine Bildaufnahme-Steuervorrichtung der Bildaufnahmevorrichtung nach einer dritten Ausführungsform der vorliegenden Erfindung zu zeigen.
  • Bezugszeichenliste
  • 1
    Helikopter
    2
    Basisstation-Steuervorrichtung
    3
    Helikopterkörper
    9
    GPS-Vorrichtung
    11
    Bildaufnahmevorrichtung
    12
    Optische Achse
    13
    Kameraeinheit
    14
    Kamera
    15
    Interferenzfilter
    21
    Bildaufnahme-Steuervorrichtung
    22
    Arithmetiksteuereinheit
    28
    Bildsyntheseeinheit
    29
    Bildverarbeitungseinheit
    33
    Messeinheit
    34
    Modellbild-Erzeugungseinheit
    35
    Anzeigeeinheit
    36
    Speichereinheit
    45
    Optisches System
    47
    Objektivlinse
    48
    Erste Relaislinse
    49
    Zweite Relaislinse
    50
    Dritte Relaislinse
    51
    Bilderzeugungslinse
    52
    Bildaufnahmelinse
    55
    Blende
    56
    Telezentrisches optisches System
    57
    Hauptstrahl
    58
    Bild
    60
    Abgeteilte Transmissionsoberfläche
    61
    Interferenzfilter
    62
    Interferenzfilter
    63
    Abgeteilte Reflexionsoberfläche
    64
    Reflexionsspiegel
  • Beste Art für die Ausführung der Erfindung
  • Nachstehend wird eine Beschreibung einer Ausführungsform der vorliegenden Erfindung unter Bezug auf die beigefügten Zeichnungen gegeben.
  • Eine Bildaufnahmevorrichtung gemäß der Ausführungsform der vorliegenden Erfindung ist an Bord einer kleinen Art von unbemanntem Luftfahrzeug, z. B. einer kleinen Art von Helikopter, der durch eine Fernsteuerung betrieben werden kann, oder einer kleinen Art von Helikopter, der zur Durchführung eines autonomen Flugs fähig ist, montiert.
  • 1 zeigt ein kleines Flugobjekt, an Bord dessen eine Bildaufnahmevorrichtung nach der vorliegenden Erfindung montiert ist.
  • In 1 bezeichnet Bezugszeichen 2 eine Basisstation-Steuervorrichtung, die auf der Bodenoberfläche installiert ist. Die Basisstation-Steuervorrichtung 2 kann Daten mit einem Flugobjekt 1 austauschen und den Flug des Flugobjekts 1 steuern, erstellt und ändert den Flugplan und speichert und verwaltet Informationen, die durch das Flugobjekt 1 gesammelt werden.
  • Das Flugobjekt 1 ist z. B. ein Helikopter, der als eine kleine Art von Flugobjekt verwendet wird, das in autonomem Flug betrieben wird. Dieser Helikopter wird durch Fernsteuerung von der Basisstation-Steuervorrichtung 2 betrieben. Oder es wird ein Flugplan an einer Steuervorrichtung (nicht gezeigt) des Helikopters 1 von der Basisstation-Steuervorrichtung erstellt und die Steuervorrichtung steuert Navigationsmittel (die später beschrieben werden) und es wird ein autonomer Flug nach einem Flugplan ausgeführt. Ferner steuert die Steuervorrichtung die Navigationsmittel und steuert den Helikopter 1 so, dass er mit einer vorbestimmten Geschwindigkeit und auf einer vorbestimmten Höhe fliegt, und sie kann den Helikopter auch in einem Schwebezustand (stationärem Flugzustand) auf einer vorgegebenen Position steuern.
  • Der Helikopter 1 hat einen Helikopterkörper 3 und hat so viele Propeller wie nötig und diese sind an dem Helikopterkörper 3 montiert, z. B. vier Sätze von Propellern 4, 5, 6, und 7, die jeweils an einer vorderen, hinteren, rechten und linken Position montiert sind. Jeder der Propeller 4, 5, 6, und 7 ist einzeln mit einem Motor (nicht gezeigt) verbunden, und die Ansteuerung jedes Motors ist so gestaltet, dass er unabhängig gesteuert wird. Die Propeller 4, 5, 6, und 7 und die Motoren und dergleichen stellen zusammen die Navigationsmittel des Helikopters 1 dar.
  • An dem Helikopterkörper 3 ist eine GPS-Vorrichtung 9 zum Messen von Referenzpositionen des Helikopters 1 (z. B. dem Zentrum des Helikopterkörpers 3) montiert.
  • An dem Helikopterkörper 3 des Helikopters 1 ist eine Bildaufnahmevorrichtung 11 an Bord vorgesehen. Die Bildaufnahmevorrichtung 11 hat eine optische Achse 12, und die optische Achse 12 ist dazu ausgelegt, in eine Abwärtsrichtung ausgestreckt zu werden, so dass die Bildaufnahmevorrichtung 11 Bilder von Positionen in Abwärtsrichtung des Helikopters 1 aufnehmen kann.
  • Als nächstes wird mit Bezug auf 2 die Beschreibung einer ungefähren Anordnung der Bildaufnahmevorrichtung 11 nach einer ersten Ausführungsform der vorliegenden Erfindung gegeben.
  • Die Bildaufnahmevorrichtung 11 hat eine Kameraeinheit 13 und eine Bildaufnahme-Steuervorrichtung 21. Die Bildaufnahme-Steuervorrichtung 21 kann eine digitale Photogrammetrie eines Objekts, das vermessen werden soll, gemäß Bilddaten, die durch die Kameraeinheit 13 aufgenommen werden, und Positionsdaten von der GPS-Vorrichtung 9 durchführen oder führt eine Verarbeitung so aus, dass sie die optischen Spektralbilddaten, die durch die Kameraeinheit 13 erfasst werden, mit den Bilddaten und Anderem synthetisiert.
  • Zuerst wird eine Beschreibung der Kameraeinheit 13 gegeben.
  • Die Kameraeinheit 13 umfasst eine Kamera 14, einen Interferenzfilter 15, der eine Optikeigenschaften-Änderungseinheit wie später beschrieben ist, und einen Motor 16, der als Mittel zum Wechseln des Interferenzfilters 15 verwendet wird. Die Kamera 14 ist entlang der optischen Achse 12 vorgesehen und ist so gestaltet, dass die Kamera 14 ein Bild, so wie es ist, (d. h. ein Realbild) des Objekts, das vermessen werden soll, aufnehmen kann.
  • Die Kamera 14 nimmt Bilder an den Punkten, an denen gemessen werden soll, auf und gibt digitale Bilddaten aus. Zudem kann die Kamera 14 ein Standbild nach einem vorgegebenen Zeitintervall aufnehmen und kann kontinuierlich Videobilder aufnehmen. (d. h. Videobilder stellen Einzelbilder dar, die in einer Zeitabfolge fortlaufend sind)
  • Ferner hat die Kamera 14 einen CCD- oder cmOS-Sensor, der eine Ansammlung von Pixeln ist, als ein Bildaufnahmeelement 17 und eine Beziehung zwischen der optischen Achse 12 und dem Bildaufnahmeelement 17 ist auf so eine Weise aufgesetzt, dass die optische Achse 12 das Zentrum (d. h. das Zentrum der Koordinaten einer Photodetektionsoberfläche) des Bildaufnahmeelement 17 senkrecht durchläuft. Daher ist sie so ausgelegt, dass die Position (die Koordinaten) von jedem Pixel des Bildaufnahmeelements 17 auf dem Bildaufnahmeelement 17 bestimmt werden können und dass ferner ein Feldwinkel von jedem Pixel (d. h. ein Winkel in Bezug auf die optische Achse 12) identifiziert werden kann.
  • Ferner besitzt die Kamera 14 den Interferenzfilter 15, der entlang der optischen Achse 12 vorgesehen ist, und Interferenzmembranen, die auf einem Teil des Interferenzfilters 15 angefertigt sind. Der Interferenzfilter 15 ist drehbar gelagert und kann durch den Motor 16 gedreht werden. Der Interferenzfilter 15 hat mehrere abgeteilte Einheiten, von denen jede andere optische Eigenschaften besitzt. Jede der abgeteilten Einheiten hat einen Bereich, in dem die Interferenzmembranen angefertigt sind und auch einen Bereich, der keine optischen Eigenschaften aufweist. Die abgeteilten Einheiten werden ausgewählt, wenn der Interferenzfilter 15 durch den Motor 16 gedreht wird. Die Gestaltung ist so, dass die abgeteilte Einheit, die ausgewählt ist, mit der optischen Achse der Kamera 14 zusammenfällt, dass das Licht die abgeteilte Einheit, die ausgewählt ist, durchläuft, und dass ferner abhängig von den abgeteilten Einheiten, die durchlaufen werden, Licht mit einer vorgegebenen Wellenlänge und Licht mit allen Wellenlängen zu der gleichen Zeit auf dem Bildaufnahmeelement 17 empfangen wird und ein optisches Spektralbild mit der vorgegebenen Wellenlänge und ein Realbild durch die Kamera 14 zu der gleichen Zeit aufgenommen werden können.
  • Als nächstes wird weiter unten mit Bezug auf 3 eine Beschreibung der Einzelheiten des Interferenzfilters 15 gegeben.
  • Der Interferenzfilter 15 ist ein Interferenzfilter eines Transmissions-Typs. Er ist in Form einer kreisförmigen Scheibe wie in 3 gezeigt gestaltet. Eine Transmissionsoberfläche ist gleichmäßig mit einem Winkel nach Bedarf in Umfangsrichtung (in der Figur in 6 gleiche Abschnitte) unterteilt und die abgeteilten Einheiten sind als abgeteilte Transmissionsoberflächen 60a bis 60f angefertigt.
  • Unter den abgeteilten Transmissionsoberflächen 60a bis 60f, in den abgeteilten Transmissionsoberflächen 60a bis 60f, die mehrere abgeteilte Einheiten sind, ist ein zweiter Bereich konzentrisch geformt, ein erster Bereich innerhalb des zweiten Bereichs angefertigt und ferner ein zweiter Bereich an der Innenseite des ersten Bereichs angefertigt. In dem ersten Bereich sind Transmissionsinterferenzmembranen mit unterschiedlich gewählten Wellenlängeneigenschaften mit ausgewählten Wellenlängen λ1 bis λ5 jeweils für jede der abgeteilten Transmissionsoberflächen 60a bis 60e angefertigt. Ferner ist die Anordnung so, dass die abgeteilte Transmissionsoberfläche 60f, die eine weitere abgeteilte Einheit ist, keine optischen Eigenschaften in dem ersten Bereich und dem zweiten Bereich (60f' und 60f'') besitzt, so dass Licht einer beliebigen Wellenlänge passieren kann.
  • Zum Beispiel ist in dem ersten Bereich eine Transmissionsinterferenzmembran mit einer gewählten Wellenlänge λ1 von 400 nm–450 nm auf der abgeteilten Transmissionsoberfläche 60a ausgeformt. Ebenso ist eine Transmissionsinterferenzmembran mit einer gewählten Wellenlänge λ2 von 450 nm–525 nm auf der abgeteilten Transmissionsoberfläche 60b ausgeformt, eine Transmissionsinterferenzmembran mit einer gewählten Wellenlänge λ3 von 525 nm–650 nm auf der abgeteilten Transmissionsoberfläche 60c ausgeformt, eine Transmissionsinterferenzmembran mit einer gewählten Wellenlänge λ4 von 650 nm–750 nm auf der abgeteilten Transmissionsoberfläche 60d ausgeformt und eine Transmissionsinterferenzmembran mit einer gewählten Wellenlänge λ5 von 750 nm–870 nm auf der abgeteilten Transmissionsoberfläche 60e ausgeformt.
  • Ferner bilden auf den abgeteilten Transmissionsoberflächen 60a bis 60e, Außenumfangsabschnitte 60a bis 60e' auf einer Außenumfangsseite des ersten Bereichs und die Innenumfangsabschnitte 60a'' bis 60e'' auf einer Innenumfangsseite des ersten Bereichs den zweiten Bereich, und Strahlen jeder Wellenlänge können in dem zweiten Bereich transmittiert werden. Ein Bild 58, das auf dem Interferenzfilter 15 geformt wird, erstreckt sich über den zweiten Bereich, den ersten Bereich und über den zweiten Bereich, und ein Teil der Außenumfangsseite des Bildes 58 überlappt mit den Außenumfangsabschnitten 60a' bis 60e' und 60f' und ein Teil der Innenumfangsseite überlappt mit den Innenumfangsabschnitten 60a'' bis 60e'' und 60f''.
  • In einem Fall, in dem der Interferenzfilter 15 verwendet wird, in dem die abgeteilte Transmissionsoberfläche 60f ausgewählt wird und in dem die abgeteilte Transmissionsoberfläche dazu ausgelegt ist, mit der optischen Achse zusammenzufallen, wird eine vollständige Transmission ohne Auswahl der Wellenlänge ausgeführt und nur ein Realbild wird aufgenommen. Ferner wird dann, wenn eine der abgeteilten Transmissionsoberflächen 60a bis 60e ausgewählt ist, wenn z. B. die abgeteilte Transmissionsoberfläche 60e inmitten der erzeugten Bilder 58 ausgewählt ist, eine Wellenlängenauswahl in einem ersten Bereichsabschnitt 58a beim Durchlaufen der Transmissionsinterferenzmembran der abgeteilten Transmissionsoberfläche 60e durchgeführt, und alle Strahlen werden in zweiten Bereichsabschnitten 58b und 58c durch den Außenumfangsabschnitt 60e' und den Innenumfangsabschnitt 60e'' transmittiert und Mischbilddaten werden erfasst, in denen optische Spektralbilddaten in dem ersten Bereichsabschnitt 58a erfasst werden und Realbilddaten in den zweiten Bereichsabschnitten 58b und 58c erfasst werden.
  • Wenn ein Wellenlängenbereich der optischen Spektren, der erfasst werden soll, in dem Bereich zwischen 400 nm bis 870 nm liegt, wird die abgeteilte Transmissionsoberfläche der Reihe nach von der abgeteilten Transmissionsoberfläche 60a bis zu der abgeteilten Transmissionsoberfläche 60e durchgewechselt und ein optisches Spektralbild wird für jede der abgeteilten Transmissionsoberflächen 60, auf die gewechselt wird, aufgenommen.
  • Als Ergebnis kann durch die Drehung des Interferenzfilters 15 eine Wellenlänge in dem Bereich von 400 nm bis 870 nm ausgewählt werden, Bilder können auf dem Bildaufnahmeelement 17 für jede der gewählten Wellenlängen aufgenommen werden und vorgegebene optische Spektren können innerhalb des Bereichs von 400 nm bis 870 nm erfasst werden.
  • Wenn die Zahl der Unterteilungen bestimmt wird, um zu der Wellenlänge des optischen Spektrums, das erfasst werden soll, zu passen, und wenn ferner die Wellenlänge des optischen Spektrums, das erfasst werden soll, begrenzt ist, kann ein optisches Spektrum durch Auswählen der entsprechenden abgeteilten Transmissionsoberflächen mit den gewählten Wellenlängeneigenschaften erfasst werden.
  • Ferner ist der Interferenzfilter 15 wie oben beschrieben in Form einer kreisförmigen Scheibe und drehbar gestaltet, obwohl der Interferenzfilter 15 in Form eines langen Rechtecks gestaltet sein kann und die abgeteilte Transmissionsoberfläche durch Unterteilen des Interferenzfilters 15 in Längsrichtung angefertigt werden kann. Dann wird der Interferenzfilter 15 in Längsrichtung verschoben und die abgeteilten Transmissionsoberflächen können gewechselt werden.
  • Als nächstes wird eine Beschreibung der Bildaufnahme-Steuervorrichtung 21 gegeben.
  • Die Bildaufnahme-Steuervorrichtung 21 umfasst eine Arithmetiksteuereinheit (CPU) 22, eine Bilddaten-Aufzeichnungseinheit 23, einen Kamera-Controller 24, eine Kamerasteuereinheit 25, einen Filter-Controller 26, eine Spektraldaten-Speichereinheit 27, eine Bildsyntheseeinheit 28, eine Bildverarbeitungseinheit 29, eine Charakteristikextraktionseinheit 31, eine Abgleicheinheit 32, eine Messeinheit 33, eine Modellbild-Erzeugungseinheit 34, eine Anzeigeeinheit 35 und eine Speichereinheit 36.
  • Die Kamerasteuereinheit 25 steuert gleichzeitig die Kamera 14, den Interferenzfilter 15 und eine Blende 55. Die Beschreibung zu der Blende 55 wird später gegeben. Der Filter-Controller 26 steuert den Motor 16 entsprechend einem Befehlssignal von der Kamerasteuereinheit 25 an und dreht und bestimmt eine Position des Interferenzfilters 15, so dass die Lichtströme eine vorgegebene abgeteilte Transmissionsoberfläche des Interferenzfilters 15 passieren, Ferner erfasst der Kamera-Controller 24 basierend auf dem Befehlssignal von der Kamerasteuereinheit 25 ein Signal, das von dem Bildaufnahmeelement 17 ausgesandt werden soll. Wenn die Leuchtströme die abgeteilten Transmissionsoberflächen 60a bis 60e des Interferenzfilters 15 passieren, werden die erfassten Mischbilddaten in Realbilddaten und in optische Spektralbilddaten einer vorgegebenen Wellenlänge abhängig von dem ersten Bereichsabschnitt 58a und den zweiten Bereichsabschnitten 58b und 58c, die von den Leuchtströmen passiert werden, separiert. Die Realbilddaten, die so separiert werden, werden der Zeit der Bildaufnahme zugeordnet und in der Bilddaten-Aufzeichnungseinheit 23 gespeichert. Die optischen Spektralbilddaten werden der Zeit der Bildaufnahme zugeordnet und in der Spektraldaten-Speichereinheit 27 gespeichert.
  • Ferner werden in einem Fall, in dem die Leuchtflüsse die abgeteilte Transmissionsoberfläche 60f passieren, Standbilddaten, die nur die Realbilder umfassen, erfasst, weil sowohl der erste Bereich als auch der zweite Bereich reine Transmissionsoberflächen sind. Die Standbilddaten, die so erfasst werden, werden der Zeit der Bildaufnahme zugeordnet und in der Bilddaten-Aufzeichnungseinheit 23 gespeichert.
  • Die Bildsyntheseeinheit 28 soll die optischen Spektralbilddaten, die in der Spektraldaten-Speichereinheit 27 gespeichert sind, entsprechend Realbilddaten, die in der Bilddaten-Aufzeichnungseinheit 23 gespeichert sind, synthetisieren. Ferner soll die Bildsyntheseeinheit 28 das optisch-spektrale Synthesebild mit dem Standbild synthetisieren und ein Hyper-Spektralbild anfertigen, das zu allen Pixeln eines Bildes optische Spektralinformationen besitzt.
  • Die Bildverarbeitungseinheit 29 besitzt die Charakteristikextraktionseinheit 31 und die Abgleicheinheit 32, und die Bildverarbeitungseinheit 29 soll mindestens 5 oder mehr Merkmalspunkte (Anschlusspunkte) aus Bilddaten eines Einzelbildes extrahieren und eine Bildverfolgung oder einen Bildabgleich gemäß den Merkmalspunkten bezüglich der Bilddaten, die in Bezug auf die Zeit verschieden sind, oder bezüglich der Bilddaten, die von verschiedenen Bildaufnahmepunkten erhalten sind, ausführen.
  • Für die Bildverfolgung und den Bildabgleich werden das SSDA-Verfahren (Sequenzähnlichkeits-Detektionsalgorithmus), das normierte Kreuzkorrelationsverfahren, der Abgleich nach der Methode der kleinsten Quadrate usw. verwendet.
  • Die Messeinheit 33 soll eine digitale Photogrammetrie basierend auf Daten von zwei Bildern, die von der Kamera 14 von verschiedenen Bildaufnahmepunkten aufgenommen sind, und basierend auf den Positionsdaten der Bildaufnahmeposition ausführen.
  • Die Modellbild-Erzeugungseinheit 34 ordnet dreidimensionale Daten von jedem der Pixel, die durch die Messeinheit 33 gemessen werden, dem Hyper-Spektralbild zu und fertigt ein Modellbild an, das vierdimensionale Daten (d. h. dreidimensionale Daten + optische Spektralbilddaten) besitzt.
  • In der Speichereinheit 36 werden verschiedene Arten von Programmen gespeichert. Diese Programme umfassen: ein Programm, das für die Kamerasteuerung gebraucht wird, ein Programm, das für die Motorsteuerung gebraucht wird, ein Programm, das für die Synthese von Bilddaten und optischen Spektralbilddaten gebraucht wird, ein Programm, das für die Bildverfolgung gebraucht wird, ein Programm, das für die Bildverarbeitung gebraucht wird, ein Programm, das für die Messung gebraucht wird, ein Programm, das zum Anfertigen eines Modellbildes gebraucht wird, ein Programm, das für die Steuerung der Anzeigeeinheit 35 gebraucht wird, usw. Die Bilddaten-Aufzeichnungseinheit 23 und die Spektraldaten-Speichereinheit 27 können in einem Teil der Speichereinheit 36 bereitgestellt sein.
  • Als nächstes wird mit Bezug auf 4 und 6 eine Beschreibung eines Beispiels der Kamera 14, das in der vorliegenden Ausführungsformen verwendet werden soll, gegeben. Die Kamera 14, die unten beschrieben wird, ist auf so eine Weise gestaltet, dass die optischen Spektren, die durch die abgeteilten Transmissionsoberflächen 60a bis 60e des Interferenzfilters 15 erfasst werden, weiter fein unterteilt sind.
  • In 4 werden ein optisches System 45 der Kamera 14 und der Interferenzfilter 15, der auf einem optischen Weg des optischen Systems 45 vorgesehen ist, gezeigt.
  • In 4 bezeichnet das Bezugszeichen 46 eine optische Achse des optischen Systems 45. Entlang der optischen Achse 46 sind eine Objektivlinse 47, eine erste Relaislinse 48, eine zweite Relaislinse 49, eine dritte Relaislinse 50, eine Bilderzeugungslinse 51 und eine Bildaufnahmelinse 52 angeordnet. In 4 bezeichnet das Bezugszeichen 53 ein Bild, das durch die Objektivlinse 47 erzeugt wird, und das Bezugszeichen ”f” bezeichnet die Brennweite der zweiten Relaislinse 49.
  • Die Blende 55 ist neben der ersten Relaislinse 48 näher an der zweiten Relaislinse 49 platziert. Die Objektivlinse 47, die erste Relaislinse 48, die zweite Relaislinse 49, die dritte Relaislinse 50, die Bilderzeugungslinse 51, die Bildaufnahmelinse 52 und die Blende 55 bilden zusammen das optische System 45.
  • Die Blende 55 hat eine Blendenöffnung 55a in Form eines Spaltes und erstreckt sich in der Richtung senkrecht zur Papieroberfläche der Figur. Die Blende 55 ist an einer Fokalposition näher an dem Objekt oder ungefähr an einer Fokalposition näher an dem Objekt der zweiten Relaislinse 49 angeordnet. Die Blende 55 ist beweglich in einer Richtung senkrecht zu der optischen Achse 46 (d. h. in einer Richtung, die senkrecht die Blendenöffnung 55a kreuzt) gelagert, so dass die Position der Blende 55 angemessen durch Positionsänderungsmittel wie etwa einen linearen Motor usw. verändert werden kann.
  • In diesem Fall bilden die Blende 55 und die zweite Relaislinse 49 zusammen ein telezentrisches optisches System 56. Nach dem Passieren der ersten Relaislinse 48 werden die Leuchtflüsse durch das telezentrische optische System 56 in viele Leuchtflüsse (Hauptstrahlen 57), die parallel zueinander verlaufen, aufgeteilt.
  • Ein Interferenzfilter 15 eines Transmissions-Typs mit mehreren Interferenzmembranen eines Transmissions-Typs, in denen verschiedene ausgewählte Wellenlängeneigenschaften angefertigt sind, ist auf einer konvergierenden Position des Hauptstrahls 57 (an einer Bilderzeugungsposition oder ungefähr an einer Bilderzeugungsposition der zweiten Relaislinse 49) vorgesehen. Der Interferenzfilter 15 ist drehbar auf einer Drehachse 59 gelagert und kann ferner durch Drehmittel wie etwa einen Motor usw. gedreht werden. Der Interferenzfilter 15 erfüllt die Funktion eines Wellenlängenauswahlfilters. Durch Lichtstrahlen mit bestimmten Wellenlängen wird nach dem Passieren des Interferenzfilters 15 ein Bild durch die dritte Relaislinse 50 und die Bilderzeugungslinse 51 auf dem Bildaufnahmeelement 52 erzeugt. Das so erzeugte Bild ist ein zweidimensionales Bild mit einer bestimmten Wellenlänge.
  • Der Interferenzfilter 15 hat die Eigenschaft, dass Wellenlängenauswahleigenschaften entsprechend dem Einfallswinkel der Lichtstrahlen, die in den Interferenzfilter 15 einfallen, geändert werden. 5 zeigt eine Beziehung zwischen einem Einfallswinkel und der Spitzenwellenlänge des Lichts, das den Filter passiert, (d. h. eine Abhängigkeit der Spitzenwellenlänge von dem Einfallswinkel) und durch Ändern des Einfallswinkels kann erkannt werden, dass sich die Spitzenwellenlänge ändert.
  • Wie in 4a gezeigt ist die Blendenöffnung 55a der Blende 55 auf der optischen Achse 46 positioniert. In diesem Fall verläuft der Hauptstrahl 57 parallel zu der optischen Achse 46. Als nächstes wird in einem Fall, in dem die Blende 55 wie in 4b gezeigt bewegt wird – z. B. in dem Fall, in dem sie in Aufwärtsrichtung wie in der Figur gezeigt bewegt wird – der Hauptstrahl 57 in Bezug auf die optische Achse 46 gekippt. Das heißt der Einfallswinkel an dem Interferenzfilter 15 ist geändert. Daher kann durch Bewegen der Blende 55 die Wellenlänge des Lichts, das den Interferenzfilter 15 passiert, geändert werden.
  • In Bezug auf 5, wenn der Einfallswinkel an dem Interferenzfilter 15z. B. zu dem Bereich von 0° bis 50° geändert wird, ändert sich die Spitzenwellenlänge des Lichts, das den Filter passiert, zu dem Bereich von 600 nm bis 520 nm. Das heißt, dass der Interferenzfilter 15 einen Wellenlängenauswahlbereich W von 600 nm bis 520 nm hat. 6 zeigt Wellenlängentransmissionseigenschaften, um den Einfallswinkel an dem Interferenzfilter 15 anzupassen. Dies stellt ein Beispiel eines optischen Spektrums dar, das erfasst wird, wenn der Winkel des Interferenzfilters 15 jeweils auf 0°, 10°, 20°, 30° und 40° geändert wird.
  • In 4 ist der Interferenzfilter 15 in Bezug auf die optische Achse 46 gekippt. Wie in 5 gezeigt ist die Einfallswinkel-Abhängigkeit linear ab einem Punkt, an dem der Einfallswinkel 10° überschreitet. Dementsprechend kann durch Kippen des Interferenzfilters 15 die Änderung der gewählten Wellenlänge in Bezug auf die Verschiebung der Blende 55 effektiv im Voraus erhalten werden.
  • Deshalb wird jedes Mal durch Aufnehmen des Bildes durch das Bildaufnahmeelement 17 und durch Anordnen der abgeteilten Transmissionsoberfläche 60 des Interferenzfilters 15, die die Wellenlängentransmissionseigenschaften, die in 4 gezeigt werden, besitzt, auf einem optischen Weg des Hauptstrahls 57 die Blende 55 versetzt und ein optisches Spektrum in dem Bereich von 600 nm bis 520 nm kann erfasst werden. Wenn das optische Spektrum in dem Wellenlängenbereich, der den Bereich von 600 nm bis 520 nm überschreitet, aufgenommen wird, wird der Interferenzfilter 15 so gedreht, dass die abgeteilte Transmissionsoberfläche mit einem anderen Wellenlängenauswahlbereich W' auf einem optischen Weg des Hauptstrahls 57 angeordnet ist. Wie oben beschrieben ist es durch Kombinieren der Blende 55 mit dem Interferenzfilter 15 möglich, das optische Spektrum zu erfassen, das durch eine feinere Einteilung des optischen Spektrums, das von dem Interferenzfilter 15 selbst erfasst wird, abgeleitet wird.
  • Als nächstes wird eine Beschreibung des Betriebs in der vorliegenden Ausführungsform durch Bezug auf 7 und 8 gegeben. Im Folgenden wird eine Beschreibung eines Falls gegeben, in dem das optische System 45 mit dem Interferenzfilter 15 als die Kamera 14 verwendet wird und die Kamera 14 auf dem Helikopter 1 montiert ist, der ein Flugobjekt ist.
  • Während ein Bild in einer Schwebeposition aufgenommen wird, ändert sich die Stellung der Kamera 14 ständig und sie ist nicht in einem vollkommen ruhigen Zustand. Daher gibt es einige Abweichungen in den für jede der Wellenlängen erfassten Bildern. In dieser Hinsicht ergeben sich einige Probleme, wenn ein optisches Spektralbild, das in der Spektraldaten-Speichereinheit 27 gespeichert ist, so synthetisiert wird, wie es ist, z. B. kann ein Fehler auftreten oder Verzerrungen usw. können verursacht werden.
  • 8 stellt einen Zustand dar, in dem optische Spektralbilder, von denen jedes jeweils eine ausgewählte Wellenlänge λ1, λ2, λ3 und λ4 besitzt, in einem Schwebezustand aufgenommen werden. Das Bezugszeichen S1 in 8A stellt einen Zustand dar, in dem die Bildaufnahmevorrichtung 11 komplett stillsteht und das Bezugszeichen S2 stellt einen Zustand dar, in dem die Bildaufnahmevorrichtung 11 sich in einem Schwebezustand bewegt. 8B ist eine Zeichnung, in der optische Spektralbilder von λ1, λ2, λ3 und λ4, die aufgenommen sind, während die Bildaufnahmevorrichtung 11 sich bewegt, über den Verlauf der Zeit entwickelt werden. In der Figur stellt ein schwarzer Kreis einen Merkmalspunkt, der aus den Bildern extrahiert ist, nach dem Passieren der Transmissionsfläche der Außenumfangsabschnitte 60a' bis 60e' und der Innenumfangsabschnitte 60a'' bis 60e'', die den zweiten Bereich bilden, dar. Wie es in 8A und 8B ersichtlich ist, stimmen die Merkmalspunkte, wenn die Bilder so synthetisiert werden, wie sie sind, zwischen den Bildern nicht überein und es ist ersichtlich dass ein Fehler aufgetreten ist oder die Bilder verzerrt sind.
  • Dementsprechend muss der Abgleich (die relative Positionierung) bei dem zweiten Bereich durchgeführt werden, so dass ein optisches Spektralbild, das für jede der Wellenlängen erfasst ist, in dem Schwebezustand synthetisiert werden kann.
  • In der vorliegenden Ausführungsform können durch Drehung des Interferenzfilters 15 Standbilder, die nur Realbilder beinhalten, aufgenommen werden. Zudem kann dadurch, dass zugelassen wird, dass der Hauptstrahl 57 die abgeteilte Transmissionsoberfläche 60f passiert, und dass zugelassen wird, dass der Hauptstrahl 57 die abgeteilten Transmissionsoberflächen 60a bis 60e passiert, auch ein optisches Spektralbild aufgenommen werden, und es ist ferner möglich, das Realbild aufzunehmen, wenn der Hauptstrahl 57 die Transmissionsfläche der Außenumfangsabschnitte 60a' bis 60e' und der Innenumfangsabschnitte 60a'' bis 60e'' passiert. Somit ist es möglich, Mischbilddaten zu erhalten, in denen diese Bilder zusammengefügt sind.
  • Zuerst wird, nachdem der Hubschrauber 1 in einem Schwebezustand an einem Punkt O1 gehalten wird und zum Stillstand gebracht ist, der Interferenzfilter 15 gedreht und die abgeteilte Transmissionsoberfläche 60f ausgewählt. Dann wird ein Standbild (ein linkes Bild 42) an dem Punkt O1 über die abgeteilte Transmissionsoberfläche 60f von der Kamera 14 aufgenommen und eine Position an dem Punkt O1 durch die GPS-Einrichtung 9 gemessen. Das so aufgenommene Standbild wird in der Bilddaten-Aufzeichnungseinheit 23 gespeichert. Ferner werden mindestens 5 oder mehr Merkmalspunkte (vorzugsweise mehr Merkmalspunkte) aus den Bilddaten der zweiten Bereichsabschnitte 58b und 58c des Standbildes durch die Bildverarbeitungseinheit 29 extrahiert.
  • Nachdem das Standbild an dem Punkt O1 aufgenommen worden ist, wird der Interferenzfilter 15 gedreht und die abgeteilten Transmissionsoberflächen 60a bis 60e werden nacheinander durchgewechselt. Eine Position der Blende 55 wird für jedes Zeitintervall nach Bedarf bei jeder abgeteilten Transmissionsoberfläche verschoben, Mischbilder werden jedes Mal, wenn die Position der Blende 55 geändert wird, aufgenommen, und die optischen Spektralbilder λ1 bis λn werden jeweils für jede der abgeteilten Transmissionsoberflächen durch Passieren des ersten Bereichsabschnitts 58a erhalten.
  • Zum Beispiel wird in einem Fall, in dem die abgeteilte Transmissionsoberfläche 60a ausgewählt ist, ein optisches Spektralbild von λa1 bis λan aufgenommen. In einem Fall, in dem die abgeteilte Transmissionsoberfläche 60b ausgewählt ist, wird ein optisches Spektralbild von λb1 bis λbn aufgenommen. In einem Fall, in dem die abgeteilte Transmissionsoberfläche 60c ausgewählt ist, wird ein optisches Spektralbild von λc1 bis λcn aufgenommen. In einem Fall, in dem die abgeteilte Transmissionsoberfläche 60d ausgewählt ist, werden optische Spektralbilder von λd1 bis λdn aufgenommen. In einem Fall, in dem die abgeteilte Transmissionsoberfläche 60e ausgewählt ist, werden optische Spektralbilder von λe1 bis λen aufgenommen.
  • Durch Aufnahme aller optischen Spektralbilder, wie sie oben angegeben sind, können optische Spektralbilder von allen Wellenlängen aufgenommen werden. Während der Aufnahme der optischen Spektralbilder werden mindestens 5 Merkmalspunkte aus den aufgenommenen Realbildern in den zweiten Bereichsabschnitten 58b und 58c extrahiert und basierend auf diesen Merkmalspunkten wird eine Verfolgung zwischen in Bezug auf die Zeit benachbarten Realbildern ausgeführt. Zudem wird in einem Fall, in dem Kippen oder dergleichen der optischen Achse zwischen den beiden Realbildern auftritt, bis das nächste Bild aufgenommen ist, eine Koordinatenumrechnung gemäß dem Merkmalspunkt zwischen den beiden Realbildern ausgeführt und ein Bildabgleich ausgeführt.
  • In den Realbildern, die von den Mischbildern separiert werden, ist der Bildaufnahmebereich eingeschränkt. Weil das Realbild ein Bild ist, das bei einem Stillstand aufgenommen ist, ist der Verschiebungsbetrag zwischen den Bildern klein und ein Verfolgen kann bei den Realbildern in einem engeren Bereich ausgeführt werden.
  • Ferner ist die Positionsbeziehung zwischen dem Realbild, das von dem Mischbild separiert ist, und dem optischen Spektralbild immer konstant und die Bedingung, die zwischen den Realbildern erfasst wird, kann direkt auf den Abgleich zwischen den optischen Spektralbildern angewandt werden.
  • Wenn die optischen Spektralbilder bei allen Wellenlängen an dem Punkt O1 erfasst worden sind und die Verfolgung zwischen allen Realbildern abgeschlossen worden ist, ist es möglich, ein Positionieren und Synthetisieren von allen optischen Spektralbildern ohne Fehler entsprechend der Verfolgungsinformationen des Realbildes auszuführen.
  • Ferner werden das optisch-spektrale Synthesebild und der erste Bereichsabschnitt 58a des Standbildes an dem Punkt O1 synthetisiert und ein Hyper-Spektralbild wird angefertigt.
  • Wenn die Bewegung von dem Punkt O1 zu dem Punkt O2 begonnen wird, wird zuerst der Interferenzfilter 15 gedreht und es wird zu der abgeteilten Transmissionsoberfläche 60f gewechselt. Nach dem Wechsel des Interferenzfilters 15 werden zuerst mindestens 5 Merkmalspunkte aus dem Standbild, das an dem Punkt O1 aufgenommen worden ist, extrahiert und die Bewegung von dem Punkt O1 zu dem Punkt O2 wird begonnen. Während der Bewegung von dem Punkt O1 zu dem Punkt O2 werden Videobilder (Einzelbilder) durch die Kamera 14 über die abgeteilte Transmissionsoberfläche 60f aufgenommen und eine Verfolgung von jedem der Einzelbilder gemäß den Merkmalspunkten, die daher extrahiert worden sind, ausgeführt. Weil die Realbilder in dem ganzen Bereich der abgeteilten Transmissionsoberfläche 60f aufgenommen werden können, kann eine Bildverfolgung ausgeführt werden, um größere Verschiebungen zu bewältigen.
  • Wenn der Punkt O2 erreicht ist, wird ein Standbild (ein rechtes Bild 43) an dem Punkt O2 durch die Kamera 14 über die abgeteilte Transmissionsoberfläche 60f aufgenommen und die Position des Punkts O2 wird durch die GPS-Vorrichtung 9 gemessen. Als nächstes werden mindestens 5 Merkmalspunkte auf dem Standbild an dem Punkt O2 durch die Bildverarbeitungseinheit 29 bestimmt und ein Abgleich wird bei dem Standbild an dem Punkt O2 und dem Standbild an dem Punkt O1 basierend auf den Merkmalspunkten ausgeführt. Ferner wird durch die Messeinheit 33 basierend auf einem Standbild, das an dem Punkt O1 aufgenommen ist, und auf einem Standbild, das an dem Punkt O2 aufgenommen ist, und auf Positionsdaten des Punktes O1 und des Punktes O2, die durch die GPS-Vorrichtung 9 gemessen sind, eine digitale Photogrammetrie ausgeführt und es werden dreidimensionale Daten von jedem Pixel erfasst.
  • Schließlich werden die dreidimensionalen Daten, die an dem Punkt O1 erhalten werden, und ein Hyper-Spektralbild, das an dem Punkt O1 erhalten wird, synthetisiert und ein vierdimensionales Bild einschließlich spektraler Daten wird angefertigt.
  • Im obigen wird ein Hyper-Spektralbild an dem Punkt O1 erfasst, obwohl ein Hyper-Spektralbild erfasst werden kann, wenn die Verarbeitung an dem Punkt O2 ähnlich wie die Verarbeitung an dem Punkt O1 ausgeführt wird. Als Ergebnis kann das Hyper-Spektralbild an dem Punkt O2 erfasst werden.
  • Dementsprechend kann der Wachstumszustand der landwirtschaftlichen Produkte aus den optischen Spektraldaten identifiziert werden oder die Größe der landwirtschaftlichen Produkte aus den dreidimensionalen Daten identifiziert werden. Oder es ist auch möglich, Informationen über den Zustand der Bodenoberfläche zu erhalten, die die Art der am Boden freigelegten Substanz enthalten.
  • Nun wird ferner mit Bezug auf 9 und 10 eine Beschreibung der digitalen Photogrammetrie, der Erfassung und der Synthese der optischen Spektraldaten und des Hyper-Spektralbildes wie oben beschrieben gegeben.
  • (Schritt 01) Ein Schweben des Helikopters 1 wird an dem Punkt O1 begonnen und, nachdem die abgeteilte Transmissionsoberfläche 60f durch Drehen des Interferenzfilters 15 ausgewählt worden ist, wird das linke Bild 42 durch die Kamera 14 an dem Punkt O1 aufgenommen. Dann wird eine Messung der Position des Helikopters (d. h. des Punktes O1) durch die GPS-Vorrichtung 9 vorgenommen.
  • (Schritt 02) Merkmalspunkte werden durch eine Verarbeitung, wie etwa eine Kantenverarbeitung, des linken Bildes 42 oder durch Eckenextraktionsverarbeitung usw. erfasst.
  • (Schritt 03) Dann wird der Interferenzfilter 15 mit Unterbrechungen gedreht, so dass der Hauptstrahl 57 die vorgegebenen Bereiche der abgeteilten Transmissionsoberflächen 60a bis 60e passiert. Ferner wird die Position der Blende 55 für jede der abgeteilten Transmissionsoberflächen verändert und ein Mischbild mit einem optischen Spektralbild und einem Realbild wird durch die Kamera 14 für jede der Positionen der Blende 55 erfasst. Zudem werden das optische Spektralbild und das Realbild von dem aufgenommenen Mischbild separiert. Dann wird eine Bildverfolgung an der gleichen Position (hiernach als ”positionsgleiche Verfolgung” bezeichnet) mit dem separierten Realbild ausgeführt. Basierend auf dem Ergebnis der positionsgleichen Verfolgung wird eine Korrektur der Bildposition zwischen jedem der optischen Spektralbilder ausgeführt.
  • Eine Beschreibung der Aufnahme des optischen Spektralbildes an dem Punkt O1 und der Korrektur der Bildposition wird in Schritt 21 bis Schritt 27 gegeben.
  • (Schritt 21) Wenn die Spektrumsmessung begonnen wird, werden Mischbilder mit einem optischen Spektralbildbereich in dem vorgegebenen Wellenlängenbereich (λ1 bis λn) zu dem vorgegebenen Zeitintervall für jede Wellenlänge aufgenommen.
  • (Schritt 22) Das so aufgenommene Mischbild wird durch den Kamera-Controller 24 in einen optischen Spektralbildabschnitt und einen Realbildabschnitt separiert. Der optische Spektralbildabschnitt wird in der Spektraldaten-Speichereinheit 27 gespeichert und der Realbildabschnitt wird in der Bilddaten-Speichereinheit 23 in Zeitfolgen gespeichert.
  • (Schritt 23) Durch die Bildverfolgung (die positionsgleiche Verfolgung) werden mindestens fünf Merkmalspunkte aus dem Realbildabschnitt (dem ersten Realbild), der zu derselben Zeit wie der separierte optische Spektralbildabschnitt (λ1) aufgenommen ist, extrahiert und ein Merkmalspunkt wird in einem Realbildabschnitt (dem zweiten Realbild) identifiziert, der mit dem nächsten optischen Spektralbildabschnitt (λ2), der in Bezug auf die Zeit benachbart ist, synchronisiert ist.
  • (Schritt 24) Basierend auf dem Merkmalspunkt des ersten Realbildabschnitts und auf den Merkmalspunkten des zweiten Realbildabschnitts, so wie sie erfasst sind, wird ein Abgleich des ersten Realbildabschnitts und des zweiten Realbildabschnitts vorgenommen und eine Koordinatenumrechnung wird zwischen dem ersten Realbildabschnitt und dem zweiten Realbildabschnitt ausgeführt.
  • (Schritt 25) Weil der Realbildabschnitt und der optische Spektralbildabschnitt zu derselben Zeit aufgenommen werden, ist die Positionsbeziehung mit dem optischen Spektralbildabschnitt entsprechend dem Realbildabschnitt immer konstant und eine Bedingung des Abgleichens des Realbildabschnitts und eine Bedingung der Koordinatenumrechnung werden auf dem benachbarten optischen Spektralbildabschnitt, der in Bezug auf die Zeit benachbart ist, angewandt.
  • (Schritt 26) Es wird beurteilt, ob die optischen Spektralbildabschnitte von allen Wellenlängen aufgenommen worden sind oder nicht. Wenn sie noch nicht aufgenommen sind, kehrt das Verfahren zu Schritt 21 zurück und die Aufnahme der optischen Spektralbildabschnitte und die positionsgleiche Verfolgung werden ausgeführt.
  • (Schritt 27) Wenn alle optischen Spektralbildabschnitte von allen Wellenlängen des vorgegebenen Wellenlängenbereichs (λ1 bis λn) aufgenommen worden sind, kann durch Synthetisieren aller optischen Spektralbildabschnitte entsprechend der Bedingung, die durch die Verfolgung des Realbildabschnitts erhalten wird, ein erstes optisch-spektrales Synthesebild mit dem optischen Spektrum des vorgegebenen Wellenlängenbereichs (λ1 bis λn) an dem Punkt O1 erhalten werden. Ferner kann durch Synthetisieren des ersten optisch-spektralen Synthesebildes und des Standbildes ein Hyper-Spektralbild erhalten werden.
  • (Schritt 04 bis Schritt 06) Wenn ein Standbild und ein Hyper-Spektralbild an dem Punkt O1 erhalten sind, wird der Helikopter 1 zu dem Punkt O2 bewegt. Während der Bewegung wird zuerst der Interferenzfilter 15 gedreht und es wird die abgeteilte Transmissionsoberfläche 60f gewählt. Während der Bewegung wird ein Videobild durch die Kamera 14 aufgenommen und eine Bildverfolgung (Bewegungsverfolgung) durchgeführt. Die Bewegungsverfolgung kann entsprechend den extrahierten Merkmalspunkten auf dem linken Bild 42 ausgeführt werden oder die Bildverfolgung kann während der Bewegung unter Verwendung der Merkmalspunkte, die schließlich durch die positionsgleiche Verfolgung in dem Schwebezustand erhalten werden, ausgeführt werden.
  • (Schritt 07) Wenn der Helikopter 1 den Punkt O2 erreicht und die Bewegungsverfolgung beendet wird, wird das Schweben begonnen und das rechte Bild 43, das ein Standbild ist, wird aufgenommen.
  • (Schritt 08) Der Interferenzfilter 15 wird in dem Schwebezustand gedreht und die abgeteilten Transmissionsoberflächen 60a bis 60e werden ausgewählt. Ferner wird die Blende 55 für jede der Transmissionsoberflächen verschoben und ein Mischbild wird durch die Kamera 14 für jede der Positionen der Blende 55 aufgenommen. Ferner werden mit den erhaltenen Mischbildern der optische Spektralbildabschnitt und der Realbildabschnitt voneinander separiert. Mit dem so separierten Realbildabschnitt wird eine Bildverfolgung an der gleichen Position (hiernach als ”positionsgleiche Verfolgung” bezeichnet) ausgeführt. Basierend auf dem Ergebnis der positionsgleichen Verfolgung wird eine Korrektur der Bildposition zwischen jedem der optischen Spektralbildabschnitten ausgeführt.
  • Die Abläufe von Schritt 21 bis Schritt 27 werden durchgeführt und optische Spektralbildabschnitte für alle Wellenlängen des vorgegebenen Wellenlängenbereichs (λ1 bis λn) an dem Punkt O2 aufgenommen. Durch Synthetisieren all der so aufgenommenen optischen Spektralbildabschnitte wird das zweite optisch-spektrale Synthesebild mit dem optischen Spektrum des vorgegebenen Wellenlängenbereichs (λ1 bis λn) an dem Punkt O2 erhalten. Ferner kann durch Synthetisieren des zweiten optisch-spektralen Synthesebildes mit dem rechten Bild 43 ein Hyper-Spektralbild erhalten werden.
  • (Schritt 09, Schritt 10, Schritt 11) Basierend auf den Merkmalspunkten, die auf dem rechten Bild 43 durch die positionsgleiche Verfolgung identifiziert sind, und auch auf den Merkmalspunkten, die in dem linken Bild 42 identifiziert sind, wird ein Abgleich durchgeführt. Dann wird eine Koordinatenumrechnung (eine relative Orientierung) mit Bezug auf entweder das linke Bild 42 oder das rechte Bild 43 durchgeführt. Ferner wird eine Koordinatenumrechnung (eine absolute Orientierung) zu geozentrischen Koordinaten der GPS-Vorrichtung 9 durchgeführt.
  • (Schritt 12 und Schritt 13) Basierend auf den Ergebnissen der absoluten Orientierung wird ein Stereo-Abgleich des linken Bildes 42 und des rechten Bildes 43 durchgeführt und ein dreidimensionales Modell der Topographie mit dreidimensionalen Positionsdaten erhalten.
  • (Schritt 14) Wie oben beschrieben werden das Mischbild und das Standbild auf der gleichen Achse aufgenommen und miteinander auf einer 1:1-Basis abgeglichen, und dreidimensionale Positionsdaten werden an einer Position, an der ein spektral-optisches Spektrum erfasst ist, erhalten. Durch Synthetisieren des optischen Spektralbildes mit dem dreidimensionalen Modell kann ein vierdimensionales Modell mit dreidimensionalen Positionsdaten der Topographie und den optischen Spektralinformationen erhalten werden.
  • Wie oben beschrieben, ist die vorliegende Ausführungsform so gestaltet, dass der Interferenzfilter 15 in Form einer kreisförmigen Scheibe an der Kamera 14 vorgesehen ist und eine Transmissionsoberfläche, die mit einem Winkel nach Bedarf in Umfangsrichtung unterteilt ist, ist auf dem Interferenzfilter 15 angefertigt. Zudem ist eine der abgeteilten Transmissionsoberflächen so gestaltet, dass sie eine reine Transmissionsoberfläche aufweist, durch die die Strahlen von allen Wellenlängen passieren können, und sowohl der Realbildabschnitt als auch der optische Spektralbildabschnitt können durch eine einzige Kamera erfasst werden. Als Ergebnis kann eine Positionierung der optischen Spektralbilder entsprechend dem Realbild durchgeführt werden, und selbst wenn die Bildaufnahmevorrichtung auf einem beweglichen Körper, wie z. B. dem Flugobjekt 1 usw. montiert ist, können ein optisch-spektrales Synthesebild und ein Hyper-Spektralbild mit hoher Genauigkeit erhalten werden. Ferner ist es nicht notwendig, separat eine spektrale Kamera zum Aufnehmen des optischen Spektralbildes neben einer Kamera zur Aufnahme des Realbildes bereitzustellen, und dies trägt zur Vereinfachung der Strukturgestaltung und zur Verringerung der Kosten bei.
  • Zudem ist es durch die Bereitstellung der Blende 55 ist möglich, eines oder mehrere optische Spektren auf einer einzelnen abgeteilten Transmissionsoberfläche zu haben.
  • Der zweite Bereich, den der Hauptstrahl 57 vollständig passieren kann, ist auf einem Teil der abgeteilten Transmissionsoberfläche, in dem Interferenzmembranen mit unterschiedlich gewählten Wellenlängeneigenschaften ausgeformt sind, angefertigt. Als Ergebnis ist es möglich, den optischen Spektralbildabschnitt und den Realbildabschnitt gleichzeitig zu erhalten. Selbst wenn eine Abweichung über die Zeit zwischen jedem der Bilder auftreten kann, kann der optische Spektralbildabschnitt leicht durch den Abgleich des Realbildbereichs synthetisiert werden.
  • Ferner ist es, weil die abgeteilte Transmissionsoberfläche 60f als eine reine Transmissionsoberfläche gestaltet ist, die der Hauptstrahl 57 vollständig passieren kann, möglich, nur die Realbilder in einem weiten Bereich aufzunehmen und die Bildaufnahmevorrichtung 11 kann nach der vorliegenden Ausführungsform in einem Verfahren angewendet werden, das eine Extraktion von vielen Merkmalspunkten verlangt, wie z. B. einer Laufbildverfolgung oder dergleichen.
  • Das optische System 45 ist so gestaltet, dass ein Einfallswinkel an dem Interferenzfilter 15 durch Ändern der Position der Blende 55 verschoben wird und die Wellenlänge in einem vorgegebenen Bereich geändert werden kann. Aber in einem Fall, in dem die Wellenlänge des optischen Spektrums, das erfasst werden soll, bereits bestimmt ist, und wenn nur wenige Arten von Wellenlängen vorliegen, kann die Blende 55 nicht verwendet werden.
  • 11 und 12 stellen jeweils ein optisches System 45' in einer zweiten Ausführungsform der vorliegenden Erfindung dar.
  • In einem optischen System 45 wie in 3 gezeigt wird ein Interferenzfilter 15 eines Transmissions-Typs verwendet. Wie in 11 gezeigt kann das optische System 45' durch Verwendung eines Interferenzfilters 61 des Reflexions-Typs, der eine Optikeigenschaften-Änderungseinheit ist, angefertigt werden. Der Interferenzfilter 61 hat Interferenzmembranen des Reflexions-Typs auf einem Reflexionsspiegel. Er ist drehbar um eine Drehachse 59 gelagert und kann ferner durch Drehmittel, wie etwa einen Motor usw., gedreht werden. In dem optischen System 45 kann die Wellenlänge gewählt werden, wenn der Interferenzfilter 61 einen Hauptstrahl 57 reflektiert.
  • In 11 werden die gleichen Komponenten wie in 4 mit den gleichen Bezugszeichen bezeichnet und eine genaue Beschreibung wird hier nicht gegeben.
  • In der zweiten Ausführungsform wird ebenfalls wie oben angegeben durch Bewegen der Blende 55 wie in 11B gezeigt ein Einfallswinkel des Hauptstrahls 57 an dem Interferenzfilter 61 geändert und eine bestimmte Wellenlänge innerhalb des vorgegebenen Wellenlängenauswahlbereichs W kann wahlweise reflektiert werden.
  • Ferner ist der Interferenzfilter 61 wie in 12 gezeigt in Form einer kreisförmigen Scheibe gestaltet. Eine Reflexionsoberfläche ist gleichmäßig mit einem Winkel nach Bedarf in Umfangsrichtung unterteilt (in 6 gleiche Teile in der Figur geteilt) und abgeteilte Abschnitte werden als abgeteilte Reflexionsoberflächen 63a bis 63f angefertigt.
  • Auf dem Interferenzfilter 61 sind unter den abgeteilten Reflexionsoberflächen 63a bis 63f die abgeteilten Reflexionsoberflächen 63a bis 63e, die als mehrere abgeteilte Abschnitte gestaltet sind, wobei ein zweiter Bereich konzentrisch angefertigt ist, ein erster Bereich auf einer Innenseite des zweiten Bereichs angefertigt ist und ferner ein zweiter Bereich konzentrisch an der Innenseite des ersten Bereichs angefertigt ist. In dem ersten Bereich wird eine Reflexionsinterferenzmembran, d. h. der erste Bereich mit unterschiedlich gewählten Wellenlängeneigenschaften der ausgewählten Wellenlängen λ1 bis λ5, für jede der abgeteilten Reflexionsoberflächen 63a bis 63e angefertigt. Ferner hat die abgeteilte Reflexionsoberfläche 63f, die ein weiterer abgeteilter Abschnitt ist, keine optischen Eigenschaften in dem ersten Bereich und dem zweiten Bereich (63f'und 63f'') und kann die Lichtstrahlen aller Wellenlängen reflektieren.
  • Ferner bilden auf den abgeteilten Reflexionsoberflächen 63a bis 63e, Außenumfangsabschnitte 63a' bis 63e' auf einer Außenumfangsseite des ersten Bereichs und die Innenumfangsabschnitte 63a'' bis 63e'' auf einer Innenumfangsseite des ersten Bereichs den zweiten Bereich. Die zweiten Bereiche reflektieren die Lichtstrahlen aller Wellenlängen. Ein Bild 58, das auf dem Interferenzfilter 61 gebildet wird, erstreckt sich über den zweiten Bereich, den ersten Bereich und den zweiten Bereich. Ein Teil der Außenumfangsseite des Bildes 58 überlappt mit den Außenumfangsabschnitten 63a' bis 63e' und 63f' und ein Teil der Innenumfangsseite überlappt mit den Innenumfangsabschnitten 63a'' bis 63e'' und 63f''.
  • Die Lichtströme, die durch den Interferenzfilter 61 reflektiert werden, formen Bilder auf einem Bildaufnahmeelement 52 über eine Bilderzeugungslinse 51. Wenn der Interferenzfilter 61 verwendet wird, die abgeteilte Reflexionsoberfläche 63f ausgewählt wird, und wenn eine optische Achse 46 dazu ausgelegt ist, mit der abgeteilten Reflexionsoberfläche 63f zusammenzufallen, werden die Lichtströme vollständig ohne Wellenlängenauswahl reflektiert und Standbilddaten, die nur Realbilddaten aufweisen, werden erfasst. In einem Fall, in dem eine der abgeteilten Reflexionsoberflächen 63a bis 63e ausgewählt ist, z. B. in einem Fall, in dem die abgeteilte Reflexionsoberfläche 63e ausgewählt ist, werden die Lichtströme durch einen ersten Bereich 58a der abgeteilten Reflexionsoberfläche 63e reflektiert und eine Wellenlänge ist ausgewählt. Zudem wird inmitten des erzeugten Bildes 58 ein Teil der Lichtströme vollständig in den zweiten Bereichsabschnitten 58b und 58c reflektiert und Mischbilddaten werden erhalten.
  • Wie oben beschrieben, kann durch Verwendung eines Interferenzfilters 61 eines Reflexions-Typs als Interferenzfilter das optische System 45' in kompakter Form gestaltet werden.
  • 13 zeigt eine Beispielvariante eines optischen Systems 45', das in 11 gezeigt ist.
  • In der Beispielvariante, die in 13 gezeigt ist, wird ein Interferenzfilter 62 des Reflexions-Typs verwendet und der Interferenzfilter ist in einer Anordnung gestaltet, die der Anordnung eines Interferenzfilters 61 ähnlich ist.
  • Eine Objektivlinse 47, eine erste Relaislinse 48 und eine Blende 55 sind entlang einer optischen Achse 46 angeordnet. Auf einer optischen Achse, die parallel zu der optischen Achse 46 verläuft und durch ein vorgegebenes Ausmaß davon getrennt ist, ist eine zweite Relaislinse 49 angeordnet und der Interferenzfilter 62 ist an einer Position, die der zweiten Relaislinse 49 gegenüberliegt, angeordnet. Leuchtflüsse, die durch den Interferenzfilter 62 reflektiert werden, werden durch einen Reflexionsspiegel 64 abgelenkt und die Leuchtströme, die so abgelenkt werden, verlaufen dann durch eine Bilderzeugungslinse 51 und formen ein Bild auf einem Bildaufnahmeelement 52.
  • In dieser Beispielvariante sind die erste Relaislinse 48 und die Blende 55 an Positionen, die von der optischen Achse 46 der zweiten Relaislinse 49 abweichen, und ein Hauptstrahl 57, der durch ein telezentrisches optisches System 56 aufgeteilt ist, trifft mit einer Neigung auf den Interferenzfilter 62. Ferner ist, wenn die Blende 55 so bewegt wird, dass die Blende von der optischen Achse 46 getrennt wird, ein Einfallswinkel des Hauptstrahls noch größer. Daher kann durch Bewegen der Blende 55 die gewählte Wellenlänge geändert werden.
  • In der oben angegebenen Beispielvariante wird ein Interferenzfilter 62 des Reflexions-Typs verwendet. Als Ergebnis kann ein optisches System 45'' in kompakter Form gestaltet sein. Zudem wird die zweite Relaislinse 49 auch als eine dritte Relaislinse 50 verwendet (sh. 11), und dies trägt zur Verringerung der Anzahl von Bestandteilen und zur Verringerung der Kosten bei.
  • Als nächstes wird mit Bezug auf 14 eine Beschreibung einer dritten Ausführungsform der vorliegenden Erfindung gegeben.
  • 14 zeigt eine ungefähre Anordnung einer Bildaufnahmevorrichtung 11 in der dritten Ausführungsform. In dieser dritten Ausführungsform werden Mischbilddaten, die durch eine Kamera 14 aufgenommen werden, in einer Bilddaten-Aufzeichnungseinheit 23 gespeichert, ohne durch einen Kamera-Controller 24 in optische Spektralbilddaten und Realbilddaten separiert zu werden.
  • In den Mischbilddaten, die in der Bilddaten-Aufzeichnungseinheit 23 gespeichert sind, werden mindestens 3 Merkmalspunkte aus dem Realbildabschnitt, d. h. aus den Bereichsabschnitten 58b und 58c (sh. 3), extrahiert und ein Abgleich wird an den Mischbilddaten, die zueinander in Bezug auf die Zeit benachbart sind, basierend auf den Merkmalspunkten ausgeführt.
  • Die Mischbilddaten sind Bilddaten, in denen optische Spektralbilddaten und Realbilddaten zusammengefügt sind. Die Positionsbeziehung zwischen den optischen Spektralbilddaten und den Realbilddaten in den Mischbilddaten ist immer konstant. Daher kann, wenn ein Abgleich bei den Mischbilddaten basierend auf den Merkmalspunkten ausgeführt wird, automatisch ein Abgleich bei den optischen Spektralbildern ausgeführt werden.
  • Schließlich kann, wenn der Realbildabschnitt von einer Bildeseparationseinheit 30 separiert wird, ein optisch-spektrales Synthesebild mit einem optischen Spektrum in dem vorgegebenen Wellenlängenbereich (λ1 bis λn) erhalten werden.
  • Wie oben beschrieben fungieren in der dritten Ausführungsform die Extraktion der Merkmalspunkte des Realbildabschnitts und die Abgleichsverarbeitung in den Mischbilddaten als die Syntheseverarbeitung der optischen Spektralbilddaten. Als Ergebnis ist es möglich die Anzahl der Abläufe in der Verarbeitung zu vermindern und dies trägt zur Verringerung der Arbeitslast durch die Verarbeitung bei.
  • Industrielle Anwendbarkeit
  • Nach der vorliegenden Erfindung umfasst eine Bildaufnahmevorrichtung eine Optikeigenschaften-Änderungseinheit, ein optisches System, das eine Objektivlinse enthält, zum Leiten von Licht von der Objektivlinse zu der Optikeigenschaften-Änderungseinheit, und ein Bildaufnahmeelement zum Empfangen von Licht über die Optikeigenschaften-Änderungseinheit, wobei die Optikeigenschaften-Änderungseinheit zwei oder mehr Teilereinheiten besitzt und eine Anordnung hat, in der eine der Teilereinheiten wahlweise entlang eines optischen Wegs angeordnet ist und die Teilereinheit einen ersten Bereich hat, um eine bestimmte Wellenlänge von dem Licht, das aus dem optischen System kommt, auszuwählen und einen zweiten Bereich hat, in dem optische Eigenschaften des Lichts aus dem optischen System nicht geändert werden. Als Ergebnis können ein Realbild ohne Änderung der optischen Eigenschaften und ein optisches Spektralbild mit veränderten optischen Eigenschaften durch Verwendung einer einzelnen Kamera erhalten werden und eine Vereinfachung der Struktur und eine Verringerung der Kosten kann erzielt werden.
  • Ferner umfasst die Bildaufnahmevorrichtung nach der vorliegenden Erfindung eine Bildaufnahme-Steuervorrichtung, wobei basierend auf einem Bildabgleich eines Bildes, das über den zweiten Bereich einer Teilereinheit aufgenommen ist, und eines Bildes, das über den zweiten Bereich einer anderen Teilereinheit aufgenommen ist, ein optisch-spektrales Synthesebild durch Synthetisieren eines Bildes, das über den ersten Bereich der einen Teilereinheit aufgenommen ist, mit einem Bild, das über den ersten Bereich einer anderen Teilereinheit aufgenommen ist, angefertigt wird. Als Ergebnis kann eine Abgleichbedingung zwischen den Bildern, die über den zweiten Bereich aufgenommen sind, direkt auf ein Bild, das über den ersten Bereich aufgenommen ist, angewendet werden.
  • Ferner umfasst die Bildaufnahmevorrichtung nach der vorliegenden Erfindung eine Blende, die entlang eines optischen Wegs angeordnet ist, wobei die Blende eine Blendenöffnung hat und die Wellenlänge, die von der Optikeigenschaften-Änderungseinheit gewählt wird, durch Bewegen der Blende geändert werden kann. Als Ergebnis kann ein optisches Spektrum in dem vorgegebenen Wellenlängenbereich erhalten werden, ohne die Optikeigenschaften-Änderungseinheit zu verändern.
  • Ferner umfasst nach der vorliegenden Erfindung die Optikeigenschaften-Änderungseinheit in der Bildaufnahmevorrichtung noch eine weitere Teilereinheit, um nicht die optischen Eigenschaften des ersten Bereichs und des zweiten Bereichs zu ändern. Als Ergebnis ist es möglich, nur Realbilder aufzunehmen, ohne optische Eigenschaften zu ändern, und die Videobildverfolgung leicht auszuführen, wenn die Aufnahmevorrichtung bewegt wird.
  • Ferner synthetisiert die Bildaufnahme-Steuervorrichtung nach der vorliegenden Erfindung in der Bildaufnahmevorrichtung basierend auf einem Bildabgleich eines Bildes, das über den zweiten Bereich der zwei oder mehr Teilereinheiten aufgenommen ist, und eines Standbildes, das über die weitere Teilungseinheit aufgenommen ist, ein Bild, das über den ersten Bereich der zwei oder mehr Teilereinheiten aufgenommen ist, und das Standbild und fertigt ein Hyper-Spektralbild an. Als Ergebnis kann ein Hyper-Spektralbild leicht durch eine einzige Kamera erhalten werden.
  • Ferner umfasst die Bildaufnahmevorrichtung nach der vorliegenden Erfindung eine GPS-Vorrichtung zur Durchführung einer Messung der geozentrischen Koordinaten, wobei die Bildaufnahme-Steuervorrichtung ein Standbild über die weitere Teilereinheit an einem ersten Punkt beschafft, zwei oder mehr Merkmalspunkte aus dem Standbild an dem ersten Punkt extrahiert, ein Videobild, das ein Einzelbild, das in einer Zeitabfolge fortlaufend ist, enthält, über die weitere Teilereinheit während der Bewegung von dem ersten Punkt zu dem zweiten Punkt aufnimmt und ferner eine Videobildverfolgung durch ein Videobild, das sich von dem ersten Punkt zu dem zweiten Punkt bewegt, ausführt, ein Standbild über die weitere Teilereinheit an dem zweiten Punkt aufnimmt, den Merkmalspunkt auf dem Standbild an dem zweiten Punkt bestimmt, einen Stereo-Abgleich des Standbildes an dem ersten Punkt und des Standbildes an dem zweiten Punkt basierend auf dem Merkmalspunkt ausführt, ein dreidimensionales Modell basierend auf Positionen in einem geozentrischen Koordinatensystem des ersten Punkts und des zweiten Punkts, die durch die GPS-Vorrichtung gemessen werden, anfertigt, und die Bildaufnahme-Steuerungsvorrichtung ein vierdimensionales Modell mit dreidimensionalen Positionsdaten und optischen Spektrumsinformationen durch Synthetisieren des optisch-spektralen Synthesebildes und des dreidimensionalen Modells anfertigt. Als Ergebnis kann ein vierdimensionales Modell leicht durch Verwendung einer einzigen Kamera erhalten werden und beliebige dreidimensionale Positionsdaten und optische Spektralinformationen eines Objekts, das vermessen werden soll, können ohne weiteres erhalten werden.

Claims (6)

  1. Bildaufnahmevorrichtung, die eine Optikeigenschaften-Änderungseinheit (15, 61, 62), ein optisches System (45), das eine Objektivlinse (47) enthält, um Licht von der Objektivlinse (47) zu der Optikeigenschaften-Änderungseinheit (15, 61, 62) zu leiten, und ein Bildaufnahmeelement (52) zum Empfangen von Licht über die Optikeigenschaften-Änderungseinheit (15, 61, 62) umfasst, wobei die Optikeigenschaften-Änderungseinheit (15, 61, 62) zwei oder mehr Teilereinheiten (60, 63) besitzt und eine Anordnung hat, in der eine der Teilereinheiten (60, 63) wahlweise entlang eines optischen Wegs angeordnet ist und die Teilereinheit (60, 63) einen ersten Bereich (60a'~60e', 60a''~60e'', 63a'~63e', 63a''~63e'') besitzt, um eine bestimmte Wellenlänge von dem Licht, das aus dem optischen System (45) kommt, auszuwählen, und einen zweiten Bereich (60a~60e, 63a~63e) besitzt, in dem optische Eigenschaften des Lichts aus dem optischen System (45) nicht geändert werden.
  2. Bildaufnahmevorrichtung nach Anspruch 1, die ferner eine Bildaufnahme-Steuervorrichtung (21) umfasst, wobei basierend auf einem Bildabgleich eines Bildes, das über den zweiten Bereich (60a~60e, 63a~63e) einer Teilereinheit (60, 63) aufgenommen worden ist, und eines Bildes, das über den zweiten Bereich (60a~60e, 63a~63e) einer anderen Teilereinheit (60, 63) aufgenommen worden ist, ein optisch-spektrales Synthesebild durch Synthetisieren eines Bildes, das über den ersten Bereich (60a'~60e', 60a''~60e'', 63a'~63e', 63a''~63e'') der einen Teilereinheit (60, 63) aufgenommen worden ist, mit einem Bild, das über den ersten Bereich (60a'~60e', 60a''~60e'', 63a'~63e', 63a''~63e'') einer anderen Teilereinheit (60, 63) aufgenommen worden ist, angefertigt wird.
  3. Bildaufnahmevorrichtung nach Anspruch 1 oder 2, die ferner eine Blende (55) umfasst, die entlang eines optischen Wegs angeordnet ist, wobei die Blende (55) eine Blendenöffnung (55a) hat und eine Wellenlänge, die von der Optikeigenschaften-Änderungseinheit (15, 61, 62) gewählt wird, durch Bewegen der Blende (55) geändert werden kann.
  4. Bildaufnahmevorrichtung nach einem der Ansprüche 1 bis 3, wobei die Optikeigenschaften-Änderungseinheit (15, 61, 62) ferner eine nochmals weitere Teilereinheit (60, 63) umfasst, um nicht optische Eigenschaften des ersten Bereichs (60a'~60e', 60a''~60e'', 63a'~63e', 63a''~63e'') und des zweiten Bereichs (60a~60e, 63a~63e) zu ändern.
  5. Bildaufnahmevorrichtung nach Anspruch 4, wobei die Bildaufnahme-Steuervorrichtung (21) basierend auf einem Bildabgleich eines Bildes, das über den zweiten Bereich (60a~60e, 63a~63e) der zwei oder mehr Teilereinheiten (60, 63) aufgenommen worden ist, und eines Standbildes, das über die nochmals weitere Teilereinheit (60, 63) aufgenommen worden ist, ein Bild, das über den ersten Bereich (60a'~60e', 60a''~60e'', 63a'~63e', 63a''~63e'') der zwei oder mehr Teilereinheiten (60, 63) aufgenommen worden ist, und das Standbild synthetisiert und ein Hyper-Spektralbild anfertigt.
  6. Bildaufnahmevorrichtung nach Anspruch 5, die ferner eine GPS-Vorrichtung (9) zur Durchführung einer Messung von geozentrischen Koordinaten umfasst, wobei die Bildaufnahme-Steuervorrichtung (21) ein Standbild über die nochmals weitere Teilereinheit (60, 63) an einem ersten Punkt aufnimmt, zwei oder mehr Merkmalspunkte aus dem Standbild an dem ersten Punkt extrahiert, ein Videobild, das ein Einzelbild, das in einer Zeitabfolge fortlaufend ist, enthält, über die nochmals weitere Teilereinheit (60, 63) während der Bewegung von dem ersten Punkt zu dem zweiten Punkt aufnimmt und ferner eine Videobildverfolgung durch ein Videobild, das sich von dem ersten Punkt zu dem zweiten Punkt bewegt, ausführt, ein Standbild über die nochmals weitere Teilereinheit (60, 63) an dem zweiten Punkt aufnimmt, den Merkmalspunkt auf dem Standbild an dem zweiten Punkt bestimmt, einen Stereo-Abgleich des Standbildes an dem ersten Punkt und des Standbildes an dem zweiten Punkt basierend auf dem Merkmalspunkt ausführt, ein dreidimensionales Modell basierend auf Positionen in einem geozentrischen Koordinatensystem des ersten Punkts und des zweiten Punkts, die durch die GPS-Vorrichtung (9) gemessen werden, anfertigt, und wobei die Bildaufnahme-Steuerungsvorrichtung (21) ein vierdimensionales Modell mit dreidimensionalen Positionsdaten und optischen Spektrumsinformationen durch Synthetisieren des optisch-spektralen Synthesebildes und des dreidimensionalen Modells anfertigt.
DE112012004055.4T 2011-09-28 2012-09-20 Bildaufnahmevorrichtung Withdrawn DE112012004055T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011-212478 2011-09-28
JP2011212478A JP5937799B2 (ja) 2011-09-28 2011-09-28 スペクトル画像取得装置
JP2011-230443 2011-10-20
JP2011230443A JP5802516B2 (ja) 2011-10-20 2011-10-20 画像取得装置
PCT/JP2012/074812 WO2013047627A1 (ja) 2011-09-28 2012-09-20 画像取得装置

Publications (1)

Publication Number Publication Date
DE112012004055T5 true DE112012004055T5 (de) 2014-07-31

Family

ID=47995658

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012004055.4T Withdrawn DE112012004055T5 (de) 2011-09-28 2012-09-20 Bildaufnahmevorrichtung

Country Status (4)

Country Link
US (1) US9541495B2 (de)
CN (1) CN103947194B (de)
DE (1) DE112012004055T5 (de)
WO (1) WO2013047627A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3158302A4 (de) * 2014-06-18 2018-02-28 Innopix, Inc. Spektralbildgebungssystem für fern- nichtinvasiven nachweis von zielsubstanzen mit spektralen filterarrays und bilderfassungsarrays

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6224354B2 (ja) * 2013-05-31 2017-11-01 株式会社トプコン スペクトル画像取得装置及びスペクトル画像取得方法
US11573124B2 (en) 2016-04-14 2023-02-07 National University Corporation Hokkaido University Computer storage medium, network system for distributing spectral camera control program and spectral image capturing method using spectral camera control device
JP6321895B2 (ja) * 2016-04-14 2018-05-09 国立大学法人北海道大学 スペクトルカメラ制御装置、スペクトルカメラ制御プログラム、スペクトルカメラ制御システム、このシステムを搭載した飛行体およびスペクトル画像撮像方法
JP6685849B2 (ja) * 2016-06-17 2020-04-22 株式会社ミツトヨ 光干渉測定装置及び光干渉測定方法
CN106488125A (zh) * 2016-10-31 2017-03-08 努比亚技术有限公司 一种图像处理方法及设备
CN110909570A (zh) * 2018-09-17 2020-03-24 黄剑鸣 头部图像动态扑捉设备
US11095835B2 (en) * 2018-12-21 2021-08-17 Imec Vzw Use of spectral leaks to obtain high spatial resolution information for hyperspectral imaging
US20220026397A1 (en) * 2020-07-21 2022-01-27 Voliro Ag Structural wall inspection system using drones to perform nondestructive testing (ndt)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125429A (ja) 1990-09-17 1992-04-24 Hitachi Ltd 面分光監視装置
JP3607857B2 (ja) 2000-07-27 2005-01-05 オリンパス株式会社 内視鏡装置
EP2319390B1 (de) 2000-07-21 2016-04-20 Olympus Corporation Endoskop
WO2002021109A1 (fr) * 2000-09-04 2002-03-14 Hamamatsu Photonics K.K. Appareil d'imagerie
JP2004279140A (ja) 2003-03-13 2004-10-07 Omron Corp プラズマ分光測定装置
WO2005046248A1 (ja) * 2003-11-11 2005-05-19 Olympus Corporation マルチスペクトル画像撮影装置
JP4488804B2 (ja) 2004-06-23 2010-06-23 株式会社トプコン ステレオ画像の関連付け方法及び3次元データ作成装置
US8204285B2 (en) * 2005-06-17 2012-06-19 The Brigham And Women's Hospital, Inc. Generalized 5D dynamic and spectral factor analysis
US20090093700A1 (en) * 2005-09-08 2009-04-09 Heidi Hall Apparatus and method for multi-modal imaging using nanoparticle multi-modal imaging probes
KR101539472B1 (ko) 2007-08-27 2015-07-24 가부시키가이샤 니콘 색분포 측정용 광학계, 색분포 측정 장치, 및 색분포 측정 방법
EP2260276B1 (de) 2008-03-20 2018-05-16 Philips Lighting Holding B.V. Photodetektor und lichtmessungsverfahren
JP2009258618A (ja) 2008-03-27 2009-11-05 Olympus Corp フィルタ切替装置、撮影レンズ、カメラ、および撮影システム
RU2011128379A (ru) * 2008-12-09 2013-01-20 Томтом Норт Америка, Инк. Способ генерации продукта геодезической справочной базы данных
JP5431011B2 (ja) 2009-04-28 2014-03-05 パイロットインキ株式会社 ボールペン用水性インキ組成物及びそれを内蔵したボールペン
JP2011089895A (ja) * 2009-10-22 2011-05-06 Arata Satori ハイパースペクトル撮像装置及びハイパースペクトル撮像方法
CN101963529A (zh) * 2010-09-03 2011-02-02 北京理工大学 极远紫外扫描成像光谱仪

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3158302A4 (de) * 2014-06-18 2018-02-28 Innopix, Inc. Spektralbildgebungssystem für fern- nichtinvasiven nachweis von zielsubstanzen mit spektralen filterarrays und bilderfassungsarrays

Also Published As

Publication number Publication date
WO2013047627A1 (ja) 2013-04-04
US20140232858A1 (en) 2014-08-21
CN103947194A (zh) 2014-07-23
CN103947194B (zh) 2016-06-22
US9541495B2 (en) 2017-01-10

Similar Documents

Publication Publication Date Title
DE112012004055T5 (de) Bildaufnahmevorrichtung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
EP2005112B1 (de) Vorrichtung und Verfahren zum dreidimensionalen Erfassen eines Raumbereichs
US20160227197A1 (en) Image Acquiring Device And Image Acquiring System
DE60133026T2 (de) Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
DE102007044605B4 (de) Vermessungsgerät
EP2527784A1 (de) Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
DE112010000019T5 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102010031535A1 (de) Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
DE102009055626A1 (de) Optische Messeinrichtung und Verfahren zur optischen Vermessung eines Messobjekts
DE112017007695T5 (de) Facettenaugen-bildaufnahmevorrichtung, bildverarbeitungsverfahren, programm und aufzeichnungsmedium
DE69633589T2 (de) Verfahren und Gerät zur Verarbeitung von visuellen Informationen
DE102020129096A1 (de) Erzeugung dreidimensionaler punktwolken mittels einer polarimetrischen kamera in einem mit einem fahrassistenzsystem ausgestatteten fahrzeug
DE202016008530U1 (de) Vereinheitlichte Bildbearbeitung für zusammengesetzte Bilder auf Basis räumlich nebeneinander angeordneter Bereiche
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE102019008472B4 (de) Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern
DE102017220005A1 (de) Verfahren und Anzeigegerät zum Führen einer Arbeitsmaschine
DE102019133515B3 (de) Verfahren und Vorrichtung zur Parallaxenbestimmung von Aufnahmen eines Multilinsen-Kamerasystems
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation
EP3540507B1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen einer bildaufnahme eines dokuments und verwendung
DE19549412A1 (de) Scharfstellverfahren für eine Fachkamera
WO2020127748A1 (de) Vorrichtung mit einer multiaperturabbildungsvorrichtung zum akkumulieren von bildinformation
DE102020127964B4 (de) Verfahren und Vorrichtung zum schnellen Erfassen eines hyperspektralen Kubus eines Objekts oder einer Szene

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee