JP2013090230A - Image acquisition device - Google Patents
Image acquisition device Download PDFInfo
- Publication number
- JP2013090230A JP2013090230A JP2011230443A JP2011230443A JP2013090230A JP 2013090230 A JP2013090230 A JP 2013090230A JP 2011230443 A JP2011230443 A JP 2011230443A JP 2011230443 A JP2011230443 A JP 2011230443A JP 2013090230 A JP2013090230 A JP 2013090230A
- Authority
- JP
- Japan
- Prior art keywords
- image
- optical
- point
- region
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 200
- 238000001228 spectrum Methods 0.000 claims abstract description 107
- 238000003384 imaging method Methods 0.000 claims abstract description 51
- 230000008859 change Effects 0.000 claims abstract description 13
- 239000002131 composite material Substances 0.000 claims description 12
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 230000003595 spectral effect Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 description 72
- 230000002093 peripheral effect Effects 0.000 description 20
- 238000005259 measurement Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 14
- 238000013500 data storage Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012407 engineering method Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、測定対象物の光スペクトル特性、更にハイパースペクトル画像を取得する画像取得装置に関するものである。 The present invention relates to an image acquisition device that acquires a light spectrum characteristic of a measurement object and a hyperspectral image.
測定対象物を写真測量する等して、測定対象物の3次元データを取得するのと同時に測定対象物の画像を取得し、画像付の3次元データを取得することが行われている。 At the same time as obtaining three-dimensional data of a measurement object, for example, by photogrammetrically measuring the measurement object, obtaining an image of the measurement object and obtaining three-dimensional data with an image.
従来の3次元測定装置で得られる画像付の3次元データは、地図データ等に用いられており、使用者の視認性を高める等の効果が得られている。 Three-dimensional data with an image obtained by a conventional three-dimensional measuring apparatus is used for map data and the like, and effects such as improving the visibility of the user are obtained.
一方、得られるデータは測定対象物の3次元位置データであり、得られる情報としては測定対象物の3次元位置である。 On the other hand, the obtained data is the three-dimensional position data of the measurement object, and the obtained information is the three-dimensional position of the measurement object.
測定対象物について測定を行う場合、より多くの情報が得られることが望まれ、測定対象物の位置情報のみならず、測定対象物の性状についての情報が得られることが望ましく主に地理情報システム(GIS)で利用される。 When measuring a measurement object, it is desirable to obtain more information, and it is desirable to obtain not only the position information of the measurement object but also information on the properties of the measurement object. (GIS).
例えば、農作物の発育状態についての情報が得られれば、農作業について適切な判断、適切な処置が可能となり、或は地表に露出した鉱物の種類等が判断できれば、適切な土木工法の選択が可能となる等である。 For example, if information on the growth status of crops can be obtained, it is possible to make appropriate judgments and appropriate treatments for agricultural work, or if the type of mineral exposed on the ground surface can be judged, it is possible to select an appropriate civil engineering method. And so on.
本発明は斯かる実情に鑑み、光スペクトル特性、特にハイパースペクトル画像を取得可能な画像取得装置を提供するものである。 In view of such circumstances, the present invention provides an image acquisition device capable of acquiring optical spectrum characteristics, particularly hyperspectral images.
本発明は、光学特性変更部と、対物レンズを含み、該対物レンズからの光を前記光学特性変更部へと導く光学系と、前記光学特性変更部を介した光を受光する撮像素子とを具備し、前記光学特性変更部は複数の分割部を有すると共に分割部の1つを選択的に光路に配置させる構成であり、前記分割部は前記光学系からの光から特定の波長を選択する第1領域と、前記光学系からの光の光学特性を変更させない第2領域とを有する画像取得装置に係るものである。 The present invention includes an optical characteristic changing unit, an optical system that includes an objective lens, guides light from the objective lens to the optical characteristic changing unit, and an imaging device that receives light via the optical characteristic changing unit. And the optical property changing unit includes a plurality of dividing units and selectively arranges one of the dividing units in the optical path, and the dividing unit selects a specific wavelength from the light from the optical system. The present invention relates to an image acquisition device having a first area and a second area that does not change the optical characteristics of the light from the optical system.
又本発明は、撮像制御装置を更に具備し、1つの分割部の前記第2領域を介して撮像された画像と、他の分割部の前記第2領域を介して撮像された画像との画像マッチングに基づき、前記1つの分割部の前記第1領域を介して撮像された画像と、前記他の分割部の前記第1領域を介して撮像された画像とを合成して光スペクトル合成画像を作成する画像取得装置に係るものである。 The present invention further includes an imaging control device, and an image of an image captured through the second region of one dividing unit and an image captured through the second region of another dividing unit. Based on the matching, an image captured through the first region of the one division unit and an image captured through the first region of the other division unit are combined to produce an optical spectrum composite image. The present invention relates to an image acquisition device to be created.
又本発明は、光路に配置された絞りを更に具備し、該絞りは絞り孔を有し、前記絞りを移動させることで前記光学特性変更部により選択される波長が変化する画像取得装置に係るものである。 The present invention further relates to an image acquisition apparatus further comprising a stop arranged in an optical path, the stop having a stop hole, and the wavelength selected by the optical characteristic changing unit changing by moving the stop. Is.
又本発明は、前記光学特性変更部は、前記第1領域及び前記第2領域共に光学特性を変更させない更に他の分割部を更に具備する画像取得装置に係るものである。 The present invention also relates to the image acquisition apparatus, wherein the optical characteristic changing unit further includes another division unit that does not change the optical characteristics in both the first area and the second area.
又本発明は、前記撮像制御装置は複数の分割部の前記第2領域を介して撮像された画像と、前記更に他の分割部を介して撮像された静止画像との画像マッチングに基づき、複数の分割部の前記第1領域を介して撮像された画像と、前記静止画像とを合成してハイパースペクトル画像を作成する画像取得装置に係るものである。 In the invention, it is preferable that the imaging control device is based on image matching between an image captured through the second region of a plurality of division units and a still image captured through the further division unit. The image acquisition apparatus which produces | generates a hyperspectral image by synthesize | combining the image imaged through the said 1st area | region of the division part, and the said still image.
更に又本発明は、地心座標の測定を行うGPS装置を更に具備し、前記撮像制御装置は第1地点で前記更に他の分割部を介して静止画像を取得すると共に、第1地点の静止画像から複数の特徴点を抽出し、第1地点から第2地点に移動中に前記更に他の分割部を介して時系列に連続するフレーム画像で構成される動画像を取得し、更に第1地点から第2地点に移動中の動画像により動画像トラッキングを行うと共に、第2地点で前記更に他の分割部を介して静止画像を取得し、第2地点の静止画像に前記特徴点を特定し、該特徴点に基づき第1地点の静止画像と第2地点の静止画像とをステレオマッチングすると共に、前記GPS装置により測定された第1地点及び第2地点の地心座標系の位置に基づき3次元モデルを形成し、又前記撮像制御装置は前記光スペクトル合成画像と前記3次元モデルとを合成し、3次元位置データと光スペクトル情報を有する4次元モデルを作成する画像取得装置に係るものである。 Furthermore, the present invention further includes a GPS device for measuring geocentric coordinates, and the imaging control device acquires a still image at the first point via the further dividing unit, and stops at the first point. A plurality of feature points are extracted from the image, and a moving image composed of frame images continuous in time series is acquired via the further dividing unit while moving from the first point to the second point, The moving image tracking is performed with the moving image moving from the point to the second point, the still image is acquired at the second point via the other dividing unit, and the feature point is specified in the still image at the second point. Based on the feature points, the still image of the first point and the still image of the second point are stereo-matched, and based on the position of the geocentric coordinate system of the first point and the second point measured by the GPS device. Forming a three-dimensional model and Device is intended according to the image capture device to create a four-dimensional model having a synthesizing and said 3-dimensional model and the light spectrum composite image, 3-dimensional position data and optical spectral information.
本発明によれば、光学特性変更部と、対物レンズを含み、該対物レンズからの光を前記光学特性変更部へと導く光学系と、前記光学特性変更部を介した光を受光する撮像素子とを具備し、前記光学特性変更部は複数の分割部を有すると共に分割部の1つを選択的に光路に配置させる構成であり、前記分割部は前記光学系からの光から特定の波長を選択する第1領域と、前記光学系からの光の光学特性を変更させない第2領域とを有するので、前記光学特性変更部により1つのカメラで光学特性を変更させないリアル画像と、光学特性を変更させた光スペクトル画像の両方を同時に取得することができ、構造の簡易化及びコストの低減を図ることができる。 According to the present invention, an optical characteristic changing unit, an optical system that includes an objective lens, guides light from the objective lens to the optical characteristic changing unit, and an image sensor that receives light via the optical characteristic changing unit. And the optical property changing unit includes a plurality of division units and selectively arranges one of the division units in the optical path, and the division unit transmits a specific wavelength from the light from the optical system. Since the first area to be selected and the second area in which the optical characteristic of the light from the optical system is not changed, the optical characteristic is changed by the optical characteristic changing unit and the optical characteristic is changed by one camera. Both of the optical spectrum images thus obtained can be acquired simultaneously, and the structure can be simplified and the cost can be reduced.
又本発明によれば、撮像制御装置を更に具備し、1つの分割部の前記第2領域を介して撮像された画像と、他の分割部の前記第2領域を介して撮像された画像との画像マッチングに基づき、前記1つの分割部の前記第1領域を介して撮像された画像と、前記他の分割部の前記第1領域を介して撮像された画像とを合成して光スペクトル合成画像を作成するので、前記第2領域を介して撮像された画像間のマッチング条件をそのまま前記第1領域を介して撮像された画像に適用できる。 According to the invention, it further includes an imaging control device, and an image captured through the second region of one division unit and an image captured through the second region of the other division unit, Based on the image matching, an image captured through the first region of the one dividing unit and an image captured through the first region of the other dividing unit are combined to generate an optical spectrum. Since the image is created, the matching condition between the images captured through the second region can be applied to the image captured through the first region as it is.
又本発明によれば、光路に配置された絞りを更に具備し、該絞りは絞り孔を有し、前記絞りを移動させることで前記光学特性変更部により選択される波長が変化するので、該光学特性変更部を交換することなく所定の波長範囲に於ける光スペクトルを取得することができる。 According to the present invention, the optical system further includes a stop disposed in the optical path, the stop having a stop hole, and the wavelength selected by the optical characteristic changing unit is changed by moving the stop. An optical spectrum in a predetermined wavelength range can be acquired without exchanging the optical property changing unit.
又本発明によれば、前記光学特性変更部は、前記第1領域及び前記第2領域共に光学特性を変更させない更に他の分割部を更に具備するので、光学特性を変更させないリアル画像のみの取得が可能となり、画像取得装置を移動させる際に容易に動画像トラッキングを行うことができる。 According to the invention, the optical property changing unit further includes another division unit that does not change the optical property in both the first region and the second region, so that only the real image that does not change the optical property is obtained. Thus, moving image tracking can be easily performed when moving the image acquisition apparatus.
又本発明によれば、前記撮像制御装置は複数の分割部の前記第2領域を介して撮像された画像と、前記更に他の分割部を介して撮像された静止画像との画像マッチングに基づき、複数の分割部の前記第1領域を介して撮像された画像と、前記静止画像とを合成してハイパースペクトル画像を作成するので、ハイパースペクトル画像を1つのカメラにて容易に取得することができる。 According to the invention, the imaging control device is based on image matching between an image captured through the second region of a plurality of division units and a still image captured through the further division unit. Since the hyperspectral image is created by synthesizing the image captured through the first region of the plurality of division units and the still image, the hyperspectral image can be easily acquired with one camera. it can.
更に又本発明によれば、地心座標の測定を行うGPS装置を更に具備し、前記撮像制御装置は第1地点で前記更に他の分割部を介して静止画像を取得すると共に、第1地点の静止画像から複数の特徴点を抽出し、第1地点から第2地点に移動中に前記更に他の分割部を介して時系列に連続するフレーム画像で構成される動画像を取得し、更に第1地点から第2地点に移動中の動画像により動画像トラッキングを行うと共に、第2地点で前記更に他の分割部を介して静止画像を取得し、第2地点の静止画像に前記特徴点を特定し、該特徴点に基づき第1地点の静止画像と第2地点の静止画像とをステレオマッチングすると共に、前記GPS装置により測定された第1地点及び第2地点の地心座標系の位置に基づき3次元モデルを形成し、又前記撮像制御装置は前記光スペクトル合成画像と前記3次元モデルとを合成し、3次元位置データと光スペクトル情報を有する4次元モデルを作成するので、4次元モデルが1つのカメラにて容易に取得可能となり、測定対象物の任意の3次元位置データと光スペクトル情報を簡単に得ることができるという優れた効果を発揮する。 Furthermore, according to the present invention, a GPS device for measuring geocentric coordinates is further provided, and the imaging control device acquires a still image at the first point via the further dividing unit, and the first point. A plurality of feature points are extracted from the still image, and a moving image composed of time-sequential frame images is acquired via the other dividing unit while moving from the first point to the second point, and The moving image tracking is performed with the moving image moving from the first point to the second point, and a still image is acquired at the second point via the other dividing unit, and the feature point is added to the still image at the second point. , And stereo-matching the still image of the first point and the still image of the second point based on the feature point, and the position of the geocentric coordinate system of the first point and the second point measured by the GPS device To form a three-dimensional model based on The image control device synthesizes the optical spectrum composite image and the three-dimensional model to create a four-dimensional model having three-dimensional position data and optical spectrum information, so that the four-dimensional model can be easily acquired with one camera. Thus, it is possible to easily obtain arbitrary three-dimensional position data and optical spectrum information of the measurement object.
以下、図面を参照しつつ本発明の実施例を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
本発明の実施例に係る画像取得装置は、小型無人飛行体、例えば遠隔操作可能な小型ヘリコプタ或は自律飛行可能な小型ヘリコプタに搭載される。 An image acquisition apparatus according to an embodiment of the present invention is mounted on a small unmanned aerial vehicle, for example, a small helicopter capable of remote control or a small helicopter capable of autonomous flight.
図1は、本実施例に係る画像取得装置を搭載した小型飛行体1を示している。 FIG. 1 shows a small aircraft 1 equipped with an image acquisition device according to this embodiment.
図1中、2は地上に設置される基地制御装置である。該基地制御装置2は前記飛行体1とデータ通信が可能であり、該飛行体1の制御、飛行計画の設定、変更、前記飛行体1が収集した情報を保存、管理する。 In FIG. 1, 2 is a base control apparatus installed on the ground. The base control device 2 is capable of data communication with the flying object 1 and stores and manages the control of the flying object 1, setting and changing the flight plan, and information collected by the flying object 1.
前記飛行体1は、例えば自律飛行する小型飛行体としてのヘリコプタである。該ヘリコプタ1は前記基地制御装置2から遠隔操作で操縦され、或は前記基地制御装置2から前記ヘリコプタ1の制御装置(図示せず)に飛行計画が設定され、該制御装置が航行手段(後述)を制御し、飛行計画に従って自律飛行する。又、制御装置は航行手段を制御し、前記ヘリコプタ1を所定の速度、所定の高度での飛行に制御すると共に、所定位置でホバリング(静止飛行状態)に制御することが可能である。 The flying object 1 is a helicopter as a small flying object that autonomously flies, for example. The helicopter 1 is operated by remote control from the base control device 2, or a flight plan is set from the base control device 2 to a control device (not shown) of the helicopter 1, and the control device is operated by a navigation means (described later). ) And fly autonomously according to the flight plan. Further, the control device can control the navigation means to control the helicopter 1 to fly at a predetermined speed and a predetermined altitude, and to control the helicopter 1 in a hovering (stationary flight state) at a predetermined position.
前記ヘリコプタ1は、機体3、該機体3に設けられた所要数のプロペラ、例えば前後左右、計4組のプロペラ4,5,6,7を有し、該プロペラ4,5,6,7をそれぞれ個別にモータ(図示せず)に連結され、又該モータは独立して駆動が制御される様になっている。尚、前記プロペラ4,5,6,7及び前記モータ等は飛行体の航行手段を構成する。 The helicopter 1 includes a fuselage 3 and a required number of propellers provided in the fuselage 3, for example, four sets of propellers 4, 5, 6, and 7, for example, front, rear, left, and right. Each of the motors is individually connected to a motor (not shown), and the driving of the motors is controlled independently. The propellers 4, 5, 6, 7 and the motor constitute a flying means of the flying object.
前記機体3には、前記ヘリコプタ1の基準位置(例えば前記機体3の中心)を測定するGPS装置9が設けられている。 The airframe 3 is provided with a GPS device 9 that measures the reference position of the helicopter 1 (for example, the center of the airframe 3).
前記ヘリコプタ1の機体3には、撮像装置11が搭載されている。該撮像装置11は光軸12を有し、該光軸12は下方に延出し、前記撮像装置11は前記ヘリコプタ1の下方を撮像する様になっている。 An imaging device 11 is mounted on the body 3 of the helicopter 1. The imaging device 11 has an optical axis 12, the optical axis 12 extends downward, and the imaging device 11 captures an image below the helicopter 1.
次に、図2により、本発明の第1の実施例に係る前記撮像装置11の概略構成を説明する。 Next, a schematic configuration of the imaging apparatus 11 according to the first embodiment of the present invention will be described with reference to FIG.
該撮像装置11は、カメラ部13及び撮像制御装置21を有し、該撮像制御装置21は前記カメラ部13が撮像した画像データ及び前記GPS装置9からの位置情報に基づき測定対象物の写真測量を行い、或は前記画像データと前記カメラ部13が取得した光スペクトル画像データの合成等の処理を行う。 The imaging device 11 includes a camera unit 13 and an imaging control device 21, and the imaging control device 21 is a photogrammetry of a measurement object based on image data captured by the camera unit 13 and position information from the GPS device 9. Or processing such as synthesis of the image data and optical spectrum image data acquired by the camera unit 13.
先ず、該カメラ部13について説明する。 First, the camera unit 13 will be described.
該カメラ部13は、カメラ14と、後述する光学特性変更部である干渉フィルタ15と、該干渉フィルタ15の切替え手段としてのモータ16とを具備している。前記カメラ14は前記光軸12上に設けられ、測定対象物のありのままの画像(リアル画像)と、光スペクトル画像を取得可能となっている。 The camera unit 13 includes a camera 14, an interference filter 15 that is an optical characteristic changing unit described later, and a motor 16 as a switching unit for the interference filter 15. The camera 14 is provided on the optical axis 12 and can acquire an image (real image) and an optical spectrum image of an object to be measured.
尚、前記カメラ14は測定箇所の画像を撮像し、デジタルの画像データを出力するものであり、静止画像を所定時間間隔で撮像できると共に、画像を連続的に撮像する動画像を撮像できる様になっている。 The camera 14 captures an image of a measurement location and outputs digital image data so that a still image can be captured at predetermined time intervals and a moving image that continuously captures images can be captured. It has become.
又、前記カメラ14は、撮像素子17として、画素(ピクセル)の集合体であるCCD、或はCMOSセンサを有しており、前記撮像素子17の中心(受光面の座標中心)を前記光軸12が垂直に通過する様に該光軸12と前記撮像素子17との関係が設定されている。従って、前記撮像素子17の各画素は該撮像素子17上の位置(座標)が特定でき、更に各画素の画角(前記光軸12に対する角度)が分る様になっている。 The camera 14 has a CCD or CMOS sensor as a collection of pixels as the image sensor 17, and the center of the image sensor 17 (coordinate center of the light receiving surface) is the optical axis. The relationship between the optical axis 12 and the image sensor 17 is set so that 12 passes vertically. Therefore, each pixel of the image sensor 17 can specify the position (coordinates) on the image sensor 17, and the angle of view of each pixel (angle with respect to the optical axis 12) can be known.
又、前記カメラ14は、前記光軸12上に設けられ一部に干渉膜が形成された干渉フィルタ15を有し、該干渉フィルタ15は回転可能に支持され、前記モータ16によって回転可能となっている。前記干渉フィルタ15は光学特性の異なる複数の分割部を有し、又各分割部は前記干渉膜が形成された領域を有すると共に、光学特性を有していない領域を有する。前記モータ16により前記干渉フィルタ15が回転されることで分割部が選択される。選択された分割部は前記カメラ14の光軸と合致し、光は選択された分割部を通過し、更に通過する分割部に応じて所定波長の光と全波長の光とが前記撮像素子17に同時に受光され、前記カメラ14によって所定波長の光スペクトル画像とリアル画像とが同時に取得される様になっている。 The camera 14 has an interference filter 15 provided on the optical axis 12 and having an interference film formed in part. The interference filter 15 is rotatably supported and can be rotated by the motor 16. ing. The interference filter 15 has a plurality of divided portions having different optical characteristics, and each divided portion has a region where the interference film is formed and a region not having optical characteristics. The division part is selected by rotating the interference filter 15 by the motor 16. The selected splitting unit coincides with the optical axis of the camera 14, the light passes through the selected splitting unit, and light of a predetermined wavelength and light of all wavelengths according to the splitting unit that passes further. At the same time, a light spectrum image of a predetermined wavelength and a real image are simultaneously acquired by the camera 14.
次に、図3に於いて、前記干渉フィルタ15の詳細について説明する。 Next, the details of the interference filter 15 will be described with reference to FIG.
該干渉フィルタ15は、透過型の干渉フィルタであり、図3で示す様に形状が円板であり、透過面が円周方向に所要角度に等分(図示では6等分)され、前記分割部は分割透過面60a〜60fとして形成されている。 The interference filter 15 is a transmission type interference filter, and has a disk shape as shown in FIG. 3, and the transmission surface is equally divided into a required angle in the circumferential direction (in the figure, divided into six equal parts). The part is formed as divided transmission surfaces 60a to 60f.
前記分割透過面60a〜60fの内、複数の分割部である分割透過面60a〜60eには、同心円状に第2領域、第1領域、第2領域がそれぞれ形成されている。前記第1領域には各分割透過面60a〜60e毎に選択波長λ1〜λ5の選択波長特性の異なる透過干渉膜が形成され、更に他の分割部である分割透過面60fは第1領域、第2領域(60f′,60f′′)共に光学特性を有さず、全ての波長を透過させる様になっている。 A second region, a first region, and a second region are formed concentrically on the divided transmission surfaces 60a to 60e, which are a plurality of divided portions, among the divided transmission surfaces 60a to 60f. In the first region, transmission interference films having different selection wavelength characteristics of the selection wavelengths λ1 to λ5 are formed for each of the divided transmission surfaces 60a to 60e. Further, the divided transmission surface 60f, which is another divided portion, is formed in the first region and the first region. The two regions (60f ′, 60f ″) do not have optical characteristics, and transmit all wavelengths.
例えば、第1領域に於いて、分割透過面60aには選択波長λ1が400nm〜450nm、分割透過面60bには選択波長λ2が450nm〜525nm、分割透過面60cには選択波長λ3が525nm〜650nm、分割透過面60dには選択波長λ4が650nm〜750nm、分割透過面60eには選択波長λ5が750nm〜870nmの透過干渉膜がそれぞれ形成される。 For example, in the first region, the selective wavelength λ1 is 400 nm to 450 nm on the divided transmission surface 60a, the selective wavelength λ2 is 450 nm to 525 nm on the divided transmission surface 60b, and the selective wavelength λ3 is 525 nm to 650 nm on the divided transmission surface 60c. A transmission interference film having a selection wavelength λ4 of 650 nm to 750 nm and a selection wavelength λ5 of 750 nm to 870 nm is formed on the split transmission surface 60d, respectively.
又、前記分割透過面60a〜60eは、前記第1領域の外周側の外周部60a′〜60e′と内周側の内周部60a′′〜60e′′が前記第2領域となっており、これら第2領域は全ての波長を通過させる。前記干渉フィルタ15上に結像される結像58は、前記第2領域、前記第1領域、前記第2領域に掛渡り、前記結像58の外周側の一部が前記外周部60a′〜60e′,60f′にオーバラップし、内周側の一部が前記内周部60a′′〜60e′′,60f′′にオーバラップする様になっている。 The divided transmission surfaces 60a to 60e have outer peripheral portions 60a ′ to 60e ′ on the outer peripheral side of the first region and inner peripheral portions 60a ″ to 60e ″ on the inner peripheral side as the second region. These second regions pass all wavelengths. The image 58 formed on the interference filter 15 extends over the second region, the first region, and the second region, and a part of the outer periphery of the image 58 is the outer peripheral portions 60a ′ to 60a ′. 60e 'and 60f' overlap, and a part on the inner peripheral side overlaps the inner peripheral portions 60a "to 60e" and 60f ".
前記干渉フィルタ15を用いる場合、前記分割透過面60fを選択し、該分割透過面60fに光軸を合致させた場合は、波長選択されることなく全透過され、リアル画像データのみが取得される。又、前記分割透過面60a〜60eのいずれかが選択された場合、例えば分割透過面60eが選択された場合、前記結像58の内、分割透過面60eの透過干渉膜を透過する第1領域部58aは波長選択され、前記外周部60e′及び前記内周部60e′′を透過する第2領域部58b,58cは全透過され、前記第1領域部58aで得られる光スペクトル画像データと、前記第2領域部58b,58cであるリアル画像データとが一体となった混合画像データが取得される。 When the interference filter 15 is used, when the divided transmission surface 60f is selected and the optical axis is matched with the divided transmission surface 60f, the entire transmission is performed without selecting the wavelength, and only real image data is acquired. . Further, when any one of the divided transmission surfaces 60a to 60e is selected, for example, when the divided transmission surface 60e is selected, the first region that transmits the transmission interference film of the divided transmission surface 60e in the imaging 58. The part 58a is wavelength-selected, and the second region parts 58b and 58c that pass through the outer peripheral part 60e ′ and the inner peripheral part 60e ″ are totally transmitted, and optical spectrum image data obtained in the first area part 58a; Mixed image data obtained by integrating the real image data as the second region portions 58b and 58c is acquired.
尚、得たい光スペクトルの波長範囲が、400nm〜870nmに及ぶ時は、前記分割透過面60aから前記分割透過面60e迄、順次分割透過面を切替え、切替えられた分割透過面60毎に光スペクトル画像が取得される様になっている。 When the wavelength range of the desired optical spectrum ranges from 400 nm to 870 nm, the divided transmission surfaces are sequentially switched from the divided transmission surface 60a to the divided transmission surface 60e, and the optical spectrum is switched for each of the switched divided transmission surfaces 60. Images are acquired.
而して、前記干渉フィルタ15の回転により、400nm〜870nm迄の範囲で波長が選択され、選択した波長毎に前記撮像素子17で画像が取得され、400nm〜870nmの範囲に於ける所定の光スペクトルを取得することができる。 Thus, by the rotation of the interference filter 15, a wavelength is selected in the range of 400 nm to 870 nm, and an image is acquired by the imaging device 17 for each selected wavelength, and predetermined light in the range of 400 nm to 870 nm is obtained. A spectrum can be acquired.
尚、得たい光スペクトルの波長に合わせて分割数を決定し、更に得たい光スペクトルの波長が限られている場合は、該当する選択波長特性を有する分割透過面を選択して光スペクトルを取得すればよい。 In addition, the number of divisions is determined according to the wavelength of the optical spectrum to be obtained, and if the wavelength of the optical spectrum to be obtained is limited, the optical spectrum is acquired by selecting the divided transmission surface having the corresponding selective wavelength characteristic. do it.
又、上記干渉フィルタ15は円板とし、回転可能としたが、長矩形形状とし、干渉フィルタ15を長手方向に分割して、分割透過面を形成し、前記干渉フィルタ15を長手方向にスライドさせ、分割透過面の切替えを行ってもよい。 The interference filter 15 is a disc and is rotatable, but has a long rectangular shape. The interference filter 15 is divided in the longitudinal direction to form a divided transmission surface, and the interference filter 15 is slid in the longitudinal direction. The divided transmission plane may be switched.
次に、前記撮像制御装置21について説明する。 Next, the imaging control device 21 will be described.
該撮像制御装置21は、演算制御部(CPU)22、画像データ記録部23、カメラコントローラ24、カメラ制御部25、フィルタコントローラ26、スペクトルデータ記憶部27、画像合成部28、画像処理部29、特徴抽出部31、マッチング部32、測定部33、モデル画像形成部34、表示部35、記憶部36を具備している。 The imaging control device 21 includes an arithmetic control unit (CPU) 22, an image data recording unit 23, a camera controller 24, a camera control unit 25, a filter controller 26, a spectrum data storage unit 27, an image composition unit 28, an image processing unit 29, A feature extracting unit 31, a matching unit 32, a measuring unit 33, a model image forming unit 34, a display unit 35, and a storage unit 36 are provided.
前記カメラ制御部25は、前記カメラ14、前記干渉フィルタ15、絞り55を同期制御するものである。尚、該絞り55については後述する。前記フィルタコントローラ26は前記カメラ制御部25からの指令信号に基づき前記モータ16を駆動し、光束が前記干渉フィルタ15の所定の分割透過面を透過する様、該干渉フィルタ15を回転し、位置決めする。 The camera control unit 25 controls the camera 14, the interference filter 15, and the diaphragm 55 in synchronization. The diaphragm 55 will be described later. The filter controller 26 drives the motor 16 based on a command signal from the camera control unit 25, and rotates and positions the interference filter 15 so that a light beam passes through a predetermined divided transmission surface of the interference filter 15. .
又、前記カメラコントローラ24は前記カメラ制御部25からの指令信号に基づき、前記撮像素子17から発せられる信号を取得する。光束が前記干渉フィルタ15の前記分割透過面60a〜60eを透過する場合には、透過する第1領域部58aと第2領域部58b,58cに応じて、取得された混合画像データをリアル画像データと、所定波長の光スペクトル画像データとに分離する。分離されたリアル画像データは撮像時間に関連付けて前記画像データ記録部23に格納され、光スペクトル画像データは撮像時間に関連付けて前記スペクトルデータ記憶部27に格納される。 The camera controller 24 acquires a signal emitted from the image sensor 17 based on a command signal from the camera control unit 25. When the light beam passes through the divided transmission surfaces 60a to 60e of the interference filter 15, the acquired mixed image data is converted into real image data according to the first region portion 58a and the second region portions 58b and 58c that are transmitted. And optical spectrum image data of a predetermined wavelength. The separated real image data is stored in the image data recording unit 23 in association with the imaging time, and the optical spectral image data is stored in the spectral data storage unit 27 in association with the imaging time.
又、光束が前記干渉フィルタ15の前記分割透過面60fを透過する場合には、第1領域、第2領域共に全透過面であるので、リアル画像のみからなる静止画像データが取得される。取得された静止画像データは、撮像時間に関連付けて前記画像データ記録部23に格納される。 When the light beam passes through the divided transmission surface 60f of the interference filter 15, both the first region and the second region are all transmission surfaces, so that still image data consisting only of a real image is acquired. The acquired still image data is stored in the image data recording unit 23 in association with the imaging time.
前記画像合成部28は、前記画像データ記録部23に格納された第2領域のリアル画像データに基づき、前記スペクトルデータ記憶部27に格納された光スペクトル画像データを合成し、更に光スペクトル合成画像と前記静止画像を合成し、1つの画像の全ピクセル(画素)にスペクトル情報を有するハイパースペクトル画像を作成するものである。 The image composition unit 28 synthesizes the optical spectrum image data stored in the spectrum data storage unit 27 based on the real image data of the second region stored in the image data recording unit 23, and further, an optical spectrum composite image. And the still image are combined to create a hyperspectral image having spectral information in all pixels (pixels) of one image.
前記画像処理部29は前記特徴抽出部31、前記マッチング部32を具備し、1フレームの画像データから特徴点(パスポイント)を少なくとも5以上抽出し、時間的に異なる画像データ、或は異なる撮像位置から取得した画像データについて前記特徴点に基づき画像のトラッキング或はマッチングを行うものである。 The image processing unit 29 includes the feature extraction unit 31 and the matching unit 32. The image processing unit 29 extracts at least five or more feature points (pass points) from one frame of image data, and image data different in time or different imaging. The image data acquired from the position is tracked or matched based on the feature points.
尚、画像トラッキング、画像マッチングについては、SSDA法(Sequential Similarity Detection Algorithm)、正規化相互相関法、最小2乗マッチング法等が用いられる。 For image tracking and image matching, an SSDA method (Sequential Similarity Detection Algorithm), a normalized cross-correlation method, a least square matching method, or the like is used.
前記測定部33は、異なる撮像位置から前記カメラ14で取得した2つの画像データ及び撮像位置の位置データに基づき写真測量を実行するものである。 The measurement unit 33 performs photogrammetry based on two pieces of image data acquired by the camera 14 from different imaging positions and position data of the imaging positions.
前記モデル画像形成部34は、前記ハイパースペクトル画像に前記測定部33で測定した各画素の3次元データを関連付け、3次元データ+光スペクトル画像データの4次元データを有するモデル画像を形成する。 The model image forming unit 34 associates the three-dimensional data of each pixel measured by the measuring unit 33 with the hyperspectral image, and forms a model image having four-dimensional data of three-dimensional data + light spectrum image data.
前記記憶部36には、カメラ制御に必要なプログラム、モータ制御に必要なプログラム、画像データと光スペクトル画像データの合成に必要なプログラム、画像トラッキングする為のプログラム、画像処理に必要なプログラム、測定に必要なプログラム、モデル画像を形成する為に必要なプログラム、前記表示部35を制御する為のプログラム等の各種プログラムが格納されている。尚、前記記憶部36の一部に前記画像データ記録部23、前記スペクトルデータ記憶部27を形成してもよい。 The storage unit 36 includes a program necessary for camera control, a program necessary for motor control, a program necessary for synthesis of image data and optical spectrum image data, a program for image tracking, a program necessary for image processing, and a measurement. Various programs such as a program necessary for forming the model image, a program necessary for forming the model image, and a program for controlling the display unit 35 are stored. The image data recording unit 23 and the spectrum data storage unit 27 may be formed in part of the storage unit 36.
次に、本実施例で使用されるカメラ14の一例について、図4〜図6を参照して説明する。尚、以下に説明するカメラ14は、前記干渉フィルタ15の分割透過面60a〜60eで得られる光スペクトル間を更に細分化した光スペクトルが得られる様に構成されている。 Next, an example of the camera 14 used in the present embodiment will be described with reference to FIGS. The camera 14 described below is configured to obtain a light spectrum obtained by further subdividing the light spectrum obtained by the divided transmission surfaces 60a to 60e of the interference filter 15.
図4は、該カメラ14の光学系45と、該光学系45の光路に設けられた干渉フィルタ15を示している。 FIG. 4 shows the optical system 45 of the camera 14 and the interference filter 15 provided in the optical path of the optical system 45.
図4中、46は該光学系45の光軸を示し、該光軸46上に対物レンズ47、第1リレーレンズ48、第2リレーレンズ49、第3リレーレンズ50、結像レンズ51、撮像素子52が配設されている。又、図4中、53は前記対物レンズ47によって結像された像を示し、又fは前記第2リレーレンズ49の焦点距離を示している。 In FIG. 4, reference numeral 46 denotes an optical axis of the optical system 45. On the optical axis 46, an objective lens 47, a first relay lens 48, a second relay lens 49, a third relay lens 50, an imaging lens 51, an image pickup lens. An element 52 is provided. 4, 53 indicates an image formed by the objective lens 47, and f indicates the focal length of the second relay lens 49.
前記第1リレーレンズ48の前記第2リレーレンズ49側に絞り55が配設され、前記対物レンズ47、前記第1リレーレンズ48、前記第2リレーレンズ49、前記第3リレーレンズ50、前記結像レンズ51、前記撮像素子52、前記絞り55により前記光学系45が構成されている。 A diaphragm 55 is disposed on the second relay lens 49 side of the first relay lens 48, and the objective lens 47, the first relay lens 48, the second relay lens 49, the third relay lens 50, and the connection. The optical system 45 is configured by the image lens 51, the imaging element 52, and the diaphragm 55.
該絞り55は、図中紙面に対して垂直な方向に延びるスリット状の絞り孔55aを有している。又、該絞り55は前記第2リレーレンズ49の物側焦点位置又は略物側焦点位置に配設され、該絞り55は前記光軸46に対して垂直な方向(前記絞り孔55aと直交する方向)に移動可能に支持され、前記絞り55はリニアモータ等の位置変位手段により適宜位置が変更される様になっている。 The diaphragm 55 has a slit-shaped diaphragm hole 55a extending in a direction perpendicular to the paper surface in the drawing. The diaphragm 55 is disposed at the object-side focal position or substantially the object-side focal position of the second relay lens 49, and the diaphragm 55 is perpendicular to the optical axis 46 (perpendicular to the diaphragm hole 55a). The diaphragm 55 is supported so as to be movable in the direction), and the position of the diaphragm 55 is appropriately changed by position displacement means such as a linear motor.
ここで、前記絞り55、前記第2リレーレンズ49はテレセントリック光学系56を構成する。前記第1リレーレンズ48を透過した光束は、前記テレセントリック光学系56によって平行な多数の光束(主光線57)に分割される。 Here, the diaphragm 55 and the second relay lens 49 constitute a telecentric optical system 56. The light beam that has passed through the first relay lens 48 is divided by the telecentric optical system 56 into a large number of parallel light beams (principal rays 57).
該主光線57の集光位置(前記第2リレーレンズ49による結像位置、或は略結像位置)には、選択波長特性の異なる複数の透過型干渉膜が形成された透過式の干渉フィルタ15が配設される。該干渉フィルタ15は、回転軸59を中心として回転可能に支持され、更にモータ等の回転手段により回転可能となっている。又、前記干渉フィルタ15は波長選択フィルタとして機能し、前記干渉フィルタ15の干渉膜を透過した特定波長の光線が、前記第3リレーレンズ50及び前記結像レンズ51によって前記撮像素子52上に結像される。結像された像は、特定波長に形成され2次元の像となる。 A transmission type interference filter in which a plurality of transmission type interference films having different selection wavelength characteristics are formed at a condensing position of the principal ray 57 (an imaging position by the second relay lens 49 or a substantially imaging position). 15 is disposed. The interference filter 15 is supported so as to be rotatable about a rotation shaft 59, and is further rotatable by a rotating means such as a motor. The interference filter 15 functions as a wavelength selection filter, and a light beam having a specific wavelength that has passed through the interference film of the interference filter 15 is coupled onto the image sensor 52 by the third relay lens 50 and the imaging lens 51. Imaged. The formed image is formed at a specific wavelength and becomes a two-dimensional image.
前記干渉フィルタ15は、該干渉フィルタ15に入射する光線の入射角によって選択波長特性が変化する性質を有する。図5は、入射角と透過するピーク波長の関係(ピーク波長の入射角依存性)を示しており、入射角を変化させることでピーク波長が変化していることが分る。 The interference filter 15 has a property that the selected wavelength characteristic changes depending on the incident angle of the light beam incident on the interference filter 15. FIG. 5 shows the relationship between the incident angle and the transmitted peak wavelength (dependence of the peak wavelength on the incident angle), and it can be seen that the peak wavelength is changed by changing the incident angle.
又、図4(A)は、前記絞り55の前記絞り孔55aが前記光軸46上に位置しており、この場合前記主光線57は前記光軸46と平行となる。次に、図4(B)に示す様に前記絞り55を移動させた場合、例えば図示の様に、上方に移動させると、前記主光線57は前記光軸46に対して傾斜する。即ち、前記干渉フィルタ15に対する入射角が変化する。従って、前記絞り55を移動させることで前記干渉フィルタ15を透過する波長を変化させることが可能となる。 4A, the aperture hole 55a of the aperture 55 is positioned on the optical axis 46, and in this case, the principal ray 57 is parallel to the optical axis 46. FIG. Next, when the diaphragm 55 is moved as shown in FIG. 4B, for example, as shown in the drawing, the principal ray 57 is inclined with respect to the optical axis 46. That is, the incident angle with respect to the interference filter 15 changes. Therefore, the wavelength transmitted through the interference filter 15 can be changed by moving the diaphragm 55.
例えば、図5を参照すれば、前記干渉フィルタ15に対する入射角を0゜〜50゜に変化させると、透過波長のピークは600nm〜520nmに変化する。即ち、前記干渉フィルタ15は、600nm〜520nmの波長選択範囲Wを有することになる。図6は、前記干渉フィルタ15への入射角に対応する波長透過特性を示しており、該干渉フィルタ15の角度を0°,10°,20°,30°,40°と変化させた場合に得られる光スペクトルの一例を示している。 For example, referring to FIG. 5, when the incident angle with respect to the interference filter 15 is changed from 0 ° to 50 °, the peak of the transmission wavelength changes from 600 nm to 520 nm. That is, the interference filter 15 has a wavelength selection range W of 600 nm to 520 nm. FIG. 6 shows a wavelength transmission characteristic corresponding to the incident angle to the interference filter 15 when the angle of the interference filter 15 is changed to 0 °, 10 °, 20 °, 30 °, and 40 °. An example of the obtained optical spectrum is shown.
図4では、前記干渉フィルタ15を前記光軸46に対して傾斜させているが、図5に示される様に入射角依存性は入射角が10゜を超えた辺りからリニアとなる。従って、予め前記干渉フィルタ15を傾斜させておくことで、前記絞り55の変位に対する選択波長の変化が効果的に得られる。 In FIG. 4, the interference filter 15 is inclined with respect to the optical axis 46, but as shown in FIG. 5, the incident angle dependency becomes linear when the incident angle exceeds 10 °. Therefore, by tilting the interference filter 15 in advance, a change in the selected wavelength with respect to the displacement of the diaphragm 55 can be effectively obtained.
従って、前記絞り55を変位させる度に、前記撮像素子17より画像を取得し、又例えば図4の波長透過特性を有する干渉フィルタ15の分割透過面を前記主光線57の光路に配置することで、600nm〜520nmの波長範囲での光スペクトルを取得することができる。又、600nm〜520nmを超える波長範囲での光スペクトルを取得する場合は、前記主光線57の光路に異なる波長選択範囲W′を有する分割透過面が配置される様前記干渉フィルタ15を回転させればよい。上記の様に、該干渉フィルタ15に前記絞り55を組合わせることで、前記干渉フィルタ15自体で得られる光スペクトルを更に細分化した光スペクトルを得ることができる。 Therefore, each time the diaphragm 55 is displaced, an image is acquired from the image sensor 17 and, for example, the divided transmission surface of the interference filter 15 having the wavelength transmission characteristics shown in FIG. , An optical spectrum in the wavelength range of 600 nm to 520 nm can be obtained. When acquiring an optical spectrum in a wavelength range exceeding 600 nm to 520 nm, the interference filter 15 can be rotated so that a split transmission surface having a different wavelength selection range W ′ is disposed in the optical path of the principal ray 57. That's fine. As described above, by combining the diaphragm 55 with the interference filter 15, it is possible to obtain a light spectrum obtained by further subdividing the light spectrum obtained by the interference filter 15 itself.
以下、本実施例に於ける作動を図7、図8を参照して説明する。尚、以下では、カメラ14として、前記干渉フィルタ15を有する前記光学系45が用いられ、且つ前記カメラ14が飛行体であるヘリコプタ1に搭載された場合について説明している。 Hereinafter, the operation in this embodiment will be described with reference to FIGS. In the following, the case where the optical system 45 having the interference filter 15 is used as the camera 14 and the camera 14 is mounted on the helicopter 1 that is a flying object will be described.
ホバリング状態で画像を取得している状態では、前記カメラ14の姿勢は常に変動しており、完全に静止しているとは言えない。従って、各波長毎に取得した画像には、多少のズレがある。この為、前記スペクトルデータ記憶部27に格納された光スペクトル画像をそのまま合成すると、誤差が生じ、或はぼやける等の問題が生じる。 In a state where an image is acquired in the hovering state, the posture of the camera 14 always fluctuates and cannot be said to be completely stationary. Therefore, there is a slight shift in the image acquired for each wavelength. For this reason, if the optical spectrum images stored in the spectrum data storage unit 27 are synthesized as they are, problems such as errors or blurring occur.
図8は、ホバリング状態で、選択した波長がλ1,λ2,λ3,λ4の光スペクトル画像を取得している状態を示しており、図8(A)のS1は、撮像装置11が完全に静止している状態、S2はホバリング状態で撮像装置11が変動している状態を示している。又図8(B)は、前記撮像装置11が変動している状態で取得したλ1,λ2,λ3,λ4の光スペクトル画像を、時間的な経過に合わせて展開した図である。尚、図中、黒丸は前記第2領域である外周部60a′〜60e′及び内周部60a′′〜60e′′の透過領域を透過した像(リアル画像)から抽出した特徴点である。図8(A)、図8(B)から分る様に、画像をそのまま合成すると、各画像間で特徴点は合致せず、誤差が生じ、或はぼやけることが分る。 FIG. 8 shows a state in which an optical spectrum image having selected wavelengths λ1, λ2, λ3, and λ4 is acquired in the hovering state. In S1 of FIG. 8A, the imaging device 11 is completely stationary. S2 is a hovering state and the imaging device 11 is changing. FIG. 8B is a diagram in which the optical spectrum images of λ1, λ2, λ3, and λ4 acquired in a state where the imaging device 11 is fluctuated are developed with time. In the figure, black circles are feature points extracted from images (real images) transmitted through the transmission regions of the outer peripheral portions 60a ′ to 60e ′ and the inner peripheral portions 60a ″ to 60e ″, which are the second regions. As can be seen from FIG. 8A and FIG. 8B, when the images are synthesized as they are, the feature points do not match between the images, and errors or blurring can be seen.
従って、ホバリング状態で各波長毎に取得した光スペクトル画像を合成できる様に前記第2領域で特徴点をマッチング(相対的な位置合せ)する必要がある。 Therefore, it is necessary to match (relatively align) the feature points in the second region so that the optical spectrum image acquired for each wavelength in the hovering state can be synthesized.
本実施例では、前記干渉フィルタ15の回転により、前記主光線57を前記分割透過面60fに透過させることでリアル画像のみからなる静止画像が取得できると共に、前記主光線57を前記分割透過面60a〜60eに透過させることで光スペクトル画像が得られ、更に前記主光線57を前記外周部60a′〜60e′及び内周部60a′′〜60e′′の透過領域を透過したリアル画像も得られるので、これらが一体化された混合画像データを取得できる様になっている。 In the present embodiment, by rotating the interference filter 15, the principal ray 57 is transmitted through the divided transmission surface 60f, whereby a still image consisting only of a real image can be obtained, and the principal ray 57 is transmitted to the divided transmission surface 60a. ˜60e is transmitted to obtain a light spectrum image, and further, a real image is obtained in which the principal ray 57 is transmitted through the transmissive regions of the outer peripheral portions 60a ′ to 60e ′ and the inner peripheral portions 60a ″ to 60e ″. Therefore, mixed image data in which these are integrated can be acquired.
先ず、前記ヘリコプタ1をO1 地点でホバリングさせ静止させた後、前記干渉フィルタ15を回転させ、分割透過面60fを選択する。その後、前記カメラ14により前記分割透過面60fを介してO1 地点で静止画像(左画像42)を取得し、又前記GPS装置9でO1 地点の位置の測定が行われる。取得された静止画像は前記画像データ記録部23に格納され、更に前記画像処理部29により前記静止画像の第2領域部58b,58c部分の画像データから、特徴点が少なくとも5以上(好ましくは多数)抽出される。 First, after the helicopter 1 is hovered at the point O1 and stopped, the interference filter 15 is rotated to select the divided transmission surface 60f. Thereafter, the camera 14 acquires a still image (left image 42) at the O1 point via the divided transmission surface 60f, and the GPS device 9 measures the position of the O1 point. The obtained still image is stored in the image data recording unit 23, and the image processing unit 29 further has at least 5 feature points (preferably many) from the image data of the second region portions 58b and 58c of the still image. ) Extracted.
O1 地点で静止画像を取得した後には、O1 地点で前記干渉フィルタ15を回転させ、分割透過面60a〜60eを順次切替える。又、各分割透過面で前記絞り55の位置を所定時間間隔毎に変位させ、該絞り55の位置変更毎に混合画像を取得し、前記第1領域部58aを透過した部分について、各分割透過面毎にλ1〜λnの光スペクトル画像を取得する。 After the still image is acquired at the point O1, the interference filter 15 is rotated at the point O1, and the divided transmission surfaces 60a to 60e are sequentially switched. Further, the position of the diaphragm 55 is displaced at predetermined time intervals on each divided transmission surface, a mixed image is acquired every time the position of the diaphragm 55 is changed, and each divided transmission is transmitted with respect to a portion that has passed through the first region portion 58a. An optical spectrum image of λ1 to λn is acquired for each surface.
例えば、前記分割透過面60aを選択した場合には、λa1〜λanの光スペクトル画像が取得され、前記分割透過面60bを選択した場合には、λb1〜λbnの光スペクトル画像が取得され、前記分割透過面60cを選択した場合には、λc1〜λcnの光スペクトル画像が取得され、前記分割透過面60dを選択した場合には、λd1〜λdnの光スペクトル画像が取得され、前記分割透過面60eを選択した場合には、λe1〜λenの光スペクトル画像が取得される。 For example, when the split transmission surface 60a is selected, optical spectrum images of λa1 to λan are acquired, and when the split transmission surface 60b is selected, optical spectrum images of λb1 to λbn are acquired and the split When the transmission surface 60c is selected, an optical spectrum image of λc1 to λcn is acquired. When the divided transmission surface 60d is selected, an optical spectrum image of λd1 to λdn is acquired, and the divided transmission surface 60e is obtained. When selected, optical spectrum images of λe1 to λen are acquired.
上記した全ての光スペクトル画像を取得することで、全波長に於ける光スペクトル画像が取得される。光スペクトル画像の取得中、前記第2領域部58b,58cで得られたリアル画像より、少なくとも5の特徴点が抽出されており、該特徴点を基に時間的に隣接するリアル画像間のトラッキングが行われる。又、リアル画像の取得後、次のリアル画像を取得する迄に、両リアル画像間で光軸の傾き等が生じた場合は、両リアル画像間で特徴点に基づき座標変換が実行され、画像マッチングが行われる。 By acquiring all the above optical spectrum images, optical spectrum images at all wavelengths are acquired. During the acquisition of the optical spectrum image, at least five feature points are extracted from the real image obtained by the second region portions 58b and 58c, and tracking between real images temporally adjacent based on the feature points is performed. Is done. In addition, after the acquisition of the real image, if an optical axis tilt or the like occurs between the two real images before acquiring the next real image, coordinate conversion is executed based on the feature points between the two real images. Matching is performed.
尚、混合画像から分離されたリアル画像は撮像範囲が狭くなっているが、該リアル画像は静止状態に於ける撮像画像であるので、画像間の変位量は小さく、狭い範囲のリアル画像でのトラッキングが可能となっている。 Note that the real image separated from the mixed image has a narrow imaging range, but since the real image is a captured image in a stationary state, the amount of displacement between the images is small, and the real image in a narrow range Tracking is possible.
更に、混合画像から分離したリアル画像と光スペクトル画像は位置関係が常に一定であるので、リアル画像間で得られた条件はそのまま光スペクトル画像間のマッチングに適用することができる。 Furthermore, since the positional relationship between the real image and the optical spectrum image separated from the mixed image is always constant, the conditions obtained between the real images can be applied to matching between the optical spectrum images as they are.
而して、O1 地点の全波長に於ける光スペクトル画像を取得し、全リアル画像間でのトラッキングが終了すると、リアル画像のトラッキング情報を基に全ての各光スペクトル画像を誤差なく位置合せ及び合成することができる。 Thus, when optical spectrum images at all wavelengths at the O1 point are acquired and tracking between all real images is completed, all the optical spectrum images are aligned and error-free based on the tracking information of the real images. Can be synthesized.
又、光スペクトル合成画像とO1 地点の静止画像の前記第1領域部58aとを合成し、ハイパースペクトル画像を作成する。 Also, a hyperspectral image is created by synthesizing the optical spectrum composite image and the first region 58a of the still image at the point O1.
O1 地点からO2 地点へ移動を開始する際には、先ず前記干渉フィルタ15を回転し、前記分割透過面60fに切替える。前記干渉フィルタ15の切替え後、始めにO1 地点で取得した静止画像から、少なくとも5の特徴点を抽出し、O1 地点からO2 地点への移動を開始する。O1 地点からO2 地点への移動中、前記カメラ14により前記分割透過面60fを介して動画像(フレーム画像)が取得されており、抽出した特徴点を基に各フレーム画像のトラッキングを行う。前記分割透過面60fは全領域でリアル画像を取得できるので、大きな変位にも対応して画像トラッキングが可能である。 When the movement from the O1 point to the O2 point is started, the interference filter 15 is first rotated to switch to the divided transmission surface 60f. After switching the interference filter 15, at least five feature points are first extracted from the still image acquired at the O1 point, and movement from the O1 point to the O2 point is started. During the movement from the O1 point to the O2 point, a moving image (frame image) is acquired by the camera 14 through the divided transmission surface 60f, and each frame image is tracked based on the extracted feature points. Since the split transmission surface 60f can acquire a real image in the entire region, image tracking can be performed in response to a large displacement.
O2 地点に到達すると、前記カメラ14により前記分割透過面60fを介してO2 地点での静止画像(右画像43)を取得し、前記GPS装置9により、O2 地点の位置測定が行われる。次に、前記画像処理部29により、O2 地点での静止画像に前記特徴点を少なくとも5つ特定し、該特徴点に基づきO1 地点での静止画像とO2 地点での静止画像についてマッチングを行う。更に前記測定部33により、O1 地点で取得した静止画像と、O2 地点で取得した静止画像、及び前記GPS装置9で測定したO1 地点、O2 地点の位置データにより写真測量を行い、各画素毎の3次元データを取得する。 When the O2 point is reached, a still image (right image 43) at the O2 point is acquired by the camera 14 via the divided transmission surface 60f, and the position of the O2 point is measured by the GPS device 9. Next, the image processing unit 29 specifies at least five feature points in the still image at the O2 point, and performs matching between the still image at the O1 point and the still image at the O2 point based on the feature points. Further, the measurement unit 33 performs photogrammetry based on the still image acquired at the O1 point, the still image acquired at the O2 point, and the position data of the O1 point and the O2 point measured by the GPS device 9, and for each pixel. Acquire 3D data.
最後に、O1 地点で得た3次元データと、O1 地点で得たハイパースペクトル画像とを合成し、スペクトルデータを含む4次元画像を作成する。 Finally, the three-dimensional data obtained at the O1 point and the hyperspectral image obtained at the O1 point are synthesized to create a four-dimensional image including the spectral data.
尚、上記ではO1 地点でハイパースペクトル画像を取得しているが、O2 地点に於いても、O1 地点と同様の処理が行われることでハイパースペクトル画像を取得することができる。従って、O2 地点でハイパースペクトル画像を取得してもよい。 In the above description, the hyperspectral image is acquired at the O1 point. However, the hyperspectral image can also be acquired at the O2 point by performing the same processing as the O1 point. Therefore, a hyperspectral image may be acquired at the O2 point.
従って、作物の発育状態を光スペクトルから、或は作物の3次元データから大きさを認識することが可能である。或は、地表の状態を露出した物質の種類の情報も合わせて取得することができる。 Therefore, it is possible to recognize the size of the growth state of the crop from the light spectrum or from the three-dimensional data of the crop. Alternatively, information on the type of the substance whose surface condition is exposed can also be acquired.
上記した写真測量、光スペクトル画像、ハイパースペクトル画像の取得合成等について、図9、図10を参照して更に説明する。 The above-described photogrammetry, optical spectrum image, hyperspectral image acquisition synthesis and the like will be further described with reference to FIGS.
STEP:01 前記ヘリコプタ1をO1 地点でホバリングを開始し、前記干渉フィルタ15を回転させて前記分割透過面60fを選択した後、O1 地点で前記カメラ14により左画像42を取得する。又、前記GPS装置9によるヘリコプタ1の位置(即ちO1 地点)の測定が行われる。 (Step 01) Hovering of the helicopter 1 is started at the point O1, the interference filter 15 is rotated to select the divided transmission surface 60f, and the left image 42 is acquired by the camera 14 at the point O1. Further, the position of the helicopter 1 (that is, the O1 point) is measured by the GPS device 9.
STEP:02 取得した左画像42をエッジ処理或はコーナ抽出処理をする等して特徴点を抽出する。 (Step 02) The feature point is extracted by subjecting the acquired left image 42 to edge processing or corner extraction processing.
STEP:03 その後、前記主光線57が前記分割透過面60a〜60eの所定の領域を透過する様前記干渉フィルタ15を間欠回転させ、更に各分割透過面毎に前記絞り55の位置を変更させ、各絞り55の位置毎に前記画像カメラ14により光スペクトル画像とリアル画像とを有する混合画像を取得する。又、取得した混合画像より光スペクトル画像とリアル画像を分離させ、分離させたリアル画像により同位置での画像トラッキング(以下、同位置トラッキング)が実行され、同位置トラッキングの結果に基づき各光スペクトル画像間での画像位置補正が実行される。 (Step 03) Then, the interference filter 15 is intermittently rotated so that the principal ray 57 passes through a predetermined region of the divided transmission surfaces 60a to 60e, and the position of the diaphragm 55 is changed for each divided transmission surface. A mixed image having a light spectrum image and a real image is acquired by the image camera 14 for each position of each aperture 55. In addition, the optical spectrum image and the real image are separated from the acquired mixed image, and image tracking at the same position (hereinafter, the same position tracking) is performed by the separated real image, and each optical spectrum is based on the result of the same position tracking. Image position correction between images is executed.
O1 地点での光スペクトル画像の取得、画像位置補正について、STEP:21〜STEP:27により説明する。 Acquisition of the optical spectrum image at the O1 point and image position correction will be described in STEP: 21 to STEP: 27.
STEP:21 スペクトル測定が開始されると、所定波長領域(λ1〜λn)の光スペクトル画像部を有する混合画像が、各波長毎に所定の時間間隔で取得される。 STEP: 21 When spectrum measurement is started, a mixed image having an optical spectrum image portion in a predetermined wavelength region (λ1 to λn) is acquired at predetermined time intervals for each wavelength.
STEP:22 取得された混合画像は、前記カメラコントローラ24により光スペクトル画像部とリアル画像部とに分離され、光スペクトル画像部が時系列に前記スペクトルデータ記憶部27に格納されると共に、リアル画像部が時系列に前記画像データ記録部23に格納される。 (Step 22) The acquired mixed image is separated into an optical spectrum image portion and a real image portion by the camera controller 24, and the optical spectrum image portion is stored in the spectrum data storage portion 27 in time series, and the real image Are stored in the image data recording unit 23 in time series.
STEP:23 画像トラッキング(同位置トラッキング)は、分離された光スペクトル画像部(λ1)と同時に取得されたリアル画像部(第1リアル画像)から少なくとも5の特徴点を抽出し、時間的に隣接する次の光スペクトル画像部(λ2)と同期したリアル画像部(第2リアル画像)に特徴点を特定する。 STEP: 23 Image tracking (co-location tracking) extracts at least five feature points from the real image portion (first real image) acquired simultaneously with the separated optical spectrum image portion (λ1), and is temporally adjacent. The feature point is specified in the real image portion (second real image) synchronized with the next optical spectrum image portion (λ2).
STEP:24 得られた第1リアル画像部の特徴点と第2リアル画像部の特徴点とに基づき第1リアル画像部と第2リアル画像部間のマッチング、第1リアル画像部と第2リアル画像部との間の座標変換が実行される。 STEP: 24 Matching between the first real image portion and the second real image portion based on the obtained feature points of the first real image portion and the second real image portion, the first real image portion and the second real image portion Coordinate conversion with the image portion is executed.
STEP:25 リアル画像部と光スペクトル画像部とは同時に取得されるので、リアル画像部に対応する光スペクトル画像部との位置関係は常に一定であり、前記リアル画像部をマッチングした条件、座標変換の条件が時間的に隣接する前記光スペクトル画像部に適用される。 (Step 25) Since the real image portion and the optical spectrum image portion are acquired at the same time, the positional relationship with the optical spectrum image portion corresponding to the real image portion is always constant. These conditions are applied to the optical spectrum image portions that are temporally adjacent.
STEP:26 全ての波長の光スペクトル画像部が取得されているかどうかが判断され、取得されていない場合は、STEP:21に戻り、引続き光スペクトル画像部の取得、同位置トラッキングが行われる。 STEP: 26 It is determined whether or not the optical spectrum image parts of all wavelengths are acquired. If not acquired, the process returns to STEP: 21 and the acquisition of the optical spectrum image part and the same position tracking are performed.
STEP:27 所定波長領域(λ1〜λn)の全ての波長についての光スペクトル画像部が取得されると、全ての光スペクトル画像部をリアル画像部によるトラッキングで得た条件で合成することでO1 地点での所定波長領域(λ1〜λn)の光スペクトルを有する第1光スペクトル合成画像を取得することができる。更に、該第1光スペクトル合成画像と前記静止画像とを合成することでハイパースペクトル画像を取得することができる。 (Step 27) When the optical spectrum image portions for all wavelengths in the predetermined wavelength region (λ1 to λn) are acquired, all the optical spectrum image portions are synthesized under the conditions obtained by tracking by the real image portion to thereby obtain the O1 point. The first optical spectrum composite image having the optical spectrum of the predetermined wavelength region (λ1 to λn) at can be acquired. Furthermore, a hyperspectral image can be acquired by synthesizing the first optical spectrum composite image and the still image.
STEP:04〜STEP:06 O1 地点での前記静止画像とハイパースペクトル画像が取得されると、前記ヘリコプタ1がO2 地点に移動する。移動の際には、先ず前記干渉フィルタ15が回転されて前記分割透過面60fが選択される。移動中には前記カメラ14により動画像が取得され、画像トラッキング(移動トラッキング)が実行される。移動トラッキングは前記左画像42で抽出した特徴点に基づき実行しても、或はホバリング状態で同位置トラッキングで最終的に得られる特徴点を用いて移動中の画像トラッキングを行ってもよい。 STEP: 04 to STEP: 06 When the still image and the hyperspectral image at the O1 point are acquired, the helicopter 1 moves to the O2 point. In the movement, the interference filter 15 is first rotated to select the divided transmission surface 60f. During movement, a moving image is acquired by the camera 14 and image tracking (movement tracking) is executed. The movement tracking may be executed based on the feature points extracted from the left image 42, or image tracking during movement may be performed using the feature points finally obtained by the same position tracking in the hovering state.
STEP:07 前記ヘリコプタ1がO2 地点に到達し、移動トラッキングが終了されると、ホバリングが開始され、静止画像である右画像43が取得される。 (Step 07) When the helicopter 1 reaches the O2 point and the movement tracking is finished, the hovering is started and the right image 43 which is a still image is acquired.
STEP:08 ホバリング状態で、前記干渉フィルタ15を回転させて前記分割透過面60a〜60eを選択し、更に前記絞り55を変位させ、該絞り55の各位置毎に前記カメラ14により混合画像を取得する。又、取得した混合画像より光スペクトル画像部とリアル画像部を分離させ、分離させたリアル画像部により同位置での画像トラッキング(以下、同位置トラッキング)が実行され、同位置トラッキングの結果に基づき各光スペクトル画像部間での画像位置補正が実行される。 (Step 08) In the hovering state, the interference filter 15 is rotated to select the divided transmission surfaces 60a to 60e, the diaphragm 55 is further displaced, and a mixed image is acquired by the camera 14 for each position of the diaphragm 55. To do. Further, the optical spectrum image portion and the real image portion are separated from the acquired mixed image, and image tracking at the same position (hereinafter, the same position tracking) is performed by the separated real image portion, and based on the result of the same position tracking. Image position correction is performed between the optical spectrum image portions.
前記STEP:21〜STEP:27が実行され、O2 地点で所定波長領域(λ1〜λn)の全ての波長についての光スペクトル画像部が取得され、得られた全ての光スペクトル画像部を合成してO2 地点での所定波長領域(λ1〜λn)の光スペクトルを有する第2光スペクトル合成画像が取得され、更に、該第2光スペクトル合成画像と前記右画像43とを合成することでハイパースペクトル画像が取得される。 STEP: 21 to STEP: 27 are executed, optical spectrum image portions for all wavelengths in the predetermined wavelength region (λ1 to λn) are acquired at the point O2, and all the obtained optical spectrum image portions are synthesized. A second optical spectrum composite image having an optical spectrum of a predetermined wavelength region (λ1 to λn) at the O2 point is acquired, and further, the second optical spectrum composite image and the right image 43 are combined to form a hyperspectral image. Is acquired.
STEP:09、STEP:10、STEP:11 画像トラッキングにより前記右画像43中に特定された特徴点と、前記左画像42中に特定された特徴点とに基づき、マッチングが行われ、又左画像42又は右画像43のいずれかを基準とする座標変換(相互標定)が行われ、更にGPS装置9の地心座標への座標変換(絶対標定)が行われる。 STEP: 09, STEP: 10, STEP: 11 Matching is performed based on the feature points specified in the right image 43 by image tracking and the feature points specified in the left image 42, and the left image Coordinate conversion (relative orientation) based on either 42 or the right image 43 is performed, and further, coordinate conversion (absolute orientation) to the geocentric coordinates of the GPS device 9 is performed.
STEP:12、STEP:13 絶対標定の結果を基に左画像42と右画像43とのステレオマッチングが行われ、3次元位置データを有する地形の3次元モデルが得られる。 (STEP: 12, STEP: 13) Stereo matching between the left image 42 and the right image 43 is performed based on the absolute orientation result, and a three-dimensional model of terrain having three-dimensional position data is obtained.
STEP:14 上記した様に、混合画像と静止画像とは同軸で撮像され、1:1に対応しているので、光スペクトルが得られる位置での3次元位置データが得られ、光スペクトル画像と前記3次元モデルとを合成することで、地形の3次元位置データと光スペクトル情報を有する4次元モデルが作成できる。 (Step 14) As described above, since the mixed image and the still image are captured coaxially and correspond to 1: 1, three-dimensional position data at the position where the optical spectrum is obtained is obtained, and the optical spectrum image By synthesizing the three-dimensional model, a four-dimensional model having three-dimensional position data of the terrain and optical spectrum information can be created.
上述の様に、本実施例では、前記カメラ14に円板状の前記干渉フィルタ15を設け、該干渉フィルタ15に円周方向に所要角度に分割された分割透過面を形成し、該分割透過面の1つを全波長が透過する全透過面とし、1つのカメラでリアル画像部と光スペクトル画像部の両方を取得することができる様にしたので、リアル画像に基づき光スペクトル画像の位置合せを実行でき、画像取得装置が飛行体1等の動体に設けられた場合でも精度の高い光スペクトル合成画像、又ハイパースペクトル画像を取得することができる。更に、リアル画像を取得するカメラの他に光スペクトル画像を取得するスペクトルカメラを別途設ける必要がなく、構造の簡易化及びコストの低減を図ることができる。 As described above, in this embodiment, the camera 14 is provided with the disc-shaped interference filter 15, and the interference filter 15 is formed with a divided transmission surface that is divided at a required angle in the circumferential direction. Since one of the surfaces is an all-transmission surface that transmits all wavelengths, both the real image part and the optical spectrum image part can be acquired with one camera, so the optical spectrum image is aligned based on the real image. Even when the image acquisition device is provided on a moving object such as the flying object 1, it is possible to acquire a highly accurate optical spectrum composite image or hyperspectral image. Further, it is not necessary to separately provide a spectrum camera for acquiring an optical spectrum image in addition to a camera for acquiring a real image, so that the structure can be simplified and the cost can be reduced.
又、前記絞り55を設けることで、分割透過面の一以上の光スペクトルを得ることができる。 Further, by providing the diaphragm 55, it is possible to obtain one or more light spectra of the split transmission surface.
又、異なる選択波長特性の干渉膜が形成された分割透過面の一部に、前記主光線57が全透過する第2領域を形成したので、光スペクトル画像部とリアル画像部とを同時に取得することができ、各画像間で経時的にズレを生じてもリアル画像部をマッチングさせることで容易に光スペクトル画像部の合成を行うことができる。 In addition, since the second region where the principal ray 57 is totally transmitted is formed on a part of the divided transmission surface on which the interference films having different selection wavelength characteristics are formed, the optical spectrum image portion and the real image portion are simultaneously acquired. Even if a shift occurs between the images over time, the optical spectrum image portion can be easily synthesized by matching the real image portion.
更に、前記分割透過面60fを前記主光線57が全透過する全透過面としているので、リアル画像のみを広範囲に取得することが可能となり、動画トラッキング等多数の特徴点抽出を必要とする処理であっても本実施例に於ける撮像装置11を適用することができる。 Further, since the divided transmission surface 60f is a total transmission surface through which the principal ray 57 is totally transmitted, only a real image can be acquired in a wide range, and processing that requires extraction of a large number of feature points such as moving image tracking. Even if it exists, the imaging device 11 in a present Example is applicable.
尚、前記光学系45では、前記絞り55の位置を変更することで前記干渉フィルタ15に対する入射角を変位させ、所定範囲に於ける波長の変更を可能としているが、取得したい光スペクトルの波長が決っており、且つ種類も少ない場合には、前記絞り55を省略してもよい。 In the optical system 45, the incident angle with respect to the interference filter 15 can be changed by changing the position of the diaphragm 55, and the wavelength can be changed within a predetermined range. If the number is fixed and there are few types, the diaphragm 55 may be omitted.
図11、図12は、本発明の第2の実施例に於ける光学系45′を示している。 FIGS. 11 and 12 show an optical system 45 ′ in the second embodiment of the present invention.
図3で示した前記光学系45では透過式の干渉フィルタ15を用いたが、図11で示される様に、光学特性変更部である反射式の干渉フィルタ61を用いて光学系45′を構成することもできる。前記干渉フィルタ61は反射鏡に反射式の干渉膜を形成したものであり、回転軸59を中心として回転可能に支持され、更にモータ等の回転手段により回転可能となっている。前記光学系45′では、前記干渉フィルタ61が主光線57を反射することで波長が選択される。 In the optical system 45 shown in FIG. 3, the transmission type interference filter 15 is used. However, as shown in FIG. 11, the reflection type interference filter 61 which is an optical characteristic changing unit is used to constitute the optical system 45 ′. You can also The interference filter 61 is formed by forming a reflective interference film on a reflecting mirror, is rotatably supported around a rotating shaft 59, and is further rotatable by a rotating means such as a motor. In the optical system 45 ′, the wavelength is selected by the interference filter 61 reflecting the principal ray 57.
尚、図11中、図4中で示したものと同等のものには同符号を付してあり、その説明を省略する。 In FIG. 11, the same components as those shown in FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted.
上記第2の実施例でも、図11(B)に示される様に、前記絞り55を移動させることで、前記干渉フィルタ61への主光線57の入射角が変化し、所定の波長選択範囲W内での特定波長が選択反射される。 Also in the second embodiment, as shown in FIG. 11B, by moving the diaphragm 55, the incident angle of the principal ray 57 to the interference filter 61 changes, and a predetermined wavelength selection range W is achieved. A specific wavelength inside is selectively reflected.
又、図12に示される様に、前記干渉フィルタ61は円板状であり、反射面には円周方向に所要角度に等分(図示では6等分)され、分割部は分割反射面63a〜63fとして形成されている。 As shown in FIG. 12, the interference filter 61 has a disk shape, and is equally divided into a required angle in the circumferential direction (six equal parts in the drawing) on the reflecting surface, and the dividing portion is divided reflecting surface 63a. To 63f.
前記干渉フィルタ61では、前記分割反射面63a〜63fの内、複数の分割部である分割反射面63a〜63eには、同心円状に第2領域、第1領域、第2領域がそれぞれ形成され、前記第1領域には各分割反射面63a〜63e毎に選択波長λ1〜λ5の選択波長特性の異なる第1領域である反射干渉膜が形成され、更に他の分割部である分割反射面63fは、第1領域、第2領域(63f′,63f′′)共に光学特性を有さず全ての波長を反射する様になっている。 In the interference filter 61, a second region, a first region, and a second region are formed concentrically on the divided reflection surfaces 63a to 63e, which are a plurality of divided portions among the divided reflection surfaces 63a to 63f, respectively. In the first region, a reflection interference film that is a first region having different selection wavelength characteristics of the selection wavelengths λ1 to λ5 is formed for each of the divided reflection surfaces 63a to 63e, and the divided reflection surface 63f that is another divided portion is The first region and the second region (63f ′, 63f ″) do not have optical characteristics and reflect all wavelengths.
又、各分割反射面63a〜63eは、前記第1領域の外周側の外周部63a′〜63e′と内周側の内周部63a′′〜63e′′が前記第2領域となっており、これら第2領域は全ての波長を反射させる。前記干渉フィルタ61上に結像される結像58は、前記第2領域、前記第1領域、前記第2領域に掛渡り、前記結像58の外周側の一部が前記外周部63a′〜63e′,63f′にオーバラップし、内周側の一部が前記内周部63a′′〜63e′′,63f′′にオーバラップする。 Further, each of the divided reflection surfaces 63a to 63e has an outer peripheral portion 63a ′ to 63e ′ on the outer peripheral side of the first region and an inner peripheral portion 63a ″ to 63e ″ on the inner peripheral side as the second region. These second regions reflect all wavelengths. The image 58 formed on the interference filter 61 extends over the second area, the first area, and the second area, and a part of the outer periphery of the image 58 is the outer peripheral portions 63a ′ to 63a ′. 63e 'and 63f' overlap, and a part on the inner peripheral side overlaps the inner peripheral parts 63a "to 63e" and 63f ".
前記干渉フィルタ61で反射された光束は、結像レンズ51を経て撮像素子52に結像される様になっている。前記干渉フィルタ61を用いる場合、前記分割反射面63fを選択し、該分割反射面63fに前記光軸46を合致させた場合は、波長選択されることなく全反射され、リアル画像データのみの静止画像データが取得される。又、前記分割反射面63a〜63eのいずれかが選択された場合、例えば分割反射面63eが選択された場合、分割反射面63eの第1領域部58aで反射され波長選択されると共に、前記結像58の内、第2領域部58b,58cとで部分的に全反射され、混合画像データが取得される様になっている。 The light beam reflected by the interference filter 61 is imaged on the image sensor 52 through the imaging lens 51. When the interference filter 61 is used, when the divided reflection surface 63f is selected and the optical axis 46 is made to coincide with the divided reflection surface 63f, total reflection is performed without selecting the wavelength, and only the static image data is stationary. Image data is acquired. Further, when any one of the divided reflection surfaces 63a to 63e is selected, for example, when the divided reflection surface 63e is selected, the wavelength is selected by being reflected by the first region portion 58a of the divided reflection surface 63e and the above-mentioned connection Of the image 58, the second region portions 58b and 58c are partially totally reflected to obtain mixed image data.
上記の様に、干渉フィルタとして反射式の干渉フィルタ61を用いることで、光学系45′をコンパクトにすることができる。 As described above, the optical system 45 ′ can be made compact by using the reflective interference filter 61 as the interference filter.
図13は、図11で示した光学系45′の変更例を示している。 FIG. 13 shows a modification of the optical system 45 ′ shown in FIG.
図13で示す変更例では、反射式の干渉フィルタ62を用いており、該干渉フィルタ62は干渉フィルタ61と同様の構成となっている。 In the modification shown in FIG. 13, a reflective interference filter 62 is used, and the interference filter 62 has the same configuration as the interference filter 61.
光軸46上に対物レンズ47、第1リレーレンズ48、絞り55が配置され、前記光軸46と平行で所定量離反した光軸上に第2リレーレンズ49が配設され、該第2リレーレンズ49に対向して前記干渉フィルタ62が設けられている。該干渉フィルタ62で反射された光束は、反射鏡64によって偏向され、偏向された光束は結像レンズ51を経て撮像素子52に結像される。 An objective lens 47, a first relay lens 48, and an aperture 55 are disposed on the optical axis 46, and a second relay lens 49 is disposed on the optical axis that is parallel to the optical axis 46 and separated by a predetermined amount. The interference filter 62 is provided to face the lens 49. The light beam reflected by the interference filter 62 is deflected by the reflecting mirror 64, and the deflected light beam is imaged on the image sensor 52 through the imaging lens 51.
該変更例では、第1リレーレンズ48、絞り55が前記第2リレーレンズ49の光軸46とはずれた位置にあるので、テレセントリック光学系56によって分割された主光線57は前記干渉フィルタ62に傾斜して入射する。更に、図13(B)に示される様に、前記絞り55を前記光軸46より離反する様に移動させれば、前記主光線57の入射角は更に大きくなる。従って、前記絞り55を移動させることで選択波長を変更することができる。 In this modified example, since the first relay lens 48 and the diaphragm 55 are located at positions deviated from the optical axis 46 of the second relay lens 49, the principal ray 57 divided by the telecentric optical system 56 is inclined to the interference filter 62. Then enter. Further, as shown in FIG. 13B, if the diaphragm 55 is moved away from the optical axis 46, the incident angle of the principal ray 57 is further increased. Accordingly, the selected wavelength can be changed by moving the diaphragm 55.
上記変更例では、反射式の前記干渉フィルタ62を使用しているので、光学系45′′のコンパクト化が図れると共に、第3リレーレンズ50を前記第2リレーレンズ49が兼用している為、部品点数が削減でき、コストの低減を図ることができる。 In the above modification, since the reflection type interference filter 62 is used, the optical system 45 ″ can be made compact, and the third relay lens 50 is also used as the second relay lens 49. The number of parts can be reduced, and the cost can be reduced.
次に、図14に於いて、本発明の第3の実施例について説明する。 Next, a third embodiment of the present invention will be described with reference to FIG.
図14は、第3の実施例に於ける撮像装置11の概略構成を示しており、第3の実施例では、カメラ14で撮像された混合画像データが、カメラコントローラ24により光スペクトル画像データとリアル画像データとに分離されることなく画像データ記録部23に格納される様になっている。 FIG. 14 shows a schematic configuration of the image pickup apparatus 11 in the third embodiment. In the third embodiment, the mixed image data picked up by the camera 14 is converted into the optical spectrum image data by the camera controller 24. It is stored in the image data recording unit 23 without being separated into real image data.
該画像データ記録部23に格納された混合画像データは、リアル画像部分、即ち第2領域部58b,58c(図3参照)より少なくとも3の特徴点が抽出され、該特徴点を基に時間的に隣接する混合画像データをマッチングさせる。 In the mixed image data stored in the image data recording unit 23, at least three feature points are extracted from the real image portion, that is, the second region portions 58b and 58c (see FIG. 3), and temporally based on the feature points. The mixed image data adjacent to is matched.
混合画像データは、光スペクトル画像データとリアル画像データとが一体となった画像データであり、混合画像データ内の光スペクトル画像データとリアル画像データとの位置関係は常に一定であるので、特徴点を基に混合画像データをマッチングさせた結果、自動的に光スペクトル画像部分もマッチングされる。 The mixed image data is image data in which optical spectrum image data and real image data are integrated, and the positional relationship between the optical spectrum image data and real image data in the mixed image data is always constant. As a result of matching the mixed image data based on the optical spectrum image portion, the optical spectrum image portion is also automatically matched.
最後に、マッチングさせた混合画像データより、画像分離部30によりリアル画像部を分離させることで、所定波長領域(λ1〜λn)の光スペクトルを有する光スペクトル合成画像が取得される。 Finally, from the matched mixed image data, the image separation unit 30 separates the real image part, thereby obtaining an optical spectrum composite image having an optical spectrum in a predetermined wavelength region (λ1 to λn).
上述の様に、第3の実施例では、混合画像データに於けるリアル画像部分の特徴点抽出、マッチング処理が光スペクトル画像データの合成処理を兼ねるので、処理工程を減少させ、処理負担の低減を図ることができる。 As described above, in the third embodiment, the feature point extraction and matching process of the real image portion in the mixed image data also serves as the synthesis process of the optical spectrum image data, thereby reducing the processing steps and reducing the processing burden. Can be achieved.
1 ヘリコプタ
2 基地制御装置
3 機体
9 GPS装置
11 撮像装置
12 光軸
13 カメラ部
14 カメラ
15 干渉フィルタ
21 撮像制御装置
22 演算制御部
28 画像合成部
29 画像処理部
33 測定部
34 モデル画像形成部
35 表示部
36 記憶部
45 光学系
47 対物レンズ
48 第1リレーレンズ
49 第2リレーレンズ
50 第3リレーレンズ
51 結像レンズ
52 撮像素子
55 絞り
56 テレセントリック光学系
57 主光線
58 結像
60 分割透過面
61 干渉フィルタ
62 干渉フィルタ
63 分割反射面
64 反射鏡
DESCRIPTION OF SYMBOLS 1 Helicopter 2 Base control apparatus 3 Airframe 9 GPS apparatus 11 Imaging apparatus 12 Optical axis 13 Camera part 14 Camera 15 Interference filter 21 Imaging control apparatus 22 Arithmetic control part 28 Image composition part 29 Image processing part 33 Measurement part 33 Model image formation part 35 Display unit 36 Storage unit 45 Optical system 47 Objective lens 48 First relay lens 49 Second relay lens 50 Third relay lens 51 Imaging lens 52 Imaging element 55 Aperture 56 Telecentric optical system 57 Main light beam 58 Imaging 60 Dividing transmission surface 61 Interference filter 62 Interference filter 63 Split reflection surface 64 Reflector
Claims (6)
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011230443A JP5802516B2 (en) | 2011-10-20 | 2011-10-20 | Image acquisition device |
US14/347,389 US9541495B2 (en) | 2011-09-28 | 2012-09-20 | Image pickup device |
PCT/JP2012/074812 WO2013047627A1 (en) | 2011-09-28 | 2012-09-20 | Image acquisition device |
DE112012004055.4T DE112012004055T5 (en) | 2011-09-28 | 2012-09-20 | Imaging device |
CN201280058376.7A CN103947194B (en) | 2011-09-28 | 2012-09-20 | Image capturing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011230443A JP5802516B2 (en) | 2011-10-20 | 2011-10-20 | Image acquisition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013090230A true JP2013090230A (en) | 2013-05-13 |
JP5802516B2 JP5802516B2 (en) | 2015-10-28 |
Family
ID=48533707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011230443A Active JP5802516B2 (en) | 2011-09-28 | 2011-10-20 | Image acquisition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5802516B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013072772A (en) * | 2011-09-28 | 2013-04-22 | Topcon Corp | Image acquisition device |
JP2014235010A (en) * | 2013-05-31 | 2014-12-15 | 株式会社トプコン | Spectrum image acquisition device and spectrum image acquisition method |
WO2016110952A1 (en) * | 2015-01-07 | 2016-07-14 | オリンパス株式会社 | Spectral image acquisition device |
WO2017217470A1 (en) * | 2016-06-16 | 2017-12-21 | 日本電気株式会社 | Inspection system, mobile robot device, and inspection method |
WO2021171905A1 (en) * | 2020-02-28 | 2021-09-02 | パナソニックIpマネジメント株式会社 | Imaging device |
JP7570014B2 (en) | 2020-02-28 | 2024-10-21 | パナソニックIpマネジメント株式会社 | Imaging device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04125429A (en) * | 1990-09-17 | 1992-04-24 | Hitachi Ltd | Apparatus for monitoring plane spectroscopy |
JP2002034908A (en) * | 2000-07-27 | 2002-02-05 | Olympus Optical Co Ltd | Endoscope device |
WO2005046248A1 (en) * | 2003-11-11 | 2005-05-19 | Olympus Corporation | Multi-spectrum image pick up device |
JP2009258618A (en) * | 2008-03-27 | 2009-11-05 | Olympus Corp | Filter switching device, photographing lens, camera and image pickup system |
-
2011
- 2011-10-20 JP JP2011230443A patent/JP5802516B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04125429A (en) * | 1990-09-17 | 1992-04-24 | Hitachi Ltd | Apparatus for monitoring plane spectroscopy |
JP2002034908A (en) * | 2000-07-27 | 2002-02-05 | Olympus Optical Co Ltd | Endoscope device |
WO2005046248A1 (en) * | 2003-11-11 | 2005-05-19 | Olympus Corporation | Multi-spectrum image pick up device |
JP2009258618A (en) * | 2008-03-27 | 2009-11-05 | Olympus Corp | Filter switching device, photographing lens, camera and image pickup system |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013072772A (en) * | 2011-09-28 | 2013-04-22 | Topcon Corp | Image acquisition device |
JP2014235010A (en) * | 2013-05-31 | 2014-12-15 | 株式会社トプコン | Spectrum image acquisition device and spectrum image acquisition method |
WO2016110952A1 (en) * | 2015-01-07 | 2016-07-14 | オリンパス株式会社 | Spectral image acquisition device |
CN107110707A (en) * | 2015-01-07 | 2017-08-29 | 奥林巴斯株式会社 | Spectral image acquisition device |
JPWO2016110952A1 (en) * | 2015-01-07 | 2017-11-02 | オリンパス株式会社 | Spectral image acquisition device |
WO2017217470A1 (en) * | 2016-06-16 | 2017-12-21 | 日本電気株式会社 | Inspection system, mobile robot device, and inspection method |
JP2017227632A (en) * | 2016-06-16 | 2017-12-28 | 日本電気株式会社 | Inspection system, mobile robot device, and inspection method |
JP7008948B2 (en) | 2016-06-16 | 2022-01-25 | 日本電気株式会社 | Inspection system, mobile robot device and inspection method |
WO2021171905A1 (en) * | 2020-02-28 | 2021-09-02 | パナソニックIpマネジメント株式会社 | Imaging device |
JP7570014B2 (en) | 2020-02-28 | 2024-10-21 | パナソニックIpマネジメント株式会社 | Imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP5802516B2 (en) | 2015-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5787695B2 (en) | Image acquisition device | |
WO2013047627A1 (en) | Image acquisition device | |
US10455218B2 (en) | Systems and methods for estimating depth using stereo array cameras | |
US11019322B2 (en) | Estimation system and automobile | |
JP6205069B2 (en) | Imaging system and method | |
JP5802516B2 (en) | Image acquisition device | |
JP6708790B2 (en) | Image generation device, image generation system, image generation method, and image generation program | |
US11350053B2 (en) | Imaging device, method thereof, and imaging element | |
JP2019083501A (en) | Imaging device | |
JP2019049457A (en) | Image processing apparatus and ranging device | |
KR101737085B1 (en) | 3D camera | |
JP2018160228A (en) | Route generation device, route control system, and route generation method | |
KR101692709B1 (en) | Digital Mapping imaging system using drones | |
JP2013072771A (en) | Spectrum image acquisition device | |
JP6188750B2 (en) | Image acquisition device | |
JP2006105771A (en) | Imaging device and topographical map preparing apparatus | |
CN110392818B (en) | Distance measuring device, head-mounted display device, portable information terminal, image display device, and periphery monitoring system | |
WO2018176493A1 (en) | Low-profile multi-band hyperspectral imaging for machine vision | |
JP6790318B2 (en) | Unmanned aerial vehicles, control methods, and programs | |
WO2021117390A1 (en) | Image processing method, image processing device, and image processing program | |
JP6625284B1 (en) | Method and apparatus for detecting a cutting edge of two overlapping images of a surface | |
WO2019082686A1 (en) | Imaging device | |
JP7242822B2 (en) | Estimation system and car |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5802516 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |