JP6282275B2 - Infrastructure mapping system and method - Google Patents

Infrastructure mapping system and method Download PDF

Info

Publication number
JP6282275B2
JP6282275B2 JP2015528490A JP2015528490A JP6282275B2 JP 6282275 B2 JP6282275 B2 JP 6282275B2 JP 2015528490 A JP2015528490 A JP 2015528490A JP 2015528490 A JP2015528490 A JP 2015528490A JP 6282275 B2 JP6282275 B2 JP 6282275B2
Authority
JP
Japan
Prior art keywords
image
image sensor
region
area
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015528490A
Other languages
Japanese (ja)
Other versions
JP2015532714A (en
Inventor
スミサーマン,チェスター,エル.
マッコイ,ジョセフ
ティリー,ジェイムズ
バロ,モハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visual Intelligence LP
Original Assignee
Visual Intelligence LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/590,735 external-priority patent/US8994822B2/en
Application filed by Visual Intelligence LP filed Critical Visual Intelligence LP
Publication of JP2015532714A publication Critical patent/JP2015532714A/en
Application granted granted Critical
Publication of JP6282275B2 publication Critical patent/JP6282275B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Description

<関連出願の参照>
本出願は、2012年8月21日に出願された米国特許出願第13/590,735号(現在、米国特許第8,483,960号として発行済)の優先権を主張する。該米国特許出願は、2010年4月13日に出願された米国特許出願第12/798,899号の一部継続出願であり、該米国特許出願は、2006年10月11日に出願された米国特許出願第11/581,235号(現在、米国特許第7,725,258号として発行済)の優先権を主張する。該米国特許出願は、2003年9月18日に出願された米国特許出願第10/664,737号(現在、米国特許第7,127,348号として発行済)の優先権を主張する。該米国特許出願は、2002年9月20日に出願された米国仮特許出願第60/412,504号「Vehicle Based Data Collection and Processing System」の優先権を主張する。2013年8月21日に出願された米国特許出願第13/590,735号はまた、2009年8月5日に出願された米国特許出願第12/462,533号の一部継続出願であり、該米国特許出願は、2002年8月28日に出願された、米国特許出願第10/229,696号(現在、米国特許第7,893,957号として発行済)の分割出願である。
<Reference to related applications>
This application claims priority to US patent application Ser. No. 13 / 590,735 filed Aug. 21, 2012 (currently issued as US Pat. No. 8,483,960). The US patent application is a continuation-in-part of US patent application Ser. No. 12 / 798,899 filed on Apr. 13, 2010, which was filed on Oct. 11, 2006. Claims priority to US patent application Ser. No. 11 / 581,235 (currently issued as US Pat. No. 7,725,258). The US patent application claims priority to US patent application Ser. No. 10 / 664,737 filed Sep. 18, 2003 (currently issued as US Pat. No. 7,127,348). The US patent application claims priority to US Provisional Patent Application No. 60 / 412,504 “Vehicle Based Data Collection and Processing System” filed on September 20, 2002. US Patent Application No. 13 / 590,735, filed on August 21, 2013, is also a continuation-in-part of US Patent Application No. 12 / 462,533, filed on August 5, 2009 This US patent application is a divisional application of US patent application Ser. No. 10 / 229,696 (currently issued as US Pat. No. 7,893,957) filed on August 28, 2002.

<本発明の技術分野>
本発明は、概して、遠隔イメージング技術の分野に関し、より詳細には、非常に広い視野に亘って、高解像度で、高精度で、低歪みのデジタル画像を描画する(rendering)システムに関する。
<Technical Field of the Present Invention>
The present invention relates generally to the field of remote imaging technology, and more particularly to a system for rendering a high resolution, high accuracy, low distortion digital image over a very wide field of view.

リモートセンシングやリモートイメージングは、多様且つ非常に重要な幾つかの実用的用途−例えば、地質マッピング、地質解析や気象予測を−含む広範な技術である。航空ベースや衛星ベースのフォトグラフィ及びイメージングは、特に有用なリモートイメージング技術であり、これらは近年、スペクトル、空間、標高、移動体(vehicle)又はプラットホームの位置や方向などのパラメータを含む、デジタル画像のデータ収集や処理への依存度が極めて高くなっている。現在、空間データ−不動産の改修や位置、一般道路や高速道路、環境災害や環境状態、公共インフラ(例えば、電話線、パイプライン)及び地質学的特徴を特徴付ける−は、デジタル形式で収集、処理、及び伝達されて、高精度マッピング及び監視データとして種々の用途(例えば、動的GPSマッピング)に便利に提供される。標高データが使用されて、システム全体の空間精度及び位置精度が向上されてよく、標高データは、既存の数値標高モデル(Digital Elevation Model)(DEM)データセットから取得でき、又は、能動的な放射線測定ドップラー(radiation measuring Doppler)ベースのデバイスのスペクトルセンサデータ若しくは受動的ステログラフィック計算(stereographic calculation)を用いて収集できる。   Remote sensing and remote imaging are a wide range of technologies including several diverse and very important practical applications such as geological mapping, geological analysis and weather forecasting. Aviation-based and satellite-based photography and imaging are particularly useful remote imaging technologies, which recently have digital images that include parameters such as spectrum, space, elevation, vehicle or platform position and orientation. The dependence on data collection and processing is extremely high. Currently spatial data-characterizing renovation and location of real estate, public roads and highways, environmental disasters and environmental conditions, public infrastructure (eg telephone lines, pipelines) and geological features-are collected and processed in digital form And is communicated and conveniently provided for various applications (eg, dynamic GPS mapping) as high-precision mapping and monitoring data. Elevation data may be used to improve the spatial and location accuracy of the entire system, which can be obtained from an existing Digital Elevation Model (DEM) dataset or active radiation It can be collected using spectral measurement data of a measurement measuring Doppler based device or passive stereographic calculation.

リモートセンシングやリモートイメージングの用途が直面する主な課題は、空間解像度(spatial resolution)とスペクトル忠実度(spectral fidelity)である。球面収差、非点収差、像面湾曲、歪曲収差、及び色収差等のフォトグラフィックな問題は、如何なるセンサ/イメージング用途においても対処しなければならない良く知られた問題である。用途によっては非常に高い画像解像度が必要とされ、時に許容範囲がインチ単位の場合がある。使用されるシステム(例えば、自動車、航空機、衛星、宇宙船又はプラットホーム)にもよるが、実際のデジタルイメージングデバイスは、そのターゲットから数フィートから数マイル離れた位置に配置されることがあり、結果として、倍率(scale factor)が非常に大きくなる。画像の倍率が非常に大きくなり、解像度の許容誤差がインチ単位であると、どれほど頑強なイメージングシステムに対しても問題が生じる。このように、従来のシステムでは、解像品質と、作像される標的領域の大きさとは、二律背反(trade-off)の関係の下で作製されなければならない。システムが高解像度のデジタル画像を提供するように設計されている場合、イメージングデバイスの視野(FOV)(field of view)は通常小さくなる。システムが大きなFOVを生成されるように設計される場合、通常は、システムが提供するFOVがさらに大きくなると、通常は、スペクトル及び空間データの解像度が低下して、歪みが増す。   The main challenges facing remote sensing and remote imaging applications are spatial resolution and spectral fidelity. Photographic problems such as spherical aberration, astigmatism, field curvature, distortion, and chromatic aberration are well known problems that must be addressed in any sensor / imaging application. Depending on the application, very high image resolution is required and sometimes the tolerance is in inches. Depending on the system used (e.g. automobile, aircraft, satellite, spacecraft or platform), the actual digital imaging device may be located a few feet to a few miles away from its target, resulting in As a result, the scale factor becomes very large. Problems with even robust imaging systems arise when the magnification of the image is so great that the resolution tolerance is in inches. As described above, in the conventional system, the resolution quality and the size of the target area to be imaged must be produced in a trade-off relationship. If the system is designed to provide high resolution digital images, the field of view (FOV) of the imaging device is usually small. When a system is designed to produce a large FOV, typically the larger the FOV that the system provides, the lower the resolution of the spectral and spatial data, which usually increases distortion.

オルソイメージング(Ortho-imaging)は、この問題の対策として使用されてきた1つの方策である。一般的に、オルソイメージングは、ターゲットの変化するサブ画像をコンパイル(compile)することで、ターゲットの合成画像を描画する(render)。通常、航空イメージング用途において、有限の範囲及び解像度を有するデジタルイメージングデバイスが、ターゲット領域の固定されたサブセクションの画像を連続的に記録する。これらの画像はその後、いくつかのシーケンスに従って調整(align)されて、ターゲット領域の合成画像が描画される。   Ortho-imaging is one strategy that has been used to combat this problem. In general, in ortho imaging, a composite image of a target is rendered by compiling a sub-image in which the target changes. Typically, in aeronautical imaging applications, digital imaging devices with finite range and resolution continuously record images of fixed subsections of the target area. These images are then aligned according to several sequences and a composite image of the target area is rendered.

このような描画処理は大抵、非常に時間を消費し、多大な労力を要する。多くの場合、これらの処理は、繰返し処理を必要とし、特に、数千のサブ画像が描画される場合には、画質と解像度の有意的な低下を招く。画像データが自動的に処理され得る場合、そのデータは大抵、繰り返し変換及びサンプリングされ、一連の操作毎に、色の忠実度と画像の鮮明度が低下する。自動補正システム又は自動調整システムが用いられる場合、このようなシステムは、画像の異常(例えば、異常に明るい又は暗いターゲット)に影響されやすく、画像データを過度に補正又は不十分に補正して、画像データの解釈について信頼性が低くなる。画像の手動描画が必要又は所望される場合、それに要する時間と労働コストは膨大なものとなる。   Such drawing processing is usually very time consuming and labor intensive. In many cases, these processes require repetitive processing, and particularly when thousands of sub-images are rendered, the image quality and resolution are significantly reduced. When image data can be processed automatically, it is often repeatedly transformed and sampled, reducing color fidelity and image sharpness with each series of operations. When an automatic correction system or an automatic adjustment system is used, such a system is susceptible to image anomalies (e.g., abnormally bright or dark targets), overcorrecting or insufficiently correcting image data, Reliability of image data interpretation is low. When manual drawing of an image is necessary or desired, the time and labor costs required are enormous.

従って、計測精度、安定性、及び繰り返し撮像をもたらす計測用カメラシステムが必要とされている。特に、インフラストラクチャを含む非常に大きなFOV、及びそれに関連するデータセットについて、効率的且つ汎用性の高いイメージングをもたらすと同時に、計測の画質、精度、位置精度及び鮮明度を維持するような、オルソ画像を、そして、オプションとして斜め画像を描画するシステムが必要とされている。さらに、関連する全ての操作のプランニング、収集、ナビゲーション、及び処理の各段階で、自動化アルゴリズムが広範囲に適用される。   Therefore, there is a need for a measurement camera system that provides measurement accuracy, stability, and repeated imaging. In particular, for very large FOVs, including infrastructure, and associated data sets, orthoscopy that provides efficient and versatile imaging while maintaining image quality, accuracy, position accuracy and sharpness of measurements. There is a need for a system that draws images, and optionally diagonal images. In addition, automation algorithms are widely applied at the planning, collection, navigation, and processing stages of all relevant operations.

本発明は、種々のセンサを用いたリモートデータ収集処理システムに関する。本システムは、移動体の操縦とシステムの操作をリアルタイムで制御するコンピュータコンソールユニットを備えてよい。本システムはまた、コンピュータコンソールにリンクされて通信している全地球測位システムを備えてもよい。また、アパーチャ(aperture)を通して見えるターゲットの画像を生成するカメラ及び/又はカメラアレイアセンブリを使用できる。カメラアレイアセンブリは、コンピュータコンソールに通信可能に接続されている。カメラアレイアセンブリは、取付用ハウジングを有しており、該取付用ハウジングの中央には、第1画像センサが取り付けられており、該第1画像センサはアパーチャを通る第1焦点軸を有している。カメラアレイアセンブリはまた、第2画像センサを有しており、該第2画像センサは、ハウジングに取り付けられており、軸に沿って第1画像センサからオフセットされている。第2画像センサは、アパーチャを通り、交差領域内にて第1焦点軸と交差する第2焦点軸を有している。カメラアレイアセンブリは第3画像センサを有しており、該第3画像センサは、ハウジングに取り付けられており、前記軸に沿って第1画像センサからオフセットされており、第2画像センサの反対側にある。第3画像センサは、アパーチャを通る第3焦点軸であって、交差領域内にて第1焦点軸と交差する第3焦点軸を有している。1からn個の任意の個数のカメラが、このように使用されてよい。ここで、「n」は任意の奇数又は偶数であってよい。   The present invention relates to a remote data collection processing system using various sensors. The system may include a computer console unit that controls the operation of the moving body and the operation of the system in real time. The system may also include a global positioning system linked to and in communication with the computer console. Also, a camera and / or camera array assembly can be used that produces an image of the target that is visible through the aperture. The camera array assembly is communicatively connected to the computer console. The camera array assembly has a mounting housing, and a first image sensor is mounted in the center of the mounting housing, the first image sensor having a first focal axis passing through the aperture. Yes. The camera array assembly also includes a second image sensor that is attached to the housing and is offset from the first image sensor along an axis. The second image sensor has a second focal axis that passes through the aperture and intersects the first focal axis in the intersection region. The camera array assembly includes a third image sensor that is attached to the housing and is offset from the first image sensor along the axis and opposite the second image sensor. It is in. The third image sensor has a third focal axis that passes through the aperture and intersects the first focal axis in the intersecting region. Any number of cameras from 1 to n may be used in this way. Here, “n” may be any odd or even number.

本システムはまた、コンピュータコンソール及びカメラアレイアセンブリと通信可能に接続されている、慣性測定ユニット、光学測定ユニット、又は類似の測定ユニット等の姿勢測定器(Attitude Measurement Unit;AMU)を備えてもよい。AMUにより航空機のヨー、ピッチ及び/又はロールを任意の時点で時間内に(in time)決定することができ、連続したDGPS位置を用いて、測地線の(geodesic)北の方位に対する移動体の機首方位を測定してよい。AMUデータは精密なDGPSデータと統合されて、ロバストなリアルタイムのAMUシステムをもたらす。本システムはさらに、コンピュータコンソール内に格納されたモザイキングモジュールを含んでよい。モザイキングモジュールは、入力画像に最初の処理を実行する第1コンポーネントを含んでいる。モザイキングモジュールはまた、第1コンポーネントと協動可能に接続されて、入力画像の地理的な境界を決定する第2コンポーネントを備えている。モザイキングモジュールはさらに、正確な地理的な位置で入力画像を合成画像にマッピングする第3コンポーネントを備えている。第3コンポーネントは、第1コンポーネント及び第2コンポーネントと協動可能に接続されている。モザイキングモジュールにはまた、合成画像にマッピングされた入力画像のカラーバランス調整をする第4コンポーネントが含まれる。第4コンポーネントは第1コンポーネント、第2コンポーネント及び第3コンポーネントと協動可能に接続されてよい。さらにまた、モザイキングモジュールは、合成画像にマッピングされた隣接する入力画像間の境界を融合(blend)する第5コンポーネントを含んでよい。第5コンポーネントは第1コンポーネント、第2コンポーネント、第3コンポーネント及び第4コンポーネントと共働可能に接続されることができる。   The system may also include an Attitude Measurement Unit (AMU), such as an inertial measurement unit, optical measurement unit, or similar measurement unit, communicatively connected to the computer console and camera array assembly. . The AMU allows the aircraft yaw, pitch and / or roll to be determined in time at any point in time, and using a continuous DGPS position, the mobile device for geodesic north orientation The heading may be measured. AMU data is integrated with precise DGPS data, resulting in a robust real-time AMU system. The system may further include a mosaicing module stored within the computer console. The mosaicing module includes a first component that performs initial processing on the input image. The mosaicing module also includes a second component that is operatively connected to the first component to determine a geographic boundary of the input image. The mosaicing module further comprises a third component that maps the input image to the composite image at an accurate geographical location. The third component is connected in a cooperative manner with the first component and the second component. The mosaicing module also includes a fourth component that adjusts the color balance of the input image mapped to the composite image. The fourth component may be operatively connected to the first component, the second component, and the third component. Furthermore, the mosaicing module may include a fifth component that blends the boundaries between adjacent input images mapped to the composite image. The fifth component can be operatively connected to the first component, the second component, the third component, and the fourth component.

第6コンポーネント、選択的前方傾斜及び/又は選択的後方傾斜カメラアレイシステム(optional forward oblique and/or optional rear oblique camera array system)を備えることができ、このシステムは、斜め画像(oblique image)データを収集し、姿勢測定値及び位置測定値と画像データをマージ(merge)して、3次元画像(即ち、3D点群)又は数値標高モデル(digital elevation model)(DEM)を生成する。3D点群又はDEMは、人工構造物を含む地表面の表示である。DEMは、ステレオグラフィック技術を用いて、オルソ及び/又は斜め画像から生成されてよく、又は、その代わりに、LIDAR若しくは既存のDEMからもたらされてよい。DEM又は3D点群は、1つのカメラから得られた、時間的に重なっている任意の画像、又は、空間及び/又は時間的に重なっている2つのカメラから得られた複数の画像から生成されてよい。この生成は、移動体内でリアルタイムに実行されてもよく、又はその後、後処理されてもよい。この第6コンポーネントは、他のコンポーネントと共働する。全てのコンポーネントは、センサデータのコレジストレーション(co-registration)をもたらすために、剛性プラットホームマウントに取り付けられてよい。振動、乱流、温度勾配、及び他の力が移動体又はプラットホームに作用して、センサ間のアライメントの関係に誤差を生じさせる場合がある。共通の剛性プラットホームマウント及び/又は熱スリーブをセンサに使用することで、このコレジストレーション構成を使用していない他のシステムに勝る顕著な利点がもたらされる。   A sixth component, an optional forward oblique and / or optional rear oblique camera array system, may be provided, the system providing oblique image data. Collect and merge the posture and position measurements and image data to generate a three-dimensional image (ie, a 3D point cloud) or a digital elevation model (DEM). A 3D point cloud or DEM is an indication of the ground surface including an artificial structure. The DEM may be generated from ortho and / or oblique images using stereographic techniques, or alternatively may be derived from LIDAR or existing DEM. A DEM or 3D point cloud can be generated from any image over time obtained from one camera, or from multiple images over two cameras overlapping in space and / or time It's okay. This generation may be performed in real time within the mobile or may be post-processed thereafter. This sixth component works with other components. All components may be attached to a rigid platform mount to provide sensor data co-registration. Vibrations, turbulence, temperature gradients, and other forces can act on the moving body or platform, causing errors in the alignment relationship between the sensors. The use of a common rigid platform mount and / or thermal sleeve for the sensor provides significant advantages over other systems that do not use this co-registration configuration.

さらに、本発明では、側方向オーバーサンプリングを用いることで、出力品質を向上させ、及び/又は、コマウント(co-mounted)コレジスタ(co-registered)オーバーサンプリングを用いることで、ピクセル解像度の物理的限界を克服してよい。   Furthermore, the present invention improves the output quality by using lateral oversampling and / or the physical limit of pixel resolution by using co-mounted co-registered oversampling. You may overcome.

本発明をより理解するために、そして本発明がどのように実施されるかを例示するために、添付の図面を参照して詳細に説明する。なお、異なる図面に付した対応する番号は、対応する要素に付している。
図1は、本発明の移動体を用いたデータ収集処理システムを示している。 図1Aは、図1の移動体を用いたデータ収集処理システムの一部を示している。 図1Bは、図1の移動体を用いたデータ収集処理システムの一部を示している。 図2は、本発明の図1の移動体を用いたデータ収集処理システムについて、カメラアレイアセンブリを詳細に示している。 図3Aは、本発明の幾つかの態様に基づいて、アクロストラック斜視式(across track, cross-eyed fashion)で構成されたカメラアレイアセンブリを示している。 図3Bは、本発明の幾つかの態様に基づいて、ロングトラック斜視式(long track, cross-eyed fashion)で構成されたカメラアレイアセンブリを示している。 図3C−1は、本発明の幾つかの態様に基づいて、アロングトラック斜視式(along track, cross-eyed fashion)で構成されたカメラアレイアセンブリを示している。 図3C−2は、本発明の幾つかの態様に基づいて、アロングトラック斜視式で構成されたカメラアレイアセンブリから得られた一連の画像を示している。 図3Dは、本発明の幾つかの態様に基づいて、アクロストラック斜視及びアロングトラック斜視式で構成されたカメラアレイアセンブリを示している。 図3Eは、本発明の幾つかの態様に基づいて、ロングトラック斜視及びアクロストラック斜視式で構成されたカメラアレイアセンブリを示している。 図4Aは、図1及び図3Aのカメラアレイアセンブリによって読み取られた画像パターンの一実施形態を示している。 図4Bは、図1及び図3Bのカメラシステムによって読み取られた画像パターンの一実施形態を示している。 図4C−1は、図1及び図3C−1のカメラシステムによって読み取られた画像パターンの一実施形態を示している。 図4C−2は、図1及び図3C−2のカメラシステムによって読み取られた画像パターンの一実施形態を示している。 図4Dは、図1及び図3Dのカメラシステムによって読み取られた画像パターンの一実施形態を示している。 図4Dは、図1及び図3Eのカメラシステムによって読み取られた画像パターンの一実施形態を示している。 図5は、本発明のある態様を表している画像パターンを示す。 図6は、本発明による画像ストリップを示している。 図7は、本発明による画像ストリップの別の実施形態を示している。 図8は、本発明によるイメージング処理の一実施形態を示している。 図9は、カメラアレイアセンブリで撮影された写真が調整されて個々のフレームが如何に生成されるかを図式的に示している。 図10は、本発明の特定の実施形態に基づいた処理ロジックのブロック図である。 図11は、本発明の特定の実施形態に基づいており、移動体から見下ろした側方向オーバーサンプリングを図示している。 図12は、本発明の特定の実施形態に基づいており、移動体から見下ろした側方向オーバーサンプリングを図示している。 図13は、本発明の特定の実施形態に基づいており、移動体から見下ろした飛行ラインのオーバーサンプリングを図示している。 図14は、本発明の特定の実施形態に基づいており、移動体から見下ろした飛行ラインのオーバーサンプリングを図示している。 図15は、本発明の特定の実施形態に基づいており、移動体から見下ろした累加的拡大を図示している。 図16は、本発明の特定の実施形態に基づいており、移動体から見下ろした累加的拡大を図示している。 図17は、本発明の特定の実施形態に基づいており、移動体から見下ろした累加的拡大を図示している。 図18は、本発明の特定の実施形態に基づいたシステム構成の概略図である。 図19は、本発明の特定の実施形態に基づいており、単一のカメラアレイについて、移動体から見下ろした、サイドラップサブピクセル領域でのコマウント、コレジスタ側方向オーバーサンプリングを図示している。 図20は、本発明の特定の実施形態に基づいており、重なっている2列のカメラアレイについて、移動体から見下ろした、サイドラップサブピクセル領域でのコマウント、コレジスタ側方向オーバーサンプリングオーバーサンプリングを図示している。 図21は、本発明の特定の実施形態に基づいており、重なっている2列のステレオカメラアレイについて、移動体から見下ろした、サイドラップサブピクセル領域でのコマウント、コレジスタ前方向(fore)及び側方向オーバーサンプリングを図示している。 図22Aは、図3Dのカメラアレイを右後側から見た透視図を示す。 図22Bは、図3Eのカメラアレイを右前側から見た透視図を示す。 図23は、本発明の幾つかの態様に基づいて、アクロストラック斜視及びロングトラック斜視式で構成された、凹状又は網膜状(retinal)カメラアレイアセンブリの下面図である。 図24は、本発明の幾つかの態様に基づいて構成された、斜めカメラアレイアセンブリの一実施形態を示している。 図25は、本発明に基づいた画像ストリップを示している。 図26Aは、本発明の幾つかの態様に基づいており、アロングトラック斜視式で構成されたカメラアレイアセンブリの一実施形態を示している。 図26Bは、図26Aのカメラアレイアセンブリの下面図を示している。
For a better understanding of the present invention and for illustrating how the invention may be implemented, reference will now be made in detail to the accompanying drawings. In addition, the corresponding number attached | subjected to different drawing is attached | subjected to the corresponding element.
FIG. 1 shows a data collection processing system using a moving body of the present invention. FIG. 1A shows a part of a data collection processing system using the mobile body of FIG. FIG. 1B shows a part of a data collection processing system using the moving body of FIG. FIG. 2 shows the camera array assembly in detail for the data collection processing system using the moving body of FIG. 1 of the present invention. FIG. 3A illustrates a camera array assembly configured in an across track, cross-eyed fashion, according to some aspects of the present invention. FIG. 3B illustrates a camera array assembly configured in a long track, cross-eyed fashion in accordance with some aspects of the present invention. FIG. 3C-1 illustrates a camera array assembly configured in an along track, cross-eyed fashion, according to some aspects of the present invention. FIG. 3C-2 illustrates a series of images obtained from a camera array assembly constructed in an along track perspective view, according to some aspects of the present invention. FIG. 3D illustrates a camera array assembly configured with an across track perspective and an along track perspective in accordance with some aspects of the present invention. FIG. 3E illustrates a camera array assembly configured with a long track perspective and an across track perspective in accordance with some aspects of the present invention. FIG. 4A illustrates one embodiment of an image pattern read by the camera array assembly of FIGS. 1 and 3A. FIG. 4B illustrates one embodiment of an image pattern read by the camera system of FIGS. 1 and 3B. FIG. 4C-1 shows an embodiment of an image pattern read by the camera system of FIGS. 1 and 3C-1. FIG. 4C-2 shows an embodiment of an image pattern read by the camera system of FIGS. 1 and 3C-2. FIG. 4D shows one embodiment of an image pattern read by the camera system of FIGS. 1 and 3D. FIG. 4D shows one embodiment of an image pattern read by the camera system of FIGS. 1 and 3E. FIG. 5 shows an image pattern representing an aspect of the present invention. FIG. 6 shows an image strip according to the invention. FIG. 7 shows another embodiment of an image strip according to the present invention. FIG. 8 illustrates one embodiment of an imaging process according to the present invention. FIG. 9 schematically shows how the photos taken with the camera array assembly are adjusted to produce individual frames. FIG. 10 is a block diagram of processing logic in accordance with certain embodiments of the present invention. FIG. 11 illustrates lateral oversampling looking down from a moving body, according to a particular embodiment of the present invention. FIG. 12 illustrates lateral oversampling looking down from a moving body, according to a particular embodiment of the present invention. FIG. 13 illustrates oversampling of a flight line, looking down from a mobile, according to a particular embodiment of the present invention. FIG. 14 illustrates oversampling of a flight line, looking down from a mobile object, according to a particular embodiment of the present invention. Figure 15 is based on a specific embodiment of the present invention and illustrates a progressive enlargement looking down from a mobile. FIG. 16 is based on a specific embodiment of the present invention and illustrates a progressive enlargement looking down from a mobile. FIG. 17 is based on a specific embodiment of the present invention and illustrates a progressive enlargement looking down from a mobile. FIG. 18 is a schematic diagram of a system configuration according to a specific embodiment of the present invention. FIG. 19 illustrates comounting in the side wrap sub-pixel region, co-register side direction oversampling, looking down from a mobile, for a single camera array, according to a specific embodiment of the present invention. FIG. 20 illustrates co-mounting in the side wrap sub-pixel region, co-register side direction oversampling oversampling, looking down from a moving body, for two overlapping camera arrays, according to a specific embodiment of the present invention. Show. FIG. 21 is based on a specific embodiment of the present invention, for a two-row overlapping stereo camera array, co-mounted in the side wrap sub-pixel region, co-register forward and fore and side, looking down from the moving body. Directional oversampling is illustrated. FIG. 22A shows a perspective view of the camera array of FIG. 3D viewed from the right rear side. FIG. 22B shows a perspective view of the camera array of FIG. 3E viewed from the front right side. FIG. 23 is a bottom view of a concave or retinal camera array assembly configured in an across track perspective and a long track perspective according to some aspects of the present invention. FIG. 24 illustrates one embodiment of an oblique camera array assembly constructed in accordance with some aspects of the present invention. FIG. 25 shows an image strip according to the invention. FIG. 26A illustrates one embodiment of a camera array assembly constructed according to some aspects of the present invention and configured in an along track perspective view. FIG. 26B shows a bottom view of the camera array assembly of FIG. 26A.

本発明の様々な実施形態の実施及び使用について以下で詳しく説明するが、本発明は、適用可能な多くの発明概念を提供するものであり、多種多様の特定の状況において具体化できることは理解されるべきである。本明細書で説明する特定の実施形態は、発明を実施し使用するための具体的方法を単に例示するものであって、発明の範囲を制限するものではない。  The implementation and use of various embodiments of the present invention are described in detail below, but it is understood that the present invention provides many applicable inventive concepts and can be embodied in a wide variety of specific situations. Should be. The specific embodiments described herein are merely illustrative of specific ways to make and use the invention and do not limit the scope of the invention.

本発明の移動体を用いたデータ収集処理システム(100)を図1、図1A及び図1Bに示す。本発明のさらなる態様及び実施形態を図2及び図18に示す。システム(100)は1又は複数のコンピュータコンソール(102)を含む。コンピュータコンソールは、移動体の操縦とシステムの操作の双方を制御する1又は複数のコンピュータ(104)を含む。コンピュータコンソールの機能の例としては、データ収集処理システムに連携可能なデジタルカラーセンサシステムの制御、表示データの操縦者への供給、人工衛星が生成したGPSの毎秒パルス(PPS)イベントトリガの調整(1秒あたり20以上のパルスであってもよい)、データロギング、センサの制御と調整、エラー事象のチェックと警告、写真の記録とインデックス、移動体のナビゲーションを自動化する飛行計画能力に関するデータの記憶と処理、関連情報のリアルタイム表示の提供がある。制御コンピュータのコンソールと移動体オートパイロット制御部との間の通信インターフェースにより、リアルタイムで移動体の飛行経路を実際に制御する性能が付与される。これにより、移動体の経路の制御は、人間が為し得る制御よりも正確になる。これら機能は全て、GPSのPPS信号と同期され、測定デバイスの種々の電気レイテンシ(electrical latencies)を考慮した種々のコンピュータプログラムを用いて達成できる。実施形態において、コンピュータはセンサ内に組み込まれている。   A data collection processing system (100) using a mobile object of the present invention is shown in FIGS. 1, 1A and 1B. Further aspects and embodiments of the invention are shown in FIGS. The system (100) includes one or more computer consoles (102). The computer console includes one or more computers (104) that control both the maneuvering of the mobile and the operation of the system. Examples of functions of the computer console include control of a digital color sensor system capable of cooperating with a data collection processing system, supply of display data to a pilot, adjustment of a GPS-generated pulse per second (PPS) event trigger generated by a satellite ( Data logging, sensor control and adjustment, error event checking and alerting, photo recording and indexing, data storage for flight planning capabilities to automate mobile navigation And provide real-time display of processing and related information. The communication interface between the control computer console and the mobile autopilot controller provides the ability to actually control the flight path of the mobile in real time. Thereby, the control of the path of the moving body is more accurate than the control that can be performed by humans. All these functions can be achieved using various computer programs that are synchronized with the GPS PPS signal and take into account the various electrical latencies of the measuring device. In an embodiment, the computer is embedded in the sensor.

1又は複数の差動全地球測位システム(differential global positioning system)(106)がシステム(100)に組み込まれている。全地球測位システム(106)は、移動体の操縦とシステムの操作中に正確な飛行経路をナビゲートし、決定するために使用される。これを実現するために、全地球測位システム(106)は、飛行を中断することなく、全地球測位システム(106)からの情報を取得及び処理することができるように、コンピュータコンソール(102)に通信可能にリンクされている。1秒未満(sub-second)のGPS衛星ベースの各エラーを記録するためにゼロ又はそれ以上のGPSユニットが既知の調査点に配置されて、システム(100)の精度を後補正(back correct)することができる。地上の制御点を不要にするために、GPS及び/又は地上ベースの測位サービスを使用してもよい。この技術により、データ収集用移動体の位置精度は、1秒以下の単位で大幅に向上する。   One or more differential global positioning systems (106) are incorporated into the system (100). The global positioning system (106) is used to navigate and determine the exact flight path during mobile maneuvering and system operation. To accomplish this, the Global Positioning System (106) can communicate with the computer console (102) so that information from the Global Positioning System (106) can be obtained and processed without interrupting the flight. It is linked so that it can communicate. Zero or more GPS units are placed at known survey points to record each sub-second GPS satellite-based error to back correct the accuracy of the system (100). can do. GPS and / or ground based positioning services may be used to eliminate ground control points. With this technique, the position accuracy of the data collection moving body is greatly improved in units of 1 second or less.

1又は複数のAMU(108)もまた、コンピュータコンソール(102)に通信可能にリンクされており、リアルタイムヨー(yaw)情報、リアルタイムピッチ情報、及びリアルタイムロール情報を提供し、これらの情報は、移動体の姿勢をデータ収集後直ちに正確に決定するために使用される。この姿勢測定器(AMU)(例えば、Applanix POS AV)は、ヨー角、ピッチ角、及びロール角の夫々の測定につき1ジャイロである3つの高性能光ファイバジャイロを使用している。他のメーカのAMU、及び他の慣性測定デバイス(inertial measurement device)を使用するAMUも同様に用いることができる。さらに、AMUは、移動体の瞬間姿勢を求めるために用いられ、システムには、AMUリーディング時の統計誤差に対して故障許容力(fault-tolerance)がもたらされる。AMUには、1又は複数の多周波DGPSレシーバ(110)を接続することもできる。多周波DGPSレシーバ(110)は、AMUのヨー姿勢データ、ピッチ姿勢データ、及びロール姿勢データと統合されて、3次元空間におけるリモートセンサプラットホームの位置をより正確に決定することができる。また、測地線の北の方位を、連続したDGPS測位によって生成されたベクトルによって決定し、GPSのPPS信号と同期して記録できる。   One or more AMUs (108) are also communicatively linked to the computer console (102) to provide real-time yaw information, real-time pitch information, and real-time roll information, which information is mobile Used to accurately determine body posture immediately after data collection. This attitude measurer (AMU) (eg, Applanix POS AV) uses three high performance fiber optic gyros, one gyro for each measurement of yaw angle, pitch angle, and roll angle. AMUs using other manufacturers' AMUs and other inertial measurement devices can be used as well. In addition, the AMU is used to determine the instantaneous attitude of the moving body, and the system provides fault-tolerance against statistical errors during AMU reading. One or more multi-frequency DGPS receivers 110 may be connected to the AMU. The multi-frequency DGPS receiver 110 can be integrated with the AMU yaw attitude data, pitch attitude data, and roll attitude data to more accurately determine the position of the remote sensor platform in the three-dimensional space. Further, the north direction of the geodesic line is determined by a vector generated by continuous DGPS positioning, and can be recorded in synchronization with the GPS PPS signal.

アパーチャを通して見たターゲットの画像を生成する1又は複数のカメラアレイアセンブリ(112)もまた、1又は複数のコンピュータコンソール(102)に通信可能に接続されている。カメラアレイアセンブリ(112)は、以下でより詳細に説明するが、高解像度、高精度な順次走査(progressive scan)又はライン走査のカラーデジタルフォトグラフィをキャプチャする性能を備えたデータ収集処理システムを提供する。   One or more camera array assemblies (112) that generate images of the target viewed through the aperture are also communicatively connected to the one or more computer consoles (102). The camera array assembly (112), described in more detail below, provides a data acquisition and processing system with the capability to capture high resolution, high precision progressive scan or line scan color digital photography. To do.

システムはまた、DC電力調整装置(114)を含むことができ、これは、DC電力を調整し、DC電力をAC電力に変換して、システムに電力を提供する。システムはさらにナビゲーションディスプレイ(116)を含んでよく、ナビゲーションディスプレイ(116)は、移動体の(機内の、又は離れた位置にいる)操縦者により使用される飛行計画に対して、移動体の位置をグラフィック的に(graphically)描画して、水平面及び垂直面における精密な飛行経路を可能とする。システムはまた、3次元の標高/起伏(elevation/relief)データをキャプチャするための、LIDAR、SAR(118)又は前後方傾斜カメラアレイを含んでなるEMUモジュールを含んでよい。EMUモジュール(118)は、レーザーユニット(120)、EMU制御ユニット(122)及びEMU制御コンピュータ(124)を含むことができる。システムに適切な熱的環境を提供するために、固体冷却モジュール(solid state cooling module)等の温度制御デバイスを必要に応じて配備することもできる。   The system can also include a DC power conditioner (114) that regulates DC power, converts DC power to AC power, and provides power to the system. The system may further include a navigation display (116) that is relative to the flight plan used by the mobile operator (in-flight or at a remote location). Is graphically rendered to allow precise flight paths in horizontal and vertical planes. The system may also include an EMU module comprising a LIDAR, SAR (118) or front-back tilt camera array for capturing three-dimensional elevation / relief data. The EMU module (118) may include a laser unit (120), an EMU control unit (122), and an EMU control computer (124). Temperature control devices such as solid state cooling modules can also be deployed as needed to provide a suitable thermal environment for the system.

システムはまた、コンピュータコンソール(102)に格納されたモザイキングモジュール(mosaicing module)を含んでいる(図示せず)。モザイキングモジュールは、以下でより詳細に説明するが、全地球測位システム(106)、AMU(108)及びカメラシステム(112)によって取得されたデータを収集し、データを使用可能なオルソマップ(orthomap)へと処理する能力をシステムに与える。   The system also includes a mosaicing module (not shown) stored in the computer console (102). The mosaicing module, described in more detail below, collects data acquired by the Global Positioning System (106), AMU (108), and Camera System (112), and can use the orthomap. Gives the system the ability to process

システム(100)はまた、セルフロッキング飛行経路技術(self-locking flight path technique)を含むことができる。この技術は、隣接する飛行経路の位置精度を微修正して、AMUセンサとDGPSセンサのみによる本来的な(native)精度を超える精度を実現する性能を付与する。   The system (100) can also include a self-locking flight path technique. This technology finely modifies the position accuracy of adjacent flight paths and provides the performance to achieve accuracy that exceeds the native accuracy of only the AMU sensor and the DGPS sensor.

ミッションの全ての態様を細かく計画するために完全な飛行計画方法論が使用される。入力は、種々のミッションパラメータ(緯度/経度、解像度、色、精度等)である。出力は、詳細なオンラインのデジタルマップ及びデータファイルであり、これらは、データ収集用移動体の機内に格納され、リアルタイムのナビゲーション及び警告に使用される。飛行計画データを直接オートパイロットにインターフェースする性能は、付加的に組み込まれた能力である。コンピュータプログラムを使用して、飛行経路、姿勢調整、グラフィック表示、及び移動体経路の移動地図を自動的に制御し、警告条件及び補正アクションをチェックし、システムステータス全体の操縦者及び/又はクルーに通知することで、操縦及び制御の危険防止がなされる。安全操縦パラメータが常に監視され、報告されるのがよい。現在のシステムは有人クルーを使用しているのに対し、本システムは無人移動体でも同様に上手く機能するように設計されている。   A complete flight planning methodology is used to plan all aspects of the mission in detail. Inputs are various mission parameters (latitude / longitude, resolution, color, accuracy, etc.). The output is a detailed online digital map and data files that are stored onboard the data collection mobile and are used for real-time navigation and alerting. The ability to interface flight plan data directly to the autopilot is an additional built-in capability. Use computer programs to automatically control flight paths, attitude adjustments, graphic displays, and moving maps of mobile paths, check warning conditions and corrective actions, and provide pilots and / or crew with overall system status By notifying, the danger of steering and control is prevented. Safe maneuver parameters should be constantly monitored and reported. While the current system uses manned crew, the system is designed to work equally well with unmanned mobile vehicles.

図2は、本発明の別の図を示している。図2は、カメラアレイアセンブリ(112)をより詳細に示している。図示のように、カメラアレイアセンブリ(112)は、斜め後ろ、斜め前及び天底(nadir)の位置から画像を取得できる。   FIG. 2 shows another view of the present invention. FIG. 2 shows the camera array assembly (112) in more detail. As shown, the camera array assembly 112 can acquire images from diagonally rear, diagonally front, and nadir positions.

図3A乃至図3Eは、本発明のカメラアレイアセンブリのより詳細な例を示している。特に、図3A乃至図3Eは、ターゲット(302)(例えば地表面)上を飛行中の(airborne)カメラアレイアセンブリ(300)の例を示している。例示であるため、アセンブリ(300)の相対的な大きさ、並びにアセンブリ(300)と地表面(302)と間の相対的な距離は、図3A乃至図3Eにおいて縮尺通りに描かれていない。カメラアレイアセンブリ(300)はハウジング(304)を備えており、ハウジング(304)内には、画像センサ(306)(308)(310)(312)(314)が凹状の曲線軸(316)に沿って配置されている。好ましい実施形態では、ハウジングは、取付ユニットであってよい。アセンブリ(300)は、経路に沿って地表面に対して移動する移動体に調節自在に搭載可能である。軸(316)の曲率半径は大幅に変化する、又は大幅に変更でき、軸(316)の凹形を非常に小さくすることもできるし、非常に大きくすることもできる。或いはまた、軸(316)は、完全な直線形で、全く屈曲して無くてもよい。画像センサ(306)(308)(310)(312)(314)は、取付部材(318)によって直接的又は間接的にハウジング(304)に取り付けられている。取付部材(318)は、固定式又は可動式であり、永続的又は一時的な幾つかの連結装置を含んでよい。例えば、取付部材(318)は、単純な溶接、取外し可能なクランプデバイス、又は電気機械制御式のユニバーサルジョイントでもよい。   3A through 3E show more detailed examples of the camera array assembly of the present invention. In particular, FIGS. 3A-3E illustrate an example of an airborne camera array assembly (300) over a target (302) (eg, the ground surface). For purposes of illustration, the relative size of the assembly (300) and the relative distance between the assembly (300) and the ground surface (302) are not drawn to scale in FIGS. 3A-3E. The camera array assembly (300) includes a housing (304) in which the image sensors (306) (308) (310) (312) (314) are arranged on a concave curved axis (316). Are arranged along. In a preferred embodiment, the housing may be a mounting unit. The assembly (300) can be adjustably mounted on a moving body that moves relative to the ground surface along a path. The radius of curvature of the shaft (316) can vary significantly or can vary greatly, and the concave shape of the shaft (316) can be very small or very large. Alternatively, the shaft (316) may be perfectly straight and not bent at all. The image sensors (306), (308), (310), (312), and (314) are directly or indirectly attached to the housing (304) by attachment members (318). The attachment member (318) is fixed or movable and may include a number of permanent or temporary coupling devices. For example, the attachment member (318) may be a simple weld, a removable clamping device, or an electromechanically controlled universal joint.

また、さらに、システム(100)には、リアルタイムのナビゲーションシステムが機内にあり、視覚的なバイオフィードバック表示を移動体の操縦者に、又は無人移動体での操縦の場合には遠隔表示を提供する。操縦者は、より正確な飛行経路を提供するために、リアルタイムで移動体の位置を調整できる。操縦者は、移動体に搭乗しているか、離れた場所にいる場合でも、飛行ディスプレイを用いて、通信リンクを介して移動体を制御できる。   Still further, the system (100) has a real-time navigation system on board to provide a visual biofeedback display to the mobile operator or a remote display in the case of unmanned mobile maneuvers. . The pilot can adjust the position of the mobile in real time to provide a more accurate flight path. The pilot can control the moving body via the communication link using the flight display even when he is on the moving body or at a remote location.

システム(100)はまた、故障許容力の高い方法を使用してよく、この方法は、1つ又は2つのハードドライブについて、ドライブに保存されているターゲットデータに障害が発生しても(fail)ターゲットデータを失わないようにするソフトウェアインターリーブディスク記憶手法(software inter-leaved disk storage methodology)を提供するために開発されている。このソフトウェアインターリーブディスク記憶方法手法は、RAID−5等の他のハードウェア方法論と比べて優れた故障許容力及びポータブル性(portability)を提供する。   The system (100) may also use a fault tolerant method that will fail if the target data stored on the drive fails for one or two hard drives. Developed to provide a software inter-leaved disk storage methodology that does not lose target data. This software interleaved disk storage method approach provides superior fault tolerance and portability compared to other hardware methodologies such as RAID-5.

システム(100)はまた、ミッションデータの取得直前に、短時間で較正ステップを行うことができるように開発された手法を組み入れることもできる。この較正手法のステップは、注目する領域に到達する直前に、周囲光の強度をサンプリングし、最適値付近に設定することで、カメラの設定、主に露光時間を調整する。その後、移動平均アルゴリズムを用いて秒単位のカメラ調整を実行し、改善された一貫性のある写真がもたらされる。これによりオルソマップのカラー処理が改善される。さらにまた、較正を用いて、各センサデバイス(カメラ、DPG、AMU、EMU等)の正確な空間位置をチェックしたり決定することができる。このようにして、これらデバイスの空間位置の起こり得る変化が評価されて、システム全体の精度メトリックス(precision metrics)が維持される。   The system (100) can also incorporate techniques that have been developed so that the calibration step can be performed in a short time just prior to acquisition of mission data. This calibration method step adjusts the camera settings, mainly the exposure time, by sampling the intensity of ambient light and setting it near the optimum value immediately before reaching the region of interest. A camera adjustment in seconds is then performed using a moving average algorithm, resulting in an improved consistent photo. This improves the color processing of the orthomap. Furthermore, calibration can be used to check or determine the exact spatial position of each sensor device (camera, DPG, AMU, EMU, etc.). In this way, possible changes in the spatial location of these devices are evaluated to maintain overall system precision metrics.

また、複数の既知の可視的な高精度の地理的位置を含む領域の上を飛行することにより、移動体上の各センサデバイス(カメラ、DPG、AMU、EMU等)の正確な位置及び姿勢を較正できるように開発された手法を、システム(100)に組み入れてもよい。プログラムは、このデータを入力として入手し、精密な位置データを出力し、その後、この位置データを用いてオルソマップを正確に処理する。   In addition, by flying over an area including a plurality of known visible high-precision geographical positions, the accurate position and orientation of each sensor device (camera, DPG, AMU, EMU, etc.) on the moving body can be determined. Techniques developed so that they can be calibrated may be incorporated into the system (100). The program takes this data as input, outputs precise position data, and then uses this position data to accurately process the orthomap.

カメラアレイアセンブリ(300)の実施形態では、画像センサは、アクロストラック斜視式で配置されてよい。図3Aに示すように、ハウジング(304)は単純形状の筺体であって、その内部に画像センサ(306)(308)(310)(312)(314)が配置されている。好ましい実施形態では、ハウジング(304)は、取付ユニット(図示せず)で置き換えられてよく、その中に画像センサ(306)(308)(310)(312)(314)が配置される。図3Aは5台のカメラのアレイを示しているが、本システムは、画像センサ数が1から任意の数に至っても、等しく機能する。センサ(306)乃至(314)は、取付部材(318)により、ハウジング(304)の対向する壁の間に配置された1つの横断横材(transverse cross member)にまとめて取り付けられるか、複数の側方横材(lateral cross members)に個々に取り付けられる。別の実施形態において、ハウジング(304)自体が、凹状に屈曲した支持用横材(例えば、取付ユニット)を構成するようになし、この横材に、画像センサ(306)乃至(314)が部材(318)を介して取り付けられてよい。さらに他の実施形態において、ハウジング(304)は、筐体と支持用横材の複合的な組合せとすることもできる。ハウジング(304)ではさらに、画像センサとターゲット(302)との間の表面に、アパーチャ(320)が形成されている。母体の航空機の具体的な型式に応じて、アパーチャ(320)は、アパーチャ(320)は、空隙だけでもよいし、ハウジング(304)内の環境的保全を維持するために、保護用スクリーン又は窓を含むこともできる。透明な保護プレートが任意のセンサに用いられる場合、センサデータの質を向上させるための特別なコーティングをプレートに施してもよい。所望により、アパーチャ(320)は、センサによって記録された画像の質を高め、又は変更するために、レンズ又は他の光学デバイスを備えてよい。アパーチャ(320)は、画像センサ(306)乃至(314)に、地表面(302)上のターゲット領域(322)に対する適切な視線を与えることができる大きさ及び形状に形成される。   In an embodiment of the camera array assembly (300), the image sensor may be arranged in an across track perspective view. As shown in FIG. 3A, the housing (304) is a simple-shaped housing, in which the image sensors (306) (308) (310) (312) (314) are arranged. In a preferred embodiment, the housing (304) may be replaced with a mounting unit (not shown) in which the image sensors (306) (308) (310) (312) (314) are disposed. Although FIG. 3A shows an array of five cameras, the system works equally well from 1 to any number of image sensors. The sensors (306) to (314) may be attached together by a mounting member (318) to one transverse cross member disposed between opposing walls of the housing (304), or a plurality of Individually attached to lateral cross members. In another embodiment, the housing (304) itself constitutes a supporting cross member (e.g., a mounting unit) bent into a concave shape, and the image sensor (306) to (314) is a member of the cross member. It may be attached via (318). In still other embodiments, the housing (304) can be a composite combination of a housing and a supporting cross member. In the housing (304), an aperture (320) is further formed on the surface between the image sensor and the target (302). Depending on the specific model of the mother aircraft, the aperture (320) may be only a gap or a protective screen or window to maintain environmental integrity within the housing (304). Can also be included. If a transparent protective plate is used for any sensor, a special coating may be applied to the plate to improve the quality of the sensor data. If desired, the aperture (320) may comprise a lens or other optical device to enhance or alter the quality of the image recorded by the sensor. The aperture (320) is formed in a size and shape that can give the image sensors (306) to (314) an appropriate line of sight to the target area (322) on the ground surface (302).

画像センサ(306)乃至(314)は、全てのセンサの焦点軸が、アパーチャ(320)で規定された交差領域内で集束し互いに交差するように、ハウジング(304)の内部に、又はハウジング(304)に沿って配置される。収集される画像データの種類、使用される具体的な画像センサ、及び使用される他の光学素子又は装置に応じて、交差領域又は集束点をアパーチャ(320)の上又は下にオフセットさせることが必要となることもあるし、又、それが望ましいこともある。画像センサ(306)乃至(314)は、角度間隔で互いに離れている。画像センサ間の正確な変位角度は、使用される画像センサの数、及び収集される画像データの種類に応じて、大きく変わってよい。画像センサ間の角度変位はまた、必要に応じて、所望の画像オフセット又は画像アライメントをもたらすように不均一にされてもよい。使用される画像センサの数及びアレイの特定の形状に応じて、全ての画像センサの焦点軸は、同じ点で正確に交差してもよく、或いは、全ての点が互いに非常に近接し、アパーチャ(320)によって規定される交差領域の中にあるような複数の点で交差してもよい。   The image sensors (306) to (314) are either inside the housing (304) or the housing (so that the focal axes of all sensors converge and intersect each other within the intersection region defined by the aperture (320). 304). Depending on the type of image data collected, the specific image sensor used, and other optical elements or devices used, the crossing region or focusing point may be offset above or below the aperture (320). It may be necessary or it may be desirable. The image sensors (306) to (314) are separated from each other by angular intervals. The exact displacement angle between image sensors may vary greatly depending on the number of image sensors used and the type of image data collected. Angular displacement between image sensors may also be made non-uniform to provide the desired image offset or image alignment, if desired. Depending on the number of image sensors used and the particular shape of the array, the focal axes of all image sensors may intersect exactly at the same point, or all points may be very close to each other and the aperture You may cross at a plurality of points as in the crossing region defined by (320).

図3Aに示すように、画像センサ(310)は、ハウジング(304)内で軸(316)に沿って中央に配置されている。画像センサ(310)は焦点軸(324)を有し、この焦点軸(324)は、センサの視線が領域(322)の画像領域(326)と揃うように、ハウジング(304)と直交している。画像センサ(308)は、ハウジング(304)内で、軸(316)に沿って、画像センサ(310)の隣に配置されている。画像センサ(308)の配置は、その視線が領域(322)の画像領域(328)と一致するように、また、その焦点軸(330)が集束し、アパーチャ(320)で規定された領域内で軸(324)と交差するように調整されている。画像センサ(312)は、ハウジング(304)内で、画像センサ(310)の隣でセンサ(308)とは反対側に軸(316)に沿って配置される。画像センサ(312)の配置は、その視線が領域(322)の画像領域(332)と一致するように、そしてその焦点軸(334)がアパーチャ(320)で規定された領域と一致し、この領域内で軸(324)(330)と交差するように調整されている。画像センサ(306)は、ハウジング(304)内で、軸(316)に沿って、センサ(308)の隣に配置されている。画像センサ(306)は、その視線が領域(322)の画像領域(336)と一致するように、そしてその焦点軸(338)がアパーチャ(320)で規定される領域と一致し、その領域内で他の焦点軸と交差するように調整されている。画像センサ(314)は、ハウジング(304)内で、センサ(312)の隣に、センサ(306)とは反対側に軸(316)に沿って配置される。画像センサ(314)の配置は、その視線が領域(322)の画像領域(340)と一致するように、そしてその焦点軸(344)がアパーチャ(320)で規定される領域と一致し、その領域内で他の焦点軸と交差するように調整されている。   As shown in FIG. 3A, the image sensor (310) is centrally disposed along the axis (316) in the housing (304). The image sensor (310) has a focal axis (324) that is orthogonal to the housing (304) so that the line of sight of the sensor is aligned with the image area (326) of the area (322). Yes. The image sensor (308) is disposed in the housing (304) along the axis (316) next to the image sensor (310). The image sensor (308) is arranged so that its line of sight coincides with the image area (328) of the area (322), and its focal axis (330) is focused and within the area defined by the aperture (320). Is adjusted to intersect the axis (324). The image sensor (312) is disposed along the axis (316) in the housing (304) next to the image sensor (310) and opposite the sensor (308). The arrangement of the image sensor (312) is such that its line of sight coincides with the image area (332) of the area (322), and its focal axis (334) coincides with the area defined by the aperture (320). It is adjusted to intersect the axis (324) (330) within the region. The image sensor (306) is disposed in the housing (304) along the axis (316) next to the sensor (308). The image sensor (306) has a line of sight that matches the image area (336) of the area (322), and its focal axis (338) matches the area defined by the aperture (320). It has been adjusted to intersect with the other focal axis. The image sensor (314) is disposed along the axis (316) in the housing (304), next to the sensor (312) and opposite the sensor (306). The arrangement of the image sensor (314) is such that its line of sight coincides with the image area (340) of the area (322), and its focal axis (344) coincides with the area defined by the aperture (320). It is adjusted to intersect other focal axes within the region.

画像センサ(306)乃至(314)は、例えば、個別の領域スキャンカメラ、ラインスキャンカメラ、赤外線センサ、高スペクトルセンサ及び/又は地震センサを含む幾つかのデジタルイメージングデバイスを含むことができる。各センサは、個別のイメージングデバイスを含んでもよく、又はセンサ自体がイメージングアレイを含んでもよい。画像センサ(306)乃至(314)は、全てが同じ物であってもよく、又は様々なイメージングデバイスの組合せでもよい。以下の説明では、便宜上、画像センサ(306)乃至(314)は、カメラ(306)乃至(314)として夫々記載する。   Image sensors (306)-(314) may include several digital imaging devices including, for example, individual area scan cameras, line scan cameras, infrared sensors, high spectrum sensors, and / or seismic sensors. Each sensor may include a separate imaging device, or the sensor itself may include an imaging array. The image sensors (306)-(314) may all be the same or a combination of various imaging devices. In the following description, for convenience, the image sensors (306) to (314) are described as cameras (306) to (314), respectively.

大型フィルムカメラ又は大型デジタルカメラにおいて、イメージングの典型的な問題の原因はレンズの歪みである。個別レンズの各々は、正確な歪み率を判断するために、注意深く較正されなければならない。本発明の一実施形態では、レンズの角度幅が17度よりも小さな小型デジタルカメラを使用している。これにより、顕著な歪みが効率的且つ安価に緩和される。   In large film cameras or large digital cameras, the typical cause of imaging problems is lens distortion. Each individual lens must be carefully calibrated to determine the correct distortion rate. In one embodiment of the present invention, a small digital camera having a lens angle width of less than 17 degrees is used. This relieves significant distortion efficiently and inexpensively.

各カメラの焦点軸が、アパーチャ(320)にて集束し、焦点軸(324)と交差し、その視野を、アレイにおける個々の位置の反対側にあるターゲット領域に揃えることで、カメラと撮像ターゲットとの間が「斜視」の網膜的関係になるように、カメラ(306)乃至(314)は、ハウジング(304)内にて軸(316)に沿って交互に(alternately)配置される。カメラアレイアセンブリ(300)は、画像領域(326)(328)(332)(336)(340)の隣接する境界が、若干重なるように構成されている。ある実施形態では、画像領域(340)と画像領域(332)の隣接する境界、画像領域(332)と画像領域(326)の隣接する境界、画像領域(326)と画像領域(328)の隣接する境界、画像領域(328)と画像領域(336)の隣接する境界は、画像領域の約1%と約99%の間で重なっている。別の実施形態では、隣接する境界は、約10%と約80%の間で重なっている。別の実施形態では、隣接する境界は、約20%と約60%の間で重なっている。   The focal axis of each camera is focused at the aperture (320), intersects the focal axis (324), and aligns its field of view with the target area opposite the individual positions in the array, so that the camera and imaging target The cameras (306) to (314) are arranged alternately along the axis (316) in the housing (304) such that a “retarded” retinal relationship is established between them. The camera array assembly (300) is configured such that adjacent boundaries of the image areas (326) (328) (332) (336) (340) slightly overlap. In an embodiment, the adjacent boundary between the image region (340) and the image region (332), the adjacent boundary between the image region (332) and the image region (326), the adjacent region between the image region (326) and the image region (328). The border between the image region (328) and the image region (336) overlaps between about 1% and about 99% of the image region. In another embodiment, adjacent boundaries overlap between about 10% and about 80%. In another embodiment, adjacent boundaries overlap between about 20% and about 60%.

画像センサ(306)(308)(310)(312)(314)の形状とサイズに応じて、アセンブリ(300)は、略円状のカスタマイズ可能なFOVを有する画像を生成できる機能をもたらす。使用される取付ユニットと画像センサとに応じて、アセンブリ(300)は、立体画像を生成するように配備されてよい。代替的な実施形態では、種々の形状とサイズを有する任意の数の画像センサを含む任意の数の取付ユニットが組み合わされて、所望のターゲット領域での画像データを与えてよい。   Depending on the shape and size of the image sensors (306) (308) (310) (312) (314), the assembly (300) provides the ability to generate an image with a generally circular customizable FOV. Depending on the mounting unit and image sensor used, the assembly (300) may be deployed to generate a stereoscopic image. In alternative embodiments, any number of mounting units including any number of image sensors having various shapes and sizes may be combined to provide image data at a desired target area.

カメラアセンブリ(300)の別の実施形態では、画像センサは、ロングトラック斜視式で配置されてよい。図3Bに示されているように、ハウジング(304)は、簡単な囲いを備えており、その中に画像センサ(306)(308)(310)(312)(314)が配置されている。好ましい実施形態では、ハウジング(304)は、取付ユニット(図示せず)で置き換えられてよく、その中に、画像センサ(306)(308)310)(312)(314)が配置される。図3Bは、5つのカメラのアレイを示しているが、用いているカメラセンサの数が、1乃至任意の数であっても、システムは、同様に十分に働く。センサ(306)乃至(314)は、単一の横断横材にまとめて、或いは、ハウジング(304)の対向する壁の間に配置された複数の側方横材に個別に、取付部材(318)を介して結合している。代替的な実施形態では、ハウジング(304)自体が、凹状に湾曲した支持横材(例えば、取付ユニット)のみであってよく、それに、部材(318)を介して、画像センサ(306)乃至(314)が連結している。他の実施形態では、ハウジング(304)は、囲いと支持横材のハイブリッドな組合せであってよい。ハウジング(304)は更に、画像センサとターゲット(302)の間にて、その表面に形成されたアパーチャ(320)を備えている。ホストの飛行機の特定の種類に応じて、アパーチャ(320)は、空所のみであってよく、或いは、ハウジング(304)内で環境の完全性を維持するために保護スクリーン又はウインドウを備えていてもよい。保護透明プレートが任意のセンサに使用される場合、特殊なコーティングがプレートに施されて、センサのデータの質が改善されてよい。随意選択的に、アパーチャ(320)は、レンズ又はその他の光学素子を備えており、センサによって記録される画像の性質を向上又は変化させてよい。アパーチャ(320)は、画像センサ(306)乃至(314)に、地表面(302)上のターゲット領域(322)への適切な視線を与えるのに十分なサイズと形状を有するように形成されている。   In another embodiment of the camera assembly (300), the image sensor may be arranged in a long track perspective view. As shown in FIG. 3B, the housing (304) has a simple enclosure in which the image sensors (306) (308) (310) (312) (314) are arranged. In a preferred embodiment, the housing (304) may be replaced with a mounting unit (not shown) in which the image sensors (306) (308) 310) (312) (314) are disposed. Although FIG. 3B shows an array of five cameras, the system works equally well if the number of camera sensors used is between 1 and any number. The sensors (306)-(314) can be attached to the mounting member (318) in a single transverse crosspiece or individually in a plurality of side crosspieces disposed between opposing walls of the housing (304). ). In an alternative embodiment, the housing (304) itself may be only a concavely curved support cross member (eg, a mounting unit), and via the member (318), the image sensors (306) through ( 314) are connected. In other embodiments, the housing (304) may be a hybrid combination of an enclosure and a support cross. The housing (304) further includes an aperture (320) formed on the surface between the image sensor and the target (302). Depending on the specific type of host aircraft, the aperture (320) may be empty only or may include a protective screen or window to maintain environmental integrity within the housing (304). Also good. If a protective transparent plate is used for any sensor, a special coating may be applied to the plate to improve the sensor data quality. Optionally, the aperture (320) may comprise a lens or other optical element to improve or change the nature of the image recorded by the sensor. The aperture (320) is formed to have a size and shape sufficient to give the image sensors (306)-(314) a proper line of sight to the target area (322) on the ground surface (302). Yes.

画像センサ(304)乃至(314)は、全てのセンサの焦点軸がアパーチャ(320)を境界とする交差領域内に集まるように配置される。集められる画像データの種類と、使用される画像センサと、用いられるその他の光学素子又は装置とに応じて、アパーチャ(320)の上又は下に、交差領域又は集束点がオフセットすることが必要である又は望ましいことがある。画像センサ(304)乃至(314)は、角度間隔で互いに離間している。画像センサ間の正確な変位角度は、使用される画像センサの数と、集められる画像データの種類とに応じて、大きく変化してよい。画像センサ間の変位角度はまた、必要に応じて、所望の画像オフセット又は画像アライメントを与えるように不均一にされてよい。使用される画像センサの数と、アレイの構成とに応じて、全ての画像センサの焦点軸は、正確に同じ点で交差してよく、又は、全てがお互いに近接近しており、アパーチャ(320)が規定する交差領域内にある複数の点で交差してよい。   The image sensors (304) to (314) are arranged so that the focal axes of all the sensors are gathered in an intersecting region having the aperture (320) as a boundary. Depending on the type of image data collected, the image sensor used, and other optical elements or devices used, it is necessary that the crossing region or focusing point be offset above or below the aperture (320). May be or may be desirable. The image sensors (304) to (314) are separated from each other by angular intervals. The exact displacement angle between the image sensors may vary greatly depending on the number of image sensors used and the type of image data collected. The displacement angle between the image sensors may also be made non-uniform to provide the desired image offset or image alignment, if desired. Depending on the number of image sensors used and the configuration of the array, the focal axes of all image sensors may intersect exactly at the same point, or they are all close to each other and the aperture ( 320) may intersect at a plurality of points within the intersecting region defined by 320).

図3Bに示されているように、画像センサ(310)は、ハウジング(304)内にて軸(316)に沿って中央に配置されている。画像センサ(310)は、焦点軸(324)を有しており、それは、ハウジング(304)から直交するように向けられて、画像センサの視線を、領域(322)の画像領域(326)に揃えている。画像センサ(308)は、ハウジング(304)内にて軸(316)に沿って、画像センサ(310)の隣に配置されている。画像センサ(308)は、その視線が、領域(322)の画像領域(328)と一致するように、そして、その焦点軸(330)が、アパーチャ(320)を境界とする領域内にて軸(324)と一致して交差するように位置合わせされている。画像センサ(312)は、ハウジング(304)内にて、画像センサ(308)とは軸(316)の反対側にて、画像センサ(310)の隣に配置されている。画像センサ(312)は、その視線が、領域(322)の画像領域(332)と一致するように、そして、その焦点軸(334)が、アパーチャ(320)を境界とする領域内にて軸(324)(330)と一致して交差するように位置合わせされている。画像センサ(306)は、ハウジング(304)内にて軸(316)に沿って、画像センサ(308)の隣に配置されている。画像センサ(306)は、その視線が、領域(322)の画像領域(336)と一致するように、そして、その焦点軸(338)が、アパーチャ(320)を境界とする領域内にてその他の焦点軸と一致して交差するように位置合わせされている。画像センサ(314)は、ハウジング(304)内にて、画像センサ(306)とは軸(316)の反対側にて、画像センサ(312)の隣に配置されている。画像センサ(314)は、その視線が、領域(322)の画像領域(340)と一致するように、そして、その焦点軸(344)が、アパーチャ(320)を境界とする領域内にてその他の焦点軸と一致して交差するように位置合わせされている。   As shown in FIG. 3B, the image sensor (310) is centrally disposed along the axis (316) within the housing (304). The image sensor (310) has a focal axis (324) that is oriented orthogonally from the housing (304) to direct the image sensor's line of sight to the image region (326) of region (322). Aligned. The image sensor (308) is disposed along the axis (316) in the housing (304) next to the image sensor (310). The image sensor (308) is arranged so that its line of sight coincides with the image area (328) of the area (322), and its focal axis (330) is aligned within the area bounded by the aperture (320). It is aligned so that it intersects with (324). The image sensor (312) is disposed next to the image sensor (310) in the housing (304) on the opposite side of the shaft (316) from the image sensor (308). The image sensor (312) is arranged so that its line of sight coincides with the image area (332) of the area (322), and its focal axis (334) is aligned within the area bounded by the aperture (320). (324) Aligned to intersect with (330). The image sensor (306) is disposed along the axis (316) in the housing (304) next to the image sensor (308). The image sensor (306) is configured so that its line of sight coincides with the image area (336) of the area (322), and the focal axis (338) is other in the area bounded by the aperture (320). Are aligned so as to intersect with the focal axis. The image sensor (314) is disposed next to the image sensor (312) in the housing (304) on the opposite side of the axis (316) from the image sensor (306). The image sensor (314) is configured so that the line of sight coincides with the image area (340) of the area (322), and the focal axis (344) is within the area bounded by the aperture (320). Are aligned so as to intersect with the focal axis.

各カメラの焦点軸が、アパーチャ(320)にて集束し、焦点軸(324)と交差し、その視野を、アレイにおける個々の位置の反対側にあるターゲット領域に揃えることで、カメラと撮像ターゲットとの間が「斜視」の網膜的関係になるように、カメラ(306)乃至(314)は、ハウジング(304)内にて軸(316)に沿って交互に配置される。カメラアレイアセンブリ(300)は、画像領域(326)(328)(332)の隣接する境界が、若干重なるように構成されている。ある実施形態では、画像領域(326)と画像領域(328)の隣接する境界、及び/又は、画像領域(326)と画像領域(332)の隣接する境界は、画像領域の約1%と約99%の間で重なっている。別の実施形態では、隣接する境界は、約30%と約95%の間で重なっている。別の実施形態では、隣接する境界は、約50%と約60%の間で重なっている。   The focal axis of each camera is focused at the aperture (320), intersects the focal axis (324), and aligns its field of view with the target area opposite the individual positions in the array, so that the camera and imaging target The cameras (306) to (314) are arranged alternately along the axis (316) in the housing (304) so that a “perspective” retinal relationship is established between them. The camera array assembly (300) is configured such that adjacent boundaries of the image areas (326), (328), and (332) slightly overlap. In some embodiments, the adjacent boundary between the image region (326) and the image region (328) and / or the adjacent boundary between the image region (326) and the image region (332) is about 1% of the image region and about Overlap between 99%. In another embodiment, adjacent borders overlap between about 30% and about 95%. In another embodiment, adjacent boundaries overlap between about 50% and about 60%.

画像領域(328)と画像領域(336)の隣接する境界、そして、画像領域(332)と画像領域(340)の隣接する境界は、若干重なっていてもいなくともよい。ある実施形態では、画像領域(328)と画像領域(336)の隣接する境界、そして、画像領域(332)と画像領域(340)の隣接する境界は、約0%と約100%の間で重なる。別の実施形態では、それらの隣接する境界は、約30%と約95%の間で重なる。別の実施形態では、それらの隣接する境界は、約50%と約90%の間で重なる。   The border between the image region (328) and the image region (336) and the border between the image region (332) and the image region (340) may or may not overlap slightly. In some embodiments, the adjacent boundary between image region (328) and image region (336), and the adjacent boundary between image region (332) and image region (340) is between about 0% and about 100%. Overlap. In another embodiment, their adjacent boundaries overlap between about 30% and about 95%. In another embodiment, their adjacent boundaries overlap between about 50% and about 90%.

図3Bのカメラアレイに似た別の実施形態では、画像センサは、カメラアレイ(2600)にて、ロングトラック斜視式で配置されてよい。図26Aに示されているように、取付ユニット(2604)は、画像センサ(2606)(2608)(2610)(2612)が中に配置された単純な構造を備えている。図26Aは、4つのカメラのアレイを描いているが、使用しているカメラの数が1乃至任意の数であっても、システムは、同様に十分に働く。センサ(2606)乃至(2612)は、取付部材(2618)により、ハウジング(2604)の対向する壁の間に配置された1つの横断横材にまとめて取り付けられるか、複数の側方横材に個々に取り付けられる。   In another embodiment similar to the camera array of FIG. 3B, the image sensors may be arranged in a long track perspective on the camera array (2600). As shown in FIG. 26A, the mounting unit (2604) has a simple structure in which the image sensors (2606) (2608) (2610) (2612) are arranged. Although FIG. 26A depicts an array of four cameras, the system works equally well if the number of cameras used is between 1 and any number. The sensors (2606) to (2612) can be attached to one transverse cross member arranged between opposing walls of the housing (2604) by the attachment member (2618) or to a plurality of side cross members. Can be attached individually.

図3Bのカメラアセンブリと同様に、取付ユニット(2604)は更に、画像センサとターゲット(図示せず)の間にて、その表面に形成されたアパーチャ(2620)を備えている。ホストの飛行機の特定の種類に応じて、アパーチャ(2620)は、空所のみであってよく、或いは、取付ユニット(2604)内で環境の完全性を維持するために保護スクリーン又はウインドウを備えていてもよい。保護透明プレートが任意のセンサに使用される場合、特殊なコーティングがプレートに施されて、センサのデータの質が改善されてよい。随意選択的に、アパーチャ(2620)は、レンズ又はその他の光学素子を備えており、センサによって記録される画像の性質を向上又は変化させてよい。アパーチャ(2620)は、画像センサ(2606)乃至(2612)に、地表面(図示せず)上のターゲット領域への適切な視線を与えるのに十分なサイズと形状を有するように形成されている。   Similar to the camera assembly of FIG. 3B, the mounting unit (2604) further comprises an aperture (2620) formed on the surface between the image sensor and the target (not shown). Depending on the particular type of host aircraft, the aperture (2620) may be empty only or may include a protective screen or window to maintain environmental integrity within the mounting unit (2604). May be. If a protective transparent plate is used for any sensor, a special coating may be applied to the plate to improve the sensor data quality. Optionally, the aperture (2620) may comprise a lens or other optical element to improve or change the nature of the image recorded by the sensor. The aperture (2620) is formed to have a size and shape sufficient to give the image sensors (2606) to (2612) an appropriate line of sight to a target area on the ground surface (not shown). .

図3Bで議論したように、画像センサ(2606)乃至(2614)は、全てのセンサの焦点軸が、アパーチャ(2620)で規定された交差領域内で集束し互いに交差するように、取付ユニット(2604)にて、凹状の曲線をなすアレイ軸(2616)内に又はそれに沿って配置される。収集される画像データの種類、使用される画像センサ、及び用いられる他の光学素子又は装置に応じて、交差領域又は集束点をアパーチャ(2620)の上又は下にオフセットさせることが必要である又望ましいことがある。画像センサ(2606)乃至(2612)は、角度間隔で互いに離れている。画像センサ間の正確な変位角度は、使用される画像センサの数、及び収集される画像データの種類に応じて、大きく変わってよい。画像センサ間の変位角度はまた、必要に応じて、所望の画像オフセット又は画像アライメントをもたらすように不均一にされてもよい。使用される画像センサの数及びアレイの形状に応じて、全ての画像センサの焦点軸は、同じ点で正確に交差してもよく、或いは、全ての点が互いに非常に近接しており、アパーチャ(2620)によって規定される交差領域の中にあるような複数の点で交差してもよい。   As discussed in FIG. 3B, the image sensors (2606) through (2614) are mounted on the mounting unit (2) so that the focal axes of all the sensors converge and intersect each other within the intersection region defined by the aperture (2620). 2604) in or along the array axis (2616) forming a concave curve. Depending on the type of image data collected, the image sensor used, and other optical elements or devices used, it may be necessary to offset the intersection region or focus point above or below the aperture (2620). Sometimes desirable. The image sensors (2606) to (2612) are separated from each other by angular intervals. The exact displacement angle between image sensors may vary greatly depending on the number of image sensors used and the type of image data collected. The displacement angle between the image sensors may also be made non-uniform to provide the desired image offset or image alignment, if desired. Depending on the number of image sensors used and the shape of the array, the focal axes of all image sensors may intersect exactly at the same point, or all the points are very close together and the aperture You may cross at a plurality of points as in the crossing region defined by (2620).

カメラアセンブリ(300)の別の実施形態では、画像センサは、インフラストラクチャの地図を作成するためにロングトラック斜視式で配置されてよい。図3Cに示されているように、ハウジング(304)は、簡単な囲いを備えており、その中に画像センサ(306)(308)(310)(312)(314)が配置されている。好ましい実施形態では、ハウジング(304)は、取付ユニット(図示せず)で置き換えられてよく、その中に、画像センサ(306)(308)(310)(312)(314)が配置される。図3Bは、5つのカメラのアレイを描いているが、使用しているカメラセンサの数が3乃至任意の数であっても、システムは、同様に十分に働く。上述したように、センサ(306)乃至(314)は、単一の横断横材にまとめて、或いは、ハウジング(304)の対向する壁の間に配置された複数の側方横材に個別に、取付部材(318)を介して結合している。代替的な実施形態では、ハウジング(304)自体が、凹状に湾曲した支持横材(例えば、取付ユニット)のみであってよく、それに、部材(318)を介して、画像センサ(306)乃至(314)が連結している。他の実施形態では、ハウジング(304)は、囲いと支持横材のハイブリッドな組合せであってよい。ハウジング(304)は更に、画像センサとターゲット(302)の間にて、その表面に形成されたアパーチャ(320)を備えている。ホストの飛行機の特定の種類に応じて、アパーチャ(320)は、空所のみであってよく、或いは、ハウジング(304)内で環境の完全性を維持するために保護スクリーン又はウインドウを備えていてもよい。保護透明プレートが任意のセンサに使用される場合、特殊なコーティングがプレートに施されて、センサのデータの質が改善されてよい。随意選択的に、アパーチャ(320)は、レンズ又はその他の光学素子を備えており、センサによって記録される画像の性質を向上又は変化させてよい。アパーチャ(320)は、画像センサ(306)乃至(314)に、地表面(302)上のターゲット領域(322)への適切な視線を与えるのに十分なサイズと形状を有するように形成されている。  In another embodiment of the camera assembly (300), the image sensor may be arranged in a long track perspective to create an infrastructure map. As shown in FIG. 3C, the housing (304) has a simple enclosure in which the image sensors (306) (308) (310) (312) (314) are arranged. In a preferred embodiment, the housing (304) may be replaced with a mounting unit (not shown) in which the image sensors (306) (308) (310) (312) (314) are disposed. Although FIG. 3B depicts an array of five cameras, the system works equally well if the number of camera sensors used is between 3 and any number. As described above, the sensors (306) to (314) can be combined into a single transverse cross member or individually into a plurality of lateral cross members disposed between opposing walls of the housing (304). And are connected via a mounting member (318). In an alternative embodiment, the housing (304) itself may be only a concavely curved support cross member (eg, a mounting unit), and via the member (318), the image sensors (306) through ( 314) are connected. In other embodiments, the housing (304) may be a hybrid combination of an enclosure and a support cross. The housing (304) further includes an aperture (320) formed on the surface between the image sensor and the target (302). Depending on the specific type of host aircraft, the aperture (320) may be empty only or may include a protective screen or window to maintain environmental integrity within the housing (304). Also good. If a protective transparent plate is used for any sensor, a special coating may be applied to the plate to improve the sensor data quality. Optionally, the aperture (320) may comprise a lens or other optical element to improve or change the nature of the image recorded by the sensor. The aperture (320) is formed to have a size and shape sufficient to give the image sensors (306)-(314) a proper line of sight to the target area (322) on the ground surface (302). Yes.

図3Bのカメラアセンブリと同様に、画像センサ(306)乃至(314)は、全てのセンサの焦点軸が、アパーチャ(320)で規定された交差領域内で集束するように、ハウジング(304)の内部に、又はハウジング(304)に沿って配置される。収集される画像データの種類、使用される画像センサ、及び用いられる他の光学素子又は装置に応じて、交差領域又は集束点をアパーチャ(320)の上又は下にオフセットさせることが必要となること、又、それが望ましいことがある。画像センサ(306)乃至(314)は、角度間隔で互いに離れている。画像センサ間の正確な変位角度は、使用される画像センサの数、及び収集される画像データの種類に応じて、大きく変わってよい。画像センサ間の角度変位はまた、必要に応じて、所望の画像オフセット又は画像アライメントをもたらすように不均一にされてもよい。使用される画像センサの数及びアレイの特定の形状に応じて、全ての画像センサの焦点軸は、正確に同じ点で交差してもよく、或いは、全ての点が互いに非常に近接しており、アパーチャ(320)によって規定される交差領域の中にあるような複数の点で交差してもよい。   Similar to the camera assembly of FIG. 3B, the image sensors (306)-(314) are arranged on the housing (304) so that the focal axes of all sensors are focused in the intersection region defined by the aperture (320). Located inside or along the housing (304). Depending on the type of image data collected, the image sensor used, and other optical elements or devices used, it may be necessary to offset the intersection region or focusing point above or below the aperture (320). It may also be desirable. The image sensors (306) to (314) are separated from each other by angular intervals. The exact displacement angle between image sensors may vary greatly depending on the number of image sensors used and the type of image data collected. Angular displacement between image sensors may also be made non-uniform to provide the desired image offset or image alignment, if desired. Depending on the number of image sensors used and the particular shape of the array, the focal axes of all image sensors may intersect at exactly the same point, or all points are very close to each other. , May intersect at a plurality of points such as in the intersection region defined by the aperture (320).

図3Cに示すように、画像センサ(310)は、ハウジング(304)内で軸(316)に沿って中央に配置されている。画像センサ(310)は焦点軸(324)を有し、この焦点軸(324)は、センサの視線が領域(322)の画像領域(326)と揃うように、ハウジング(304)と直交している。画像センサ(308)は、ハウジング(304)内で、軸(316)に沿って、画像センサ(310)の隣に配置されている。画像センサ(308)の配置は、その視線が領域(322)の画像領域(328)と一致するように、また、その焦点軸(330)が、アパーチャ(320)で規定された領域と一致し、その領域内で軸(324)と交差するように調整されている。画像センサ(312)は、ハウジング(304)内で、画像センサ(310)の隣に、センサ(308)とは軸(316)の反対側にて配置される。画像センサ(312)は、その視線が領域(322)の画像領域(332)と一致するように、そしてその焦点軸(334)がアパーチャ(320)で規定された領域と一致し、その領域内で軸(324)(330)と交差するように位置合わせされている。画像センサ(306)は、ハウジング(304)内で、軸(316)に沿って、センサ(308)の隣に配置されている。図3Bのカメラアセンブリとは異なり、画像センサ(306)は、その視線が領域(322)の画像領域(336)と一致するように、そしてその焦点軸(338)がアパーチャ(320)で規定される領域と一致し、その領域内で他の焦点軸と交差するように位置合わせされている。図3C及び図4Cに示すように、画像センサ(306)は、第2タワー(346)の背面像を含む前方斜め画像領域(366)をキャプチャする。画像センサ(314)は、ハウジング(304)内で、センサ(306)とは軸(316)の反対側にて、センサ(312)の隣に配置されている。画像センサ(314)は、その視線が領域(322)の画像領域(340)と一致するように、そしてその焦点軸(344)がアパーチャ(320)で規定される領域と一致し、その領域内で他の焦点軸と交差するように位置合わせされている。図3C及び図4Cに示すように、第1タワー(346)の前面像を含む後方斜め画像領域(340)をキャプチャする。   As shown in FIG. 3C, the image sensor (310) is centrally disposed along the axis (316) in the housing (304). The image sensor (310) has a focal axis (324) that is orthogonal to the housing (304) so that the line of sight of the sensor is aligned with the image area (326) of the area (322). Yes. The image sensor (308) is disposed in the housing (304) along the axis (316) next to the image sensor (310). The arrangement of the image sensor (308) is such that its line of sight coincides with the image area (328) of the area (322), and its focal axis (330) coincides with the area defined by the aperture (320). , Adjusted to intersect the axis (324) within that region. The image sensor (312) is disposed in the housing (304) next to the image sensor (310), opposite the axis (316) from the sensor (308). The image sensor (312) is arranged so that its line of sight coincides with the image area (332) of the area (322) and its focal axis (334) coincides with the area defined by the aperture (320). Is aligned to intersect the axis (324) (330). The image sensor (306) is disposed in the housing (304) along the axis (316) next to the sensor (308). Unlike the camera assembly of FIG. 3B, the image sensor (306) has its line of sight coincident with the image area (336) of the area (322) and its focal axis (338) is defined by the aperture (320). Is aligned so as to intersect with another focal axis within the region. As shown in FIGS. 3C and 4C, the image sensor (306) captures a front oblique image region (366) including a rear image of the second tower (346). The image sensor (314) is disposed in the housing (304) next to the sensor (312) on the opposite side of the shaft (316) from the sensor (306). The image sensor (314) is arranged so that its line of sight coincides with the image area (340) of the area (322), and its focal axis (344) coincides with the area defined by the aperture (320). In order to cross the other focal axis. As shown in FIGS. 3C and 4C, a rear oblique image region (340) including a front image of the first tower (346) is captured.

図3Bのカメラアセンブリと同様に、各カメラの焦点軸が、アパーチャ(320)にて集束し、焦点軸(324)と交差し、その視野を、アレイにおける個々の位置の反対側にあるターゲット領域に揃えることで、カメラと撮像ターゲットとの間が「斜視」の網膜的関係になるように、カメラ(306)乃至(314)は、ハウジング(304)内にて軸(316)に沿って交互に配置される。カメラアレイアセンブリ(300)は、画像領域(326)(328)(332)の隣接する境界が、若干重なるように構成されている。ある実施形態では、画像領域(326)と画像領域(328)の隣接する境界と、及び/又は、画像領域(326)と画像領域(332)の隣接する境界は、画像領域の約1%と約99%の間で重なっている。別の実施形態では、隣接する境界は、約30%と約95%の間で重なっている。別の実施形態では、隣接する境界は、約50%と約90%の間で重なっている。   Similar to the camera assembly of FIG. 3B, the focal axis of each camera is focused at the aperture (320), intersects the focal axis (324), and its field of view is a target area opposite the individual positions in the array. The cameras (306) to (314) alternate along the axis (316) in the housing (304) so that a `` perspective '' retinal relationship is established between the camera and the imaging target. Placed in. The camera array assembly (300) is configured such that adjacent boundaries of the image areas (326), (328), and (332) slightly overlap. In some embodiments, the adjacent boundary between the image region (326) and the image region (328) and / or the adjacent boundary between the image region (326) and the image region (332) is about 1% of the image region. It overlaps between about 99%. In another embodiment, adjacent borders overlap between about 30% and about 95%. In another embodiment, adjacent borders overlap between about 50% and about 90%.

画像領域(328)と画像領域(336)の隣接する境界、そして、画像領域(332)と画像領域(340)の隣接する境界は、若干重なっていてもいなくともよい。ある実施形態では、画像領域(328)と画像領域(336)の隣接する境界、そして、画像領域(332)と画像領域(340)の隣接する境界は、約0%と約100%の間で重なる。別の実施形態では、それらの隣接する境界は、約30%と約95%の間で重なる。別の実施形態では、それらの隣接する境界は、約50%と約90%の間で重なる。   The border between the image region (328) and the image region (336) and the border between the image region (332) and the image region (340) may or may not overlap slightly. In some embodiments, the adjacent boundary between image region (328) and image region (336), and the adjacent boundary between image region (332) and image region (340) is between about 0% and about 100%. Overlap. In another embodiment, their adjacent boundaries overlap between about 30% and about 95%. In another embodiment, their adjacent boundaries overlap between about 50% and about 90%.

図3C−2を参照すると、アロングトラック斜視式で構成されたカメラアレイアセンブリを用いて得られた例示的なシーケンスが示されている。図3C−1のカメラアレイアセンブリが示されているが、その他のアロングトラックカメラアレイアセンブリが使用されてもよい。図3C−2は、ロングトラックセンサが、ロングトラック対象物の前側と後側をカバーする一連の重なった画像を集めることで、送電塔、絶縁器/導線、変圧器、及びその他の直線状に並べられた通路上の対象物を、ロングトラックセンサがどのようにカバーするかを図示している。   Referring to FIG. 3C-2, an exemplary sequence obtained using a camera array assembly configured with an along track perspective view is shown. Although the camera array assembly of FIG. 3C-1 is shown, other along track camera array assemblies may be used. FIG. 3C-2 shows that a long track sensor collects a series of overlapping images covering the front and rear sides of a long track object, resulting in a transmission tower, insulator / conductor, transformer, and other linear shapes. It shows how a long track sensor covers objects on a lined path.

カメラアレイの別の実施形態では、画像センサは、クロストラック斜視及びロングトラック式で配置されてよい。図3D及び図22Aを参照のこと。図22Aは、後方右側透視図として、凹状又は網膜状カメラアレイアセンブリ(2200)を示している。図22Aは、15個のカメラのアレイを示しているが、システムは、使用する画像センサの数が、1乃至任意の数であっても、同様に十分に働く。アセンブリ(2200)は、構成、構造及び動作の点でアセンブリ(300)と同様である。アセンブリ(2200)は、第1撮像アレイ(2202)、第2撮像アレイ(2204)、及び第3撮像アレイ(2206)を備えている。アレイ(2204)は、主センサアレイとして構成されており、その第1画像センサ(2210)の焦点軸(2008)が、アセンブリ(2200)から下方に向いて、地表面(2214)に沿ったターゲット領域(2212)に直交するように、アセンブリ(2200)内に配置されている。アセンブリ(2200)は、飛行経路(2216)に沿って、地表面(2124)に対して移動する移動体に調整自在に搭載されている。アレイ(2202)(2204)(2206)は、画像センサのサブアセンブリとして、アセンブリ(2200)内に配置されている。アレイ(2202)は、取付ユニット(2204)の前側にて、飛行経路(2216)について、角度オフセット(2218)だけオフセットされている。同様に、アレイ(2206)は、取付ユニット(2204)の後側にて、飛行経路(2216)について、角度オフセット(2220)だけオフセットされている。角度オフセット(2218)は、取付ユニット(2202)内の主画像センサ(2224)の焦点軸(2222)が、ターゲット表面と角度(2232)をなすように、ターゲット領域(2212)に向かって下に向くように選択される。角度オフセット(2220)は、取付ユニット(2206)内の主画像センサ(2230)の焦点軸(2228)が、ターゲット表面と角度(2226)をなすように、ターゲット領域(2212)に向かって下に向くように選択される。角度オフセット(2218)と角度オフセット(2220)は同じであるのが好ましいが、それらが異なることで、所望の撮像効果がもたらされてよい。取付ユニット(2202)(2204)(2206)内に配置されたその他の個々の画像センサの焦点軸は、取付ユニットに沿ったそれらの相対位置について、ターゲット領域(2212)に及びお互いに対して同じような角度関係をなしてよい。   In another embodiment of the camera array, the image sensor may be arranged in a cross-track perspective and long-track manner. See Figures 3D and 22A. FIG. 22A shows a concave or retinal camera array assembly (2200) as a rear right perspective. Although FIG. 22A shows an array of 15 cameras, the system works equally well with any number of image sensors used, from 1 to any number. The assembly (2200) is similar to the assembly (300) in configuration, structure and operation. The assembly (2200) includes a first imaging array (2202), a second imaging array (2204), and a third imaging array (2206). The array (2204) is configured as a main sensor array, the focal axis (2008) of the first image sensor (2210) is directed downward from the assembly (2200), and is a target along the ground surface (2214). Arranged in the assembly (2200) to be orthogonal to the region (2212). The assembly (2200) is adjustably mounted on a moving body that moves relative to the ground surface (2124) along the flight path (2216). The arrays (2202) (2204) (2206) are arranged in the assembly (2200) as a subassembly of the image sensor. The array (2202) is offset by an angular offset (2218) with respect to the flight path (2216) on the front side of the mounting unit (2204). Similarly, the array (2206) is offset by an angular offset (2220) with respect to the flight path (2216) on the rear side of the mounting unit (2204). The angle offset (2218) is down towards the target area (2212) so that the focal axis (2222) of the main image sensor (2224) in the mounting unit (2202) makes an angle (2232) with the target surface. Selected to face. The angle offset (2220) is down towards the target area (2212) so that the focal axis (2228) of the main image sensor (2230) in the mounting unit (2206) makes an angle (2226) with the target surface. Selected to face. The angular offset (2218) and the angular offset (2220) are preferably the same, but they may be different to provide the desired imaging effect. The focal axes of the other individual image sensors arranged in the mounting units (2202) (2204) (2206) are the same in the target area (2212) and relative to each other for their relative position along the mounting unit. Such an angular relationship may be formed.

カメラアレイのある実施形態では、画像センサは、代替的なアロングトラック斜視及びアクロストラック斜視式で配置されてよい。図3E及び図22Bを参照のこと。図22Bは、前方右側透視図として、凹状又は網膜状カメラアレイアセンブリ(2200)を示している。アレイ(2204)は、主センサアレイとして構成されており、その主画像センサ(2210)の焦点軸(2008)が、アセンブリ(2200)から下方に向いて、地表面(2214)に沿ったターゲット領域(2212)に直交するように、アセンブリ(2200)内に配置されている。取付ユニット(2202)は、飛行経路(又はトラック)(2216)に対する垂線(2234)について、(後ろからアレイを見て)取付ユニット(2204)の左に、角度オフセット(2218)だけオフセットされている。同様に、取付ユニット(2206)は、飛行経路(2216)に対する垂線(2234)について、(後ろからアレイを見て)取付ユニット(2204)の右に、角度オフセット(2220)だけオフセットされている。角度オフセット(2218)は、取付ユニット(2202)内の主画像センサ(2224)の焦点軸(2222)が、ターゲット表面と角度(2232)をなすように、ターゲット領域(2212)に向かって下に向くように選択される。角度オフセット(2220)は、取付ユニット(2206)内の主画像センサ(2230)の焦点軸(2228)が、ターゲット表面と角度(2226)をなすように、ターゲット領域(2212)に向かって下に向くように選択される。角度オフセット(2218)と角度オフセット(2220)は同じであるのが好ましいが、それらが異なることで、所望の撮像効果がもたらされてよい。取付ユニット(2202)(2204)(2206)内に配置されたその他の個々の画像センサの焦点軸は、取付ユニットに沿ったそれらの相対位置について、ターゲット領域(2212)に及びお互いに対して同じような角度関係をなしてよい。   In some embodiments of the camera array, the image sensor may be arranged in alternative along track perspective and across track perspective. See FIGS. 3E and 22B. FIG. 22B shows the concave or retinal camera array assembly (2200) as a front right perspective. The array (2204) is configured as a main sensor array, with the focal axis (2008) of the main image sensor (2210) pointing downward from the assembly (2200) and a target area along the ground surface (2214). It is arranged in the assembly (2200) so as to be orthogonal to (2212). The mounting unit (2202) is offset by an angular offset (2218) to the left of the mounting unit (2204) (as viewed from the back) with respect to the normal (2234) to the flight path (or track) (2216) . Similarly, the mounting unit (2206) is offset by an angular offset (2220) to the right of the mounting unit (2204) (as viewed from the back) with respect to the normal (2234) to the flight path (2216). The angle offset (2218) is down towards the target area (2212) so that the focal axis (2222) of the main image sensor (2224) in the mounting unit (2202) makes an angle (2232) with the target surface. Selected to face. The angle offset (2220) is down towards the target area (2212) so that the focal axis (2228) of the main image sensor (2230) in the mounting unit (2206) makes an angle (2226) with the target surface. Selected to face. The angular offset (2218) and the angular offset (2220) are preferably the same, but they may be different to provide the desired imaging effect. The focal axes of the other individual image sensors arranged in the mounting units (2202) (2204) (2206) are the same in the target area (2212) and relative to each other for their relative position along the mounting unit. Such an angular relationship may be formed.

カメラアレイの別の実施形態では、画像センサは、凹状又は網膜状に構成されて配置されてよい。図23は、凹状又は網膜状カメラアレイアセンブリ(2300)を下面図で示す。図23は、25個のカメラのアレイを示しているが、使用しているカメラセンサが1乃至任意の数であっても、システムは、同様に十分に働く。アセンブリ(2300)は、第1複合凹状湾曲取付ユニット(2302)と、複数の複合湾曲取付ユニット(2304)とを備えている。複数の複合湾曲取付ユニット(2304)は、異なる角度間隔でオフセットし、取付ユニット(2302)に覆い被さる又は接触するのに十分なサイズと曲率で形成されている。任意の数の取付ユニット(2304)が用いられてよく、数多く存在して、センサを装着するためにドーム構造を形成してよい。取付ユニット(2304)間の角度変位は、取付ユニットのサイズと所望の画像特性とに応じて変化する。例えば、アセンブリ(2300)は、お互いに直交(つまり、90°)関係にある2つの取付ユニットを備えていてよい。別のアセンブリは、3つの取付ユニットを有しており、取付ユニット間の角度変位は、60°であるように構成されてよい。   In another embodiment of the camera array, the image sensor may be arranged in a concave or retinal configuration. FIG. 23 shows a concave or retinal camera array assembly (2300) in a bottom view. FIG. 23 shows an array of 25 cameras, but the system works equally well with one to any number of camera sensors in use. The assembly (2300) includes a first composite concave curved mounting unit (2302) and a plurality of composite curved mounting units (2304). The plurality of compound curved mounting units (2304) are offset at different angular intervals and are formed with a size and curvature sufficient to cover or contact the mounting unit (2302). Any number of mounting units (2304) may be used and many may exist to form a dome structure for mounting the sensor. The angular displacement between the mounting units (2304) varies depending on the size of the mounting unit and the desired image characteristics. For example, the assembly (2300) may comprise two mounting units that are orthogonal (ie, 90 °) to each other. Another assembly has three mounting units, and the angular displacement between the mounting units may be configured to be 60 °.

主画像センサ(2306)は、取付ユニット(2302)の凹側に沿って中央に配置されており、その焦点軸は、アセンブリ(2300)から直交するように下方に向いている。複数の画像センサ(2308)は、本発明の教示に基づいて、取付ユニット(2302)(2304)の凹側に沿って「斜視」式で配置されている。斜視画像センサ(2308)は、各画像センサの焦点軸が、交差領域(図示せず)にて画像センサ(2306)の焦点軸と一致し、その視野を、アレイの個々の位置の反対側にあるターゲット領域に揃えるように、取付ユニット(2302)(2304)に沿って交互に配置されている。画像センサ(2308)の形状とサイズに応じて、アセンブリ(2300)は、略円状のカスタマイズ可能なFOVを有する画像を生成できる機能をもたらす。使用される取付ユニットと画像センサとに応じて、アセンブリ(2300)は、立体画像を生成するように配備されてよい。代替的な実施形態では、種々の形状とサイズを有する任意の数の画像センサを含む任意の数の取付ユニットが組み合わされて、所望の任意のターゲット領域での画像データを与えてよい。   The main image sensor (2306) is arranged in the center along the concave side of the mounting unit (2302), and its focal axis is directed downward so as to be orthogonal to the assembly (2300). The plurality of image sensors (2308) are arranged in a “perspective” manner along the concave side of the mounting units (2302) (2304) in accordance with the teachings of the present invention. In the perspective image sensor (2308), the focal axis of each image sensor coincides with the focal axis of the image sensor (2306) at the intersection region (not shown), and its field of view is opposite to the individual position of the array. They are arranged alternately along the mounting units (2302) and (2304) so as to align with a certain target area. Depending on the shape and size of the image sensor (2308), the assembly (2300) provides the ability to generate an image with a generally circular customizable FOV. Depending on the mounting unit and image sensor used, the assembly (2300) may be deployed to generate a stereoscopic image. In alternative embodiments, any number of mounting units including any number of image sensors having various shapes and sizes may be combined to provide image data at any desired target area.

図3A乃至図3Eを再度参照すると、取付部材(318)が恒久的に固定(例えば溶接)されている場合、アパーチャ(320)とカメラとそれらの視線との空間的関係は、画像領域(326)(328)(332)(336)(340)の空間的関係と同様、固定されたままである。そのような構造は、例えば衛星監視のように、カメラアレイアセンブリ(300)が、領域(322)から本質的に一定の距離に維持される用途に好ましい。カメラの位置と調整は、領域(326)(328)(332)(336)(340)が、領域(322)の全体範囲をイメージングできるように設定される。取付部材(318)が一時的な固定又は調節可能である場合、画像領域(326)(328)(332)(336)(340)が狭く又は広くなるように移動できるように、カメラの位置又は配列を、手操作又は遠隔からの自動操作により選択的に調節できることが好ましく、これによって、カメラアレイアセンブリ(300)によって収集された画像の質を向上させたり、変えることができる。   Referring again to FIGS. 3A-3E, when the attachment member (318) is permanently fixed (eg, welded), the spatial relationship between the aperture (320), the camera, and their line of sight is the image region (326). ) (328) (332) (336) (340) as well as the spatial relationship remains fixed. Such a structure is preferred for applications where the camera array assembly (300) is maintained at an essentially constant distance from the region (322), such as satellite surveillance. The position and adjustment of the camera are set so that the region (326) (328) (332) (336) (340) can image the entire range of the region (322). If the mounting member (318) is temporarily fixed or adjustable, the position of the camera or the image area (326) (328) (332) (336) (340) can be moved so that it is narrower or wider. Preferably, the array can be selectively adjusted by hand or remote automatic operation, which can improve or alter the quality of the images collected by the camera array assembly (300).

ある実施形態では、剛性取付ユニットが、剛性取付プレートに固定されても、されていなくともよい。取付ユニットは、少なくとも1つの画像センサを取り付けることができる任意の剛構造(rigid structure)である。取付ユニットは、画像センサを囲むハウジングであり、支柱(brace)、三脚(tripod)等を含む任意の剛構造であってよい。本開示の目的において、画像センサは、ターゲット領域から、能動的又は受動的な放射エネルギ、即ち光、音、熱、重力等を受信及び処理できる任意のデバイスを意味する。具体的には、画像センサは、赤-青-緑フィルタ、ブッシュブルーム(bushbroom)フィルタ、又はハイパースペクトルフィルタを利用するデジタルカメラ、LIDARセンサ、赤外線センサ、熱感知センサ、グラビトメータ(gravitometer)等を任意の数だけ備えていてもよい。画像センサは、衛星データ及び/又は慣性データ(inertial data)を活用して移動体の向きを決定するのに役立つジャイロスコープ、GPSデバイス等の姿勢測定センサを含んでいない。複数の異なるセンサが用いられることが好ましい。   In some embodiments, the rigid mounting unit may or may not be fixed to the rigid mounting plate. The attachment unit is any rigid structure to which at least one image sensor can be attached. The mounting unit is a housing surrounding the image sensor and may be any rigid structure including a brace, tripod, and the like. For the purposes of this disclosure, an image sensor means any device that can receive and process active or passive radiant energy, ie light, sound, heat, gravity, etc., from a target area. Specifically, the image sensor may be a digital camera, a LIDAR sensor, an infrared sensor, a thermal sensor, a gravitometer, or the like using a red-blue-green filter, a bushbroom filter, or a hyperspectral filter. May be provided. Image sensors do not include attitude measurement sensors such as gyroscopes, GPS devices, etc. that help to determine the orientation of moving objects utilizing satellite data and / or inertial data. A plurality of different sensors are preferably used.

別の実施例では、単一、少なくとも1つの構成取付ユニットが、同じ剛性取付プレートに固定されてよい。   In another embodiment, a single, at least one component mounting unit may be secured to the same rigid mounting plate.

別の実施例では、少なくとも2つの構成取付ユニットが、同じ剛性取付プレートに固定されてよい。   In another embodiment, at least two component mounting units may be secured to the same rigid mounting plate.

画像センサがカメラ、LIDAR等の画像センサである実施形態では、取付ユニットは、光及び/又はエネルギが通過できるアパーチャを有することが好ましい。取付ユニットは平坦であることが好ましいが、平坦でなくてもよい。画像センサがカメラ、LIDAR等の画像センサである実施形態では、取付プレートは、光及び/又はエネルギが通過できる取付ユニットのアパーチャと一直線上に並ぶアパーチャを有することが好ましい。   In embodiments where the image sensor is an image sensor such as a camera, LIDAR, etc., the mounting unit preferably has an aperture through which light and / or energy can pass. The mounting unit is preferably flat, but may not be flat. In embodiments where the image sensor is an image sensor such as a camera, LIDAR, etc., the mounting plate preferably has an aperture that is aligned with the aperture of the mounting unit through which light and / or energy can pass.

剛構造は、使用中、1度の約100分の1未満、好ましくは1度の約1,000分の1未満、より好ましくは1度の約10,000分の1未満しか曲がらないものである。好ましくは、剛構造は、通常の、即ち飛行中に乱流がない(non-turbulent)航空機に固定されている間、1度の約100分の1未満、好ましくは1度の約1,000分の1未満、より好ましくは1度の約10,000分の1未満しか曲がらないものである。通常動作中に、1度の約100分の1未満、好ましくは1度の約1,000分の1未満、より好ましくは1度の約10,000分の1未満互いに曲がる場合、対象物は互いに強固に固定されている。   A rigid structure is one that bends less than about 1 / 100th of a degree, preferably less than about 1/1000 of a degree, and more preferably less than about 1 / 10,000 of a degree during use. is there. Preferably, the rigid structure is less than about one-hundredth of a degree, preferably about 1,000 per degree, while being secured to a normal, ie non-turbulent, aircraft in flight. It bends less than a fraction, more preferably less than about 10,000th of a degree. If during normal operation, less than about 1 / 100th of a degree, preferably less than about 1 / 1,000th of a degree, more preferably less than about 1 / 10,000 of a degree, the object is They are firmly fixed to each other.

カメラ(310)は主カメラとして示されている。カメラ(310)の画像面(326)は基準面(plane of reference)の役割を果たす。他のカメラ(306)(308)(312)(314)の向きは、基準面に対して計られる。各カメラの相対的な向きは、カメラの画像面を基準面に対して平行になるように回転するのに必要なヨー角度、ピッチ角度及びロール角度で計られる。回転は、ヨー、ピッチ、ロールの順であることが好ましい。   Camera (310) is shown as the primary camera. The image plane (326) of the camera (310) serves as a plane of reference. The orientations of the other cameras (306) (308) (312) (314) are measured with respect to the reference plane. The relative orientation of each camera is measured by the yaw angle, pitch angle, and roll angle required to rotate the camera image plane to be parallel to the reference plane. The rotation is preferably in the order of yaw, pitch, and roll.

取付ユニットに固定された複数の画像センサは、同一平面内に調整されなくてもよい。代わりに、第1取付ユニットに固定された第1センサ、好ましくは第1取付ユニットの主天底カメラの取付角度に対する他のセンサの取付角度にオフセットしてもよい。従って、複数の画像センサは、各画像センサの物理的取付角度のオフセットを互いに較正するようにコレジスタ(co-registered)されてよい。実施形態において、複数の、即ち少なくとも2つの剛性取付ユニットは、同じく複数の剛性取付プレートに固定され、コレジスタされる。実施形態において、カメラ(306)乃至(314)は、剛性取付ユニットに固定され、コレジスタされる。実施形態において、AMU、好ましくはジャイロスコープの幾何学的中心点が、GPSデータ及び慣性データを用いて決定される。第1取付ユニットに固定された第1センサ、好ましくは第1取付ユニットの主天底カメラの物理的位置は、基準点、好ましくはAMUの幾何学的中心点に対して計算される。同様に、全ての取付ユニット内の残り全てのセンサの物理的位置は、同じ基準点に対して、直接的又は間接的に計算される。   The plurality of image sensors fixed to the mounting unit may not be adjusted in the same plane. Alternatively, it may be offset to the mounting angle of the other sensor relative to the mounting angle of the first sensor fixed to the first mounting unit, preferably the main nadir camera of the first mounting unit. Thus, multiple image sensors may be co-registered to calibrate each image sensor's physical mounting angle offset to each other. In an embodiment, a plurality, ie at least two rigid mounting units, are also fixed and co-registered on a plurality of rigid mounting plates. In an embodiment, the cameras (306)-(314) are fixed and co-registered on the rigid mounting unit. In an embodiment, the geometric center point of the AMU, preferably the gyroscope, is determined using GPS data and inertial data. The physical position of the first sensor fixed to the first mounting unit, preferably the main nadir camera of the first mounting unit, is calculated with respect to a reference point, preferably the geometric center point of the AMU. Similarly, the physical positions of all remaining sensors in all mounting units are calculated directly or indirectly with respect to the same reference point.

センサの照準角(boresight angle)は、そのセンサの幾何学的中心からの基準面に対する角度として規定される。基準面は、ターゲット領域に直交していることが好ましい。第1センサの照準角は、地上のターゲット点を用いて決定されてよい。次のセンサの照準角は、第1センサの照準角を基準に計算されることが好ましい。センサは、写真で識別可能であることが好ましい既知の地上ターゲットを用いて較正されることが好ましく、或いはまた、米国特許出願公開第2004/0054488 A1号(現在、米国特許第7,212,938 B2号)に開示されたセルフロッキング飛行経路又はその他の任意の方法を用いて較正され、この出願公開の開示は、参照によってその全体が本明細書の一部となる。   The sensor's boresight angle is defined as the angle relative to the reference plane from the sensor's geometric center. The reference plane is preferably orthogonal to the target area. The aiming angle of the first sensor may be determined using a ground target point. The aiming angle of the next sensor is preferably calculated based on the aiming angle of the first sensor. The sensor is preferably calibrated using a known ground target that is preferably identifiable by photography, or alternatively, US 2004/0054488 A1 (currently US Pat. No. 7,212,938). B2) is calibrated using the self-locking flight path or any other method, the disclosure of which is hereby incorporated by reference in its entirety.

第2取付ユニット内の画像センサは、任意の画像センサであってよく、LIDARであることが好ましい。或いはまた、第2画像センサは、デジタルカメラ、又はデジタルカメラアレイである。実施形態において、第2取付ユニットに固定されるセンサの照準角は、第1センサの照準角を基準に計算される。第2取付ユニット内の画像センサの物理的オフセットは、第1取付ユニット内の第1センサの照準角を基準に較正されてよい。   The image sensor in the second mounting unit may be any image sensor, and is preferably a LIDAR. Alternatively, the second image sensor is a digital camera or a digital camera array. In the embodiment, the aiming angle of the sensor fixed to the second mounting unit is calculated based on the aiming angle of the first sensor. The physical offset of the image sensor in the second mounting unit may be calibrated with respect to the aiming angle of the first sensor in the first mounting unit.

このようにして、全てのセンサは、ほぼ同じ時点(epoch)で、同じGPS信号、同じ地上ターゲットを用いて、ほぼ同じ大気条件下で較正される。これにより、各センサを、異なるGPS信号を用いて、異なる地上ターゲットに対し、異なる大気条件下で別々に較正する場合に生じる複合エラー(compound error)は、著しく低減する。   In this way, all sensors are calibrated at approximately the same epoch, using substantially the same atmospheric conditions, using the same GPS signal and the same ground target. This significantly reduces the compound error that occurs when each sensor is calibrated separately for different ground targets using different GPS signals under different atmospheric conditions.

図4A乃至図4Eを参照すると、カメラ(306)乃至(314)によって夫々撮影された領域(336)(328)(326)(332)(340)の画像が、上からの視点で示されている。ここでも、「斜視(cross-eyed)」の配置であるため、領域(336)の画像はカメラ(306)によって撮影され、領域(340)の画像はカメラ(314)によって撮影されるという具合になる。本発明の一実施形態において、中央のカメラ(310)によって撮影された画像以外の画像は、透視変換(perspective transformation)後、台形になる。例えば、図4Aを参照のこと。カメラ(306)乃至(314)は、軸(316)に沿ってアレイを形成し、該アレイは、殆どの用途において、垂直下向きに向けられる。ある実施形態では、カメラ(308)(310)(312)は、下向きに垂直に向けられた軸(316)に沿ったオルソアレイ(ortho array)を形成し、カメラ(306)(314)は、同じく軸(316)に沿った斜めアレイを形成する。例えば、図4B及び図4Cを参照のこと。例えば、構造物について、絶縁器/導線、変圧器、伝送線、送電塔の状態や、地面の植生、木/葉、柵及び道の場所などのインフラストラクチャの情報が得られる。ある代替的な実施形態において、カメラの第2アレイが、カメラ(306)乃至(314)のアレイと同様に構成され、カメラの第1アレイに対して調整されて、「ヘッドアップ(heads-up)」透視投影(perspective)をもたらす斜位像(oblique view)が得られる。「ヘッドアップ」カメラアレイアセンブリの水平面からの傾斜角度は、ミッション対象物及びパラメータによって変化してよいが、25〜45度の角度が一般的である。その他の別の実施形態は、カメラアレイの実装は様々であるが、同様に本発明に含まれる。例えば、図4D及び図4Eを参照のこと。このような全ての実施形態において、カメラの相対的な位置と姿勢は、本発明に従う画像処理を容易にするために、正確に測定及び較正される。   Referring to FIGS. 4A to 4E, the images of the regions (336), (328), (326), (332), and (340) captured by the cameras (306) to (314), respectively, are shown from the viewpoint from above. Yes. Again, because of the "cross-eyed" arrangement, the image of region (336) is taken by camera (306), the image of region (340) is taken by camera (314), etc. Become. In an embodiment of the present invention, images other than the image taken by the central camera (310) become trapezoid after perspective transformation. For example, see FIG. 4A. Cameras (306)-(314) form an array along axis (316), which is oriented vertically downward in most applications. In one embodiment, the cameras (308) (310) (312) form an ortho array along an axis (316) oriented vertically downward, and the cameras (306) (314) are also A diagonal array along the axis (316) is formed. For example, see FIGS. 4B and 4C. For example, information on infrastructure such as insulator / conductor, transformer, transmission line, power tower status, ground vegetation, trees / leaves, fences and road locations can be obtained for structures. In an alternative embodiment, a second array of cameras is configured similar to the array of cameras (306)-(314) and adjusted relative to the first array of cameras to produce a “heads-up ) ”An oblique view is obtained that gives a perspective projection. The tilt angle of the “head-up” camera array assembly from the horizontal plane may vary depending on the mission object and parameters, but an angle of 25-45 degrees is common. Other alternative embodiments include various camera array implementations, but are similarly included in the invention. For example, see FIGS. 4D and 4E. In all such embodiments, the relative position and orientation of the camera are accurately measured and calibrated to facilitate image processing according to the present invention.

本発明の一実施形態において、外部機構(例えば、GPSタイミング信号)は、カメラを同時にトリガするために使用され、それによって入力画像のアレイがキャプチャされる。次に、モザイキングモジュールが、このようなアレイからの個々の入力画像を、隣接画像間に視覚的に認識できる継ぎ目を生ずることなく、オルソ補正された(ortho-rectified)複合画像(即ち「モザイク」)に描画する。モザイキングモジュールは一連のタスクを実行し、当該タスクは、各入力画像の地理的な境界及び寸法を決定し、各入力画像をモザイク上に、正確な地理上の位置決めをして投射し、モザイク中で画像のカラーバランス調整をし、隣接する入力画像を、それらが共有する継ぎ目にて融合することを含む。実行されるタスクの正確な順序は、入力画像データの大きさ及び性質に応じて異なってよい。特定の実施形態において、モザイキングモジュールは、モザイキング中に、元の入力画像に対して1つの変換だけを実行する。この変換は、4×4マトリクスによって表され得る。複数の変換マトリクスを単一のマトリクスにまとめることにより、処理時間は低減され、元の入力画像の鮮明さが保持される。   In one embodiment of the invention, an external mechanism (eg, a GPS timing signal) is used to trigger the camera at the same time, thereby capturing an array of input images. The mosaicing module then orthorectifies the individual input images from such an array without creating a visually recognizable seam between adjacent images (or “mosaic”). ) To draw. The mosaicing module performs a series of tasks that determine the geographical boundaries and dimensions of each input image, project each input image onto the mosaic with precise geographic positioning, and Adjusting the color balance of the images and fusing adjacent input images together at the seams they share. The exact order of tasks performed may vary depending on the size and nature of the input image data. In certain embodiments, the mosaicing module performs only one transformation on the original input image during mosaicing. This transformation can be represented by a 4 × 4 matrix. By combining a plurality of transformation matrices into a single matrix, processing time is reduced and the clarity of the original input image is preserved.

入力画像をモザイクにマッピングする間、特にモザイキングが高解像度で行われる場合、モザイク内のピクセル(即ち出力ピクセル)は、入力画像(即ち、入力ピクセル)のどのピクセルによってもマッピングされないことがある。モザイク内に、アーチファクト(artifacts)として、曲がった(warped)線が生じる可能性がある。本発明の特定の実施形態は、この問題をスーパーサンプリングシステムにより解消しており、このシステムでは、入力ピクセルと出力ピクセルの各々が、n×mグリッドのサブピクセルにさらに分割される。サブピクセルからサブピクセルへの変換が行われる。出力ピクセルの最終値は、そのサブピクセルの平均値であり、これに対応する入力サブピクセルが存在する。n値とm値が大きくなる程、解像度が高いモザイクを生成するが、追加の処理時間が必要となる。   While mapping the input image to the mosaic, especially if mosaicing is performed at high resolution, the pixels in the mosaic (ie, output pixels) may not be mapped by any pixel in the input image (ie, input pixels). There can be warped lines in the mosaic as artifacts. Certain embodiments of the present invention eliminate this problem with a supersampling system, where each of the input and output pixels is further divided into n × m grid sub-pixels. Subpixel to subpixel conversion is performed. The final value of the output pixel is the average value of the subpixels, and there is a corresponding input subpixel. As the n value and m value increase, a mosaic with higher resolution is generated, but additional processing time is required.

画像データを処理する間、モザイキングモジュールは、下記の情報を使用することができる。入力画像が捕捉された時の各カメラの焦点の空間位置(例えば、x、y、z座標)、入力画像が捕捉された時のターゲット領域の地面(ground plane)に対する各カメラの像平面の姿勢(即ち、ヨー、ピッチ、ロール)、各カメラの視野(即ち、軌道に沿う場合と軌道を横切る場合)、及び、領域の数値地形モデル(Digital Terrain Model)(DTM)である。姿勢は、システムに連繋されたAMUによって与えられる。数値地形モデル(DTM)又は数値表面モデル(Digital surface model)(DSM)は、LIDARモジュール(118)を用いて得られる情報から生成できる。LIDARは、広く知られたレーダと同様であり、レーザーレーダと考えることができる。レーダでは、電波が大気中に送信されて、エネルギの一部が散乱してレーダの受信機へ戻される。LIDARもまた電磁放射を送受信するが、より高い周波帯で行なう。これは、LIDARは電磁スペクトルの紫外線領域、可視線領域及び赤外線領域内で動作するからである。動作中、LIDARは、光をターゲット領域に向けて送る。送られた光は、ターゲット領域と相互作用して、ターゲット領域により変化する。この光の一部は、反射/散乱してLIDAR機器に戻され、そこで分析され得る。光の特性の変化により、ターゲット領域の特徴を決定できる。光がターゲット領域に向けて出てLIDARデバイスに戻るまでの時間を用いて、ターゲットまでの距離が決定される。   While processing the image data, the mosaicing module can use the following information: The spatial position of the focal point of each camera when the input image is captured (eg, x, y, z coordinates), and the orientation of the image plane of each camera relative to the ground plane of the target area when the input image is captured (Ie, yaw, pitch, roll), field of view of each camera (ie, along the trajectory and across the trajectory), and a digital terrain model (DTM) of the region. The posture is given by an AMU linked to the system. A digital terrain model (DTM) or a digital surface model (DSM) can be generated from information obtained using the LIDAR module (118). LIDAR is similar to a widely known radar and can be considered a laser radar. In the radar, radio waves are transmitted into the atmosphere, and a part of the energy is scattered and returned to the radar receiver. LIDAR also transmits and receives electromagnetic radiation, but at a higher frequency band. This is because LIDAR operates in the ultraviolet, visible and infrared regions of the electromagnetic spectrum. In operation, the LIDAR sends light toward the target area. The transmitted light interacts with the target area and varies depending on the target area. Some of this light is reflected / scattered back to the LIDAR instrument where it can be analyzed. The characteristics of the target area can be determined by changing the characteristics of the light. The time until the light exits toward the target area and returns to the LIDAR device is used to determine the distance to the target.

DTMとDSMのデータセットはまた、カメラアレイアセンブリからキャプチャすることもできる。標高データを得る従来の手段として、ステレオグラフィック技術等を用いることもできる。   DTM and DSM data sets can also be captured from the camera array assembly. A stereographic technique etc. can also be used as a conventional means for obtaining altitude data.

現在、LIDARには、レンジファインダ(Range finder)、差分吸収LIDAR(Differential Absorption LIDAR)(DIAL)及びドップラーLIDAR(Doppler LIDAR)の3つの基本型がある。レンジファインダLIDARは、最も単純なLIDARであり、LIDARデバイスから固体の又は硬いターゲットまでの距離を測定するために使用される。DIAL LIDARは、大気中の化学物質濃度(オゾン、水蒸気、汚染物質等)を測定するために用いられる。DIAL LIDARは、2つの異なるレーザー波長を使用しており、一方の波長は対象とする分子によって吸収されるが、他方の波長は吸収されないものを選択する。2つのリターン信号の強度の差を利用して、調査する分子の濃度を推定できる。ドップラーLIDARは、ターゲットの速度を測定するために使用される。LIDARから送信された光が、LIDARに近づく又はLIDARから離れるように移動しているターゲットに衝突すると、ターゲットから反射/散乱する光の波長は僅かに変化する。これはドップラーシフト、ひいてはドップラーLIDARとして知られている。ターゲットがLIDARから離れるように移動している場合、リターン光はより長い波長を有し(赤方偏移とも呼ばれる)、ターゲットがLIDARに近づくように移動している場合、リターン光はより短い波長を有する(青方偏移)。ターゲットは、硬いターゲットでも大気中のターゲット(例えば、風によって運ばれる微細な塵埃やエアロゾル粒子)でもよい。   Currently, there are three basic types of LIDARs: Range finder, Differential Absorption LIDAR (DIAL), and Doppler LIDAR (Doppler LIDAR). The range finder LIDAR is the simplest LIDAR and is used to measure the distance from a LIDAR device to a solid or hard target. DIAL LIDAR is used to measure the concentration of chemical substances (ozone, water vapor, pollutants, etc.) in the atmosphere. DIAL LIDAR uses two different laser wavelengths, selecting one that is absorbed by the molecule of interest but not the other. Using the difference in intensity between the two return signals, the concentration of the molecule being investigated can be estimated. Doppler LIDAR is used to measure the velocity of the target. When the light transmitted from the LIDAR collides with a target moving toward or away from the LIDAR, the wavelength of the light reflected / scattered from the target changes slightly. This is known as a Doppler shift and hence Doppler LIDAR. If the target is moving away from the LIDAR, the return light has a longer wavelength (also called redshift), and if the target is moving closer to the LIDAR, the return light is a shorter wavelength. (Blue shift). The target may be a hard target or an air target (for example, fine dust or aerosol particles carried by wind).

カメラの焦点は、透視変換の中心として使用されることが好ましい。その空間での位置を例えば、母体の航空機に搭載された多周波キャリア位相後処理GPSシステム(multi-frequency carrier phase post-processed GPS system)によって決定することができる。カメラの焦点の3次元のオフセットが、GPSアンテナの中心に対して注意深く計られることが好ましい。これらのオフセットは、GPSアンテナの位置と母体の航空機の向きと組み合わされて、カメラの焦点の正確な位置を決定することができる。GPSアンテナの位置は、収集されたGPSデータを、正確な測量点に配備された同様の地上GPSアンテナに対して処理することにより決定されることが好ましい。   The focus of the camera is preferably used as the center of the perspective transformation. The position in the space can be determined, for example, by a multi-frequency carrier phase post-processed GPS system mounted on the parent aircraft. The three-dimensional offset of the camera focus is preferably carefully measured relative to the center of the GPS antenna. These offsets can be combined with the position of the GPS antenna and the orientation of the parent aircraft to determine the exact position of the camera focus. The position of the GPS antenna is preferably determined by processing the collected GPS data against a similar terrestrial GPS antenna deployed at an accurate survey point.

1又は複数のAMU(例えば、Applanix POS AV)を姿勢決定のために機内に搭載することが好ましい。ターゲット領域の地面に対するAMU基準面の姿勢を、短い間隔で、1度の100分の1よりも良好な精度で測定及び記録することが好ましい。AMU基準面の姿勢は、この平面を地面と平行にするために平面の軸に対して行われる一連の回転として規定されてもよい。「調整(align)」という用語を、この操作を説明するために使用することもある。   One or more AMUs (eg, Applanix POS AV) are preferably installed in the aircraft for attitude determination. It is preferable to measure and record the attitude of the AMU reference plane with respect to the ground in the target area with a better accuracy than one hundredth of a degree at short intervals. The attitude of the AMU reference plane may be defined as a series of rotations made about the plane axis to make this plane parallel to the ground. The term “align” is sometimes used to describe this operation.

AMUに対する中央カメラ(310)(即ちその像平面)の姿勢は、正確に較正されることが好ましい。中央カメラ(310)に対する他の各カメラの姿勢もまた、注意深く較正されることが好ましい。この従属的な較正は、各カメラを直接較正するよりも効率的である。カメラアレイアセンブリ(300)が再搭載される場合、中央カメラ(310)だけが再較正を必要とする。中央カメラ(310)からの入力画像に、一連の2回の変換を施すことが効率的である。先ず、中央カメラの像平面をAMU平面に対して調整する。次に、AMU平面を地面に対して再び調整する。しかしながら、これらの変換は、各々の変換マトリクスを乗じることによって単一動作にまとめられる。その他の各カメラからの画像については、追加の変換が初めに実行されて、中央カメラの像平面に揃えられる。   The attitude of the central camera (310) (ie its image plane) relative to the AMU is preferably accurately calibrated. The orientation of each other camera relative to the central camera (310) is also preferably carefully calibrated. This dependent calibration is more efficient than directly calibrating each camera. If the camera array assembly (300) is remounted, only the central camera (310) needs recalibration. It is efficient to perform a series of two conversions on the input image from the central camera (310). First, the image plane of the central camera is adjusted with respect to the AMU plane. Next, the AMU plane is adjusted again with respect to the ground. However, these transformations are combined into a single operation by multiplying each transformation matrix. For the images from each of the other cameras, additional transformations are first performed to align with the image plane of the central camera.

中央カメラ(310)の焦点の位置は、上記のように決定できる。この位置のx成分とy成分が、地上におけるモザイクの天底点(nadir point)(400)の位置を決定することが好ましい。各カメラの視野(FOV)角度がわかっているので、カメラの焦点のz成分によって各入力画像の寸法を決定できる。地面の平均標高は、その領域のDTMでの平均標高地点を演算することによって決定され、その後、この標高の想像上の水平面に各入力画像を投影する。次に、領域のDTMを使用して、起伏の変位(relief displacement)を適用することが好ましい。DTMは、多くのソースから得られ、ソースとしては、米国の大部分で利用可能なUSGS 30−メートルやUSGS 10−メートルのDTM、商業用のDTM、又はカメラによりデータを同時にキャプチャする母機に搭載されたLIDARやSAR EMUデバイスによって得られるDTMが挙げられる。   The position of the focus of the central camera (310) can be determined as described above. The x and y components at this position preferably determine the position of the nadir point (400) of the mosaic on the ground. Since the field of view (FOV) angle of each camera is known, the dimensions of each input image can be determined by the z component of the camera focus. The average elevation of the ground is determined by computing the average elevation point in the DTM of the area, and then each input image is projected onto the imaginary horizontal plane of this elevation. Next, it is preferable to apply relief displacement using the DTM of the region. DTMs can be obtained from many sources, including USGS 30-meter and USGS 10-meter DTMs available in most parts of the US, commercial DTMs, or mother machines that simultaneously capture data with cameras. DTM obtained by the LIDAR or SAR EMU device manufactured.

地理的に正しく配置されることに加えて、得られる複合画像はまた、全体を通し放射計測的一貫性(radiometric consistency)を有するように、そして2つの隣接する画像間の接合部に視覚的に認識できる継ぎ目がないようにする必要がある。本発明は、この目標を達成するための幾つかの技術を提供する。   In addition to being correctly positioned geographically, the resulting composite image also has a radiometric consistency throughout and visually at the junction between two adjacent images. There should be no recognizable seams. The present invention provides several techniques for achieving this goal.

従来のカメラの特徴として、露光時間(即ち、像平面に光を集めるためにシャッタを開いている時間)が挙げられる。露光時間が長ければ長いほど、得られる画像は明るくなる。露光時間は、雲の範囲、カメラに対する太陽の角度と位置等の条件によって生じる周囲光の明るさの変化に適合させなければならない。最適な露光時間は、光源に対するカメラの向きにも依存することがある(例えば、太陽に照らされた対象物の方に向けられているカメラは通常、日陰にある対象物の方に向けられているカメラよりも周囲光を多く受ける)。露光時間は、画像の平均強度を所望の範囲内に維持するように調整される。例えば、24ビットのカラー画像では、赤、緑及び青の各成分が、0〜255の強度値を有し得る。しかしながら、殆どの場合、平均強度を平均値(即ち127)に維持することが望ましい。   A characteristic of a conventional camera is the exposure time (that is, the time during which the shutter is opened to collect light on the image plane). The longer the exposure time, the brighter the resulting image. The exposure time must be adapted to changes in ambient light brightness caused by conditions such as cloud coverage, sun angle and position relative to the camera. The optimal exposure time may also depend on the camera's orientation with respect to the light source (e.g., a camera that is aimed towards a sunlit object is usually aimed towards a shaded object) Receive more ambient light than a camera with The exposure time is adjusted to maintain the average intensity of the image within a desired range. For example, in a 24-bit color image, the red, green and blue components can have an intensity value between 0 and 255. However, in most cases it is desirable to maintain the average intensity at an average value (ie 127).

本発明では、露光制御モジュールが、各カメラ又は各画像センサの露光時間を制御する。露光制御モジュールは、各入力画像を検査し、平均画像強度を計算する。移動平均(即ち、直近のX個の画像の平均強度)に基づいて、露光制御モジュールは露光時間を増加するか減少するかを決定する。このモジュールは、より長い移動(running)平均を用いて照明条件の変化に対する反応を遅くできるので、異常に暗い画像又は明るい画像(例えばアスファルト道路又は水)に対してあまり影響を受けない。露光制御モジュールは、各カメラの露光時間を別々に制御する。   In the present invention, the exposure control module controls the exposure time of each camera or each image sensor. The exposure control module examines each input image and calculates an average image intensity. Based on the moving average (ie, the average intensity of the last X images), the exposure control module determines whether to increase or decrease the exposure time. This module is less sensitive to unusually dark or bright images (eg asphalt roads or water) because it can slow down the response to changes in lighting conditions using a longer running average. The exposure control module controls the exposure time of each camera separately.

前進運動補償機構(forward-motion compensation mechanisms)を備えていないカメラが取り付けられているシステムでは、露光時間に最大限度を設けなければならない。露光時間を最大値よりも大きな値に設定すると、動きによるぼやけ(blurriness)が生じることがある。例えば、カメラが、170マイル/時(即ち約3インチ/ms)で移動する飛行機に搭載されていると仮定する。所望のピクセル解像度が6インチであると仮定する。画像キャプチャ中の前進運動は、ピクセルサイズの半分に制限されるべきであり、この場合3インチである。このため、この例での最大露光は1ミリ秒である。   In systems where cameras are installed that do not have forward-motion compensation mechanisms, the maximum exposure time must be set. When the exposure time is set to a value larger than the maximum value, blurring due to motion may occur. For example, assume that the camera is mounted on an airplane that travels at 170 miles / hour (ie, about 3 inches / ms). Assume that the desired pixel resolution is 6 inches. The forward movement during image capture should be limited to half the pixel size, in this case 3 inches. For this reason, the maximum exposure in this example is 1 millisecond.

イメージングの質を制御する際、光強度の変化が周囲光の変化に起因して生じているのか、異常に明るい対象物又は暗い対象物(例えば、反射する水塊(water body)、金属製の屋根、アスファルト等)の存在に起因して生じているのかを判断できることは有用である。本発明の用途には、空中での撮影又は監視が含まれる。地面の航空画像には通常、植物や植生を含んでいることが観察され、これらは水塊又は道路や建物のような人工構造物よりも反射率が一定している。勿論、植物や植生の画像は通常、緑色に支配されている(即ち、緑成分が、赤、緑及び青の値の中で最も大きい)。従って、緑が支配的なピクセルに焦点を当てることにより、強度相関をより正確にすることができる。   When controlling the quality of imaging, changes in light intensity are caused by changes in ambient light, whether it is an unusually bright or dark object (e.g. a reflecting water body, metallic It is useful to be able to determine whether it is caused by the presence of roofs, asphalt, etc.). Applications of the present invention include shooting or monitoring in the air. Aerial images of the ground are usually observed to contain plants and vegetation, which have a more constant reflectivity than water bodies or artificial structures such as roads and buildings. Of course, images of plants and vegetation are usually dominated by green (ie, the green component is the largest among the red, green and blue values). Therefore, the intensity correlation can be made more accurate by focusing on the green dominant pixels.

露光制御モジュールは、緑が支配的なピクセルだけを選択することによって、画像の平均強度を演算する。例えば、画像が100万ピクセルを有し、300,000ピクセルについて緑が支配的である場合、緑が支配的なこれら300,000ピクセルだけが平均強度の計算に含まれる。その結果、イメージング処理は、通常はピクセルについて緑が支配的でないような人造の建物及び水塊によって引き起こされるバイアス(biasing)に対して、あまり影響されない。前述したように、約127の強度値を維持することが望ましい。強度値が127を越えると(即ち、過剰露光)、露光時間が短くなり、捕捉される光が少なくなる。同様に、強度値が127を下回ると(即ち、露光不足)、露光時間が長くなり、捕捉される光が多くなる。例えば、白い屋根が多くあって、強度が非常に高いターゲット地形領域上を飛行するシステムについて検討する。キャプチャされる画像の平均強度は高くなる傾向があるだろう。殆どの従来システムにおいて、露光時間は、補償するために短くされるだろう。しかしながら、前記の例では、露光時間を短くすることは妥当でない。その理由は、屋根の明るさによって、画像の平均強度がバイアスされているためである。露光時間を短くすると、地面が実際よりも暗くなっている画像をもたらすだろう。これに対し、本発明に従って、緑が支配的なピクセルだけを処理すると、過度に明るい屋根を表すピクセルが平均強度をバイアスして、露光時間は変化しない。   The exposure control module computes the average intensity of the image by selecting only those pixels where green is dominant. For example, if the image has 1 million pixels and green is dominant for 300,000 pixels, only those 300,000 pixels that are dominant in green are included in the average intensity calculation. As a result, the imaging process is less sensitive to biasing caused by man-made buildings and water bodies where green is usually not dominant for pixels. As mentioned above, it is desirable to maintain an intensity value of about 127. If the intensity value exceeds 127 (ie, overexposure), the exposure time is shortened and less light is captured. Similarly, if the intensity value is below 127 (ie, underexposure), the exposure time is lengthened and more light is captured. For example, consider a system that flies over a very high target terrain area with many white roofs. The average intensity of the captured image will tend to be high. In most conventional systems, the exposure time will be shortened to compensate. However, in the above example, it is not appropriate to shorten the exposure time. The reason is that the average intensity of the image is biased by the brightness of the roof. Shortening the exposure time will result in an image where the ground is darker than it actually is. In contrast, if only green dominant pixels are processed according to the present invention, pixels representing an overly bright roof will bias the average intensity and the exposure time will not change.

このため、露光制御モジュールは、入力画像間の強度差を少なくする。それでもなお、色調(tonal)バランスを向上させるために、さらなる処理が行われる。像平面から不均一な光を受ける要因は幾つかある(例えば、レンズ仕様(lens physics)、大気条件、イメージングデバイスの空間/位置関係)。カメラ又はセンサの中央部は、縁部よりも多くの光を受ける。   For this reason, the exposure control module reduces the intensity difference between the input images. Nevertheless, further processing is performed to improve the tonal balance. There are several factors that receive non-uniform light from the image plane (eg, lens physics, atmospheric conditions, spatial / positional relationship of the imaging device). The central part of the camera or sensor receives more light than the edge.

本発明のモザイキングモジュールは、このことをビグネッティング防止関数(anti-vignetting function)で対処しており、これについて、図5を参照して説明する。幾つかの焦点カラム(focal column)(500)(502)(504)(506)(508)が、像平面(509)から集束して焦点(510)で交差し、イメージングするターゲット領域(512)(例えば、地面)の範囲に亘って広がっている。カラム(500)乃至(508)は、単一のカメラ又はセンサの個々の解像カラムであってよく、又は独立した幾つかのカメラ又はセンサの焦点軸を表してもよい。参考の目的で説明すると、カラム(504)が軸として機能し、カラム(504)が像平面(509)と交差する点(513)が主位置として機能する。露光制御モジュールは、ビグネッティング防止関数を適用して、入力ピクセルの元の強度と、カラム依存したビグネッティング防止因数を乗じる。受光面は座標系を持つ平面として表されるから、各カラムは幾つかの分解ロー(resolution rows)を有している(図示せず)。この関係は、カラムx及びローyのピクセルpについて、次のとおり表すことができる:   The mosaicing module of the present invention addresses this with an anti-vignetting function, which will be described with reference to FIG. Several focal columns (500) (502) (504) (506) (508) are focused from the image plane (509) and intersect at the focal point (510) to target the area (512) to be imaged (E.g., the ground). Columns (500)-(508) may be individual resolution columns of a single camera or sensor, or may represent the focal axes of several independent cameras or sensors. For reference purposes, the column (504) functions as an axis, and the point (513) where the column (504) intersects the image plane (509) functions as the main position. The exposure control module applies the anti-vignetting function and multiplies the original intensity of the input pixel by the column-dependent anti-vignetting factor. Since the light receiving surface is represented as a plane having a coordinate system, each column has several resolution rows (not shown). This relationship can be expressed as follows for column x and pixel y in row y:

<調整された強度>=<元の強度>*f(x);
但し、f(x)は形状の関数(function of the form)である:
f(x)=cos(軸外角度(off-axis angle))**4
軸外角度(514)は、中央カラム(504)ではゼロであり、カラム(502)とカラム(506)ではより大きく、カラム(500)とカラム(508)ではさらに大きい。全体の視野角度(516)(FOV×角度)がカラム(504)とカラム(508)の間に示されている。
<Adjusted intensity> = <Original intensity> * f (x);
Where f (x) is a function of the form:
f (x) = cos (off-axis angle) ** 4
The off-axis angle (514) is zero for the central column (504), larger for the columns (502) and (506), and even larger for the columns (500) and (508). The overall viewing angle (516) (FOV x angle) is shown between column (504) and column (508).

関数f(x)は、幾つかの線セグメントによってカラム間で近似できる。任意のカラムc1とカラムc2間の線セグメントの範囲内にある点に関して、調整係数が次のように演算される:
<cの調整係数>=f(c1)+[f(c2)−f(c1)*(c−c1)/(c2−c1)];
但し、f(c1)及びf(c2)は夫々カラムc1及びカラムc2の軸外角度のf関数値である。
The function f (x) can be approximated between columns by several line segments. For any point within the line segment between column c1 and column c2, the adjustment factor is computed as follows:
<Adjustment coefficient of c> = f (c1) + [f (c2) −f (c1) * (c−c1) / (c2−c1)];
However, f (c1) and f (c2) are f function values of off-axis angles of the column c1 and the column c2, respectively.

入力画像の各セットをモザイク画像にステッチする(stitched)必要がある。露光制御モジュールが各カメラ又はセンサの受光量を調節するにしても、得られる入力画像は強度について異なったままであることがある。本発明は、隣接する入力画像間の重なり領域を比較して、相対強度のさらなるバランス調整を行う強度バランスモジュールを提供する。隣接する入力画像を同時に得るから、重なり領域は理論上、双方の入力画像において同じ強度を有するはずである。しかしながら、様々な要因により、強度値は通常同じではない。強度差を生じさせる幾つかの要因として、例えば、露光制御モジュールが特定のカメラだけの視野に存在する異常に明るい対象物又は暗い対象物によってバイアスされることや、カメラのボアサイト角度が異なる(即ち、傾斜の大きいカメラは、より垂直なカメラよりも受光量が少ない)ことを挙げることができる。   Each set of input images needs to be stitched into the mosaic image. Even if the exposure control module adjusts the amount of light received by each camera or sensor, the resulting input image may remain different in intensity. The present invention provides an intensity balance module that compares overlapping areas between adjacent input images and performs further balance adjustment of relative intensity. Since adjacent input images are obtained simultaneously, the overlap region should theoretically have the same intensity in both input images. However, due to various factors, the intensity values are usually not the same. Some factors that cause intensity differences include, for example, that the exposure control module is biased by unusually bright or dark objects present in the field of view of only a particular camera, and the camera's boresight angle is different ( That is, a camera with a large inclination has a smaller amount of received light than a more vertical camera.

2つの隣接する画像をバランス調整するために、一方を基準画像(reference image)として選択し、他方を二次的画像とする。例えば次のプロセスを用いて、相関ベクター(fR、fG、FB)を決定する。Vを、ピクセルの値(R、G及びB)を表す3×1ベクトルとする:
相関マトリクスCを次のように導き出すことができる:
但し、FR=AvgIr/AvgInであり、AvgIrは基準画像内の重なり領域の平均赤強度であり、AvgInは新画像内の重なり領域の平均赤強度であり、FGとFBについても同様に導き出される。
To balance two adjacent images, one is selected as a reference image and the other is a secondary image. For example, the correlation vector (fR, fG, FB) is determined using the following process. Let V be a 3 × 1 vector representing pixel values (R, G and B):
The correlation matrix C can be derived as follows:
However, FR = AvgIr / AvgIn, AvgIr is the average red intensity of the overlapping area in the reference image, AvgIn is the average red intensity of the overlapping area in the new image, and FG and FB are similarly derived.

相関マトリクスは、二次的画像の重なり領域の平均強度が、基準画像の重なり領域の平均強度と同一になるように、二次的画像のピクセル値を増減する(scale)。第2画像は、ピクセル値に相関マトリクスを乗ずることにより、基準画像とのバランス調整を行うことができる。   The correlation matrix scales the pixel values of the secondary image so that the average intensity of the overlapping area of the secondary image is the same as the average intensity of the overlapping area of the reference image. The second image can be balanced with the reference image by multiplying the pixel value by the correlation matrix.

このため、本発明に従うバランス処理の一実施例では、中央画像が基準画像とされている。基準画像は、まず、複合画像(又はモザイク)にコピーされる。基準画像と隣接画像(例えば、すぐ左の画像)との重なり領域が相互に関連づけられて、バランス相関マトリクス(BCM)を演算する。BCMは、重なり領域の強度を双方の画像で一致させるために、隣接画像のピクセルを表すベクトルと乗算される。この関係の一実施形態を、次のように表すことができる:
I(中央)=中央画像の重なり領域の平均強度、とし、
I(隣接)=隣接画像の重なり部分の平均強度、とすると、
バランス係数=I(中央)/I(隣接)、となる。
For this reason, in one embodiment of the balance processing according to the present invention, the central image is the reference image. The reference image is first copied to the composite image (or mosaic). The overlap area between the reference image and the adjacent image (for example, the image immediately to the left) is associated with each other, and a balance correlation matrix (BCM) is calculated. The BCM is multiplied by a vector representing the pixels of the adjacent image in order to match the intensity of the overlap region in both images. One embodiment of this relationship can be expressed as:
I (center) = average intensity of the overlapping area of the center image,
I (adjacent) = average intensity of overlapping parts of adjacent images,
Balance coefficient = I (center) / I (adjacent).

各カラーチャンネル(即ち、赤、緑及び青)のバランス係数は、個別に演算される。これら3つの値がBCMを形成する。バランス処理された隣接画像は、モザイクにコピーされる。コピーされた画像の境界での滑らかな移行(transitioning)が、マスクで「フェザリング(feathering)」することでなされている。このマスクは、隣接画像と同じ大きさを有し、幾つかの要素を含んでいる。マスク中の各要素は、モザイク内の対応する隣接画像ピクセルの重みを示す。重みは、境界のピクセルでは0であり(即ち、出力値は基準画像からとられる)、選択した混合幅(chosen blending width)に達した後、1(unity)になるまで、隣接画像の方向に徐々に増大する。混合領域を越えると、隣接画像のピクセルによってモザイクが完全に決定される。同様に、他の全ての構成入力画像間の重なり部分に対しても分析、処理されて、相関ベクトルを演算し、画像強度がバランス調整される。   The balance factor for each color channel (ie, red, green and blue) is calculated separately. These three values form the BCM. The adjacent image subjected to the balance process is copied to the mosaic. A smooth transition at the boundary of the copied image is made by “feathering” with a mask. This mask has the same size as the adjacent image and includes several elements. Each element in the mask indicates the weight of the corresponding neighboring image pixel in the mosaic. The weight is 0 for the border pixels (ie, the output value is taken from the reference image), and in the direction of the adjacent image until it reaches 1 (unity) after reaching the chosen blending width. Increase gradually. Beyond the mixed region, the mosaic is completely determined by the pixels of the adjacent image. Similarly, the overlapping portion between all other constituent input images is analyzed and processed, the correlation vector is calculated, and the image intensity is balanced.

例えば、次のプロセス(図6を参照)を用いて相関マトリクスを決定する。図6は、本発明に従って生成されるストリップ(600)を示している。基本モザイク(602)と新モザイク(604)が、経路(又は軌道)(606)に沿って追加され、領域(308)内で互いに重なっている。以下のVを、ピクセルのR値、G値及びB値を表すベクトルとする:
hを、領域(608)の移行幅(transition width)とし、yを、重なり領域の境界(610)から点Aまでの軌道(606)に沿う距離とすると、そのピクセル値はVによって表される。以下のCを相関マトリクスとする:
バランス調整したV値を、V'する:
0<y<hの場合、V’=[y/h.I+(1−y/h).C]×V;
y>=hの場合、V’=V;
但し、Iは単位マトリクス(identity matrix)である:
「フェザリング」技術はまた、視覚的に認識される継ぎ目を小さくするために、勾配(gradient)と組み合わせて使用されることに留意すべきである。
For example, the correlation matrix is determined using the following process (see FIG. 6). FIG. 6 shows a strip (600) produced in accordance with the present invention. A basic mosaic (602) and a new mosaic (604) are added along the path (or trajectory) (606) and overlap each other in the region (308). Let V be a vector representing the R, G, and B values of the pixel:
The pixel value is represented by V, where h is the transition width of the region (608) and y is the distance along the trajectory (606) from the boundary (610) of the overlapping region to the point A. . Let C be the correlation matrix:
V 'the balanced V value:
If 0 <y <h, V ′ = [y / h.I + (1−y / h) .C] × V;
If y> = h, V ′ = V;
Where I is the identity matrix:
It should be noted that the “feathering” technique is also used in combination with a gradient to reduce the visually perceived seam.

モザイクが長い場合、重なり部分の強度差は、モザイクの一端から他端まで変化することがある。視覚的に認識される継ぎ目ができないように単一の相関ベクトルを演算することはできないこともあろう。モザイクは、モザイクを構成する元の入力画像の位置に対応する幾つかのセグメントに分割できる。上記プロセスは、各セグメントに別々に適用されて、色は局部的により一致するようになる。   When the mosaic is long, the intensity difference between the overlapping portions may change from one end of the mosaic to the other. It may not be possible to compute a single correlation vector so that there is no visually recognized seam. The mosaic can be divided into several segments corresponding to the positions of the original input images that make up the mosaic. The above process is applied to each segment separately so that the colors become more locally consistent.

このように精密なアルゴリズムの下では、(南北の飛行経路を仮定すると)2つのセグメントの境界にあるピクセルは、垂直な継ぎ目を生成する可能性がある。この問題を回避するために、この領域内のピクセルのバランス係数は、一方のセグメントのバランス係数から他方のセグメントのバランス係数まで「移行」されなくてはならない。これについては、図7を参照して説明する。   Under such a precise algorithm, pixels at the boundary of two segments (assuming north-south flight paths) can produce vertical seams. In order to avoid this problem, the balance factor of the pixels in this region must be “translated” from the balance factor of one segment to the balance factor of the other segment. This will be described with reference to FIG.

図7は、本発明に従って生成されるストリップ(700)を示している。基本モザイク(702)と新セグメント(704)が領域(706)において重なっている。モザイク(702)と別の新セグメント(708)が領域(710)において重なっている。セグメント(704)とセグメント(708)が領域(712)において重なり、領域(706)(710)(712)は全て領域(714)にて重なり、一致している。説明の都合上、点(716)を、y軸(718)とx軸(720)の原点とする。y軸(718)に沿う移動は、イメージングシステムの飛行経路に沿う移動を表している。点(716)は、領域(714)の左下に位置している。   FIG. 7 shows a strip (700) produced in accordance with the present invention. The basic mosaic (702) and the new segment (704) overlap in the region (706). The mosaic (702) and another new segment (708) overlap in the region (710). Segment (704) and segment (708) overlap in region (712), and regions (706), (710), and (712) all overlap in region (714) and match. For convenience of explanation, the point (716) is the origin of the y-axis (718) and the x-axis (720). Movement along the y-axis (718) represents movement along the flight path of the imaging system. The point (716) is located at the lower left of the region (714).

本発明によれば、ストリップの次元は、構成モザイクの最小値xと最大値yによって決定される。出力ストリップは背景色に初期化される。第1モザイクはストリップに移される。次に、隣の(飛行経路に沿う)モザイクが処理される。新モザイクと第1モザイクの重なり領域の強度値は、カラーチャンネル毎に個別の相関関係がある。新モザイクは、モザイクを構成した元の入力画像に対応している幾つかのセグメントに分割される。幾つかのマスク要素を含むマスクマトリクスが、新モザイクに対して生成される。マスク要素は、新モザイク内の対応するピクセルに対する相関マトリクスを含んでいる。マスクにおける全ての要素は、1に初期化される。マスクの大きさを、新モザイクの移行領域だけに制限できる。中央セグメントに対応するマスク領域が処理される。重なり領域の端部における要素の値が、相関ベクトルに設定される。次に、第1モザイクからストリップに沿って徐々に離れていくと、相関マトリクスの成分が、所定の移行距離にて1になるまで、増大又は減少される(1よりも夫々小さい又は大きい)。次に、中央セグメントに隣接するセグメントに対応するマスクの領域が同様に処理される。しかしながら、第1モザイクによって形成される領域(714)と、新画像の中央セグメント及び隣接セグメントは、特別な処理を必要とする。隣接セグメントに対する相関マトリクスが中央セグメントの相関マトリクスと同一でないことにより、第1モザイクとの重なり領域(714)における2つのセグメントの境界に、継ぎ目が現れることがある。従って、コーナー部は、双方のセグメントの相関マトリクスにより影響を受ける。中央セグメントとの境界までの距離xと、重なり端部までの距離yにあるマスクセルAに対して、その相関マトリクスは、2つのセグメントの距離加重平均(distance-weighted average)であり、次のように評価される:
領域(714)内で中央セグメントの境界までの距離xのピクセルA(x,y)に対して、そのバランス調整された値が、2つのセグメントを用いて演算された値の距離加重平均として演算され;
V1は、セグメント(704)に基づいてバランス調整されたRGBベクトルであり;
V2は、セグメント(708)に基づいてバランス調整されたRGBベクトルであり;
V’は、バランス調整された(最終)RGBベクトルの和
V’=((d−x)/d).V1+(x/d).V2
であり;
x軸は、重なり領域の底部を通る線であり、
y軸は、セグメント(704)とセグメント(708)の重なり領域の左側を通る線であり、
hは、移行幅であり、
dは、セグメント(704)とセグメント(708)の重なり領域の幅である。
他の隣接セグメントに対応するマスク領域も同様に演算される。
According to the invention, the dimension of the strip is determined by the minimum value x and the maximum value y of the constituent mosaic. The output strip is initialized to the background color. The first mosaic is transferred to the strip. Next, the adjacent mosaic (along the flight path) is processed. The intensity value of the overlapping area of the new mosaic and the first mosaic has an individual correlation for each color channel. The new mosaic is divided into several segments corresponding to the original input image that made up the mosaic. A mask matrix containing several mask elements is generated for the new mosaic. The mask element contains a correlation matrix for the corresponding pixel in the new mosaic. All elements in the mask are initialized to 1. The size of the mask can be limited only to the transition area of the new mosaic. The mask area corresponding to the central segment is processed. The value of the element at the end of the overlapping area is set in the correlation vector. Next, gradually moving away from the first mosaic along the strip, the component of the correlation matrix is increased or decreased (smaller or larger than 1 respectively) until it becomes 1 at a predetermined transition distance. Next, the area of the mask corresponding to the segment adjacent to the central segment is processed in the same manner. However, the region (714) formed by the first mosaic and the central and adjacent segments of the new image require special processing. Since the correlation matrix for the adjacent segment is not the same as the correlation matrix of the central segment, a seam may appear at the boundary between the two segments in the overlapping region (714) with the first mosaic. Therefore, the corner is affected by the correlation matrix of both segments. For a mask cell A at a distance x to the boundary with the central segment and a distance y to the overlapping edge, the correlation matrix is a distance-weighted average of the two segments, as follows: Rated by:
For the pixel A (x, y) having the distance x to the boundary of the central segment in the region (714), the balance-adjusted value is calculated as a distance weighted average of the values calculated using the two segments. Is;
V1 is an RGB vector that is balanced based on segment (704);
V2 is an RGB vector that is balanced based on segment (708);
V ′ is the sum of the balanced (final) RGB vectors V ′ = ((d−x) / d) .V1 + (x / d) .V2
Is;
The x-axis is a line that passes through the bottom of the overlap region,
The y-axis is a line that passes through the left side of the overlapping area of segment (704) and segment (708),
h is the transition width,
d is the width of the overlapping region of the segment (704) and the segment (708).
Mask areas corresponding to other adjacent segments are similarly calculated.

さらに、本発明では、色忠実度(color fidelity)(即ち、ホワイトバランス)フィルタが適用される。このフィルタは、色忠実度を高めるために、R成分とB成分を決定可能な因子(determinable factor)と乗算する。この因子は、カメラとレンズを較正することによって決定できる。色忠実度フィルタは、画像の色がそれら忠実度を、人間の目で直接感知されるように保持することを保証する。画像キャプチャ装置中で、赤、緑及び青の受光要素が、キャプチャされることになっている色に対する感度と異なることがある。白色対象物の画像がキャプチャされる場合に、「ホワイトバランス」処理が適用される。理論上、その白色対象物の画像のピクセルは、R値、G値及びB値が等しいべきである。しかし実際には、感度の相異や他の要因によって、R、G及びB毎の平均の色値は夫々、avgR、avgG及びavgBとなることがある。カラー成分を等しくするために、ピクセルのR値、G値及びB値は、下記の比率が乗算される:   Further, in the present invention, a color fidelity (ie, white balance) filter is applied. This filter multiplies the R and B components by a determinable factor to increase color fidelity. This factor can be determined by calibrating the camera and lens. The color fidelity filter ensures that the colors of the image retain their fidelity as perceived directly by the human eye. In an image capture device, red, green, and blue light receiving elements may differ in sensitivity to the color that is to be captured. A “white balance” process is applied when an image of a white object is captured. In theory, the pixels of the white object image should have the same R, G, and B values. In practice, however, the average color values for R, G, and B may be avgR, avgG, and avgB, respectively, due to sensitivity differences and other factors. To equalize the color components, the R, G, and B values of the pixels are multiplied by the following ratio:

R値は、比率avgG/avgRが乗算され;
B値は、比率avgG/avgBが乗算される。
最終結果は、白色対象物の画像のRGB成分が等しくなるように設定されたものである。
R value is multiplied by the ratio avgG / avgR;
The B value is multiplied by the ratio avgG / avgB.
The final result is set so that the RGB components of the image of the white object are equal.

殆どの用途において、ストリップは通常、広い非水面領域をカバーする。このため、ストリップの平均強度は、高反射性の表面のような異常例(anomalies)によって歪められる可能性が少ない。本発明は、平均と標準偏差が所望の値となるように、各ストリップの平均強度を正規化する強度正規化モジュール(intensity normalization module)を提供する。例えば、平均値127が写真測量法の標準である。標準偏差51は、画像の特徴を視覚認知するのに最適な範囲に亘って強度値を広げるのに有用である。各ストリップは、異なる照明条件において撮影されることがあるので、異なる画像データプロファイル(即ち、平均強度及び標準偏差)を有することがある。本モジュールは、ストリップを、全てが同じ平均及び標準偏差を有するように正規化する。これにより、ストリップは、継ぎ目が見えないようにまとめてステッチされる。   In most applications, the strip usually covers a large non-water surface area. Thus, the average strength of the strip is less likely to be distorted by anomalies such as highly reflective surfaces. The present invention provides an intensity normalization module that normalizes the average intensity of each strip so that the average and standard deviation are the desired values. For example, the average value 127 is the standard for photogrammetry. The standard deviation 51 is useful for extending the intensity value over an optimum range for visually recognizing image features. Each strip may have a different image data profile (ie, average intensity and standard deviation) since it may be taken in different lighting conditions. This module normalizes the strips so that they all have the same mean and standard deviation. Thus, the strips are stitched together so that the seam is not visible.

この強度正規化は、R、G及びBの各チャンネル、及び全チャンネルに対する平均強度の計算を含んでいる。その後、全体の標準偏差が演算される。各ピクセルの各R値、G値及びB値が、新たな平均及び標準偏差に変換される:
新値=新平均+(旧値−旧平均)*(新標準偏差/旧標準偏差)
This intensity normalization includes the calculation of the average intensity for each of the R, G and B channels and all channels. Thereafter, the overall standard deviation is calculated. Each R, G, and B value for each pixel is converted to a new mean and standard deviation:
New value = new average + (old value-old average) * (new standard deviation / old standard deviation)

次に、複数の隣接するストリップを組み合わせて、対象領域のタイルモザイク(tiled mosaic)が生成される。完成したタイルは、USGSクアッド(USGS quads)又は4分の1クアッド(quarter-quads)に対応できる。ストリップをモザイクにステッチすることは、モザイクをまとめてステッチしてストリップを生成することと同様であって、ここではストリップがモザイクの役割を果たしている。2つのストリップ間の継ぎ目ライン(seam line)では、ラインがビルや橋等の高架構造物を横切っている場合に問題が生じることがある。これは写真測量法では古典的な問題であり、2つの異なる視点から見られる同じ対象物によって引き起こされる視差(parallax)から生じるものである。ビルのイメージング中、例えば、一方のストリップは、ビルの一方の側からのビューを表す一方で、別のストリップは、ビルの別の側からのビューを表す。画像がまとめてステッチされた後、得られたモザイクは、テント小屋(tepee)のように見えるかもしれない。この問題に対処するために、地形案内型モザイキング処理(terrain-guided mosaicing process)を実行して、継ぎ目ラインの配置(placement)が案内される。例えば、画像データと共に収集したLIDARデータやDEMデータ、又は画像データから分析したLIDARデータやDEMデータを処理して、それらが一緒にモザイキングされる際に、画像の構成及び形状を決定されてよい。このため、モザイク画像の中には、継ぎ目ラインが直線ではなく、高架構造物を蛇行するように前後にシフトする継ぎ目ラインを含むものもある。   Next, a plurality of adjacent strips are combined to generate a tiled mosaic of the target area. Completed tiles can accommodate USGS quads or quarter-quads. Stitching strips into a mosaic is similar to stitching mosaics together to create a strip, where the strip plays the role of a mosaic. A seam line between two strips can cause problems if the line crosses an elevated structure such as a building or bridge. This is a classic problem in photogrammetry and arises from the parallax caused by the same object seen from two different viewpoints. During building imaging, for example, one strip represents a view from one side of the building, while another strip represents a view from the other side of the building. After the images are stitched together, the resulting mosaic may look like a tent tepee. In order to deal with this problem, a terrain-guided mosaicing process is performed to guide the placement of seam lines. For example, LIDAR data and DEM data collected together with image data, or LIDAR data and DEM data analyzed from image data may be processed, and when they are mosaiced together, the configuration and shape of the image may be determined. For this reason, in some mosaic images, the seam line is not a straight line but includes a seam line that shifts back and forth so as to meander the elevated structure.

図8を参照すると、前述の本発明に基づいたイメージング処理(800)の一実施形態が示されている。処理(800)は、収集された1又は複数の未処理(raw)の一連の画像(802)で開始する。画像(802)はその後、ホワイトバランス調整処理(804)によって処理され、一連の中間画像に変換される。次に、一連の画像(802)は、オルソ補正(Orthorectification)処理(808)に進む前に、ビグネッティング防止機能(806)によって処理される。前述したように、オルソ補正は、画像センサシステム又はプラットホームからの位置及び姿勢データ(810)と、DTMデータ(812)とに依存してよい。DTMデータ(812)は、位置データ(810)から、例えば、USGS DTMデータ(814)又はLIDARデータ(816)から作られてよい。一連の画像(802)はここでオルソ補正され、カラーバランス調整(818)が続く。カラーバランス調整後、一連の画像(802)は、モザイキングモジュール(820)により、複合画像(822)に変換される。モジュール(820)は、この変換中、モザイキング処理とフェザリング処理を実行する。ここで、1又は複数の複合画像(822)はさらに、ステップ(824)において、勾配を用いたモザイキングとフェザリングによって、画像ストリップ(826)に組み合わされる。強度正規化(828)によって画像ストリップが処理される。ここで正規化されたストリップ(828)は、ステップ(830)において勾配を含むモザイキングとフェザリングとによって再びモザイキングされ、最終タイルモザイク(832)を描画する。ステップ(830)において行われるモザイキングは、DTMデータ(812)又はLIDARデータ(816)に基づく地形案内型モザイキングを含んでよい。   Referring to FIG. 8, there is shown one embodiment of an imaging process (800) according to the invention described above. The process (800) begins with a series of one or more collected raw images (802). The image (802) is then processed by a white balance adjustment process (804) and converted into a series of intermediate images. Next, the series of images (802) is processed by the anti-vignetting function (806) before proceeding to the orthorectification process (808). As described above, ortho correction may depend on position and orientation data (810) from the image sensor system or platform and DTM data (812). The DTM data (812) may be created from position data (810), for example, USGS DTM data (814) or LIDAR data (816). The series of images (802) is then orthocorrected, followed by color balance adjustment (818). After the color balance adjustment, the series of images (802) is converted into a composite image (822) by the mosaicing module (820). Module (820) performs mosaicing and feathering during this conversion. Here, the one or more composite images (822) are further combined in step (824) into image strips (826) by gradient mosaicking and feathering. The image strip is processed by intensity normalization (828). The normalized strip (828) is then re-mosiced in step (830) by mosaicing and feathering including gradients to render the final tile mosaic (832). The mosaicing performed in step (830) may include terrain-guided mosaicing based on DTM data (812) or LIDAR data (816).

図9は、カメラアレイアセンブリで撮影された写真が、如何にして調整されて、個々のフレームを生成できるかを図式的に示すものである。本実施形態は、5台のカメラからのオルソ補正されたデータを用いており、移動体から見下ろしたフォトパター(photo patter)図を示している。   FIG. 9 schematically shows how photographs taken with the camera array assembly can be adjusted to produce individual frames. In the present embodiment, ortho-corrected data from five cameras is used, and a photo patter diagram viewed from a moving body is shown.

図10は、本発明の特定の実施形態に従う処理ロジックのブロック図である。ブロック図(1000)に示すように、処理ロジックは1又は複数の入力を受け取る。1又は複数の入力としては、標高測定値(1002)、姿勢測定値(1004)、並びに/又はフォト及びセンサイメージ(photo and sensor imagery)(1006)が挙げられる。ブロック(1008)に示すように、分析前に、特定の入力が最初の処理ステップに通されてよく、そこで姿勢測定値が地上制御点からのデータと合成される。標高測定値(1002)と姿勢測定値(1004)が合成されて、処理された標高データ(1010)が生成される。処理された標高データ(1010)がその後使用されて、標高DEM(1014)及びDTM(1016)を生成される。同様に、姿勢測定値(1006)がフォト及びセンサ画像(1006)と合成されて、地理的(georeferenced)画像(1012)が生成され、該画像には、次に、画像処理(1018)が施される。画像処理(1018)は、色のバランス調整及び勾配フィルタリングを含んでよい。   FIG. 10 is a block diagram of processing logic in accordance with certain embodiments of the present invention. As shown in block diagram (1000), processing logic receives one or more inputs. One or more inputs may include elevation measurements (1002), attitude measurements (1004), and / or photo and sensor imagery (1006). As shown in block (1008), prior to analysis, certain inputs may be passed to an initial processing step where attitude measurements are combined with data from ground control points. The altitude measurement value (1002) and the posture measurement value (1004) are combined to generate processed altitude data (1010). The processed elevation data (1010) is then used to generate elevation DEM (1014) and DTM (1016). Similarly, posture measurements (1006) are combined with photo and sensor images (1006) to generate a georeferenced image (1012), which is then subjected to image processing (1018). Is done. Image processing (1018) may include color balancing and gradient filtering.

使用されるデータセット(1020)に応じて、DTM(1016)又はUSGS DEM(1022)の何れかが、処理された画像(1018)と組み合わされ、オルソ補正された画像(1024)を生成する。オルソ補正された画像(1024)はその後、セルフロッキング飛行ライン(1026)に送られる。その後、バランス調整投影モザイキング(balancing projection mosaicing)(1028)が続き、最終的なフォト出力(1030)を生成する。   Depending on the data set used (1020), either DTM (1016) or USGS DEM (1022) is combined with the processed image (1018) to produce an orthocorrected image (1024). The orthocorrected image (1024) is then sent to the self-locking flight line (1026). This is followed by balancing projection mosaicing (1028) to produce the final photo output (1030).

本発明は、図3A乃至図3E、図22A乃至図22B、及び図23に示されたようなカメラアレイを用いて、オルソ及び/又は斜め画像データをキャプチャしてよく、3次元画像(即ち、3D点群)又は数値標高モデル(DEM)を生成するために、姿勢及び位置の測定値を用いて、画像データをマージしてよい。上述したように、D3点群又はDEMは、人工構造を含む地表面の表現である。D3点群又はDEMは、ステレオグラフィック技術を用いて、オルソ及び/又は斜め画像から生成されてよく、又は、その代わりに、LIDAR若しくは既存のDEMから直接にもたらされてよい。DEM又は3D点群は、1つのカメラから得られた、時間的に重なっている任意の画像、又は、空間及び/又は時間的に重なっている2つのカメラから得られた複数の画像から生成されてよい。重なっている一連の画像が、一般的な写真測量技術を用いてオルソ補正されることで、オルソマップが生成されてよく、該オルソマップでは、各ピクセルは、上述したような固有の緯度及び軽度座標と固有の標高座標とを有している。   The present invention may capture ortho and / or oblique image data using a camera array as shown in FIGS. 3A-3E, 22A-22B, and 23, ie, a three-dimensional image (ie Image data may be merged using posture and position measurements to generate a 3D point cloud) or digital elevation model (DEM). As described above, the D3 point cloud or DEM is a representation of the ground surface including an artificial structure. The D3 point cloud or DEM may be generated from ortho and / or oblique images using stereographic techniques, or alternatively may come directly from the LIDAR or existing DEM. A DEM or 3D point cloud can be generated from any image over time obtained from one camera, or from multiple images over two cameras overlapping in space and / or time It's okay. An orthomap may be generated by orthorectifying a series of overlapping images using common photogrammetry techniques, where each pixel has its own latitude and lightness as described above. It has coordinates and unique elevation coordinates.

対象物の標高を計算するためには、重なっているオルソ及び/又は斜め画像(つまり、立体画像)が、立体視差を決定して、図24に示すような立体/3次元の眺めを生じるのに必要とされる。重なっている画像は、1つのカメラから、時間的に重なって得られてよく、又は、2つのカメラから、空間及び/又は時間的に重なって得られてよい。図24は、異なる2つの時刻にて斜めカメラアレイから得られた、重なっている一連の斜め画像を示している。図24のカメラアレイアセンブリが示されているが、その他のオルソ及び/又は斜めカメラアレイアセンブリが使用されてよい。画像領域(2402)と画像領域(2404)の隣接する境界は、若干重なるべきである。ある実施形態では、画像領域(2402)と画像領域(2404)の隣接する境界は、約1%と約100%の間で重なる。別の実施形態では、画像領域(2402)と画像領域(2404)の隣接する境界は、約20%と約70%の間で重なる。別の実施形態では、画像領域(2402)と画像領域(2404)の隣接する境界は、約50%と約70%の間で重なる。別の実施形態では、サイドラップ領域(2406)は、約20%と約30%の間で重なり、フォアラップ領域(2408)は、約50%乃至約70%で重なる。   In order to calculate the elevation of an object, the overlapping ortho and / or oblique images (ie, stereoscopic images) determine the stereoscopic parallax, resulting in a stereoscopic / three-dimensional view as shown in FIG. Is needed to. Overlapping images may be obtained in time overlap from one camera, or may be obtained in space and / or time overlap from two cameras. FIG. 24 shows a series of overlapping oblique images obtained from the oblique camera array at two different times. Although the camera array assembly of FIG. 24 is shown, other ortho and / or oblique camera array assemblies may be used. The border between the image area (2402) and the image area (2404) should be slightly overlapped. In some embodiments, adjacent borders of image area (2402) and image area (2404) overlap between about 1% and about 100%. In another embodiment, adjacent borders of image area (2402) and image area (2404) overlap between about 20% and about 70%. In another embodiment, adjacent borders of image area (2402) and image area (2404) overlap between about 50% and about 70%. In another embodiment, the side wrap region (2406) overlaps between about 20% and about 30% and the fore wrap region (2408) overlaps between about 50% and about 70%.

以下に述べるように、対象の標高は、ステレオグラフィック技術を用いて、重なっているオルソ及び/又は斜め画像から計算されてよく、又は、その代わりに、LIDAR若しくは既存のDEMから直接得られてよい。各画像の主点(principal point)(例えば、画像(2402)の主点(2502))は、AMUによりヨー、ピッチ、ロールを補正した後に仮想コーナーフィデュシャリー座標(virtual corner fiduciary coordinates)を決定する直接計算手法を用いて、又は、図25に示すように、航空三角測量(aerial triangularization)手法(例えば、左上及び右下(UL−LR)と右上及び左下(UR−LL))を用いて、配置される。共役な主点は、隣接する画像の主点であって、同様に配置される。一連の斜め画像は、主点と共役な主点とが、直線上に配置されている。主点と共役な主点の間の線は、飛行経路(又はトラック)である。   As described below, the elevation of interest may be calculated from overlapping ortho and / or oblique images using stereographic techniques, or alternatively, may be obtained directly from LIDAR or an existing DEM. . The principal point of each image (for example, the principal point (2502) of image (2402)) determines the virtual corner fiduciary coordinates after correcting the yaw, pitch, and roll by the AMU. Or using aerial triangularization techniques (eg, upper left and lower right (UL-LR) and upper right and lower left (UR-LL)), as shown in FIG. Placed. Conjugate principal points are principal points of adjacent images and are similarly arranged. In a series of oblique images, a principal point and a conjugate principal point are arranged on a straight line. The line between the principal point and the conjugate principal point is the flight path (or track).

画像中央の突出は、対象物が、それらの正しい位置からずれた又は変位した画像変位をもたらす。高度による写真のゆがみ(Relief displacement)は、特定の地表面からの対象物の相対的な高さの違いに起因している。特定の地表面の上又は下に延びている全ての対象物は、対象物の高さに比例した画像変位を示すであろう。対象物が高くなればなるほど、高度による写真のゆがみは大きくなる。高い対象物は、高い高度からでも画像の変位を示し得る。   Projections in the center of the image result in image displacements in which the objects are displaced or displaced from their correct positions. Relief displacement due to altitude is due to differences in the relative height of objects from a particular surface. All objects extending above or below a particular ground surface will exhibit an image displacement proportional to the height of the object. The higher the object, the greater the distortion of the photo due to altitude. High objects can show image displacement even from high altitudes.

径方向変位は、主点からの対象物の相対距離の違いによる。主点から離れている全ての対象物は、主点からの対象物の距離に比例した径方向変位を示す。その距離が大きいほど、径方向変位は大きくなる。   The radial displacement is due to the difference in the relative distance of the object from the principal point. All objects that are distant from the principal point exhibit a radial displacement proportional to the distance of the object from the principal point. The greater the distance, the greater the radial displacement.

立体視差は、飛行経路に沿った異なる視点から同じ対象物の画像をキャプチャすることで起こる。対象物の標高は、立体視差を用いて計算されてよい。
h=(H’)*dP/(P+dP)
ここで、hは、対象物の標高の高さ、H’は、飛行高度、dPは、視差の差分、Pは、平均の画像基線長(image base length)である。
Stereoscopic parallax occurs by capturing images of the same object from different viewpoints along the flight path. The elevation of the object may be calculated using stereoscopic parallax.
h = (H ′) * dP / (P + dP)
Here, h is the height of the altitude of the object, H ′ is the flight altitude, dP is the difference in parallax, and P is the average image base length.

或いは、対象物の標高は、重なっている斜め画像を用いて計算されてよい。
h=d*(H’)/r
ここで、hは、対象物の標高の高さ、H’は、飛行高度であって、カメラの焦点距離と分数縮尺を掛けることで得られてよく、dは、基部から頂点までの対象物の長さ、rは、主点から対象物の頂点までの距離である。
Alternatively, the elevation of the object may be calculated using overlapping diagonal images.
h = d * (H ′) / r
Here, h is the height of the altitude of the object, H ′ is the flight altitude, and may be obtained by multiplying the focal length of the camera by a fractional scale, and d is the object from the base to the vertex. , R is the distance from the principal point to the vertex of the object.

本発明は、側方向オーバーサンプリング(lateral oversampling)をある程度用いて、出力品質を向上させる。図11は、本発明の特定の実施形態に従う、移動体から見下ろした側方向オーバーサンプリングパターン(1100)の図であり、最小の側方向オーバーサンプリングを示している。この図では、中央カメラに割り当てられた中央天底領域(1102)が、左側天底領域(1104)及び右側天底領域(1106)とほんの僅かに重なっているが、この重なりは最小限にされている。図12は、本発明の特定の実施形態に従う、移動体から見下ろした側方向オーバーサンプリングパターン(1200)の図であり、より大きな度合いの側方向オーバーサンプリングを示している。この図では、中央天底領域(1202)は、左側天底領域(1204)及び右側天底領域(1206)とかなりの程度で重なっている。   The present invention uses some degree of lateral oversampling to improve output quality. FIG. 11 is a diagram of a lateral oversampling pattern (1100) looking down from a mobile according to a particular embodiment of the present invention, showing minimal lateral oversampling. In this figure, the central nadir area (1102) assigned to the central camera overlaps only slightly with the left nadir area (1104) and the right nadir area (1106), but this overlap is minimized. ing. FIG. 12 is a diagram of a lateral oversampling pattern (1200) looking down from a mobile, according to a particular embodiment of the present invention, showing a greater degree of lateral oversampling. In this figure, the central nadir area (1202) overlaps with the left nadir area (1204) and the right nadir area (1206) to a considerable extent.

図11及び図12に示す側方向オーバーサンプリングを使用することに加えて、本発明は、飛行ラインオーバーサンプリングを同様に用いてよい。図13は、本発明の特定の実施例に基づいた、移動体から見下ろした飛行ラインオーバーサンプリングパターン(1300)の図であって、ある程度の飛行ラインオーバーサンプリングと最小の側方向オーバーサンプリングとを示している。中央天底領域(1302)(1304)は、飛行ラインに沿って互いに重なっているが、左側天底領域(1306)(1308)と、又は右側天底領域(1310)(1312)と、側方向に重なっていない。   In addition to using the lateral oversampling shown in FIGS. 11 and 12, the present invention may use flight line oversampling as well. FIG. 13 is a diagram of a flight line oversampling pattern (1300) looking down from a mobile according to a particular embodiment of the present invention, showing some flight line oversampling and minimal side oversampling. ing. The central nadir area (1302) (1304) overlaps with each other along the flight line, but the left nadir area (1306) (1308) or the right nadir area (1310) (1312) Does not overlap.

図14は、本発明の特定の実施形態に基づいており、移動体から見下ろした飛行ラインオーバーサンプリングの図であり、大幅な飛行ラインオーバーサンプリングと大幅な側方向オーバーサンプリングを示している。中央天底領域(1402)乃至(1406)の各々はお互いに、さらには、左側天底領域(1408)乃至(1412)及び右側天底領域(1414)乃至(1418)と、大幅に重なっていることがわかる。左側天底領域(1408)乃至(1412)は互いに重なっており、右側天底領域(1414)乃至(1418)も同様である。従って、表面上の各点は、少なくとも2回、場合によっては4回もサンプリングされる。この技術では、異なるカメラセンサによって2回以上カバーされる画像領域において、側方向(経路を横切る方向)と飛行ライン方向(経路に沿う方向)に画像解像度を倍増させることで、解像度を全体で4倍にできる。実際には、画像/センサ解像度の向上は、各次元において2倍よりも幾らか低く、各次元でおよそ40%であり、又は1.4×1.4=約2倍である。これは、サブピクセルのアライメント/向きの統計的変動によるものである。実際、ピクセルのグリッドは、重なったピクセルのグリッドから正確に等距離であることは殆どない。非常に精密な側方向のカメラセンサのアライメントがサブピクセルレベルで行われるのであれば、画像解像度の4倍増が実現できるであろう。   FIG. 14 is a flight line oversampling view looking down from a mobile, according to a particular embodiment of the present invention, showing significant flight line oversampling and significant lateral oversampling. Each of the central nadir areas (1402) to (1406) overlaps each other, and further, the left nadir areas (1408) to (1412) and the right nadir areas (1414) to (1418). I understand that. The left nadir areas (1408) to (1412) overlap each other, and the same applies to the right nadir areas (1414) to (1418). Thus, each point on the surface is sampled at least twice and possibly four times. This technique doubles the image resolution in the lateral direction (direction crossing the path) and the flight line direction (direction along the path) in an image area that is covered more than once by different camera sensors. Can be doubled. In practice, the improvement in image / sensor resolution is somewhat less than twice in each dimension, approximately 40% in each dimension, or 1.4 × 1.4 = approximately twice. This is due to statistical variations in subpixel alignment / orientation. In fact, the pixel grid is rarely exactly equidistant from the overlapping pixel grid. If very precise lateral camera sensor alignment is performed at the subpixel level, a fourfold increase in image resolution could be achieved.

図15は、本発明の特定の実施形態に基づいた、移動体から見下ろした累加的拡大(progressive magnification)パターン(1500)の図である。中央天底領域(1502)は、その左縁部と右縁部にて夫々、左内側天底領域(1504)及び右内側天底領域(1506)と境界をなしている。左内側天底領域(1504)は、その左縁部にて、左外側天底領域(1508)と境界なす一方、右内側天底領域(1506)は、その右縁部にて、右外側天底領域(1510)と境界をなしている。なお、これらの領域は、重なりとオーバーサンプリングの程度が互いに最小限であることに留意すべきである。   FIG. 15 is a diagram of a progressive magnification pattern (1500) looking down from a mobile according to a particular embodiment of the present invention. The central nadir region (1502) is bordered by the left inner nadir region (1504) and the right inner nadir region (1506) at the left and right edges, respectively. The left inner nadir area (1504) borders the left outer nadir area (1508) at its left edge, while the right inner nadir area (1506) has its right outer edge at its right edge. It borders the bottom region (1510). It should be noted that these regions have a minimal degree of overlap and oversampling with each other.

図16は、本発明の特定の実施形態に基づいており、移動体から見下ろした累加的拡大パターン(1600)の図である。中央天底領域(1602)は、その左縁部と右縁部にて夫々、左内側天底領域(1604)及び右内側天底領域(1606)と境界をなしている。左内側天底領域(1604)は、その左縁部にて、左外側天底領域(1608)と境界をなす一方、右内側天底領域(1606)は、その右縁部にて、右外側天底領域(1610)と境界をなしている。上記の如く、これらの領域は、重なりとオーバーサンプリングの程度が互いに最小限であることに留意すべきである。天底領域(1604)乃至(1610)の内部には夫々、グレーで陰影を付けて示す中央画像領域(1614)乃至(1620)がある。   FIG. 16 is a diagram of a progressive enlargement pattern (1600) looking down from a mobile object, according to a particular embodiment of the present invention. The central nadir area (1602) is bounded by the left inner nadir area (1604) and the right inner nadir area (1606) at the left edge and the right edge, respectively. The left inner nadir area (1604) borders the left outer nadir area (1608) at its left edge, while the right inner nadir area (1606) is the right outer edge at its right edge. It borders the nadir area (1610). As noted above, it should be noted that these regions have a minimal degree of overlap and oversampling with each other. Inside the nadir areas (1604) to (1610) are the central image areas (1614) to (1620) shown shaded in gray, respectively.

図17は、本発明の特定の実施形態に基づいており、移動体から見下ろした累加的拡大パターン(1700)の図である。パターン(1700)の中央において、左内側天底領域(1702)と右内側天底領域(1704)が中央で重なっている。左中間天底領域(1706)及び右中間天底領域(1708)は夫々、領域(1702)及び領域(1704)の外側に部分的に配置されており、各々は、各隣接領域と重なる領域を約50%共有している。左外側天底領域(1710)及び右外側天底領域(1712)は夫々、領域(1706)及び領域(1708)の外側に部分的に配置されており、各々は、各隣接領域と重なる領域を約50%共有している。中央画像領域(1714)は、パターン(1700)の中央に配置されており、天底領域(1702)乃至(1712)の中央部分で構成されている。   FIG. 17 is a diagram of a progressive enlargement pattern (1700) looking down from a mobile object, according to a particular embodiment of the present invention. In the center of the pattern (1700), the left inner nadir region (1702) and the right inner nadir region (1704) overlap at the center. The left middle nadir area (1706) and the right middle nadir area (1708) are partially arranged outside the area (1702) and the area (1704), respectively, and each area overlaps each adjacent area. About 50% share. The left outer nadir region (1710) and the right outer nadir region (1712) are partially disposed outside the region (1706) and the region (1708), respectively, and each region overlaps each adjacent region. About 50% share. The central image region (1714) is arranged at the center of the pattern (1700), and is composed of the central portions of the nadir regions (1702) to (1712).

図18は、本発明の特定の実施形態に基づいており、システム(1800)の構成の概略図を示している。システム(1800)は、1又は複数のGPS衛星(1802)及び1又は複数のSATCOM衛星(1804)を含んでよい。また、1又は複数のGPS位置システム(1806)を含んでよく、該システム(1806)は、1又は複数のモジュール(1808)と動作可能に接続されており、該モジュール(1808)は、LIDAR、GPS及び/又はX、Y、Zの位置データを収集し、この情報を1又は複数のデータキャプチャシステムアプリケーション(1812)に供給する。DGPS(1810)は、1又は複数のSATCOM衛星(1804)と無線通信リンク(1826)を通じて通信する。1又は複数のSATCOM衛星(1804)は、次々に1又は複数のデータキャプチャシステムアプリケーション(1812)と通信できる。   FIG. 18 shows a schematic diagram of the configuration of the system (1800), based on a specific embodiment of the present invention. The system (1800) may include one or more GPS satellites (1802) and one or more SATCOM satellites (1804). One or more GPS location systems (1806) may also be included, the system (1806) being operatively connected to one or more modules (1808), the module (1808) comprising LIDAR, Collect GPS and / or X, Y, Z position data and supply this information to one or more data capture system applications (1812). The DGPS (1810) communicates with one or more SATCOM satellites (1804) through a wireless communication link (1826). One or more SATCOM satellites (1804) can in turn communicate with one or more data capture system applications (1812).

1又は複数のデータキャプチャシステムアプリケーション(1812)は、オートパイロット(1816)、SSD及び/又はRealTime StitchGシステム(1820)とインターフェースしてよく、これらは互いに相互作用することもできる。SSD(1814)は、RealTime DEM(1818)と動作可能に接続されてよい。最後に、RealTime DEM(1818)及びRealTime StitchGシステム(1820)は、ディスクアレイ(1824)等の格納デバイスと接続されてよい。   One or more data capture system applications (1812) may interface with the autopilot (1816), SSD and / or RealTime StitchG system (1820), which may also interact with each other. The SSD (1814) may be operatively connected to the RealTime DEM (1818). Finally, RealTime DEM (1818) and RealTime StitchG system (1820) may be connected to a storage device such as a disk array (1824).

本発明は、コマウントされ、コレジスタされるオーバーサンプリングをある程度用いて、ピクセル解像度の物理的限界を克服できる。これらのコマウントされ、コレジスタされたオーバーサンプリング技術は、アクロストラックカメラアレイ、アロングトラックカメラアレイ、又はそれらの任意の組合せを用いても同様に十分に働く。図19は、本発明の特定の実施形態に基づいており、移動体から見下ろしている単一のカメラアレイ(112)について、側方向にコマウントされ、コレジスタされたオーバーサンプリング配置(1900)の図であり、最小限の側方向オーバーサンプリングを示している。カメラは、垂直方向のサイドラップ(sidelap)領域(1904)(1908)において少し重なっている。図19は3台のカメラのアレイを示しており、これらサブピクセル較正技術は、較正されている2乃至任意の数のカメラの任意の数のカメラセンサを用いる際も同様に上手く機能する。   The present invention can overcome the physical limitations of pixel resolution with some use of co-mounted and co-registered oversampling. These co-mounted, co-registered oversampling techniques work equally well with across track camera arrays, along track camera arrays, or any combination thereof. FIG. 19 is a diagram of a side-coordinated, co-registered oversampling arrangement (1900) for a single camera array (112) looking down from a mobile, according to a particular embodiment of the present invention. There is minimal lateral oversampling. The cameras overlap slightly in the vertical sidelap regions (1904) (1908). FIG. 19 shows an array of three cameras, and these sub-pixel calibration techniques work equally well when using any number of camera sensors from two to any number of cameras being calibrated.

図3及び図4の画像センサと同様に、カメラセンサはコレジスタされて、各センサの相互間の、及び/又は天底カメラに対する各センサの取付角度の物理的オフセットを較正すできる。これにより、初期の「精密な(close)」較正がもたらされる。これらの初期較正パラメータは、システム(100)の機上コンピュータシステム(104)に入力されて、飛行中にオーバーサンプリング技術を用いてアップデートできる。   Similar to the image sensors of FIGS. 3 and 4, the camera sensors can be co-registered to calibrate the physical offset of each sensor's mounting angle between each sensor and / or with respect to the nadir camera. This provides an initial “close” calibration. These initial calibration parameters can be input into the onboard computer system (104) of the system (100) and updated using oversampling techniques during flight.

図19を参照して、符号A、B及びCを付した矩形は、3台のカメラのアレイC−B−A(図示せず)からの画像領域(1902)(1906)(1910)を表している。カメラA乃至C(図示せず)によって撮影された領域(1902)(1906)(1910)の画像を夫々俯瞰図として示している。ここでも、図3及び図4と同様に、「斜視(cross-eyed)」の配置であるため、領域(1902)の画像は右側カメラAによって撮影され、領域(1906)の画像は中央/天底カメラBによって撮影され、領域(1910)の画像は左側カメラCによって撮影される。カメラA乃至Cはアレイを形成し(図示せず)、該アレイは、殆どの用途において、垂直下向きに向けられる。   Referring to FIG. 19, the rectangles labeled A, B and C represent image areas (1902) (1906) (1910) from an array C-B-A (not shown) of three cameras. ing. Images of regions (1902), (1906), and (1910) photographed by cameras A to C (not shown) are shown as bird's-eye views. Again, as in FIGS. 3 and 4, because of the “cross-eyed” arrangement, the image of region (1902) is taken by right camera A, and the image of region (1906) is center / top. The image is taken by the bottom camera B, and the image of the area (1910) is taken by the left camera C. Cameras A to C form an array (not shown) that is oriented vertically downward in most applications.

図19において、A/B及びB/Cサイドラップが付されたハッチング領域は夫々、画像重なり領域(1904)(1908)を表している。左側画像重なり領域(1904)は、右側カメラAが中央/天底カメラBと重なっている領域であり、右側画像重なり領域(1908)は、左側カメラCが中央/天底カメラBと重なっている領域である。これらサイドラップ領域(1904)(1908)において、カメラセンサのグリッドは、重なり領域(1904)(1908)の各ピクセルを両断(bisect)し、これにより、コマウントされ、コレジスタされたオーバーサンプリングの機構を介して、これら領域(1904)(1908)の画像解像度が事実上4倍になる。実際には、画像/センサ解像度は、各次元において2倍、即ち2×2=4倍向上する。この画像解像度の4倍増の向上により、隣接するカメラ間のアライメント精度も4倍向上する。   In FIG. 19, hatched areas with A / B and B / C side wraps represent image overlapping areas (1904) and (1908), respectively. The left image overlap area (1904) is an area where the right camera A overlaps the center / nadir camera B, and the right image overlap area (1908) is an area where the left camera C overlaps the center / nadir camera B. It is an area. In these side wrap regions (1904) (1908), the camera sensor grid bisects each pixel in the overlap region (1904) (1908), thereby providing a co-mounted, co-registered oversampling mechanism. Thus, the image resolution of these areas (1904) (1908) is effectively quadrupled. In practice, the image / sensor resolution is improved by a factor of 2 in each dimension, ie 2 × 2 = 4 times. By improving this image resolution by 4 times, the alignment accuracy between adjacent cameras is also improved by 4 times.

さらに、隣接するカメラ間のアライメント精度を4倍増にすることで、剛性取付プレートに固定された全てのセンサについて、システム(100)のアライメント精度が向上する。カメラとセンサは、前述のように、剛性取付プレートに固定される剛性取付ユニットに固定されている。具体的に、剛性取付ユニットに固定されている隣接するカメラの角度アライメントが改善されると、他のセンサの角度アライメントも向上する。剛性取付プレートに固定された他のセンサのアライメント精度の向上により、これらセンサの画像解像度も改善される。   Furthermore, by increasing the alignment accuracy between adjacent cameras by a factor of 4, the alignment accuracy of the system (100) is improved for all sensors fixed to the rigid mounting plate. As described above, the camera and the sensor are fixed to the rigid mounting unit fixed to the rigid mounting plate. Specifically, when the angle alignment of adjacent cameras fixed to the rigid mounting unit is improved, the angle alignment of other sensors is also improved. By improving the alignment accuracy of other sensors fixed to the rigid mounting plate, the image resolution of these sensors is also improved.

重なっている2列のカメラアレイ(112)について、側方向にコマウントされ、コレジスタされたオーバーサンプリング配置(2000)を図20に示す。これらのサブピクセル較正技術は、アクロストラックカメラアレイ、アロングトラックカメラアレイ、又はそれらの任意の組合せを用いても同様に十分に働く。具体的には、図20は、本発明の特定の実施形態に基づいており、移動体から見下ろしており、重なっている2列のカメラアレイ(112)について、側方向にコマウントされ、コレジスタされたオーバーサンプリング配置(2000)の図であり、最大限の側方向オーバーサンプリングを示している。隣接するカメラは、垂直方向のサイドラップ領域(2006)(2008)(2014)(2016)において少し重なっており、対応しているカメラは、画像領域(2002)(2010)(2018)(2004)(2012)(2020)において完全に重なっている。図20は3台のカメラの2列のアレイを示しているが、これらサブピクセル較正技術は、較正されている2乃至任意の数のカメラの任意の数のカメラセンサを用いる際も同様に上手く機能する。   An oversampling arrangement (2000) co-mounted and co-registered laterally for two overlapping camera arrays (112) is shown in FIG. These sub-pixel calibration techniques work equally well with across track camera arrays, along track camera arrays, or any combination thereof. Specifically, FIG. 20 is based on a specific embodiment of the present invention, looking down from a moving body and co-mounted and co-registered laterally for two overlapping camera arrays (112). FIG. 6 is a diagram of an oversampling arrangement (2000) showing maximum lateral oversampling. Adjacent cameras overlap slightly in the vertical side wrap area (2006) (2008) (2014) (2016), and the corresponding cameras are image areas (2002) (2010) (2018) (2004) In (2012) (2020) it is completely overlapping. Although FIG. 20 shows a two-column array of three cameras, these subpixel calibration techniques work equally well with any number of camera sensors from two to any number of cameras being calibrated. Function.

図3及び図4の画像センサと同様に、カメラセンサはコレジスタされて、各センサの相互間の、及び/又は天底カメラに対する各センサの取付角度の物理的オフセットを較正できる。本実施形態において、複数の、即ち少なくとも2つの剛性取付ユニットは、剛性取付プレートに固定されており、コレジスタされている。これにより、初期の「精密な」較正がもたらされる。これらの初期較正パラメータは、システム(100)の機上コンピュータシステム(104)に入力されて、飛行中にアップデートできる。   Similar to the image sensors of FIGS. 3 and 4, the camera sensors can be co-registered to calibrate the physical offset of each sensor's mounting angle between each sensor and / or with respect to the nadir camera. In this embodiment, a plurality, ie at least two rigid mounting units, are fixed to the rigid mounting plate and co-registered. This provides an initial “precise” calibration. These initial calibration parameters can be input into the onboard computer system (104) of the system (100) and updated during flight.

図20を参照して、符号A、B及びCを付した矩形は、重なっている2列に3台のカメラのアレイC−B−A(図示せず)からの画像領域(2002)(2010)(2018)及び(2004)(2012)(2020)を夫々表している。カメラA乃至C(図示せず)及び重なっているカメラA’乃至C’(図示せず)によって夫々撮影された領域(2002)(2010)(2018)及び(2004)(2012)(2020)の画像を俯瞰図として示している。ここでも、図3及び図4と同様に、「斜視」の配置であるため、領域(2002)の画像は右側カメラAによって撮影され、領域(2010)の画像は中央/天底カメラBによって撮影され、領域(2018)の画像は左側カメラCによって撮影される。さらに、領域(2004)の画像は右側カメラA’によって撮影され、領域(2012)の画像は中央カメラB’によって撮影され、領域(2020)の画像は左側カメラC’によって撮影される。カメラA乃至C及び重なっているカメラA’乃至C’はアレイを形成し(図示せず)、該アレイは、殆どの用途において、垂直下向きに向けられる。   Referring to FIG. 20, the rectangles labeled A, B, and C are image regions (2002) (2010) from an array C-B-A (not shown) of three cameras in two overlapping rows. ) (2018) and (2004) (2012) (2020) respectively. Of regions (2002) (2010) (2018) and (2004) (2012) (2020) taken by cameras A to C (not shown) and overlapping cameras A ′ to C ′ (not shown), respectively. The image is shown as an overhead view. Here, as in FIGS. 3 and 4, since the arrangement is “perspective”, the image of the area (2002) is taken by the right camera A, and the image of the area (2010) is taken by the center / nadir camera B. The image in the area (2018) is taken by the left camera C. Further, the image of the area (2004) is taken by the right camera A ', the image of the area (2012) is taken by the central camera B', and the image of the area (2020) is taken by the left camera C '. Cameras A to C and overlapping cameras A 'to C' form an array (not shown) that is oriented vertically downward in most applications.

図20において、A/B及びB/Cサイドラップが付されたハッチング領域は夫々、重なっている2つの画像重なり領域(2006)(2008)及び(2014)(2016)を表している。左側画像重なり領域(2006)(2008)は夫々、右側カメラAが中央/天底カメラBとオーバーラップしており、右側カメラA’が中央カメラB’と重なっている領域である。右側画像重なり領域(2014)(2016)は、左側カメラCが中央/天底カメラBとオーバーラップしており、左側カメラC’が中央カメラB’と重なっている領域である。これらサイドラップ領域(2006)(2008)及び(2014)(2016)において夫々、カメラセンサのグリッドは、重なり領域(2006)(2008)及び(2014)(2016)の各ピクセルを両断し、これにより、コマウントされ、コレジスタされたオーバーサンプリングの機構を介して、これら領域(2006)(2008)及び(2014)(2016)の画像解像度が事実上4倍になる。実際には、画像/センサ解像度は、各次元において2倍、即ち2×2=4倍向上する。前述のように、この画像解像度の4倍増の向上により、隣接するカメラ間のアライメント精度も4倍向上する。   In FIG. 20, hatched areas with A / B and B / C side wraps represent two overlapping image overlapping areas (2006) (2008) and (2014) (2016), respectively. The left image overlap area (2006) (2008) is an area where the right camera A overlaps the center / nadir camera B and the right camera A 'overlaps the center camera B'. The right image overlap area (2014) (2016) is an area where the left camera C overlaps with the center / nadir camera B and the left camera C 'overlaps with the center camera B'. In each of these side wrap regions (2006) (2008) and (2014) (2016), the grid of the camera sensor cuts off each pixel in the overlap region (2006) (2008) and (2014) (2016). Through the co-mounted and co-registered oversampling mechanism, the image resolution in these regions (2006) (2008) and (2014) (2016) is effectively quadrupled. In practice, the image / sensor resolution is improved by a factor of 2 in each dimension, ie 2 × 2 = 4 times. As described above, by improving the image resolution by 4 times, the alignment accuracy between adjacent cameras is also improved by 4 times.

重なっている2列のカメラアレイを含むことによって、重なっているサイドラップの重なり領域(2006)(2008)及び(2014)(2016)についても画像解像度は事実上4倍になる。これにより、驚くべきことに、システム(100)の較正及びカメラアライメントにおいて全体的に64倍向上する。   By including two overlapping camera arrays, the image resolution is effectively quadrupled for overlapping side wrap overlap regions (2006) (2008) and (2014) (2016). This surprisingly provides an overall 64 times improvement in system (100) calibration and camera alignment.

重なっているサイドラップの領域(2006)(2008)において、重なっているカメラセンサのグリッドは、サイドラップの領域(2006)(2008)の各ピクセルを両断し、これにより、コマウントされ、コレジスタされたオーバーサンプリングの機構を介して、これら領域(2006)(2008)の画像解像度が事実上4倍になる。同様に、重なっているサイドラップの領域(2014)(2016)において、重なっているカメラセンサのグリッドは、サイドラップの領域(2014)(2016)の各ピクセルを両断し、これにより、これら領域(2014)(2016)の画像解像度が事実上4倍になる。実際には、画像/センサ解像度はここでも、各次元において2倍、即ち2×2×2×2×2×2=64倍向上する。この全体としての画像解像度の64倍増の向上により、隣接するカメラ間のアライメント精度も64倍向上する。   In the overlapping side wrap area (2006) (2008), the overlapping camera sensor grid cuts each pixel in the side wrap area (2006) (2008), thereby co-mounted and co-registered. Through the oversampling mechanism, the image resolution of these regions (2006) (2008) is effectively quadrupled. Similarly, in the overlapping side wrap region (2014) (2016), the overlapping camera sensor grid cuts each pixel in the side wrap region (2014) (2016), and thus these regions ( The image resolution of 2014) (2016) is effectively quadrupled. In practice, the image / sensor resolution is again improved by a factor of 2 in each dimension, ie 2 × 2 × 2 × 2 × 2 × 2 = 64 times. By improving the overall image resolution by 64 times, the alignment accuracy between adjacent cameras is also improved by 64 times.

隣接し、対応するカメラ間のアライメント精度が64倍増に向上することで、剛性取付プレートに固定された全てのセンサについて、システム(100)のアライメント精度が向上する。カメラA乃至C、及び所望により他のセンサは、第1の剛性取付ユニットに固定され、カメラA’乃至C’、及び所望により他のセンサは、第2の剛性取付ユニットに固定され、これら剛性取付ユニットは夫々剛性取付プレートに固定されている。具体的に、第1及び/又は第2の剛性取付ユニットに固定されている、隣接するカメラ及び/又は対応するカメラの角度アライメントが改善されると、他のセンサの角度アライメントも向上する。剛性取付プレートに固定された他のセンサのアライメント精度の向上により、これらセンサの画像解像度も改善される。   By improving the alignment accuracy between adjacent and corresponding cameras by 64 times, the alignment accuracy of the system (100) is improved for all sensors fixed to the rigid mounting plate. Cameras A to C and optionally other sensors are fixed to the first rigid mounting unit, and cameras A ′ to C ′ and optionally other sensors are fixed to the second rigid mounting unit. Each mounting unit is fixed to a rigid mounting plate. Specifically, when the angular alignment of adjacent cameras and / or corresponding cameras fixed to the first and / or second rigid mounting unit is improved, the angular alignment of other sensors is also improved. By improving the alignment accuracy of other sensors fixed to the rigid mounting plate, the image resolution of these sensors is also improved.

重なっている2列のカメラアレイを含むことによって、A/B及びB/Cのサイドラップの重なり領域についてだけでなく、全体の画像について、画像解像度は事実上4倍になる。図20を参照して、「重なりグリッド4×」が付された重なりグリッド細部は、右側画像領域(2018)(2020)の重なり領域(2022)(2024)を夫々表している。重なっている領域(2022)(2024)において、重なっているカメラセンサのグリッドは、重なり領域(2022)(2024)の各ピクセルを両断し、これにより、コマウントされ、コレジスタされたオーバーサンプリングの機構を介して、これら領域(2022)(2024)の画像解像度が事実上4倍になる。実際には、画像解像度は、各次元において2倍、即ち2×2=4倍向上する。   By including two overlapping camera arrays, the image resolution is effectively quadrupled for the entire image, not just for the overlap area of the A / B and B / C side wraps. Referring to FIG. 20, the overlapping grid details with “overlapping grid 4 ×” represent the overlapping areas (2022) and (2024) of the right image areas (2018) and (2020), respectively. In the overlapping area (2022) (2024), the overlapping camera sensor grid cuts each pixel in the overlapping area (2022) (2024), thereby co-mounted and co-registered oversampling mechanism. Accordingly, the image resolution of these regions (2022) and (2024) is effectively quadrupled. In practice, the image resolution is improved by a factor of 2 in each dimension, ie 2 × 2 = 4 times.

好ましい実施形態において、一方のカメラアレイはモノクロ用であり、他方のカメラアレイはRGB(red-green-blue)用である。各アレイが異なる色の帯域をカバーしているとしても、簡単な画像処理技術を用いて、全ての色の帯域にて、この解像度を向上させる利点を実現できる。これらの技術によりもたらされる別の利点は、1列のカメラアレイがRGB用、その他の重なっているカメラアレイが赤外線や近赤外線(又はさらに他の幾つかの帯域幅)用である場合、優れたマルチスペクトル画像を得られることである。   In a preferred embodiment, one camera array is for monochrome and the other camera array is for RGB (red-green-blue). Even if each array covers a different color band, the advantage of improving this resolution in all color bands can be realized using simple image processing techniques. Another advantage provided by these technologies is that if one row of camera arrays is for RGB and the other overlapping camera array is for infrared or near infrared (or even some other bandwidth), it is excellent A multispectral image can be obtained.

従って、前述した図19の実施形態について特定された(identified)改善(即ち、4倍)は全て、図20の実施形態に適用されるが、システム(100)の較正精度及び全体の画像解像度に対して、さらなる大きな改善(即ち、64倍)を、重なっている2列のカメラアレイによって実現できる。   Accordingly, all identified improvements (ie, 4 ×) for the embodiment of FIG. 19 described above apply to the embodiment of FIG. 20, but to the calibration accuracy and overall image resolution of the system (100). On the other hand, a further great improvement (ie 64 times) can be realized with two overlapping camera arrays.

図21は、本発明の特定の実施形態に基づいており、移動体から見下ろしている2列のカメラアレイ(112)について、前方及び側方向にコマウントされ、コレジスタされたオーバーサンプリング配置(2100)の図である。具体的には、図21は、本発明の特定の実施形態に従う、移動体から見下ろしており、重なっている2列のカメラアレイ(112)について、前方及び側方向にコマウントされ、コレジスタされたオーバーサンプリング配置(2100)の図であり、最小限の前方及び最小限の側方向オーバーサンプリングを示している。隣接するカメラは、垂直方向のサイドラップ領域(2104)(2108)(2124)(2128)において少し重なっており、対応するカメラは、水平方向のサイドラップ領域(2112)(2116)(2120)に沿って少し重なっている。図21は、3台のカメラの2列のアレイを示しているが、これらサブピクセル較正技術は、較正されている2以上の任意の数のカメラの任意の数のカメラセンサを有し、重なっている2列のカメラアレイを用いる際も同様に上手く機能する。   FIG. 21 is based on a specific embodiment of the present invention and shows a two-column camera array (112) looking down from a mobile body in a front and side co-mounted, co-registered oversampling arrangement (2100). FIG. Specifically, FIG. 21 shows a two-row overlapping camera array (112) looking down from a mobile, according to a particular embodiment of the present invention, co-mounted and co-registered over and forward. FIG. 4 is a diagram of a sampling arrangement (2100) showing minimal forward and minimal lateral oversampling. Adjacent cameras overlap slightly in the vertical side wrap areas (2104) (2108) (2124) (2128), and the corresponding cameras in the horizontal side wrap areas (2112) (2116) (2120) A little overlap along. Although FIG. 21 shows a two-row array of three cameras, these sub-pixel calibration techniques have any number of camera sensors of any number of two or more cameras being calibrated and overlapped. This also works well when using two rows of camera arrays.

図3及び図4の画像センサと同様に、カメラセンサはコレジスタされて、各センサの相互間の、及び/又は天底カメラに対する各センサの取付角度の物理的オフセットを較正できる。本実施形態において、複数の、即ち少なくとも2つの剛性取付ユニットは、剛性取付プレートに固定されており、コレジスタされている。これにより、初期の「精密な」較正がもたらされる。これらの初期較正パラメータは、システム(100)の機上コンピュータシステム(104)に入力されて、飛行中にアップデートできる。   Similar to the image sensors of FIGS. 3 and 4, the camera sensors can be co-registered to calibrate the physical offset of each sensor's mounting angle between each sensor and / or with respect to the nadir camera. In this embodiment, a plurality, ie at least two rigid mounting units, are fixed to the rigid mounting plate and co-registered. This provides an initial “precise” calibration. These initial calibration parameters can be input into the onboard computer system (104) of the system (100) and updated during flight.

図21を参照して、符号A、B及びCを付した矩形は夫々、3台のカメラのアレイC−B−A(図示せず)からの画像領域(2102)(2106)(2110)を表し、矩形D、E及びFは夫々、3台のカメラのアレイF−E−D(図示せず)からの画像領域(2122)(2126)(2130)を表している。カメラA乃至C(図示せず)によって夫々撮影された領域(2102)(2106)(2110)の画像、及びカメラD乃至F(図示せず)によって夫々撮影された領域(2122)(2126)(2130)の画像を、俯瞰図として示している。ここでも、図3及び図4と同様に、「斜視」の配置であるため、領域(2102)の左後側画像は右後側カメラAによって撮影され、領域(2106)の中央後側画像は後側の中央/天底カメラBによって撮影され、領域(2110)の右後側画像は左後側カメラCによって撮影される。さらに、領域(2122)の左前側画像は右前側カメラDによって撮影され、領域(2126)の中央前側画像は中央前側カメラEによって撮影され、領域(2020)の右前側画像は左前側カメラFによって撮影される。カメラA乃至C及び重なっているカメラD乃至Fは、アレイを形成し(図示せず)、該アレイは、殆どの用途において、垂直下向きに向けられる。   Referring to FIG. 21, the rectangles labeled A, B, and C respectively represent image areas (2102), (2106), and (2110) from an array C-B-A (not shown) of three cameras. The rectangles D, E, and F represent image regions (2122), (2126), and (2130) from an array FE-D (not shown) of three cameras, respectively. Images of areas (2102), (2106) and (2110) respectively photographed by cameras A to C (not shown), and areas (2122) and (2126) (2126) (each photographed by cameras D to F (not shown)) 2130) is shown as an overhead view. Here, as in FIG. 3 and FIG. 4, since the arrangement is “perspective”, the left rear image of the area (2102) is taken by the right rear camera A, and the central rear image of the area (2106) is The image is taken by the rear center / nadir camera B, and the right rear image of the area (2110) is taken by the left rear camera C. Further, the left front image of the area (2122) is taken by the right front camera D, the center front image of the area (2126) is taken by the center front camera E, and the right front image of the area (2020) is taken by the left front camera F. Taken. Cameras A to C and overlapping cameras D to F form an array (not shown) that is oriented vertically downward in most applications.

図21において、垂直なハッチング領域は、4つの画像重なり領域(2104)(2108)(2124)(2128)を表している。左後側画像重なり領域(2104)は、右後側カメラAが中央/天底カメラBとオーバーラップしており、右後側画像重なり領域(2108)は、左後側カメラCが中央/天底カメラBと重なっている領域である。左前側画像重なり領域(2124)は、右前側カメラDが中央/天底カメラEとオーバーラップしており、右前側画像重なり領域(2128)は、左前側カメラFが中央カメラEと重なっている領域である。   In FIG. 21, vertical hatched areas represent four image overlapping areas (2104) (2108) (2124) (2128). In the left rear image overlapping area (2104), the right rear camera A overlaps the center / nadir camera B, and in the right rear image overlapping area (2108), the left rear camera C is center / top. This is an area overlapping the bottom camera B. In the left front image overlap area (2124), the right front camera D overlaps with the center / nadir camera E, and in the right front image overlap area (2128), the left front camera F overlaps with the center camera E. It is an area.

図21を参照して、「サイドラップ領域4:1」が付された重なりグリッドの細部は、重なっているサイドラップ重なり領域(2104)(2108)(2124)(2128)を表している。これらサイドラップ重なり領域(2104)(2108)(2124)(2128)において、カメラセンサのグリッドは、重なり領域(2104)(2108)(2124)(2128)の各ピクセルを両断し、これにより、コマウントされ、コレジスタされたオーバーサンプリングの機構を介して、これら領域(2104)(2108)(2124)(2128)の画像解像度が事実上4倍になる。実際には、画像/センサ解像度は、各次元において2倍、即ち2×2=4倍向上する。前述のように、この画像解像度の4倍増の向上により、隣接するカメラ間のアライメント精度も4倍向上する。   Referring to FIG. 21, the details of the overlapping grid to which “side wrap region 4: 1” is attached represent overlapping side wrap overlapping regions (2104) (2108) (2124) (2128). In these side wrap overlap areas (2104) (2108) (2124) (2128), the camera sensor grid cuts each pixel in the overlap area (2104) (2108) (2124) (2128), thereby comounting Thus, the image resolution of these regions (2104) (2108) (2124) (2128) is effectively quadrupled through the co-registered oversampling mechanism. In practice, the image / sensor resolution is improved by a factor of 2 in each dimension, ie 2 × 2 = 4 times. As described above, by improving the image resolution by 4 times, the alignment accuracy between adjacent cameras is also improved by 4 times.

隣接するカメラ間のアライメント精度が4倍増に向上することで、剛性取付プレートに固定された全てのセンサについて、システム(100)のアライメント精度が向上する。カメラA乃至C、及び所望により他のセンサは、第1の剛性取付ユニットに固定され、カメラD乃至F、及び所望により他のセンサは、第2の剛性取付ユニットに固定され、これら剛性取付ユニットは夫々剛性取付プレートに固定されている。具体的には、第1又は第2の剛性取付ユニットに固定されており、隣接しているカメラの角度アライメントが改善されると、取付ユニットに固定されている他のセンサの角度アライメントも向上する。剛性取付プレートに固定された他のセンサのアライメント精度の向上により、これらセンサの画像解像度も改善される。   By improving the alignment accuracy between adjacent cameras by a factor of four, the alignment accuracy of the system (100) is improved for all sensors fixed to the rigid mounting plate. Cameras A to C and optionally other sensors are fixed to the first rigid mounting unit, and cameras D to F and optionally other sensors are fixed to the second rigid mounting unit. Are each fixed to a rigid mounting plate. Specifically, if the angle alignment of the adjacent camera is fixed to the first or second rigid mounting unit, the angle alignment of other sensors fixed to the mounting unit is also improved. . By improving the alignment accuracy of other sensors fixed to the rigid mounting plate, the image resolution of these sensors is also improved.

同様に、水平なハッチング領域は、3つの画像重なり領域(2112)(2116)(2120)を表している。左前側画像重なり領域(2112)は、右後側カメラAが右前側カメラDと重なっている領域であり、中央前側画像重なり領域(2116)は、後側の中央/天底カメラBが中央前側カメラEと重なっている領域であり、右後側画像重なり領域(2120)は、左後側カメラCが左前側カメラFと重なっている領域である。   Similarly, the horizontal hatched area represents three image overlapping areas (2112) (2116) (2120). The left front image overlap area (2112) is an area where the right rear camera A overlaps the right front camera D, and the center front image overlap area (2116) is the center / nadir camera B on the rear side in the center front side. The right rear image overlap area (2120) is an area where the left rear camera C and the left front camera F overlap.

図21を参照して、「フォアラップ領域4:1」が付された重なりグリッドの細部は、重なっているフォアラップ重なり領域(2112)(2116)(2120)を表している。これらフォアラップ重なり領域(2112)(2116)(2120)において、カメラセンサのグリッドは、重なり領域(2112)(2116)(2120)の各ピクセルを両断し、これにより、コマウントされ、コレジスタされたオーバーサンプリングの機構を介して、これら領域(2112)(2116)(2120)の画像解像度が事実上4倍になる。実際には、画像/センサ解像度は、各次元において2倍、即ち2×2=4倍向上する。この画像解像度の4倍増の向上により、対応するカメラ間のアライメント精度も4倍向上する。   Referring to FIG. 21, the details of the overlapping grid to which “forelap region 4: 1” is attached represent overlapping forelap overlapping regions (2112), (2116), and (2120). In these forelap overlap areas (2112), (2116), (2120), the camera sensor grid bisects each pixel in the overlap area (2112), (2116), (2120), thereby co-mounted and co-registered over-range. Through the sampling mechanism, the image resolution of these regions (2112) (2116) (2120) is effectively quadrupled. In practice, the image / sensor resolution is improved by a factor of 2 in each dimension, ie 2 × 2 = 4 times. By improving the image resolution by 4 times, the alignment accuracy between corresponding cameras is also improved by 4 times.

対応するカメラ間のアライメント精度が4倍増に向上することで、剛性取付プレートに固定された全てのセンサについて、システム(100)のアライメント精度が向上する。カメラA乃至C、及び所望により他のセンサは、第1の剛性取付ユニットに固定され、カメラD乃至F、及び所望により他のセンサは、第2の剛性取付ユニットに固定され、これら剛性取付ユニットは夫々剛性取付プレートに固定されている。具体的に、第1又は第2の剛性取付ユニットに固定されている、対応するカメラの角度アライメントが改善されると、他のセンサの角度アライメントも向上する。剛性取付プレートに固定された他のセンサのアライメント精度の向上により、これらセンサの画像解像度も改善される。   By increasing the alignment accuracy between corresponding cameras by a factor of four, the alignment accuracy of the system (100) is improved for all sensors fixed to the rigid mounting plate. Cameras A to C and optionally other sensors are fixed to the first rigid mounting unit, and cameras D to F and optionally other sensors are fixed to the second rigid mounting unit. Are each fixed to a rigid mounting plate. Specifically, when the angle alignment of the corresponding camera fixed to the first or second rigid mounting unit is improved, the angle alignment of other sensors is also improved. By improving the alignment accuracy of other sensors fixed to the rigid mounting plate, the image resolution of these sensors is also improved.

図20の重なっているサイドラップ重なり領域(2006)(2008)及び(2014)(2016)と同様に、図21の交差しているフォアラップ及びサイドラップ重なり領域(2114)(2118)は、驚くべきことに、システムの構成及びカメラアライメントにおいて全体的に64倍向上する。図21を参照して、「クアッド重なり領域64:1」が付された交差グリッド細部は、交差しているフォアラップ及びサイドラップ重なり領域(2118)を表している。交差しているフォアラップ及びサイドラップ重なり領域(2114)(2118)において、重なっているカメラセンサのグリッドは、交差領域(2114)(2118)の各ピクセルを両断し、これにより、コマウントされ、コレジスタされたオーバーサンプリングの機構を介して、これら領域(2114)(2118)の画像解像度が事実上4倍になる。実際には、画像/センサ解像度はここでも、各次元において2倍、即ち2×2×2×2×2×2=64倍向上する。この全体としての画像解像度の64倍増の向上により、隣接するカメラ間のアライメント精度も64倍向上する。   Similar to the overlapping side wrap overlap regions (2006) (2008) and (2014) (2016) of FIG. 20, the intersecting fore wrap and side wrap overlap regions (2114) (2118) of FIG. What should be done is an overall improvement of 64 times in system configuration and camera alignment. Referring to FIG. 21, the cross grid details labeled “Quad overlap region 64: 1” represent the intersecting fore wrap and side wrap overlap region (2118). In the intersecting fore-wrap and side-wrap overlap area (2114) (2118), the grid of overlapping camera sensors bisects each pixel in the intersection area (2114) (2118), thereby co-mounted and co-registered. Through the oversampling mechanism, the image resolution of these regions (2114) and (2118) is effectively quadrupled. In practice, the image / sensor resolution is again improved by a factor of 2 in each dimension, ie 2 × 2 × 2 × 2 × 2 × 2 = 64 times. By improving the overall image resolution by 64 times, the alignment accuracy between adjacent cameras is also improved by 64 times.

隣接し、対応するカメラ間のアライメント精度が64倍増に向上することで、剛性取付プレートに固定された全てのセンサについて、システム(100)のアライメント精度が向上する。カメラA乃至C、及び所望により他のセンサは、第1の剛性取付ユニットに固定され、カメラD乃至E、及び所望により他のセンサは、第2の剛性取付ユニットに固定され、これら剛性取付ユニットは夫々剛性取付プレートに固定されている。具体的に、第1及び/又は第2の剛性取付ユニットに固定されている、隣接するカメラ及び/又は対応するカメラの角度アライメントが改善されると、他のセンサの角度アライメントも向上する。剛性取付プレートに固定された他のセンサのアライメント精度の向上により、これらセンサの画像解像度も改善される。   By improving the alignment accuracy between adjacent and corresponding cameras by 64 times, the alignment accuracy of the system (100) is improved for all sensors fixed to the rigid mounting plate. Cameras A to C and optionally other sensors are fixed to the first rigid mounting unit, and cameras D to E and optionally other sensors are fixed to the second rigid mounting unit. Are each fixed to a rigid mounting plate. Specifically, when the angular alignment of adjacent cameras and / or corresponding cameras fixed to the first and / or second rigid mounting unit is improved, the angular alignment of other sensors is also improved. By improving the alignment accuracy of other sensors fixed to the rigid mounting plate, the image resolution of these sensors is also improved.

好ましい実施形態において、一方のカメラアレイはモノクロ用であり、他方のカメラアレイはRGB用である。各アレイが異なる色の帯域をカバーしているとしても、簡単な画像処理技術を用いて、全ての色の帯域にて、この解像度を向上させる利点を実現できる。これらの技術によりもたらされる別の利点は、1列のカメラアレイがRGB用、及びその他の重なっているカメラアレイが赤外線や近赤外線(又はさらに他の幾つかの帯域幅)用である場合、優れたマルチスペクトル画像を得られることである。   In a preferred embodiment, one camera array is for monochrome and the other camera array is for RGB. Even if each array covers a different color band, the advantage of improving this resolution in all color bands can be realized using simple image processing techniques. Another advantage provided by these technologies is that if one row of camera arrays is for RGB and the other overlapping camera array is for infrared or near infrared (or some other bandwidth), Multispectral images can be obtained.

図19乃至図21に示すように、これら技術を用いて、光学ガラスが「非常に小さな」対象物を解像することができないことに起因した、カメラシステムに課せられた解像限界を克服できる。上述したように、これらの技術は、アクロストラックカメラアレイ、アロングトラックカメラアレイ、又はそれらの任意の組合せを用いても同様に十分に働く。特に、カメラレンズの光学ガラスには、非常に小さな対象物を解像する能力に物理的限界があることが知られている。このことはよく「ガラスの解像限界」と呼ばれる。例えば、10,000フィート(3,048メートル)の標高から1ミリメートルのピクセルが必要とされる場合、非常に高倍率の望遠レンズを用いて約100フィート(30.48メートル)の地上幅(ground swath)を得ることが必要とされるだろう。これは、電荷結合デバイスセンサで幾らでもピクセルを与えることができる(例えば、1億ピクセル)としても、最も純度の高いガラスの解像力でも標高10,000フィート(3,048メートル)にて1ミリメートルのピクセルの画像解像を可能にすることはできないからである。この例は、ガラスにおけるピクセル解像度の物理的限界と同様、画像センサのピクセル密度限界が存在する点をはっきりさせるために使われる。   As shown in FIGS. 19-21, these techniques can be used to overcome the resolution limitations imposed on the camera system due to the inability of optical glass to resolve “very small” objects. . As mentioned above, these techniques work equally well with across track camera arrays, along track camera arrays, or any combination thereof. In particular, it is known that the optical glass of a camera lens has physical limitations on the ability to resolve very small objects. This is often referred to as the “glass resolution limit”. For example, if a pixel of 1 millimeter is required from an altitude of 10,000 feet (3,048 meters), a ground width of about 100 feet (30.48 meters) using a very high magnification telephoto lens. It would be necessary to get swath). This can give any number of pixels with a charge-coupled device sensor (eg, 100 million pixels), but even at the resolution of the purest glass at 10,000 feet (3,048 meters) at 1 millimeter This is because image resolution of pixels cannot be made possible. This example is used to clarify the existence of image sensor pixel density limits as well as the physical limits of pixel resolution in glass.

剛性取付プレートに取り付けられた剛性取付ユニットにおけるシステム(100)の画像センサアライメントと関連する較正技術とは、前述のように、この問題に対する独自の解決策を提供する。これら技術を用いることにより、ガラスの解像限界を事実上克服することができる。例えば、単一のカメラアレイにより1倍(又はなし)のオーバーサンプリングの利益がもたらされる。しかしながら、重なっている2列のカメラアレイにより、画像解像度と、全地球空間的(overall geospatial)な水平方向及び垂直方向の精度との双方において、全体として4倍増の向上がもたらされる。さらに、重なっている3列のカメラアレイにより、全体として16倍増の向上がもたらされ、重なっている4列のカメラアレイにより、全体として64倍増の向上がもたらされる、という具合である。   The calibration technique associated with the image sensor alignment of the system (100) in a rigid mounting unit mounted on a rigid mounting plate provides a unique solution to this problem, as described above. By using these techniques, the resolution limit of glass can be effectively overcome. For example, a single camera array provides a benefit of 1 × (or none) oversampling. However, the overlapping two-row camera array provides an overall increase of four times in both image resolution and overall horizontal and vertical accuracy. Furthermore, the overlapping three-row camera array provides an overall 16-fold improvement, and the overlapping four-row camera array provides an overall 64-fold improvement.

これらの例から推測できるように、全体的な向上の式は次のとおりである:
全体的な向上=4
但し、Nは、重なっているカメラアレイの数である。
As can be inferred from these examples, the overall improvement equation is:
Overall improvement = 4 N
N is the number of overlapping camera arrays.

4列のカメラアレイがある場合、重なっているカメラアレイは3列である(即ち、N=3)。従って、4列のカメラアレイは、画像解像度と、全地球空間的な水平方向及び垂直方向の精度との双方において、全体として64倍(即ち、4=64倍)増の向上をもたらす。 If there are 4 rows of camera arrays, there are 3 rows of overlapping camera arrays (ie, N = 3). Thus, a four-row camera array provides an overall increase of 64 times (ie, 4 3 = 64 times) in both image resolution and global spatial and horizontal accuracy.

さらに、これらのサブピクセル較正技術は、米国特許出願公開第2004/0054488A1号(現在、米国特許第7,212,938B2号)に開示されているセルフロッキング飛行経路技術と組み合わせることができ、この出願の開示は全て、引用を以て本明細書の一部となる。   In addition, these subpixel calibration techniques can be combined with the self-locking flight path technique disclosed in U.S. Patent Application Publication No. 2004 / 0054488A1 (currently U.S. Pat. No. 7,212,938B2). All of the disclosures of which are incorporated herein by reference.

図19乃至図21に示す、前面方向及び/又は側方向にコマウントされ、コレジスタされたオーバーサンプリングに加えて、本発明はまた、画像解像度をさらに向上させるために、図13乃至図17に示す、飛行ラインオーバーサンプリングを用いることもできる。これらの飛行ラインオーバーサンプリング技術は、アクロストラックカメラアレイ、アロングトラックカメラアレイ、又はそれらの任意の組合せを用いても同様に十分に働く。
図13乃至図17に示すように、飛行ラインは画像領域において互いに重なり合うが、これは、各飛行ラインが互いに平行であるためである。これらの重なり画像領域を用いて、ステレオグラフィック技術により、隣接する飛行ライン内の画像における軌道に沿う視差と軌道を横切る視差とによって、センサを較正することができる。
In addition to the front-facing and / or side-coordinated and co-registered oversampling shown in FIGS. 19-21, the present invention also provides for further improving image resolution, as shown in FIGS. Flight line oversampling can also be used. These flight line oversampling techniques work equally well with across track camera arrays, along track camera arrays, or any combination thereof.
As shown in FIGS. 13 to 17, the flight lines overlap each other in the image area because the flight lines are parallel to each other. Using these overlapping image regions, the sensor can be calibrated by parallax along the trajectory and across the trajectory in images in adjacent flight lines by stereographic techniques.

実施形態において、セルフロッキング飛行経路は、3以上の進行ライン(travel lines)の群から少なくとも3つの略平行な進行ラインを生成する任意のパターンであってよい。さらに、少なくとも1つの進行ラインは、他の略平行な進行ラインと対向する方向にあるべきである。好ましい実施形態において、進行パターンは、一致する方向にある少なくとも1対の進行ラインと、対向する方向にある少なくとも1対の進行ラインであってよい。   In an embodiment, the self-locking flight path may be any pattern that generates at least three generally parallel travel lines from a group of three or more travel lines. Furthermore, at least one travel line should be in a direction opposite to other substantially parallel travel lines. In a preferred embodiment, the progression pattern may be at least one pair of progression lines in a matching direction and at least one pair of progression lines in opposite directions.

反対方向のセルフロッキング飛行経路を用いる場合、観察可能な位置エラーが、一部の画像領域において倍増することがある。従って、セルフロッキング飛行経路技術は、これらの位置エラーを大きく低減するためのアルゴリズムを含んでいる。位置エラーのこの低減は、最大の位置エラーが発生する外側領域、即ち左端と右端の「翼(wing)」画像領域において特に重要である。   When using a self-locking flight path in the opposite direction, the observable position error may be doubled in some image areas. Thus, the self-locking flight path technique includes an algorithm for greatly reducing these position errors. This reduction in position error is particularly important in the outer region where the maximum position error occurs, i.e., the left and right "wing" image regions.

実施形態において、これらの位置的向上は、パターンマッチング技術を用いて、飛行ライン(例えば、北/南)から得られたピクセルパターン領域を、隣接する飛行ライン(例えば、北/南)から得られた同じピクセルパターン領域と自動的に一致させることによって、実現できる。好ましい実施形態において、1又は複数のGPS位置システムからの緯度/経度座標を用いて、このパターンマッチング処理を速めることができる。   In embodiments, these positional enhancements can be obtained from adjacent flight lines (eg, north / south) using pixel pattern regions obtained from flight lines (eg, north / south) using pattern matching techniques. It can be realized by automatically matching with the same pixel pattern region. In a preferred embodiment, this pattern matching process can be accelerated using latitude / longitude coordinates from one or more GPS location systems.

同様に、これらのサブピクセル較正とセルフロッキング飛行経路技術は、ステレオグラフィック技術と組み合わされてよい。これは、ステレオグラフィック技術が、各ピクセルの、他の全てのピクセルに対する位置精度に大きく依存しているためである。具体的には、これらの技術は、特に、最大の位置エラーが発生する左端と右端の「翼」画像領域において、ステレオグラフィック画像解像度と、全地理空間の(geospatial)水平方向及び垂直方向の精度とを改善する。さらに、ステレオグラフィック技術は、既知の標高データを、改善されたステレオグラフィックデータセットに一致させるのに用いられる。従って、サブピクセル較正、セルフロッキング飛行経路、及びステレオグラフィック技術を組み合わせることで、大幅に改善したデジタル標高モデルが提供され、優れた画像が得られる。   Similarly, these sub-pixel calibration and self-locking flight path techniques may be combined with stereographic techniques. This is because stereographic technology relies heavily on the positional accuracy of each pixel relative to all other pixels. Specifically, these techniques provide stereographic image resolution and total geospatial horizontal and vertical accuracy, especially in the left and right "wing" image areas where maximum position errors occur. And improve. In addition, stereographic techniques are used to match known elevation data to an improved stereographic data set. Thus, a combination of sub-pixel calibration, self-locking flight path, and stereographic techniques provides a significantly improved digital elevation model and provides superior images.

さらに、これらのサブピクセル較正とセルフロッキング飛行経路技術は、システム(100)の動的なリアルタイムの較正を提供するために使用できる。具体的には、これらの技術は、1又は複数のカメラアレイアセンブリ(112)をシステム(100)上に迅速に「ロールオン(roll on)」し、ターゲット領域の画像データの収集を直ちに開始し、そして高品質の画像を素早く生成する性能を提供する。これは、前述のように、個々のセンサが、剛性取付プレートに固定されている剛性取付ユニットにおいて最初に較正されているからである。具体的には、カメラセンサはコレジスタされて、各センサの相互間の、及び/又は天底カメラに対する各センサの取付角度の物理的オフセットを較正する。ある実施形態において、複数の、即ち少なくとも2つの剛性取付ユニットは、剛性取付プレートに固定されており、コレジスタされている。これにより、初期の「精密な」較正がもたらされる。これらの初期較正パラメータは、前述のように、システム(100)の機上コンピュータシステム(104)に入力されて、飛行中にオーバーサンプリング技術を用いてアップデートできる。   Furthermore, these sub-pixel calibration and self-locking flight path techniques can be used to provide dynamic real-time calibration of the system (100). Specifically, these techniques quickly “roll on” one or more camera array assemblies (112) onto the system (100) and immediately begin collecting image data of the target area, It provides the ability to quickly generate high quality images. This is because, as described above, the individual sensors are initially calibrated in a rigid mounting unit that is fixed to the rigid mounting plate. Specifically, the camera sensors are co-registered to calibrate the physical offset of each sensor's mounting angle between each sensor and / or with respect to the nadir camera. In one embodiment, the plurality, ie at least two rigid mounting units, are fixed to the rigid mounting plate and co-registered. This provides an initial “precise” calibration. These initial calibration parameters are input to the onboard computer system (104) of the system (100) as described above and can be updated using oversampling techniques during flight.

ある実施形態において、システム(100)は、較正パラメータを更新するためのリアルタイムな自己較正システムを含む。具体的には、機上コンピュータ(104)ソフトウェアは、前述のように、コマウントされ、コレジスタされたオーバーサンプリング技術と、飛行ラインオーバーサンプリング技術を用いて、較正パラメータを絶えず監視し更新するためのリアルタイムソフトウェア「デーモン」(即ち、バックグラウンド閉ループ監視ソフトウェア)を含む。好ましい実施形態において、リアルタイムデーモンは、サブピクセル較正、セルフロッキング飛行経路、及びステレオグラフィック技術を組み合わせることで、ステレオグラフィック画像解像度と、全地理空間の水平方向及び垂直方向の精度とを改善する。具体的には、ステレオグラフィック技術は、既知の標高データを、改善されたステレオグラフィックデータセットに一致させるのに用いられる。従って、サブピクセル較正、セルフロッキング飛行経路、及びステレオグラフィック技術を組み合わせることで、大幅に改善したデジタル標高モデルが提供され、優れた画像が得られる。   In certain embodiments, the system (100) includes a real-time self-calibration system for updating calibration parameters. In particular, the onboard computer (104) software uses real-time to continuously monitor and update calibration parameters using co-mounted, co-registered oversampling and flight line oversampling techniques, as described above. Includes software “daemon” (ie, background closed-loop monitoring software). In a preferred embodiment, the real-time daemon improves the stereographic image resolution and horizontal and vertical accuracy of the entire geospace by combining subpixel calibration, self-locking flight path, and stereographic techniques. Specifically, stereographic techniques are used to match known elevation data with an improved stereographic data set. Thus, a combination of sub-pixel calibration, self-locking flight path, and stereographic techniques provides a significantly improved digital elevation model and provides superior images.

ある実施形態では、システム(100)は、GPS入力データを提供するためのリアルタイムGPSデータシステムを含んでいる。GPSやIMU等の電子デバイスからの入力データによって、そして業界標準のGPSやIMUのソフトウェアシステムによって増強される較正ソフトウェアによって、較正精度が促進される。従って、このリアルタイムな自己較正システムの重要なコンポーネントは、衛星電話、携帯電話、RFモデム、又は類似のデバイス等の潜在的に低い帯域幅の通信チャンネルを介したリアルタイムGPS入力データである。リアルタイムGPS入力データの潜在的なソースには、プロジェクト制御されたアドホックステーション、固定放送GPS位置(若しくはその類似物)、又は機上IMU経由の慣性ナビゲーションが含まれる。   In some embodiments, the system (100) includes a real-time GPS data system for providing GPS input data. Calibration accuracy is facilitated by input data from electronic devices such as GPS and IMU, and by calibration software augmented by industry standard GPS and IMU software systems. Thus, an important component of this real-time self-calibration system is real-time GPS input data via a potentially low-bandwidth communication channel such as a satellite phone, cell phone, RF modem, or similar device. Potential sources of real-time GPS input data include project-controlled ad hoc stations, fixed broadcast GPS locations (or the like), or inertial navigation via onboard IMUs.

図19乃至図21に示したような、前面方向及び/又は側方向にコマウントされ、コレジスタされたオーバーサンプリングと、図13乃至図17に示した飛行ラインオーバーサンプリングとに加えて、本発明は、防振及び恒温手法を用いて、単一のカメラ内にて画像収集の不正確性と、2又は3以上のカメラの間にて画像合成の不正確性とを更に低減してよい。例えば、図26A及び図26Bは、精度を増加するための、カメラのマルチステージ分離の実施例を図示している。図26A及び図26Bは、防振部材と熱スリーブを示しているが、その他の防振及び恒温手法が使用されてよい。更に、図26A及び図26Bは、オルソ及び斜め画像センサを備えており、アロングトラック斜視式に構成されたカメラアレイを示しているが、これらの防振及び恒温技術は、オルソ画像センサ、斜め画像センサ、又はそれらの任意の組合せを備えたその他のカメラアレイを用いる場合でも、同様に十分に働く。   In addition to the front and / or side co-mounted and co-registered oversampling as shown in FIGS. 19-21 and the flight line oversampling shown in FIGS. 13-17, the present invention provides: Anti-vibration and isothermal techniques may be used to further reduce image collection inaccuracy within a single camera and image synthesis inaccuracy between two or more cameras. For example, FIGS. 26A and 26B illustrate an example of multi-stage separation of cameras to increase accuracy. 26A and 26B show a vibration isolation member and a thermal sleeve, but other vibration isolation and thermostat techniques may be used. Further, FIG. 26A and FIG. 26B are provided with an ortho and oblique image sensor, and show a camera array configured in an along-track perspective type. Using other camera arrays with sensors, or any combination thereof, works equally well.

カメラアレイアセンブリ(2600)の上記の実施例では、画像センサは、アロングトラック斜視式で配置されている。図26Aに示したように、取付ユニット(2604)は、簡単な構造であり、その中に、画像センサ(2606)(2608)(2610)(2612)が配置されている。画像センサ(2606)乃至(2614)は、全てのセンサの焦点軸が、アパーチャ(2620)で規定された交差領域内で集束し互いに交差するように、取付ユニット(2604)の内部に、又は取付ユニット(304)に沿って配置される。   In the above embodiment of the camera array assembly (2600), the image sensor is arranged in an along track perspective view. As shown in FIG. 26A, the mounting unit (2604) has a simple structure, and the image sensors (2606) (2608) (2610) (2612) are arranged therein. The image sensors (2606) to (2614) are mounted inside the mounting unit (2604) or mounted so that the focal axes of all the sensors converge within the intersecting area defined by the aperture (2620) and intersect each other. Arranged along the unit (304).

図26Bに示すように、斜め画像センサ(2606)はレンズ(2628)を有しており、オルソ画像センサ(2608)はレンズ(2630)を有しており、オルソ画像センサ(2610)はレンズ(2632)を有しており、斜め画像センサはレンズ(2634)を有している。画像センサ及びレンズアセンブリの振動は、個々の構成要素のアライメント変動に起因した振動不正確性を引き起こす。更に、画像センサとレンズアセンブリの熱膨張と収縮は、温度勾配による熱不正確性を起こす。これらの振動不正確性と熱不正確性をできるだけ小さくするために、振動/熱スリーブが、各レンズの周囲に配置されてよく、及び/又は、振動部材が、各レンズを固定するのに使用されてよい。図26A及び図26Bは、斜め画像センサ(2606)とオルソ画像センサ(2608)の夫々について、防振/恒温スリーブ(2622)(2624)を示している。防振/恒温スリーブ(2622)(2624)は、同じであっても、用途の特定の仕様に応じて異なっていてもよい。防振/恒温スリーブは、振動を減衰し、及び/又は、レンズを熱的に絶縁できる任意の材料で作られてよい。   As shown in FIG. 26B, the oblique image sensor (2606) has a lens (2628), the ortho image sensor (2608) has a lens (2630), and the ortho image sensor (2610) has a lens ( 2632), and the oblique image sensor has a lens (2634). Vibration of the image sensor and lens assembly causes vibration inaccuracies due to individual component alignment variations. Furthermore, thermal expansion and contraction of the image sensor and lens assembly cause thermal inaccuracies due to temperature gradients. In order to minimize these vibrational and thermal inaccuracies, a vibration / thermal sleeve may be placed around each lens and / or a vibration member is used to secure each lens. May be. 26A and 26B show anti-vibration / isothermal sleeves (2622) (2624) for the oblique image sensor (2606) and the ortho image sensor (2608), respectively. The anti-vibration / isothermal sleeves (2622) (2624) may be the same or different depending on the specific specifications of the application. The anti-vibration / isothermal sleeve may be made of any material that can damp vibrations and / or thermally insulate the lens.

更に振動不正確性をできるだけ小さくするために、各レンズは、図26Aに示すように防振部材(2626)に固定されてよい。図26Bは、斜め画像センサ(2606)及びオルソ画像センサ(2608)の夫々について、防振取付部材(2636)(2638)を示している。防振取付部材(2636)(2638)は、同じであっても、用途の特定の仕様に応じて異なっていてもよい。防振取付部材は、振動を減衰し、及び/又は、レンズを熱的に絶縁できる任意の材料で作られてよい。   Further, in order to minimize vibration inaccuracy, each lens may be fixed to a vibration isolating member (2626) as shown in FIG. 26A. FIG. 26B shows anti-vibration mounting members (2636) (2638) for the oblique image sensor (2606) and the ortho image sensor (2608), respectively. The anti-vibration mounting members (2636) and (2638) may be the same or different depending on the specific specification of the application. The anti-vibration mounting member may be made of any material that can damp vibrations and / or thermally insulate the lens.

コマウントされ、コレジスタされたオーバーサンプリング技術、サブピクセル較正技術、飛行ラインオーバーサンプリング技術、防振技術、恒温技術、又はそれらの任意の組合せを、画像収集中に用いることで、あたかも、画像が単一のカメラ又は画像センサから得られたかのように、複数のカメラ又は画像センサから得られた画像を同じ精度で合成することができる。好ましい実施例では、高められたこのメトリック精度は、仮想フレームを生じる。  Using co-mounted, co-registered over-sampling techniques, sub-pixel calibration techniques, flight line over-sampling techniques, anti-vibration techniques, isothermal techniques, or any combination thereof, as if a single image Images obtained from a plurality of cameras or image sensors can be synthesized with the same accuracy as if obtained from a plurality of cameras or image sensors. In the preferred embodiment, this increased metric accuracy results in virtual frames.

上記のモジュール、アルゴリズム及びプロセスは、多くの技術及び構成において実施できる。本発明の実施形態は、ソフトウェア又はハードウェア、又はそれらの組合せに関する機能例を含み得る。さらに、本発明のモジュール及びプロセスは、単一の機能例(例えば1つのソフトウェアプログラム)において一緒に組み合わされてよく、動作可能に連携された別個の機能デバイス(例えば複数のネットワーク化されたプロセッサ/メモリブロック)を含んでもよい。そのような実施は全て本発明に含まれる。   The above modules, algorithms and processes can be implemented in many techniques and configurations. Embodiments of the invention may include functional examples relating to software or hardware, or a combination thereof. Further, the modules and processes of the present invention may be combined together in a single functional example (eg, a software program), and are operably linked to separate functional devices (eg, multiple networked processors / Memory block). All such implementations are included in the present invention.

本明細書に記載した実施形態及び実施例は、本発明及びその実際の用途を最も良く説明し、それによって当該分野の当業者が本発明を実施及び利用できるように示されている。しかしながら、当該技術の当業者であれば、前述の記載及び実施例は、説明と例示の目的のためだけに示されていることが認識できるであろう。前述の記載は、包括的であること、及び、本発明を、開示した正確な形態に限定することを意図していない。前述の教示を参照して、添付の特許請求の範囲の精神及び範囲から逸脱することなく、多くの変更及び変形を加えることが可能である。   The embodiments and examples described herein are shown to best explain the invention and its practical application, thereby enabling those skilled in the art to make and use the invention. However, one of ordinary skill in the art will appreciate that the foregoing description and examples have been presented for purposes of illustration and illustration only. The foregoing description is not intended to be exhaustive or to limit the invention to the precise form disclosed. Many modifications and variations may be made in light of the above teachings without departing from the spirit and scope of the appended claims.

Claims (21)

ターゲット領域の地図を生成するシステムであって、
全地球測位レシーバと、
移動体又はプラットホームに調整自在に装着可能な標高測定ユニットと、
移動体又はプラットホームに調整自在に装着可能な全地球測位アンテナと、
移動体又はプラットホームに調整自在に装着可能な姿勢測定ユニットと、
移動体又はプラットホームに調整自在に装着可能であり、ターゲット領域を眺める画像センサシステムと、
コンピュータと、を備えており、
画像センサシステムは、取付ユニットを備えており、該取付ユニットの中に、少なくとも3つの画像センサが配置されており、第1画像センサ、第2画像センサ、及び第3画像センサの各々は、取付ユニットの第1アパーチャを通る焦点軸を有しており、第1画像センサは、ピクセルの第1データアレイを備えるターゲット領域の第1画像領域を生成し、第2画像センサは、ピクセルの第2データアレイを備えるターゲット領域の第2画像領域を生成し、第3画像センサは、ピクセルの第3データアレイを備えるターゲット領域の第3画像領域を生成し、第2画像センサは、アクロストラック斜視式で第1アレイ軸に沿って第1画像センサからオフセットされて、ターゲット領域に第1画像重なり領域を有しており、第3画像センサは、第2画像センサの反対側にて第1アレイ軸に沿って第1画像センサからオフセットされており、
コンピュータは、標高測定ユニット、全地球測位アンテナ、姿勢測定ユニット、第1画像センサ、第2画像センサ、及び第3画像センサと通信し、標高測定ユニット、全地球測位アンテナ、及び姿勢測定ユニットのうちの1又は2以上からの入力に基づいて、第1画像センサ、第2画像センサ、及び第3画像センサの画像領域の少なくとも一部を、ターゲット領域の一部と関連付けており
取付ユニットは、第1画像センサ、第2画像センサ、及び第3画像センサの各々に対応した第2アパーチャを有する1つの防振部材を備えており、第1画像センサ、第2画像センサ、及び第3画像センサの各々の焦点軸は、対応する第2アパーチャを通っており、
各画像センサは、その画像センサに対応するレンズアセンブリを有しており、各レンズアセンブリは、そのレンズアセンブリの前端部が、そのレンズアセンブリの鏡筒を囲う防振又は熱スリーブと共に、そのレンズアセンブリに対応した第2アパーチャに挿入されて防振部材に取り付けられている、システム。
A system for generating a map of a target area,
A global positioning receiver,
An altitude measuring unit that can be adjustably mounted on a moving object or platform;
A global positioning antenna that can be adjustably mounted on a moving object or platform;
A posture measuring unit that can be adjusted and attached to a moving object or a platform;
An image sensor system that can be adjustably mounted on a moving body or platform and that looks at a target area;
A computer, and
The image sensor system includes an attachment unit, and at least three image sensors are arranged in the attachment unit. Each of the first image sensor, the second image sensor, and the third image sensor is attached to the image sensor system. Having a focal axis through the first aperture of the unit, the first image sensor generates a first image region of the target region comprising a first data array of pixels, and the second image sensor is a second of the pixels. A second image area of the target area comprising a data array is generated, a third image sensor producing a third image area of the target area comprising a third data array of pixels, and the second image sensor And offset from the first image sensor along the first array axis to have a first image overlap region in the target region, and the third image sensor Are offset from the first image sensor along the first array axis on the opposite side of the image sensor,
The computer communicates with the altitude measurement unit, the global positioning antenna, the attitude measurement unit, the first image sensor, the second image sensor, and the third image sensor, and the altitude measurement unit, the global positioning antenna, and the attitude measurement unit. based on input from one or more, the first image sensor, a second image sensor, and at least a portion of the image region of the third image sensor, and associated with a portion of the target area,
The mounting unit includes one vibration isolation member having a second aperture corresponding to each of the first image sensor, the second image sensor, and the third image sensor, and the first image sensor, the second image sensor, and Each focal axis of the third image sensor passes through a corresponding second aperture,
Each image sensor has a lens assembly corresponding to that image sensor , each lens assembly having its front end with an anti-vibration or thermal sleeve surrounding the lens assembly barrel. The system is inserted into the second aperture corresponding to the above and attached to the vibration isolating member .
重なっている画像データからの立体画法計算、LIDARデータ、又は、数値標高モデルのうちの1又は2以上からの入力に基づいて、第1画像センサ、第2画像センサ、及び第3画像センサからの画像標高の少なくとも一部は、ターゲット標高の一部と関連付けられる、請求項1に記載のシステム。   From the first image sensor, the second image sensor, and the third image sensor based on input from one or more of the three-dimensional image calculation from the overlapping image data, LIDAR data, or digital elevation model The system of claim 1, wherein at least a portion of the image elevation is associated with a portion of the target elevation. 各レンズアセンブリのレンズには、防振取付部材が設けられている、請求項1に記載のシステム。 The system of claim 1, wherein the lens of each lens assembly is provided with an anti-vibration mounting member . 防振部材は、第1アパーチャを跨ぐように設けられている、請求項1に記載のシステム。The system according to claim 1, wherein the vibration isolation member is provided so as to straddle the first aperture. 取付ユニット内に配置された第4画像センサを更に備えており、第4画像センサは、取付ユニットの第1アパーチャを通る焦点軸を有しており、第4画像センサは、ピクセルの第4データアレイを備えるターゲット領域の第4画像領域を生成し、第4画像センサは、第3画像センサの反対側にて、第1アレイ軸に沿って第2画像センサからオフセットされている、請求項1に記載のシステム。 A fourth image sensor is further disposed in the mounting unit, the fourth image sensor having a focal axis through the first aperture of the mounting unit, and the fourth image sensor is the fourth data of the pixel. 2. A fourth image region of a target region comprising an array is generated, wherein the fourth image sensor is offset from the second image sensor along a first array axis on the opposite side of the third image sensor. The system described in. 取付ユニット内に配置された第4画像センサであって、第4画像センサは、取付ユニットの第1アパーチャを通る焦点軸を有しており、第4画像センサは、ピクセルの第4データアレイを備えるターゲット領域の第4画像領域を生成し、第4画像センサは、ロングトラップ斜視式で第2アレイ軸に沿って第1画像センサからオフセットされている、第4画像センサと、
取付ユニット内に配置された第5画像センサであって、第5画像センサは、取付ユニットの第1アパーチャを通る焦点軸を有しており、第5画像センサは、ピクセルの第5データアレイを備えるターゲット領域の第5画像領域を生成し、第5画像センサは、第4画像センサの反対側にて、第2アレイ軸に沿って第1画像センサからオフセットされている、第5画像センサと、
を更に備えており、
第2画像センサ、第3画像センサ、第4画像センサ、及び第5画像センサは、斜め画像センサである、請求項1に記載のシステム。
A fourth image sensor disposed within the mounting unit, the fourth image sensor having a focal axis through the first aperture of the mounting unit, the fourth image sensor comprising a fourth data array of pixels. generates a fourth image region of the target region comprising, fourth image sensor is offset from the first image sensor along the second array axis a long the trap perspective formula, and a fourth image sensor,
A fifth image sensor disposed within the mounting unit, the fifth image sensor having a focal axis through the first aperture of the mounting unit, the fifth image sensor comprising a fifth data array of pixels. A fifth image sensor, wherein the fifth image sensor is offset from the first image sensor along the second array axis on the opposite side of the fourth image sensor; ,
Is further provided,
The system according to claim 1, wherein the second image sensor, the third image sensor, the fourth image sensor, and the fifth image sensor are oblique image sensors.
第1画像センサと第2画像センサは、デジタルカメラ、LIDAR、赤外、熱感知及びグラビトメータからなる群から選択される、請求項1に記載のシステム。   The system of claim 1, wherein the first image sensor and the second image sensor are selected from the group consisting of a digital camera, LIDAR, infrared, thermal sensing and gravitometer. 第3画像センサと第4画像センサは、デジタルカメラ、LIDAR、赤外、熱感知及びグラビトメータからなる群から選択される、請求項5に記載のシステム。   The system of claim 5, wherein the third image sensor and the fourth image sensor are selected from the group consisting of a digital camera, LIDAR, infrared, thermal sensing, and gravimeter. 第1画像重なり領域は、第1画像領域と第2画像領域の約1%と約100%の間で重なっている、請求項1に記載のシステム。   The system of claim 1, wherein the first image overlap region overlaps between about 1% and about 100% of the first image region and the second image region. 第1画像重なり領域は、第1画像領域と第2画像領域の約10%と約80%の間で重なっている、請求項1に記載のシステム。   The system of claim 1, wherein the first image overlap region overlaps between about 10% and about 80% of the first image region and the second image region. 第1画像重なり領域は、第1画像領域と第2画像領域の約20%と約60%の間で重なっている、請求項1に記載のシステム。   The system of claim 1, wherein the first image overlap region overlaps between about 20% and about 60% of the first image region and the second image region. 第3画像センサは、第1アレイ軸に沿って第1画像センサからオフセットされて、ターゲット領域に第2画像重なり領域を有しており、第1画像センサのグリッドは、第1画像重なり領域にて第2画像センサの画像データを両断し、第1画像センサのグリッドは、第2画像重なり領域にて第3画像センサの画像データを両断し、第1画像重なり領域は、第1画像領域と第2画像領域の約100%であり、第2画像重なり領域は、第1画像領域と第3画像領域の約100%である、請求項1に記載のシステム。 The third image sensor is offset from the first image sensor along the first array axis and has a second image overlap region in the target region, and the grid of the first image sensor is in the first image overlap region. The image data of the second image sensor is divided into two parts, the grid of the first image sensor cuts the image data of the third image sensor into two parts in the second image overlapping area, and the first image overlapping area is separated from the first image area. The system of claim 1, wherein the second image area is approximately 100% and the second image overlap area is approximately 100% of the first image area and the third image area. 第2画像センサは、アロングトラック斜視式で第1アレイ軸に沿って第1画像センサからオフセットされており、第1画像センサのグリッドは、第1画像重なり領域にて第2画像センサの画像データを両断する、請求項5に記載のシステム。 The second image sensor is offset from the first image sensor along the first array axis along track perspective formula grid of the first image sensor, the image data of the second image sensor in the first image overlapping area 6. The system according to claim 5, wherein 重なっている画像データからの立体画法計算、LIDARデータ、又は、数値標高モデルのうちの1又は2以上からの入力に基づいて、第1画像センサ、第2画像センサ、及び第3画像センサからの画像標高の少なくとも一部は、ターゲット標高の一部と関連付けられる、請求項13に記載のシステム。   From the first image sensor, the second image sensor, and the third image sensor based on input from one or more of the three-dimensional image calculation from the overlapping image data, LIDAR data, or digital elevation model The system of claim 13, wherein at least a portion of the image elevation of the is associated with a portion of the target elevation. 第3画像センサは、前方斜め画像センサであり、第4画像センサは、後方斜め画像センサである、請求項13に記載のシステム。   The system of claim 13, wherein the third image sensor is a front oblique image sensor and the fourth image sensor is a rear oblique image sensor. 第1画像重なり領域は、第1画像領域と第2画像領域の約1%と約100%の間で重なっている、請求項13に記載のシステム。   The system of claim 13, wherein the first image overlap region overlaps between about 1% and about 100% of the first image region and the second image region. 第1画像重なり領域は、第1画像領域と第2画像領域の約30%と約95%の間で重なっている、請求項13に記載のシステム。   The system of claim 13, wherein the first image overlap region overlaps between about 30% and about 95% of the first image region and the second image region. 第1画像重なり領域は、第1画像領域と第2画像領域の約50%と約90%の間で重なっている、請求項13に記載のシステム。   The system of claim 13, wherein the first image overlap region overlaps between about 50% and about 90% of the first image region and the second image region. 画像センサシステムであって、
移動体又はプラットホームに調整自在に装着可能な取付ユニットを備えており、
取付ユニット内に第1画像センサ、第2画像センサ、第3画像センサ、及び第4画像センサが配置されており、第1画像センサ、第2画像センサ、第3画像センサ、及び第4画像センサの各々は、取付ユニットの第1アパーチャを通る焦点軸を有しており、第1画像センサは、ピクセルの第1データアレイを備える第1画像領域を生成し、第2画像センサは、ピクセルの第2データアレイを備える第2画像領域を生成し、第3画像センサは、ピクセルの第3データアレイを備える第3画像領域を生成し、第4画像センサは、ピクセルの第データアレイを備える第4画像領域を生成し、第2画像センサは、アクロストラック斜視式で第1画像センサからオフセットされて、ターゲット領域に第1画像重なり領域を有しており、第1画像センサのグリッドは、第1画像重なり領域にて第2画像センサの画像データを両断
取付ユニットは、第1画像センサ、第2画像センサ、第3画像センサ及び第4画像センサの各々に対応した第2アパーチャを有する1つの防振部材を備えており、第1画像センサ、第2画像センサ、第3画像センサ及び第4画像センサの各々の焦点軸は、対応する第2アパーチャを通っており、
各画像センサは、その画像センサに対応するレンズアセンブリを有しており、各レンズアセンブリは、そのレンズアセンブリの前端部が、そのレンズアセンブリの鏡筒を囲う防振又は熱スリーブと共に、そのレンズアセンブリに対応した第2アパーチャに挿入されて防振部材に取り付けられている、画像センサシステム。
An image sensor system,
It is equipped with a mounting unit that can be adjusted and attached to a moving body or platform.
A first image sensor, a second image sensor, a third image sensor, and a fourth image sensor are disposed in the mounting unit, and the first image sensor, the second image sensor, the third image sensor, and the fourth image sensor. Each having a focal axis through the first aperture of the mounting unit, the first image sensor producing a first image area comprising a first data array of pixels, and the second image sensor comprising: A second image area comprising a second data array is generated, a third image sensor producing a third image area comprising a third data array of pixels, and a fourth image sensor comprising a fourth data array of pixels. generates a fourth image region, the second image sensor is offset from the first image sensor in Across track perspective formula, it has a first image overlapping area in the target area, the first image sensor Grid is to bisect the image data of the second image sensor in the first image overlapping area,
The mounting unit includes one anti-vibration member having a second aperture corresponding to each of the first image sensor, the second image sensor, the third image sensor, and the fourth image sensor. The focal axes of each of the image sensor, the third image sensor, and the fourth image sensor pass through the corresponding second aperture,
Each image sensor has a lens assembly corresponding to that image sensor, each lens assembly having its front end with an anti-vibration or thermal sleeve surrounding the lens assembly barrel. An image sensor system that is inserted into a second aperture corresponding to the above and attached to a vibration isolating member .
表面の地図を生成するシステムであって、
全地球測位レシーバと、
移動体又はプラットホームに調整自在に装着可能な標高測定ユニットと、
移動体又はプラットホームに調整自在に装着可能な全地球測位アンテナと、
移動体又はプラットホームに調整自在に装着可能な姿勢測定ユニットと、
移動体又はプラットホームに調整自在に装着可能であり、表面を眺める撮像アレイと、
コンピュータと、
を備えており、
撮像アレイは、
移動体又はプラットホームに調整自在に装着可能な取付ユニットと、
取付ユニットに形成された第1アパーチャと、
取付ユニットに結合されており、第1アパーチャを通る第1焦点軸を有しており、ピクセルの第1データアレイを備える表面の第1画像領域を生成する第1画像センサと、
取付ユニットに結合されており、ロングトラック斜視式で第1画像センサからアレイ軸に沿ってオフセットされており、第1アパーチャを通って第1焦点軸と交差する第2焦点軸を有しており、ピクセルの第2データアレイを備える表面の第2画像領域を生成する第2画像センサと、
取付ユニットに結合されており、第2画像センサの反対側にて第1画像センサからアレイ軸に沿ってオフセットされており、ピクセルの第3データアレイを備える表面の第3画像領域を生成し、前方斜め画像センサである第3画像センサと、
取付ユニットに結合されており、第3画像センサの反対側にて第2画像センサからアレイ軸に沿ってオフセットされており、ピクセルの第4データアレイを備える表面の第4画像領域を生成し、後方斜め画像センサである第4画像センサと、を備えており、
コンピュータは、標高測定ユニット、全地球測位アンテナ、姿勢測定ユニット、第1画像センサ及び第2画像センサと通信し、標高測定ユニット、全地球測位アンテナ、及び姿勢測定ユニットのうちの1又は2以上からの入力に基づいて、第1画像センサ及び第2画像センサの画像領域の少なくとも一部を、表面領域の一部と関連付
取付ユニットは、第1画像センサ、第2画像センサ、第3画像センサ及び第4画像センサの各々に対応した第2アパーチャを有する1つの防振部材を備えており、第1画像センサ、第2画像センサ、第3画像センサ及び第4画像センサの各々の焦点軸は、対応する第2アパーチャを通っており、
各画像センサは、その画像センサに対応するレンズアセンブリを有しており、各レンズアセンブリは、そのレンズアセンブリの前端部が、そのレンズアセンブリの鏡筒を囲う防振又は熱スリーブと共に、そのレンズアセンブリに対応した第2アパーチャに挿入されて防振部材に取り付けられている、システム。
A system for generating a map of a surface,
A global positioning receiver,
An altitude measuring unit that can be adjustably mounted on a moving object or platform;
A global positioning antenna that can be adjustably mounted on a moving object or platform;
A posture measuring unit that can be adjusted and attached to a moving object or a platform;
An imaging array that can be adjustably mounted on a moving object or platform and that looks at the surface;
A computer,
With
The imaging array
A mounting unit that can be adjustably mounted on a moving body or platform;
A first aperture formed in the mounting unit;
A first image sensor coupled to the mounting unit, having a first focal axis through the first aperture, and generating a first image area of the surface comprising a first data array of pixels;
Is coupled to the mounting unit is offset from the first image sensor A long track perspective expression along the array axis, a second focal axis that intersects the first focal axis passes through the first aperture A second image sensor for generating a second image area of the surface comprising a second data array of pixels;
Coupled to the mounting unit and offset along the array axis from the first image sensor on the opposite side of the second image sensor to produce a third image region of the surface comprising a third data array of pixels; A third image sensor which is a front oblique image sensor;
Coupled to the mounting unit and offset along the array axis from the second image sensor on the opposite side of the third image sensor to produce a fourth image region of the surface comprising a fourth data array of pixels; A fourth image sensor that is a rear oblique image sensor,
The computer communicates with the elevation measurement unit, the global positioning antenna, the attitude measurement unit, the first image sensor, and the second image sensor, and from one or more of the elevation measurement unit, the global positioning antenna, and the attitude measurement unit. based on the input, at least a portion of the image region of the first and second image sensors, associate a portion of the surface area,
The mounting unit includes one anti-vibration member having a second aperture corresponding to each of the first image sensor, the second image sensor, the third image sensor, and the fourth image sensor. The focal axes of each of the image sensor, the third image sensor, and the fourth image sensor pass through the corresponding second aperture,
Each image sensor has a lens assembly corresponding to that image sensor , each lens assembly having its front end with an anti-vibration or thermal sleeve surrounding the lens assembly barrel. The system is inserted into the second aperture corresponding to the above and attached to the vibration isolating member .
重なっている画像データからの立体画法計算、LIDARデータ、又は、数値標高モデルのうちの1又は2以上からの入力に基づいて、第1画像センサ及び第2画像センサの画像標高の少なくとも一部は、表面標高の一部と関連付けられる、請求項20に記載のシステム。 At least part of the image elevations of the first image sensor and the second image sensor based on input from one or more of three-dimensional image calculation, LIDAR data, or digital elevation model from overlapping image data 21. The system of claim 20 , wherein is associated with a portion of surface elevation.
JP2015528490A 2012-08-21 2013-07-26 Infrastructure mapping system and method Active JP6282275B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/590,735 2012-08-21
US13/590,735 US8994822B2 (en) 2002-08-28 2012-08-21 Infrastructure mapping system and method
PCT/US2013/052278 WO2014031284A1 (en) 2012-08-21 2013-07-26 Infrastructure mapping system and method

Publications (2)

Publication Number Publication Date
JP2015532714A JP2015532714A (en) 2015-11-12
JP6282275B2 true JP6282275B2 (en) 2018-03-07

Family

ID=50150296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015528490A Active JP6282275B2 (en) 2012-08-21 2013-07-26 Infrastructure mapping system and method

Country Status (5)

Country Link
EP (1) EP2888628A4 (en)
JP (1) JP6282275B2 (en)
CN (1) CN104704424B (en)
CA (1) CA2880229A1 (en)
WO (1) WO2014031284A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201412060D0 (en) * 2014-07-07 2014-08-20 Vito Nv Method and system for photogrammetric processing of images
CN104850134B (en) * 2015-06-12 2019-01-11 北京中飞艾维航空科技有限公司 A kind of unmanned plane high-precision independent avoidance flying method
CA3007619A1 (en) 2016-01-13 2017-07-20 Vito Nv Method and system for geometric referencing of multi-spectral data
CN105867421B (en) * 2016-05-25 2019-01-04 华中科技大学 A kind of unmanned plane paths planning method based on PH curve
US10571913B2 (en) * 2016-08-05 2020-02-25 Aptiv Technologies Limited Operation-security system for an automated vehicle
DE102016224886B3 (en) * 2016-12-13 2018-05-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method and device for determining the cut edges of two overlapping image recordings of a surface
CN107402069A (en) * 2017-04-21 2017-11-28 浙江大学 Unmanned plane snap formula hyperspectral remote sensing system and uniformity radiation correction method
EP3635332A2 (en) * 2017-05-10 2020-04-15 Mobileye Vision Technologies Ltd. Cross field of view for autonomous vehicle systems
CN110998657B (en) * 2017-08-01 2023-12-12 索尼公司 Image processing apparatus, image processing method, and program
EP3460518B1 (en) * 2017-09-22 2024-03-13 Leica Geosystems AG Hybrid lidar-imaging device for aerial surveying
CN107818303B (en) * 2017-10-23 2021-06-15 中石化石油工程地球物理有限公司 Unmanned aerial vehicle oil and gas pipeline image automatic contrast analysis method, system and software memory
CN108875292B (en) * 2018-05-16 2019-07-30 中国水利水电科学研究院 The analogue system and method for River Basin Hydrology based on remote sensing
CN108983820B (en) * 2018-08-17 2021-04-16 中南安全环境技术研究院股份有限公司 Ecological protection red line area boundary exploration method and system
WO2020237288A1 (en) * 2019-05-24 2020-12-03 Aerometrex Pty Ltd An aerial imaging system and method
CN110243354B (en) * 2019-07-04 2024-05-24 桂林理工大学 Dynamic monitoring method and system for urban illegal building
FR3126164A1 (en) * 2021-08-10 2023-02-17 Technivue METHOD FOR AIDING THE DETERMINATION OF A GEOGRAPHICAL LOCATION FOR THE IMPLEMENTATION OF HERTZ BROADCASTING EQUIPMENT

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2811428A1 (en) * 1978-03-16 1979-09-20 Bosch Gmbh Robert Headlights unit for motor vehicle - has moulded plastics vibration damping sealing ring between lens and body
US8483960B2 (en) * 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
US7893957B2 (en) * 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
WO2004028134A2 (en) * 2002-09-20 2004-04-01 M7 Visual Intelligence, Lp Vehicule based data collection and porcessing system
JP2006217131A (en) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd Imaging apparatus
US20080278828A1 (en) * 2005-07-14 2008-11-13 Carl Zeiss Smt Ag Optical Element
CN101344391B (en) * 2008-07-18 2011-05-11 北京工业大学 Lunar vehicle posture self-confirming method based on full-function sun-compass
JP4875682B2 (en) * 2008-09-30 2012-02-15 富士フイルム株式会社 Lens frame, lens assembly and photographing apparatus
CN102506868B (en) * 2011-11-21 2014-03-12 清华大学 SINS (strap-down inertia navigation system)/SMANS (scene matching auxiliary navigation system)/TRNS (terrain reference navigation system) combined navigation method based on federated filtering and system

Also Published As

Publication number Publication date
JP2015532714A (en) 2015-11-12
EP2888628A1 (en) 2015-07-01
CN104704424B (en) 2018-02-09
CA2880229A1 (en) 2014-02-27
CN104704424A (en) 2015-06-10
EP2888628A4 (en) 2016-09-14
WO2014031284A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
JP6282275B2 (en) Infrastructure mapping system and method
US9797980B2 (en) Self-calibrated, remote imaging and data processing system
US8994822B2 (en) Infrastructure mapping system and method
US7725258B2 (en) Vehicle based data collection and processing system and imaging sensor system and methods thereof
US7127348B2 (en) Vehicle based data collection and processing system
CN103038761B (en) Self-alignment long-range imaging and data handling system
US9706117B2 (en) Wide-area aerial camera systems
US6928194B2 (en) System for mosaicing digital ortho-images
AU2009200781B2 (en) Airborne reconnaissance system
JP2783522B2 (en) Satellite focal plane array imager
USRE49105E1 (en) Self-calibrated, remote imaging and data processing system
Speyerer et al. In-flight geometric calibration of the lunar reconnaissance orbiter camera
JP2014511155A (en) Self-calibrating remote imaging and data processing system
Mostafa et al. An Autonomous System for Aerial Image Acquisition and Georeferencing
Rosiek et al. Exploiting global positioning system and inertial measurement unit-controlled image sensors
IL180478A (en) Airborne reconnaissance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180123

R150 Certificate of patent or registration of utility model

Ref document number: 6282275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250