JP2014096138A - 背景を除外することによるスペクトルシーンの簡易化 - Google Patents

背景を除外することによるスペクトルシーンの簡易化 Download PDF

Info

Publication number
JP2014096138A
JP2014096138A JP2013184551A JP2013184551A JP2014096138A JP 2014096138 A JP2014096138 A JP 2014096138A JP 2013184551 A JP2013184551 A JP 2013184551A JP 2013184551 A JP2013184551 A JP 2013184551A JP 2014096138 A JP2014096138 A JP 2014096138A
Authority
JP
Japan
Prior art keywords
hyperspectral
hyperspectral image
image
processor
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013184551A
Other languages
English (en)
Inventor
Benjamin Thomas Occhipinti
ベンジャミン・トーマス・オッチピンティ
Eric Daniel Buehler
エリック・ダニエル・ビューラー
Baby Sebastian Thomas
トーマス・ベイビー・セバスティアン
Robert Kuczynski Konrad
コンラッド・ロバート・クチンスキー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Aviation Systems LLC
Original Assignee
GE Aviation Systems LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Aviation Systems LLC filed Critical GE Aviation Systems LLC
Publication of JP2014096138A publication Critical patent/JP2014096138A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】背景を除外することによるスペクトルシーンの簡易化を提供する。
【解決手段】ハイパースペクトル画像から静止物体を除去する方法は、対象シーンの一連のハイパースペクトル画像を収集するステップ14と、動いている物体または新しい物体を対象シーンの中に有していない少なくとも1つの第1のハイパースペクトル画像を決定するステップ20と、少なくとも1つの第1のハイパースペクトル画像を選択するステップ22と、動いている物体を対象シーンの中に有している少なくとも1つの第2のハイパースペクトル画像を決定するステップ18と、背景除外ハイパースペクトル画像を生成するために、少なくとも1つの第2のハイパースペクトル画像から少なくとも1つの第1のハイパースペクトル画像を除外するステップと、を含む。
【選択図】図1

Description

本発明は、ハイパースペクトル画像から静止物体を除去する方法に関する。
ハイパースペクトル画像(HSI)のためのリモートセンシングシステムの環境については、Manolakis, D.、Marden, D.およびShaw G.による「Hyperspectral Image Processing for Automatic Target Detection Applications」(Lincoln Laboratory Journal; Volume 14; 2003 pp. 79 - 82)に良好に記載されている。イメージングセンサは、ハイパースペクトルエネルギーの測定値を記録する複数の画素を有している。HSIデバイスは、複数の画素のアレイの幾何構造によって空間情報を捕獲し、かつ、多数の連続するハイパースペクトル帯域の個々の画素内で測定することによってスペクトル情報を捕獲する、該複数の画素のアレイ内のエネルギーを記録することができる。空間情報およびスペクトル情報のさらなる処理は、リモートセンシングシステムの特定の用途で決まる。
遠隔感知HSIは、環境および国土使用監視、軍事的監視および偵察を始めとする広範囲にわたる用途で価値があることを立証している。HSIは、空間情報およびスペクトル情報の両方を含んだ画像データを提供する。これらのタイプの情報は、遠隔検出および追跡タスクのために使用することができる。詳細には、無人航空機(UAV)または静止地上局などのプラットフォーム上に取り付けられた一組の視覚センサが与えられると、HSIのビデオを得ることができ、また、一組のアルゴリズムをスペクトルビデオに適用して、フレーム毎に物体を検出し、かつ、フレーム毎に物体を追跡することができる。
米国特許第8081825号明細書
本発明の一態様は、少なくとも1つのハイパースペクトル画像から静止物体を除去する方法に関している。この方法は、対象シーンの一連のハイパースペクトル画像を収集するステップと、動いている物体または新しい物体を対象シーンの中に有していない少なくとも1つの第1のハイパースペクトル画像を決定するステップと、少なくとも1つの第1のハイパースペクトル画像を選択するステップと、動いている物体を対象シーンの中に有している少なくとも1つの第2のハイパースペクトル画像を決定するステップと、背景除外ハイパースペクトル画像を生成するために、少なくとも1つの第2のハイパースペクトル画像から少なくとも1つの第1のハイパースペクトル画像を除外するステップとを含む。
本発明の一実施形態による、背景を除外するために使用される、動いている物体を有していないシーンのハイパースペクトル画像を選択する方法の線図である。 本発明の一実施形態による、背景除外ハイパースペクトル画像を生成する方法の線図である。 本発明の一実施形態による、特徴除外ハイパースペクトル画像を生成する方法の線図である。 草深い地域によって取り囲まれた高速道路のシーンのハイパースペクトル画像を示す図である。 自動車が高速道路を縦走している図4のシーンのハイパースペクトル画像を示す図である。 本発明の一実施形態に従って高速道路および草深い地域が除去された図5のシーンの背景除外ハイパースペクトル画像を示す図である。 本発明の一実施形態に従って草深い地域が除去された図5のシーンの特徴除外ハイパースペクトル画像を示す図である。
背景技術および以下の説明では、本明細書において説明されている技術の完全な理解を提供するために、説明を目的とした多くの特定の詳細が示されている。しかしながら、これらの特定の詳細がなくてもこれらの例示的実施形態を実践することができることは当業者には明らかであろう。他の例では、構造およびデバイスは、これらの例示的実施形態の説明を容易にするために線図の形態で示されている。
これらの例示的実施形態は、図面を参照して説明されている。これらの図面には、本明細書において説明されているモジュール、方法またはコンピュータプログラム製品を実施する特定の実施形態の特定の詳細が示されている。しかしながら、これらの図面は、これらの図面に存在し得る何らかの制限を課すものとして解釈してはならない。これらの方法およびコンピュータプログラム製品は、それらの動作を達成するための任意の機械可読媒体上で提供することができる。これらの実施形態は、既存のコンピュータプロセッサを使用して実施することができ、もしくはこの目的または他の目的のために組み込まれる専用コンピュータプロセッサによって、あるいはハードワイヤードシステムによって実施することができる。
上で言及したように、本明細書において説明されている実施形態は、機械可読媒体を備えたコンピュータプログラム製品を含むことができ、機械可読媒体は、記憶された機械実行可能命令またはデータ構造をその上に担っている、つまり有している。このような機械可読媒体は、汎用コンピュータまたは専用コンピュータ、あるいはプロセッサを備えた他の機械によってアクセスすることができる任意の入手可能媒体であってもよい。一例として、このような機械可読媒体は、RAM、ROM、EPROM、EEPROM、CD−ROM、または他の光ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶デバイス、あるいは機械実行可能命令またはデータ構造の形態の所望のプログラムコードを担う、つまり記憶するために使用することができ、かつ、汎用コンピュータまたは専用コンピュータ、あるいはプロセッサを備えた他の機械によってアクセスすることができる任意の他の媒体を備えることができる。ネットワークまたは他の通信接続(ハードワイヤード、無線、またはハードワイヤードもしくは無線の組合せのいずれか)を介して機械に情報が転送すなわち提供されると、その機械は、適切にその接続を機械可読媒体として見なすことになる。したがって任意のこのような接続は、適切に、機械可読媒体と呼ばれている。また、上記の組合せは、機械可読媒体の範囲内に含まれる。機械実行可能命令は、例えば、汎用コンピュータ、専用コンピュータまたは専用処理機械が特定の機能または複数の機能のグループを実施することになる命令およびデータからなっている。
これらの実施形態は、一実施形態では、例えばネットワーク化された環境の機械によって実行されるプログラムモジュールの形態のプログラムコードなどの機械実行可能命令を含んだプログラム製品によって実施することができる方法ステップの一般的な文脈で説明される。通常、プログラムモジュールは、特定のタスクを実施し、あるいは特定の抽象データタイプを実施する技術的な効果を有するルーチン、プログラム、オブジェクト、構成要素、データ構造、等々を含む。機械実行可能命令、関連するデータ構造およびプログラムモジュールは、本明細書において開示されている方法のステップを実行するためのプログラムコードの例を表している。このような実行可能命令または関連するデータ構造の特定のシーケンスは、このようなステップで記述されている機能を実施するための対応する動作の例を表している。
これらの実施形態は、プロセッサを有する1つまたは複数の遠隔コンピュータへの論理接続を使用して、ネットワーク化された環境で実践することができる。これらの論理接続は、ここでは一例として提供されている非制限のローカルエリアネットワーク(LAN)および広域ネットワーク(WAN)を含むことができる。このようなネットワーク環境は、オフィス広域コンピュータネットワークまたは企業広域コンピュータネットワーク、イントラネットおよびインターネットではごくありふれており、広範囲にわたる異なる通信プロトコルを使用することができる。このようなネットワーク計算環境は、典型的には、パーソナルコンピュータ、ハンドヘルドデバイス、多重プロセッサシステム、マイクロプロセッサをベースとする家庭用電化製品またはプログラマブル家庭用電化製品、ネットワークPC、ミニコンピュータ、本体コンピュータ、等々を始めとする多くのタイプのコンピュータシステム構成を包含することになることは当業者には理解されよう。
また、これらの実施形態は、通信ネットワークを介してリンクされる(ハードワイヤードリンク、無線リンクのいずれかによって、またはハードワイヤードリンクもしくは無線リンクの組合せによって)局所処理デバイスおよび遠隔処理デバイスによって複数のタスクが実施される分散計算環境で実践することも可能である。分散計算環境では、局所メモリ記憶装置および遠隔メモリ記憶装置の両方にプログラムモジュールを配置することができる。
これらの例示的実施形態のすべてまたは一部を実施するための一例示的システムは、処理装置、システムメモリ、およびシステムメモリを始めとする様々なシステム構成要素を処理装置に結合するシステムバスを含んだコンピュータの形態の汎用計算デバイスを含むことができる。システムメモリは、リードオンリメモリ(ROM)およびランダムアクセスメモリ(RAM)を含むことができる。また、コンピュータは、磁気ハードディスクから読み出し、かつ、磁気ハードディスクに書き込むための磁気ハードディスクドライブ、取外し可能磁気ディスクから読み出し、あるいは取外し可能磁気ディスクに書き込むための磁気ディスクドライブ、およびCD−ROMまたは他の光媒体などの取外し可能光ディスクから読み出し、あるいは取外し可能光ディスクに書き込むための光ディスクドライブを含むことも可能である。これらのドライブおよびそれらの関連する機械可読媒体は、機械実行可能命令、データ構造、プログラムモジュールおよびコンピュータのための他のデータの不揮発性記憶を提供している。
これらの実施形態で開示されている方法の技術的効果には、不必要なハイパースペクトル特徴を含んだすべての画素を除去することによってハイパースペクトル画像の圧縮性が高くなることがある。したがって記録目的のために必要なデータの量および時間が低減される。それに加えて、この方法によれば、手動であれ、あるいは自動であれ、探索すべきデータのサイズが実質的に低減されるため、既存の検出方法の速度が改善される。さらに、この方法によればハイパースペクトル画像が改善され、これまでは検出されなかった物体および特徴を検出することが可能になる。
図1は、本発明の一実施形態による、背景を除外するために使用される、動いている物体を有していないシーンのハイパースペクトル画像を選択する方法10の線図である。プロセス12の開始時に、単一の画像またはハイパースペクトルビデオフィードを含むことができる遠隔感知HSIを、14で、HSIを処理することができるプロセッサに入力することができる。
14におけるプロセッサへのHSI入力は、対象シーンの一連のハイパースペクトル画像である。対象シーンは、静止カメラによって収集されるようなハイパースペクトル画像を収集している間、その全体にわたって画像化領域の空間範囲が一定を維持している画像化領域である。例えば対象シーンは、草深い地域によって取り囲まれた高速道路のセグメントの対象シーンであってもよい。個々のハイパースペクトル画像は、例えば高速道路を縦走している自動車、あるいは一日を通してレベルが変化する周辺光のように異なっていてもよいが、収集中のすべてのハイパースペクトル画像は、高速道路の同じセグメントのハイパースペクトル画像でなければならない。この例は、実例による説明を目的としたものにすぎず、限定するものと見なしてはならず、静止シーンの任意の一連のハイパースペクトル画像が関連していてもよいことに留意されたい。
動いている物体を対象シーンの中に有していない少なくとも1つのハイパースペクトル画像を決定するために、プロセッサは、16で、収集された一連のハイパースペクトル画像を通して反復を開始することができる。連続的に収集されたハイパースペクトル画像毎に、プロセッサは、18で、ハイパースペクトル画像が何らかの動いている物体または新しい物体を対象シーンの中に有しているかどうかを決定することができる。プロセッサが、動いている物体または新しい物体が対象シーンの中に存在していることを決定すると、プロセッサは、ループターミネータ32およびループイタレータ16の反復論理ステップを介して、一連のハイパースペクトル画像中の次のハイパースペクトル画像へ進行することができる。プロセッサが、20で、動いている物体または新しい物体がハイパースペクトル画像の中に存在していないことを決定すると、プロセッサは、22で、対象シーンの背景としてそのハイパースペクトル画像を選択することができる。
本発明の方法によれば、24で、実施態様に応じて、ハイパースペクトル画像に対象シーンの背景を表現させるか、あるいは一組のハイパースペクトル画像に対象シーンの背景を表現させることができる。プロセッサが、26で、対象シーンの背景を表現するために単一のハイパースペクトル画像を指定すると、プロセッサは、単一の選択されたハイパースペクトル画像をデータベース46に記憶することができ、48で背景選択プロセスが終了する。プロセッサが、30で、対象シーンの背景を表現するために複数のハイパースペクトル画像を指定すると、プロセッサは、ループターミネータ32およびループイタレータ16の反復論理ステップを介して、その一組のハイパースペクトル画像を通して反復を継続することができる。
プロセッサが、32で、対象シーンのその一連のハイパースペクトル画像を通して完全に反復すると、プロセッサは、対象シーンの背景を表現するために複数のハイパースペクトル画像が指定されているかどうかを決定することができる。プロセッサが、36で、対象シーンの背景を表現するために複数のハイパースペクトル画像を指定している場合、プロセッサは、データベース46に記憶される単一の背景画像を生成するために、38で複数のハイパースペクトル画像を平均することができ、48で背景選択プロセスが終了する。プロセッサが、50で、対象シーンの背景を表現するために複数のハイパースペクトル画像を指定していない場合、次に、プロセッサが、40で、対象シーンの背景を表現するために単一のハイパースペクトル画像を指定していると、プロセッサは、42でデータベース46にその単一のハイパースペクトル画像を記憶する。次に、プロセッサは、48でプロセスを終了する。プロセッサが、40で、対象シーンの背景を表現するためにハイパースペクトル画像を全く指定していない場合、プロセッサは、44で、動いている物体を有していない対象シーンの少なくとも1つのハイパースペクトル画像を選択するプロセスを再開するために、14で新しい一連のハイパースペクトル画像を収集することができる。
プロセッサは、18で、ユーザによる手動介在を使用して、あるいは自動的に、対象シーンのハイパースペクトル画像が動いている対象または新しい対象を含んでいるかどうかを決定することができる。本発明の一実施形態によれば、プロセッサは、18で、初期動作状態の間、一連のハイパースペクトル画像をユーザに表示することができる。ユーザは、22で、対象シーンの背景画像として少なくとも1つのハイパースペクトル画像を選択することができる。別法としては、プロセッサは、18で、現在のハイパースペクトル画像に適用されている一組の基準に基づいて、22で対象シーンの背景画像として少なくとも1つのハイパースペクトル画像を自動的に選択することも可能である。この基準は、ハイパースペクトル画像の空間特性またはスペクトル特性に基づくことができ、また、現在のハイパースペクトル画像と既に収集済みのHSIとの比較を使用することができる。
動いている物体または新しい物体を有していない対象シーンの背景を表現するためにハイパースペクトル画像を決定し、選択し、かつ、記憶すると、プロセッサは、次に、対象シーンのハイパースペクトル画像から背景を除去することができる。図2は、本発明の一実施形態による、背景除外ハイパースペクトル画像を生成する方法100の線図である。プロセス112の開始時に、単一の画像またはハイパースペクトルビデオフィードを含むことができる遠隔感知HSIを、114で、HSIを処理することができるプロセッサに入力することができる。遠隔感知HSIは、図1の14からの同じ一連のハイパースペクトル画像であっても、あるいは同じ対象シーンの新しい一連のハイパースペクトル画像であってもよい。プロセッサは、116で、収集された一連のハイパースペクトル画像を通して反復を開始することができる。
118でプロセッサは、背景除外ハイパースペクトル画像を生成するために、現在のハイパースペクトル画像から、46でデータベースに記憶された対象シーンの背景画像を除外することができる。この除外は、背景画像の画素特徴がハイパースペクトル画像の対応する画素の特徴から除外される単純な画素除外であってもよいが、実施態様に応じて他の除外方法を使用することも可能である。例えばプロセッサは、背景画像画素の特徴とハイパースペクトル画像の対応する画素の特徴の間の絶対差が所定の閾値未満である場合、結果として得られる画素値をゼロに設定することにより、118で除外を実施することができる。所定の閾値の一例では、ハイパースペクトル特徴のすべての値は、背景画像の画素の特徴の対応する値の5%以内でなければならない。実施態様に応じて他の閾値を使用することも可能である。
次に、46で背景除外ハイパースペクトル画像をデータベースに記憶することができ、あるいはユーザに表示することができる。次に、プロセッサは、120および116の反復論理を介して、122でプロセスが終了するまでその一連のハイパースペクトル画像を通してループすることができる。
46でデータベースに記憶される背景除外ハイパースペクトル画像のフォーマットは、元のハイパースペクトル画像の実質的に圧縮されたバージョンを表している。従来のカラー画像における個々のRGB画素が3つの値を含んでいるやり方と同様、ハイパースペクトル画像における個々の画素もスペクトル帯域毎に1つずつN個の値を含んでおり、Nは3よりはるかに大きい。対象シーンの中の動いている物体または新しい物体の画素のみを保管することにより、データベース46に保管される画素の数を劇的に低減することができ、その一方ですべてのスペクトル帯域のN個の値を保存することができる。例えば20の帯域を有する640×480画素のハイパースペクトル画像は、データベース46に完全に記憶するためには6,144,000個の固有の数値が必要である。シーンの中の動いている物体または新しい物体に対して300個の画素しか決定されない場合、プロセッサに必要であるのは、300*20=6000個の数値および合計6,600個の値の対応する二次元画素座標をデータベース46に記憶することである。
本発明の一実施形態では、単一の対象シーンのいくつかの異なる背景画像が、背景画像を決定する方法10の複数の実例を通してデータベース46に記憶され、かつ、分類される。データベース46内の対象シーンの個々の背景画像は、対象シーンの照度によって分類される。これらの分類の例は、朝、真昼、日なた、夕方、夜、部分的に曇りおよび完全に曇りなどの昼間の状態を表すことができる。プロセッサが118で背景除外画像を生成する場合、プロセッサは、ハイパースペクトル画像の属性を特性化するか、あるいは背景画像の収集時間とシーンのハイパースペクトル画像を比較することによって、データベース46から検索すべき背景画像を決定することができる。
図3は、本発明の一実施形態による、特徴除外ハイパースペクトル画像を生成する方法200の線図である。プロセス212の開始時に、ハイパースペクトル画像の画素を処理することができるプロセッサにハイパースペクトル画像およびハイパースペクトル特徴を入力することができる。ハイパースペクトル画像は、図1の14からの一連のハイパースペクトル画像の1つであってもよいが、ハイパースペクトル画像源は実施態様によって様々であってもよい。
ハイパースペクトル画像から除去すべきハイパースペクトル特徴源は、特徴のデータベースまたはハイパースペクトル画像自体からの特徴であってもよい。ハイパースペクトル特徴のデータベースは、この方法200のユーザにとって重要な天然物体または人工物体の特徴を含むことができる。さらに、ユーザは、データベース内の物体の既知の特徴を組み合わせることにより、除外のための追加特徴を生成するべく選択することができる。例えばユーザは、それぞれ異なる重みを有する複数の特徴を組み合わせることにより、除外のための特徴を生成することができる。他の例では、ユーザは、第1の特徴から一組のスペクトル帯域を選択し、かつ、第2の特徴から異なる一組のスペクトル帯域を選択することにより、除外のための特徴を生成することができる。さらに他の例では、プロセッサは、選択された特徴に変換を適用し、太陽光、月光またはヘッドライトなどの変化する照度状態の下で物体の特徴を模擬することにより、一組の関連する特徴を生成することができる。
プロセッサは、214で、ハイパースペクトル画像の画素を通して反復を開始することができる。プロセッサは、ハイパースペクトル画像の画素の特徴を選択されたハイパースペクトル特徴と比較し、それにより216で不同性測度を決定し、また、218で不同性測度の値を所定の閾値と比較することによって整合を決定することができる。不同性測度は、2つのベクトル間の数学的距離を決定するための計量である。例えばプロセッサは、ハイパースペクトル画像の画素の特徴と選択されたハイパースペクトル特徴の間の絶対差の合計が所定の閾値未満である場合、計算するために、マンハッタン距離すなわちl1ノルムを使用して整合を決定することができる。
プロセッサは、他の不同性測度を計算することができる。不同性測度の1つの等級はノルムに基づいており、また、2つのベクトル間の距離の直接計算である。マンハッタン距離以外に、プロセッサは、ハイパースペクトル画像の画素の特徴と選択されたハイパースペクトル特徴の間の差の二乗の合計の平方根が所定の閾値未満である場合、整合を決定するために、l2ノルムとしても知られているユークリッド距離から不同性測度を計算することができる。ノルムに基づく不同性測度の他の例では、プロセッサは、ハイパースペクトル画像の画素の特徴と選択されたハイパースペクトル特徴の間の最大絶対差が所定の閾値未満である場合、整合を決定するために、l∞ノルムとしても知られているチェビシェフ距離を計算することができる。
不同性測度の他の等級は、画像中の候補対象の統計的特性を利用するために開発されている。例えばマハラノビス距離は、ハイパースペクトル画素特徴に適用されている類似性の統計的測度である。マハラノビス距離は、特徴を既知の等級の特徴の平均偏差および標準偏差に対して試験することによって特徴の類似性を測定する。測度の統計的性質のため、マハラノビス距離の計算には、ノルムに基づく計算のために使用されている単一の特徴の比較の代わりに、複数の組の特徴の比較が必要である。
他の知られている技法には、Spectral Angle Mapper(SAM)、Spectral Information Divergence(SID)、Zero Mean Differential Area(ZMDA)およびバタチャリヤ距離がある。SAMは、個々のスペクトルをベクトルとして処理し、かつ、これらのベクトル間の角度を計算することによって特徴を既知の特徴と比較するための方法である。SAMは、ベクトルの方向のみを使用し、ベクトルの長さは使用しないため、この方法は、照度の変化に対して鈍感である。SIDは、スペクトル間の確率的矛盾または発散を測定することによって候補対象の特徴を既知の特徴と比較するための方法である。ZMDAは、特徴の分散によってこれらの特徴を正規化し、かつ、2つのベクトル間の面積に対応するそれらの差を計算する。バタチャリヤ距離は、マハラノビス距離と類似しているが、一組の候補対象の特徴と既知の等級の特徴の間の距離を測定するために使用される。
不同性測度を計算すると、プロセッサは、整合を決定するために不同性測度の値を所定の閾値と比較することができる。所定の閾値の一例では、選択された特徴のすべての値は、ハイパースペクトル画像の画素の特徴の対応する値の5%以内でなければならない。実施態様に応じて他の閾値を使用することも可能である。
220で特徴が整合しない場合、プロセッサは、ループ論理ターミネータ226およびイタレータ214を介して、ハイパースペクトル画像中の次の画素に対して反復することができる。222で特徴が整合すると、224でその画素の値をゼロに設定することによってハイパースペクトル画像中の画素を削除することができ、プロセッサは、次に、ループ論理ターミネータ226およびイタレータ214を介して、ハイパースペクトル画像の残りの画素を通した反復へ進行することができる。プロセッサが、ハイパースペクトル画像中のすべての画素を通して反復すると、228でプロセスが終了し、その時点で特徴除外ハイパースペクトル画像をデータベースに記憶することができ、あるいはユーザはディスプレイ上でその画像を見ることができる。
方法200を反復することにより、ハイパースペクトル画像のために選択された追加特徴を除去することができる。さらに、このプロセスは、一連のハイパースペクトル画像に対して反復することができる。プロセッサは、これらのステップを自動的に実施するように、あるいはディスプレイを介して中間結果をユーザに表示し、かつ、グラフィカルユーザインタフェースを介して、除外すべき物体の特徴に関する命令を受け取ることによって手動で実施するように構成することができる。この方法の一実施態様では、プロセッサは、背景画像を表すすべての特徴を除去し、動いている物体または新しい物体の特徴に相関する画像のみを残す。
一例として図4〜7は、本発明の一実施形態を立証したものである。図4は、草深い地域によって取り囲まれた高速道路のシーン300のハイパースペクトル画像を示したものである。この画像には、高速道路310、塔312、木314、人工インフラストラクチャ316および草深い地域320が示されている。プロセッサは、図1の18で、動いている物体を有していない画像としてハイパースペクトル画像を識別することができ、かつ、識別したハイパースペクトル画像を対象シーンの背景画像としてデータベース46に記憶することができる。
図5は、図4のシーンのハイパースペクトル画像400を示したもので、自動車410が高速道路310を縦走している。プロセッサは、18で、動いている物体を有する画像としてこの画像を識別することができる。このシーンの画像400は、図2の背景を除外する方法100の候補である。
図6は、図5のシーンから背景除外ハイパースペクトル画像500を示したもので、本発明の一実施形態に従って高速道路および草深い地域が除去されている。プロセッサは、図2のデータベース46から、図4の背景画像300を検索することができる。プロセッサは、図5のシーンのハイパースペクトル画像400から図4の背景画像300を除外する。残される画像の要素は自動車410のみである。300の動いていない物体はすべて削除され、空き空間510が残される。図に示されている高速道路の輪郭は参考にすぎず、実際の画像500には存在しない。
図7は、図5のシーンから特徴除外ハイパースペクトル画像600を示したもので、本発明の一実施形態に従って図4の草深い地域320が除去されている。プロセッサは、結果として得られた特徴除外画像600中に空き空間620の広い領域を生成するために、図3の特徴除外方法200を使用して図4の草深い地域320の特徴を除去している。高速道路310、木314および人工インフラストラクチャ316の特徴を始めとする除去のための他の候補特徴を識別することも可能である。
図6の背景除外画像500の例および図7の特徴除外画像600の例は、本発明の方法がハイパースペクトル画像中の動いている物体の検出可能性を劇的に改善することができることを立証している。さらに、既に説明したデータ圧縮のレベルは、とりわけ自動車410のみが残されている図6で目で見て明らかである。
本明細書には、最良のモードを含む、本発明を開示するための例が使用されており、また、任意のデバイスまたはシステムの構築および使用、ならびに組み込まれている任意の方法の実施を含む、すべての当業者による本発明の実践を可能にするための例が使用されている。本発明の特許可能な範囲は、特許請求の範囲によって定義されており、当業者に思い浮ぶ他の例を含むことができる。このような他の例には、それらが特許請求の範囲の文字言語と同じ構造要素を有している場合であっても、あるいはそれらが特許請求の範囲の文字言語とは非現実的に異なる等価構造要素を含んでいる場合であっても、特許請求の範囲に包含されることが意図されている。
10 背景画像指定方法
12、112、212 プロセスの開始
14、114 ハイパースペクトル画像入力
16 ループイタレータ
18 対象シーンのハイパースペクトル画像が動いている対象または新しい対象を含んでいるかどうか決定する
20 対象シーンのハイパースペクトル画像が動いている対象または新しい対象を含んでいないことを決定する
22 ハイパースペクトル画像を背景画像として選択する
24 複数の背景画像が許容されているか?
26 いいえ、単一の背景画像のみ
28 はい、移動している物体が存在する
30 はい、複数の背景画像が許容されている
32、120、226 ループターミネータ
34 対象シーンの背景を表現するために複数のハイパースペクトル画像が指定されているかどうか決定する
36 はい、対象シーンの背景を表現するために複数のハイパースペクトル画像が指定されている
38 複数のハイパースペクトル画像を平均する
40 単一の画像が指定されているか?
42 はい、単一の背景画像
44 背景画像は指定されていない
46 データベース
48、122、228 プロセスの終了
50 いいえ、複数のハイパースペクトル画像は指定されていない
100 背景除外方法
116 収集された一連のハイパースペクトル画像を通して反復する
118 対象シーンの背景画像を除外する
200 スペクトル物体除外方法
214 画像を通してループする
216 探索特徴と画素特徴を比較するために不同性の値を決定する
218 特徴が整合しているか?
220 いいえ
222 はい
224 画素を削除する
300 背景画像として使用されるシーンのハイパースペクトル画像
310 高速道路
312 塔
314 木
316 人工インフラストラクチャ
320 草深い地域
400 シーンのハイパースペクトル画像
410 自動車
500 背景除外ハイパースペクトル画像
510 背景が除去された空間
600 特徴除外ハイパースペクトル画像
620 特徴が除去された空間

Claims (9)

  1. 少なくとも1つのハイパースペクトル画像から静止物体を除去する方法であって、
    対象シーンの一連のハイパースペクトル画像を収集するステップと、
    動いている物体を前記対象シーンの中に有していない少なくとも1つの第1のハイパースペクトル画像を決定するステップと、
    前記少なくとも1つの第1のハイパースペクトル画像を選択するステップと、
    動いている物体を前記対象シーンの中に有している少なくとも1つの第2のハイパースペクトル画像を決定するステップと、
    背景除外ハイパースペクトル画像を生成するために、前記少なくとも1つの第2のハイパースペクトル画像から前記少なくとも1つの第1のハイパースペクトル画像を除外するステップと
    を含む方法。
  2. 前記背景除外ハイパースペクトル画像を表示するステップをさらに含む、請求項1記載の方法。
  3. 前記背景除外ハイパースペクトル画像を記憶するステップをさらに含む、請求項1記載の方法。
  4. 前記除外するステップにおいて、前記少なくとも1つの第1のハイパースペクトル画像の平均特徴と前記少なくとも1つの第2のハイパースペクトル画像の特徴の絶対差が所定の閾値未満である場合、前記差の値がゼロに設定される、請求項1記載の方法。
  5. 前記対象シーンの照度の差を考慮するために、前記少なくとも1つの第1のハイパースペクトル画像および前記少なくとも1つの第2のハイパースペクトル画像を較正するステップをさらに含む、請求項1記載の方法。
  6. 前記決定するステップおよび選択するステップが手動で実施される、請求項1記載の方法。
  7. 前記決定するステップおよび選択するステップが自動的に実施される、請求項1記載の方法。
  8. 前記選択するステップが、少なくとも2つの第1のハイパースペクトル画像を選択するステップ、および前記少なくとも2つの第1のハイパースペクトル画像の特徴を平均化するステップをさらに含む、請求項1記載の方法。
  9. 動いている物体を前記対象シーンの中に有していない前記少なくとも1つの第1のハイパースペクトル画像を決定する前記ステップが、前記少なくとも1つの第1のハイパースペクトル画像を対象シーンの前記一連のハイパースペクトル画像と比較することによって実施される、請求項1記載の方法。
JP2013184551A 2012-11-09 2013-09-06 背景を除外することによるスペクトルシーンの簡易化 Pending JP2014096138A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/673,052 2012-11-09
US13/673,052 US20140133753A1 (en) 2012-11-09 2012-11-09 Spectral scene simplification through background subtraction

Publications (1)

Publication Number Publication Date
JP2014096138A true JP2014096138A (ja) 2014-05-22

Family

ID=49150757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013184551A Pending JP2014096138A (ja) 2012-11-09 2013-09-06 背景を除外することによるスペクトルシーンの簡易化

Country Status (6)

Country Link
US (1) US20140133753A1 (ja)
EP (1) EP2731052A3 (ja)
JP (1) JP2014096138A (ja)
CN (1) CN103810667A (ja)
BR (1) BR102013022097A8 (ja)
CA (1) CA2825506A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022510202A (ja) * 2019-02-18 2022-01-26 エヌイーシー ラボラトリーズ アメリカ インク 異常検出のための背景抑制

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8891870B2 (en) * 2012-11-09 2014-11-18 Ge Aviation Systems Llc Substance subtraction in a scene based on hyperspectral characteristics
CN109165628B (zh) * 2018-09-12 2022-06-28 首都师范大学 提高动目标检测精度的方法、装置、电子设备及存储介质
KR102169687B1 (ko) * 2019-01-03 2020-10-26 단국대학교 산학협력단 무인비행체를 이용한 초분광영상 획득 방법
CN110503664B (zh) * 2019-08-07 2023-03-24 江苏大学 一种基于改进的局部自适应灵敏度背景建模方法
US11386649B2 (en) * 2019-11-15 2022-07-12 Maxar Intelligence Inc. Automated concrete/asphalt detection based on sensor time delay
CN114076637B (zh) * 2020-08-12 2023-06-09 舜宇光学(浙江)研究院有限公司 高光谱获取方法及其系统、电子设备和编码宽光谱成像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0738858A (ja) * 1993-07-23 1995-02-07 Sony Corp デジタル画像信号の伝送装置及び受信装置
US5809161A (en) * 1992-03-20 1998-09-15 Commonwealth Scientific And Industrial Research Organisation Vehicle monitoring system
JP2009123150A (ja) * 2007-11-19 2009-06-04 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
JP2010237865A (ja) * 2009-03-30 2010-10-21 Nec Corp 画像解析装置、画像解析方法、及び画像解析プログラム
US20100322480A1 (en) * 2009-06-22 2010-12-23 Amit Banerjee Systems and Methods for Remote Tagging and Tracking of Objects Using Hyperspectral Video Sensors

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5068909A (en) * 1989-05-18 1991-11-26 Applied Imaging Corporation Method and apparatus for generating quantifiable video displays
US5166755A (en) * 1990-05-23 1992-11-24 Nahum Gat Spectrometer apparatus
EP0669034B1 (de) * 1992-11-10 1997-01-15 Siemens Aktiengesellschaft Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz
US5371519A (en) * 1993-03-03 1994-12-06 Honeywell Inc. Split sort image processing apparatus and method
KR100292138B1 (ko) * 1993-07-12 2002-06-20 이데이 노부유끼 디지탈비디오신호용송신기및수신기
EP0733219A1 (en) * 1993-12-08 1996-09-25 Minnesota Mining And Manufacturing Company Method and apparatus for background determination and subtraction for a monocular vision system
JP3123587B2 (ja) * 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5937102A (en) * 1996-10-09 1999-08-10 California Institute Of Technology Image reconstruction
US6937651B1 (en) * 1998-06-29 2005-08-30 Texas Instruments Incorporated Method and apparatus for compressing image information
US6226350B1 (en) * 1998-12-31 2001-05-01 General Electric Company Methods and apparatus for cardiac scoring with a multi-beam scanner
US6546152B1 (en) * 2000-05-04 2003-04-08 Syscan Technology (Shenzhen) Co. Limited Method and apparatus for providing images in portable 2-D scanners
US7190809B2 (en) * 2002-06-28 2007-03-13 Koninklijke Philips Electronics N.V. Enhanced background model employing object classification for improved background-foreground segmentation
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
US20040100563A1 (en) * 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
US7440634B2 (en) * 2003-06-17 2008-10-21 The Trustees Of Columbia University In The City Of New York Method for de-blurring images of moving objects
WO2006011593A1 (ja) * 2004-07-30 2006-02-02 Matsushita Electric Works, Ltd. 個体検出器及び共入り検出装置
US20060067562A1 (en) * 2004-09-30 2006-03-30 The Regents Of The University Of California Detection of moving objects in a video
US7903141B1 (en) * 2005-02-15 2011-03-08 Videomining Corporation Method and system for event detection by multi-scale image invariant analysis
CN101326545B (zh) * 2005-08-19 2012-05-30 松下电器产业株式会社 图像处理方法和图像处理系统
US8000440B2 (en) * 2006-07-10 2011-08-16 Agresearch Limited Target composition determination method and apparatus
US20080181457A1 (en) * 2007-01-31 2008-07-31 Siemens Aktiengesellschaft Video based monitoring system and method
US8456528B2 (en) * 2007-03-20 2013-06-04 International Business Machines Corporation System and method for managing the interaction of object detection and tracking systems in video surveillance
US8200011B2 (en) * 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
US8126213B2 (en) * 2007-09-27 2012-02-28 The United States Of America As Represented By The Secretary Of Agriculture Method and system for wholesomeness inspection of freshly slaughtered chickens on a processing line
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
US9251423B2 (en) * 2008-03-21 2016-02-02 Intel Corporation Estimating motion of an event captured using a digital video camera
TWI381717B (zh) * 2008-03-31 2013-01-01 Univ Nat Taiwan 數位視訊動態目標物體分割處理方法及系統
TW201001338A (en) * 2008-06-16 2010-01-01 Huper Lab Co Ltd Method of detecting moving objects
JP5223486B2 (ja) * 2008-06-18 2013-06-26 ソニー株式会社 電子双眼鏡
CN101894366B (zh) * 2009-05-21 2014-01-29 北京中星微电子有限公司 一种获取标定参数的方法、装置及一种视频监控系统
US8712096B2 (en) * 2010-03-05 2014-04-29 Sri International Method and apparatus for detecting and tracking vehicles
JP2011210139A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
US20130265423A1 (en) * 2012-04-06 2013-10-10 Xerox Corporation Video-based detector and notifier for short-term parking violation enforcement

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5809161A (en) * 1992-03-20 1998-09-15 Commonwealth Scientific And Industrial Research Organisation Vehicle monitoring system
JPH0738858A (ja) * 1993-07-23 1995-02-07 Sony Corp デジタル画像信号の伝送装置及び受信装置
JP2009123150A (ja) * 2007-11-19 2009-06-04 Sanyo Electric Co Ltd 対象物検出装置及び方法、対象物検出システム、プログラム
JP2010237865A (ja) * 2009-03-30 2010-10-21 Nec Corp 画像解析装置、画像解析方法、及び画像解析プログラム
US20100322480A1 (en) * 2009-06-22 2010-12-23 Amit Banerjee Systems and Methods for Remote Tagging and Tracking of Objects Using Hyperspectral Video Sensors

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TAO WANG: "Bio-Inspired Adaptive Hyperspectral Imaging for Real-time Target Tracking", IEEE SENSORS JOURNAL VOL.10, NO.3, vol. 10, no. 3, JPN6017035368, March 2010 (2010-03-01), US, pages 647 - 654, XP011289997, DOI: doi:10.1109/JSEN.2009.2038657 *
島井 博行: "変動環境下における移動物体抽出 適応的な背景推定法と適応率の自動調節法", 画像ラボ 第15巻 第3号, vol. 2004.3, JPN6017035367, 1 March 2004 (2004-03-01), JP, pages 23 - 27 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022510202A (ja) * 2019-02-18 2022-01-26 エヌイーシー ラボラトリーズ アメリカ インク 異常検出のための背景抑制
JP7148726B2 (ja) 2019-02-18 2022-10-05 エヌイーシー ラボラトリーズ アメリカ インク 異常検出のための背景抑制

Also Published As

Publication number Publication date
EP2731052A2 (en) 2014-05-14
US20140133753A1 (en) 2014-05-15
EP2731052A3 (en) 2015-01-14
CN103810667A (zh) 2014-05-21
BR102013022097A8 (pt) 2018-12-26
CA2825506A1 (en) 2014-05-09
BR102013022097A2 (pt) 2018-01-23

Similar Documents

Publication Publication Date Title
JP2014096138A (ja) 背景を除外することによるスペクトルシーンの簡易化
US10839211B2 (en) Systems, methods and computer program products for multi-resolution multi-spectral deep learning based change detection for satellite images
EP3149704B1 (en) Vehicle localisation
US8548248B2 (en) Correlated land change system and method
Houborg et al. A spatio-temporal enhancement method for medium resolution LAI (STEM-LAI)
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
Dai et al. Building segmentation and outline extraction from UAV image-derived point clouds by a line growing algorithm
Moriondo et al. Use of digital images to disclose canopy architecture in olive tree
KR101548639B1 (ko) 감시 카메라 시스템의 객체 추적장치 및 그 방법
Wu et al. 3D Tree reconstruction from simulated small footprint waveform lidar
JP2018072938A (ja) 目的物個数推定装置、目的物個数推定方法及びプログラム
US20210056307A1 (en) Object tracking across multiple images
Bandyopadhyay et al. Classification and extraction of trees and buildings from urban scenes using discrete return LiDAR and aerial color imagery
Ikokou et al. A technique for optimal selection of segmentation scale parameters for object-oriented classification of urban scenes
Ramos et al. Measurement of the ripening rate on coffee branches by using 3D images in outdoor environments
Shin et al. True orthoimage generation using airborne lidar data with generative adversarial network-based deep learning model
JP6362839B2 (ja) ハイパースペクトル特性に基づくシーン内の物質減算
Maiwald et al. Solving photogrammetric cold cases using AI-based image matching: New potential for monitoring the past with historical aerial images
Maggiori et al. Improved partition trees for multi-class segmentation of remote sensing images
CN112651351A (zh) 一种数据处理的方法和装置
CN113569600A (zh) 物体重识别的方法、装置、电子设备及存储介质
CN107809613A (zh) 视频索引创建方法及装置、计算机可读存储介质、终端
Alivernini et al. Unmasking forest borderlines by an automatic delineation based on airborne laser scanner data
Costa et al. A case study for a multitemporal segmentation approach in optical remote sensing images.
Fu et al. DBH Extraction of Standing Trees Based on a Binocular Vision Method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180410