JP2008504591A - 画像内の物体を認識するための方法および装置 - Google Patents

画像内の物体を認識するための方法および装置 Download PDF

Info

Publication number
JP2008504591A
JP2008504591A JP2007515082A JP2007515082A JP2008504591A JP 2008504591 A JP2008504591 A JP 2008504591A JP 2007515082 A JP2007515082 A JP 2007515082A JP 2007515082 A JP2007515082 A JP 2007515082A JP 2008504591 A JP2008504591 A JP 2008504591A
Authority
JP
Japan
Prior art keywords
image
descriptor
value
module
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007515082A
Other languages
English (en)
Inventor
モハメド アデル スラマニ,
アーメド エー. スラマニ,
Original Assignee
アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド filed Critical アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド
Publication of JP2008504591A publication Critical patent/JP2008504591A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

画像内の物体のアスペクト視野角に関わらず、生成画像内の物体を検出および認識するための方法および装置を開示する。物体は、検出された物体の、決定された記述子の値を、記述子の値および/または複数の物体の異なるアスペクト視野角の情報ベースに格納された値の範囲と比較することによって、認識することが可能である。斬新なデサーフェーシング手法は、画像内の物体に関係のない画像面の歪を取り除くために使用することが可能である。斬新なグラフィカルユーザーインターフェースは、ユーザーインタラクションおよび物体認識処理の制御を向上させるために使用することが可能である。開示される方法および装置は、広範囲の撮像システムによって生成される画像内の物体の検出に使用することが可能である。

Description

(1.発明の分野)
本発明は、物体の自動検出におよび認識に関する。特に、本発明は、画像内の物体のビューを検出および認識するための画像処理および画像分析技術の使用に関する。
(2.関連技術の説明)
近年の撮像技術の向上によって、様々なアプリケーションのサポートにおいて、画像すなわち画像データを迅速かつ容易に生成する能力がもたらされた。例えば、X線のような医療用撮像技術、コンピュータを利用したX線断層撮影、および磁気共鳴映像法(MRI)によって、侵襲的プロシージャを用いずに、人体の深い領域の高解像度の画像が生成できる。さらに、船上のソナー、航空機/宇宙船ベースの高解像度レーダー、およびマルチスペクトラムの写真撮影のような地球科学の撮像技術は、海底および農業的/軍事的に重要な地域の詳細な画像の生成、および近隣の惑星の詳細な地表図の生成に使用することが可能である。
米国および世界を通じての近年のテロ活動の増加によって、手荷物または他の密閉包装物内の、および/または船、トラック、鉄道車両、および航空機内に隠蔽された、武器、爆破装置、および個人が隠し持つ他の密輸品を検出およびその位置を特定するための隠蔽武器検出器(Concealed Weapons Detector;CWD)における使用に対して、これらの多くの従来の撮像技術が適用され、新しい撮像技術が開発されてきた。例えば、新しい赤外線(IR)およびミリ波(MMW)技術によって、衣類を安全に貫通して画像を生成することができるようになり、個人の衣類の下に隠された武器、爆発物、および/または他の物体を明らかにすることができる。さらに、電子ビームおよびX線のようなより古い技術は、爆発物から銃や薬物に及ぶ密輸を発見するために、1日に最大100個の40フィートの海上−陸上輸送用コンテナを走査するために、14乃至16インチ相当の鋼を貫通できるように適用されている。
当該の技術を使用した画像生成については著しく進歩しているが、生成画像の内容を自動的に判断する事についてはほとんど進歩していない。生成画像内の問題の物体または対象物体の自動的な検出および認識は、一般に従来の画像処理技術を使用しての解決が難しいとされている様々な障害に遭遇する。例えば、問題の物体または対象物体は、物理的な形状、組成物、および他の物理的な特性が著しく異なる場合がある。さらに、画像の範囲内の物体の外観は、画像が生成された位置に対する物体のアスペクト比角度すなわち方向によって異なる場合がある。加えて、画像内の物体のビューは、部分的に遮断される場合、および/または、背景ノイズ、および/または、対象物体に近接する物体によって塞がれる場合がある。例えば、密輸品のビューは、検出を免れようとするために、更なる物体によって意図的に遮断される/塞がれる場合がある。さらに、密輸品は、非従来的なビューの物体となるような形で密閉包装物内に配置される場合がある。
従来の手法では、一般に武器のような物体を認識するためにテンプレートマッチングを使用する。残念なことに、当該のテンプレートマッチングでは、物体の回転および物体の大きさの変化に反応してしまう。さらに、テンプレートマッチングは、計算的に複雑な処理であり、塞がれたビュー内、および/または部分的に遮断されたビュー内の物体の検出は困難である。
従来の物体検出/認識技術の現状を鑑みると、物体の検出の自動化および検出された物体の認識の自動化の試みでは、しばしば多数の検出されない/認識されない対象物体および多数の物体の誤認識がもたらされる。当該の不十分な性能によって、生成画像は、一般に1つ以上の種類の生成画像を判断し、生成画像内の物体を検出および認識するように特に訓練された技術者によって判断される。例えば、医療用画像の判断には、画像内に配置された物体の位置の特定、識別、および評価のために、一般に訓練された専門医による慎重な視覚的検査が必要である。さらに、軍用画像分析者、地球科学者、考古学者、および海洋学者は、画像内の問題の物体または対象物体の検出および認識のために、一般に生成画像を視覚的に分析する必要がある。密輸品の検出および認識について、米国の税関職員および米国運輸保安局の保安要員は、X線で処理した荷物/貨物の画像内の、および/または、赤外線および/またはミリ波撮像装置を使用して生成された乗客の画像内の、問題の物体または対象物体を識別するために、生成画像を再審査する必要がある。
従来の物体検出および認識システムを有効に操作する訓練されたおよび/または熟練した要員が必要になるので、当該の通常のシステムを使用する組織の運用コストが非常に増加する。さらに、人間のオペレータに依存する手法では、オペレータの疲労および/または集中力の低下による人的ミスの影響の受けやすさが残る。例えば、混雑する空港、海港、および駅での人、荷物、および貨物の検査のような物量の多い環境では、生成画像のオペレータの分析に基づいた画像内容の評価が人的エラーの影響を非常に受けやすいことが証明されている。
したがって、生成画像内の問題の物体または対象物体を検出および認識するための、非常に正確で自動化された手法の必要性が残る。当該の手法は、様々なタイプの生成画像と互換性があり、生成画像内の様々な物体を検出するように訓練することができ、それによって、多種多様の動作ミッションをサポートできる、物体の認識および識別システムを作成することが好ましい。当該の方法および装置は、生成画像内の問題のある物体の完全に自動化された検出をサポートし、および/または生成画像内の問題のある物体の自動的な識別によって人間のオペレータを支援することが好ましい。さらに、当該の方法および装置は、リアルタイムまたは略リアルタイムで、問題のある物体の生成画像を評価できることが好ましい。
(発明の目的および要旨)
したがって、上述に照らして、また本発明を完全に開示したときに明らかになるであろう他の理由において、本発明の目的は、広範囲にわたる画像処理アプリケーションをサポートする、様々な撮像技術によって生成される画像内の物体の検出および認識を自動化することである。
本発明の別の目的は、ノイズが多く、特に遮断された画像のオペレータの判断を容易にし、一方で、エンハンスされた/処理された画像におけるオペレータの確実性を保つことである。
本発明のさらに別の目的は、画像内に検出された物体の正確な認識に必要な、オペレータの訓練/経験のレベルを低減することである。
本発明のさらに別の目的は、画像内に検出された物体の認識における人的ミスを低減することである。
本発明の更なる目的は、画像ベースの物体検出/認識システムの精度を向上させることである。
本発明のなお更なる目的は、画像ベースの物体検出/認識システムのスループットを向上させることである。
上述の目的は、個々に、および組み合わせてなるものであり、本発明は、本願明細書に添付された請求項によって明確に必要とされていなければ、2つ以上の目的を組み合わせることが必要であることを意図するものではない。
方法および装置は、生成画像内に検出された物体の認識に対して開示される。画像内に検出された物体の認識は、1つ以上の対象物体に関連する記述子の情報ベースに格納された記述子の値の範囲を有する、検出された物体に対して決定された記述子の値の比較に基づいている。情報ベースは、問題の物体または対象物体のそれぞれに対して一組の物体の記述子の範囲を含むことが可能であり、物体認識システムが検出するように訓練される。一組の格納された対象物体の記述子の範囲は、さらにサブセットに構成することが可能であり、各サブセットは、一意の角度のビューからの対象物体のビューに対して決定された複数の物体の記述子の範囲を含む。
本発明の装置は、複数の対象物体のビューに対する問題の物体または対象物体のそれぞれに関連する記述子の値の範囲を判断することによって、あらゆる二次元または三次元の物体を検出するように訓練することが可能である。物体の記述子は、物体のビューが、物体の並進(すなわち位置)、スケール、および回転(すなわち方向)を描写するために使用されることが好ましい。例えば、一組の不変の形状記述子は、物体のビューがどれくらい円形かまたは丸いのかを示す基準、物体のビューのフーリエ記述に基づいたパラメータ(例、大きさ)、および/または物体のビューの状態の中心モーメントの分析に基づいたパラメータ、を含むことが可能である。
個々の物体の記述子の関連する有意性を反映するために、各物体の記述子は、発見的に決定された重み値に関連づけることが可能である。物体の記述子に関連する重みは、選択された一組の記述子が、複数の試験画像内の対象物体のビューを識別するために使用される、訓練処理中に決定することが可能である。訓練処理中、記述子を追加または取り除くことが可能であり、また対象物体に関連する記述子の値に割り当てられた重み値を調整することが可能である。一般に、訓練処理は、許容可能な高い検出確率および許容可能な低い誤検出確率を達成した一組の記述子および重みが定められるまで進行する。
本発明の一実施態様では、生成画像は、画像の内容には関係のない表面の歪(すなわち、画像の輝度、コントラスト、などにおける歪)を取り除くように自動的に調整される。当該の一実施態様では、オペレータが、元の未処理版の画像の視覚的表示を利用できるようにすること、およびエンハンスされた/処理された版の画像を利用できるようにすることが好ましい。
別の実施態様では、複数のユーザーが選択した、および/または自動的に生成されたピクセル強度の閾値に基づいて、単一の生成画像から複数のコンポーネント画像を作成することによって、画像内の物体の検出能力が高められることが好ましい。物体は、従来の画像処理技術を使用して、各コンポーネント画像内に検出され、個々のコンポーネント画像内に検出された物体は、次いで検出された物体の合成画像を作成するために関連付けおよび組み合わせが行われる。
本発明の装置および方法は、広範な画像処理アプリケーションのサポートにおいて、あらゆる撮像技術によって生成された画像内の物体の検出に適用することが可能である。当該のアプリケーションには、これに限定されないが、現場のセキュリティ監視、医療用分析診断、地理的/軍用調査画像の判読、室内実験の視覚的な分析、および個人および/または密閉された容器内の隠蔽された密輸品の検出、などが挙げられる。例えば、本発明の位置実施態様では、物体認識システムは、X線生成画像内の複数の従来の爆発物の起爆装置に関連する爆発性充填物を検出することによって、隠蔽された爆破装置を検出するように訓練される。
本願明細書に述べられる方法および装置は、生成画像内の問題のあるまたは対象物体を検出および認識するための、非常に正確で自動化された手法を提供する。述べられる手法は、様々なタイプの生成画像と互換性があり、生成画像内の様々な物体を検出するように訓練することができ、それによって、物体の検出および認識システムは、多種多様の動作ミッションをサポートできるようになる。述べられる方法および装置は、生成画像内の対象物体の完全に自動化された検出をサポートし、および/または生成画像内の物体の自動的な識別によって人間のオペレータを支援することができる。該方法および装置は、リアルタイムまたは略リアルタイムで、問題のある物体の生成画像を評価できることが好ましい。
上述の、およびなお更なる本発明の目的、特徴、および利点は、特に添付図面を参照することによって、その特定の実施態様の以下の詳細な説明を考慮することで明らかになろう。なお、種々の図において、類似する構成要素には類似する参照番号を用いた。
(好ましい実施形態の詳細な説明)
図1は、本発明の例示的な実施態様による、物体認識システムのブロック図を示す。図1に示されるように、物体認識システム100は、情報ベース106と通信するユーザーインターフェース/制御器モジュール104を含むことが可能である。物体認識システム100は、画像インタフェースモジュール108、任意のエンハンスメント/デサーフェーシングモジュール110、セグメンテーション/物体検出モジュール112、物体の記述子生成モジュール114、および、記述子比較モジュール116をさらに含むことが可能である。これらのモジュールのそれぞれは、情報ベース106と直接通信すること、またはユーザーインターフェース/制御器モジュール104を介して通信することが可能である。
物体認識システム100は、ユーザーインターフェース/制御器モジュール104を介して受信したオペレータの命令に従って、画像インタフェースモジュール108を介して外部画像ソース102から受信し、受信した画像を情報ベース106に格納することが可能である。画像を受信/格納すると、物体認識システム100は、次いで、ユーザーインターフェース/制御器モジュール104によって開始される格納された命令、および/またはオペレータの命令に従って、画像の処理を行うことが可能である。情報ベース106は、物体認識システム100のための共通の記憶装置としての機能を果たすことが可能である。モジュールは、それらの各機能の実行によって、情報ベース106からの入力を取り込み、情報ベース106への出力を格納することが可能である。
作動させる前に、物体認識システム100は、所定の一組の問題の物体または対象物体を認識するように訓練することが可能である。この訓練は、対象物体の記述子によって情報ベース106をポピュレートすることによって行われる。対象物体の記述子の組は、対象物体の認識での使用に選択された各記述子の値の範囲を含む。対象物体の記述子の組はサブセットに分割することが可能であり、各サブセットは、特定のアスペクト視野角から見た対象物体の画像に基づいて、選択された対象物体の記述子のそれぞれの値の範囲を含む(すなわち、各対象物体の記述子のサブセットにおける、格納された値/値の範囲は、アスペクト視野角の従属とすることが可能である)。
図2は、本発明の例示的な実施態様により、対象物体の記述子によって物体認識システムをポピュレートするためのプロセスフロー図である。図2に示されるように、物体認識システムは、ステップ204で、特定の角度からの対象物体のビューを含む画像を受信する。以下に詳述するように、画像は、ステップ206で、画像内に検出された物体に無関係のソースからの、画像に対するコントリビューションを取り除くために、エンハンスメント/デサーフェーシングモジュール110によって、状況に応じてエンハンス/デサーフェースされる。次に、画像は、ステップ208で、画像内の対象物体を識別するために、画像処理技術を使用して処理され、ステップ210で、対象物体のビューに基づいて、選択された対象物体の記述子のそれぞれに対して、値が生成される。決定された記述子の値は、ステップ212で、各対象物体の記述子の値の範囲を生成するために使用される。対象物体の記述子の値の範囲は、定められた対象物体に関連する一組の対象物体の記述子のビュー特定のサブセット内に格納され、また物体認識システムの情報ベース内に格納される。ステップ214で、対象物体の追加ビューが未処理のままであることを判断すると、処理のワークフローはステップ204に戻り、別の所定の角度から取得された対象物体の画像を受信し、それ以外ならば、処理は終了する。
図3は、本発明の例示的な実施態様による、受信した画像内で物体を認識するためのプロセスフロー図である。図3に示されるように、画像は、ステップ302で、画像インタフェースモジュール108(図1)によって受信され、情報ベース106に格納される。以下に詳述するように、格納された原画像は、ステップ304で、画像内に検出された物体に無関係のソースからの、画像に対するコントリビューションを取り除くために、エンハンスメント/デサーフェーシングモジュール110によって、状況に応じて取り出して処理が行われる。エンハンスメント/デサーフェーシングモジュール110による処理が終了すると、強化された/デサーフェースされた画像は、情報ベース106に格納することが可能である。
状況に応じて、エンハンス/デサーフェースされた画像は、ステップ306で、画像内の物体を検出するために、画像処理技術を使用して、セグメンテーション/物体検出モジュール112によって処理される。画像内に検出された物体に関連する情報は、画像に関連した情報ベース106に格納することが可能である。次に、値は、ステップ308で、画像内に検出された各物体の所定の一組の対象物体の記述子に対して生成される。生成された物体の記述子の値は、ステップ310で、一致する位置を特定するために、図2について上述したように、情報ベース106に格納された一組の対象物体の記述子の値の範囲と比較される。生成された物体の記述子の値が、格納された対象物体の記述子の値の範囲内にある場合、記述子の一致は肯定であるとみなされる。生成された物体の記述子の値が、格納された対象物体の記述子の値の範囲内にない場合、記述子の一致は否定であるとみなされる。式1について以下に詳述するように、肯定の記述子の一致の評価に基づいて、ユーザーインターフェース/制御器モジュール104は、検出された物体が情報ベース106内に定められた対象物体でありそうかどうかを判断する。
検出された物体が、物体認識システムが認識するように訓練された、複数の対象物体のうちの1つであろうと判断すると、ユーザーインターフェースを介して、ユーザーに警告が発せられる。当該の警告には、1つ以上の可聴のアラーム音、および物体認識システムのユーザーインターフェース/制御器モジュール104を介して示されるグラフィックおよび/またはテキストベースのメッセージを含むことが可能である。さらに、物体認識システムのプラットフォームは、警告を発するときに、対象物体の性質および対象物体が認識される動作環境に基づいて、以降の複数のアクションのうちのいずれかを実行するように予め構成することが可能である。加えて、ステップ312で、比較処理の結果をまとめたレポートを生成し、ユーザーインターフェース/制御器モジュール104を介してオペレータに示す。
これに限定されない1つの代表的な実施態様では、物体認識システム100は、市販のコンピュータプラットフォーム(例、パーソナルコンピュータ、ワークステーション、ラップトップコンピュータなど)で実行されるソフトウェアとして実装される。当該のコンピュータプラットフォームには、ディスプレイ、キーボード、およびマウスのような従来のユーザー入力/出力装置を備えた従来のコンピュータ処理ユニットを含むことが可能である。コンピュータ処理ユニットは、Microsoft Windows(登録商標)、Linux、Macintosh、Unix(登録商標)、またはOS2、あるいは他のオペレーティングシステムのような主要なオペレーティングシステムのうちのいずれかを使用することが可能である。さらに、コンピュータ処理ユニットは、物体認識システムの処理を有効に実行するための、十分な処理および記憶能力を有するコンポーネント(例、プロセッサ、ディスク記憶装置、ハードディスク装置など)を含む。物体認識システムのプラットホームは、画像のソース(例、格納されたデジタル画像ライブラリ、X線画像生成器、ミリ波画像生成器、赤外線画像生成器など)に接続することが可能である。画像は、上述のように、物体認識システム100によって受信および/または取り出して、画像内の物体を検出し、検出された物体の中の対象物体を認識するために、処理することが可能である。
本発明では、情報ベースの各対象物体に対して格納された、一組の対象物体の記述子の値の範囲に基づいて、画像内に検出された複数の物体の中から対象物体を認識する。好適な実施態様では、物体のビューを描写するために使用される物体の記述子は、物体の並進(すなわち位置)、スケール、および回転(すなわち方向)に対して不変である。例えば、一組の不変の形状記述子には、物体のビューがどのくらい円形か、または丸いかを測る基準、物体のビューのフーリエ記述に基づいたパラメータ(例、大きさ)、および/または物体のビューの状態の中心モーメントの分析に基づいたパラメータ、が含まれる。画像内の物体の認識は、画像内に検出された物体に対して決定された物体の記述子の値と、情報ベースに格納された対象物体の記述子の値の範囲との比較に基づくことが可能である。
図4Aは、三次元座標空間(X,Y,Z)における物体の自由回転を描写するために使用することが可能な、角度θおよびβのグラフィック表現を示す図である。例えば、三次元座標空間(X,Y,Z)の原点(0,0,0)に中心がある物体は、物体の実質的に無限の数の潜在的に一意の投影画像を作成するように固定された二次元投影面に、無限の数のアスペクト視野角のいずれかを達成するために、角度θおよびβのいずれかの方向に360°回転させることができる。
しかし、物体の投影画像が、回転不変の形状記述子(すなわち、回転の変化による影響を置けない物体の形状記述子)を使用して描写される場合、完全な一組の一意の投影画像を生成するために回転させなければならない物体の角度が、大きく減じられる。実際に、回転不変の形状記述子が使用される場合、ランダムに形成された三次元物体に対する完全な一組の一意の投影画像は、物体を角度θの方向に0°乃至180°回転させることによって、また角度βの方向に0°乃至90°回転させることによって生成することができる。図4Bに視覚的に示されるように、物体を角度θについて0°乃至180°の回転、および角度βについて0°乃至90°の回転は、回転不変の形状記述子が使用されない場合、すべての可能な投影画像を描写することが可能な一組の形状記述子を生成するために回転させなければならない物体の三次元の体積の1/4しか含まない。さらに、以下に述べる技術を使用することで、回転不変の形状記述子が使用される場合、完全な一組の対象物体の記述子の値の範囲の生成をサポートするために、角度θは、0°から乃至180°まで徐々に変化(例、20°ずつ)させるだけでよく、角度βは、0°から90°まで徐々に変化(例、20°ずつ)させることが可能である。当該の一組の回転不変の対象物体の記述子は、あらゆる角度からの対象物体の投影画像に基づいて、ランダムに形成された二次元または三次元の対象物体を認識するために使用することができる。しかし、本発明の物体認識システムは、不変の対象物体の記述子の使用に制限されない。任意の実施態様は、あらゆる不変または可変の対象物体を組み合わせたものを含む複数組の対象物体の記述子か、または可変の物体の記述子だけを含む複数組の記述子を含むことが可能である。
実質的に、あらゆる撮像技術は、本発明の物体認識システムによって処理される画像を生成するために使用することが可能であるが、使用される記述子のタイプ、および必要な記述子の数は、選択された撮像技術によって異なる場合がある。例えば、三次元物体のあらゆる二次元画像は、一組の記述子(例、サイズ、形状、色、テクスチャ、反射率など)によって特徴づけることができる。しかし、記述子のタイプおよび数、ならびに画像内の物体を正確に検出するために必要な処理の複雑さは、使用される撮像技術および選択されるべき物体の性質によって著しく異なる。
例えば、隠蔽された武器、爆発物、および密閉容器内に含まれる、および/または個人の衣類の下に隠された他の密輸品を監視下で検出するために使用される撮像技術(X線、ミリ波技術、赤外線熱撮像など)は、一般に検出された三次元物体の二次元の投影または投影画像を生成する。当該の二次元投影は、投影画像を映す二次元投影面について、三次元物体のアスペクト視野角に基づいた形状によって変化する。
当該の二次元投影画像を作成する撮像技術を使用する場合、物体認識システムの情報ベースは、システムによって検出されるべき各対象物体に対する一組のスケールおよび回転不変の形状記述子によってポピュレートすることが可能である。一実施態様では、一組の不変の形状記述子の値の範囲は、各対象物体に対する図4Aおよび図4Bついて上述した角度の範囲のβおよびθにおける20°のシフトに基づいたビューに対して決定することが可能である。対象物体の記述子の組の構築では、標準偏差および中間値は、対象物体の各記述子/角度ビューに対して格納することが可能である。
特定の角度ビューに対する記述子は、上述のように、対象物体の記述子の組のサブセットとして格納することが可能である(すなわち、各対象物体の記述子のサブセットにおける格納された値/値の範囲は、アスペクト視野角の従属とすることが可能である)。
検出された物体の投影画像を生成する撮像システムの使用、および回転およびスケール不変の記述子の使用は、本発明の物体認識システムが、選択した数の対象物体を成功裏に認識するために、対象物体の記述子の値の範囲が、生成および格納しなければならない角度の数を著しく減少させる。例えば、図4Aおよび図4Bについて述べたように、X線撮像システムのような投影ベースの撮像システムによって生成された画像に基づいて物体を認識するように構成された物体認識システムでは、X/Z面内の回転不変の形状記述子の角度θは、0°から180°まで変化させるだけでよく、また角度βは、0°から90°まで変化させる必要があり、いずれの角度も、ランダムに形成された三次元物体を完全に描写する一組の対象物体の記述子を生成するために20°のシフトで変化させる。
1つの代表的な実施態様では、物体の各角度ビューに対して複数の画像が生成され、それぞれの記述子に対して決定された値は、記述子に対する平均および標準偏差を提供するために評価される。これらの値は、物体認識情報ベース内に格納され、図3のステップ310について上述したように、物体を識別するために使用される対象物体の記述子の値の範囲を生成するための基準としての役割を果たす。
本発明の例示的な実施態様では、選択された対象物体の記述子は、一組の不変の形状記述子(すなわち、物体の並進スケールおよび/または回転に対して不変)とすることが可能であり、一組の対象物体の記述子の値の範囲は、対象物体の異なる回転ビューに基づいて、各不変の形状記述子に対して生成される。中央値MDおよび標準偏差値STDは、各回転Rでの各形状記述子Dに対して決定され、重み値Wは、各記述子Dに割り当てられる。
各記述子Dおよび各回転Rに対して、一組の範囲[Lij、Hij]は、Lij=MD(R)−A.STD(R)、および、Hij=MD(R)+A.STD(R)のように定義することが可能である。ここで、Aは、格納された一組の物体の記述子の有効性を認証するために使用される物体認識の訓練処理の一部として発見的に定められたパラメータである。重み値も、物体認識の訓練処理の一部として発見的に定めることが可能である。
ijおよびHijの方程式を使用して決定される最大値および最小値に基づいて、許容可能な物体の記述子の値の範囲を決定することによって、上述のように、本発明の物体の記述子ベースの物体認識処理に柔軟性を導く。それぞれがAおよびWに対して発見的に作成された値を有する、複数の物体の記述子を使用することによって、本発明の物体認識システムは、多様な撮像システムからの入力に基づいて多様な動作ミッションをサポートするように、非常に柔軟に構成できるようになる。
物体の記述子の組を生成するために使用されるビューの生成に使用される物体の記述子の数およびタイプ、AおよびWの値、および角度θおよび角度βの増分シフトは、図7Aおよび図7Bについて以下に述べるように、許容可能な検出確率および許容可能な誤警報の確率が達成されるまで、物体認識システムの訓練プロセスの一部として、発見的に微調整することが可能である。当該の柔軟な発見的に訓練された手法の使用によって、上述のように、離散的な角度の増分(例、20°ずつ)で撮影される対象物体のビューに基づいて、物体認識情報内に格納される複数組の対象物体の記述子の値の範囲を格納することが可能になり、それによって、対象物体の記述子の値の範囲を決定しなければならない一意のビューの数を著しく減じることができるようになる。回転不変の物体の記述子だけを使用した場合、図4Aおよび図4Bについて述べたように、複数組の物体の記述子を生成しなければならない角度の範囲が減じられる。回転不変の記述子の選択、または回転可変および不変の記述子を組み合わせることによって確実に対象物体を認識できるようにするために、複数組の対象物体の記述子の値の範囲を生成しなければならない角度の範囲が増加する。
ij、Hijの値および任意の重み値Wは、以下の表1に示されるように、対象物体およびそれぞれが決定された関連する物体の回転に関連して、物体認識システム100(図1)の情報ベース106内に格納することが可能である。
表1−例示的な物体の記述子
Figure 2008504591
代替的には、MDij、STDij、および任意の重み値Wに対する値は、以下の表2に示されるように、物体およびそれぞれが決定された関連する物体の回転に関連して、物体認識システム100(図1)の情報ベース106内に格納することが可能である。
表2−例示的な物体の記述子
Figure 2008504591
上述のように、物体認識システムの情報ベースが、1つ以上の対象物体に対する一組の記述子の範囲の値によってポピュレートされると、システムは、複数組の格納された記述子の範囲の値に基づいて、それぞれの対象物体を検出するために使用することが可能である。
例えば、図3について上述したように、ステップ306で、画像がセグメント化され、物体が画像内に検出されると、ステップ308で、一組の記述子の値D(Test_Object)が、各検出された物体に対して生成される。
ステップ310で、Lij<=D(Test_Object)<=Hijであるかどうかを判断するために、一組の記述子がすべての回転Rに対して比較される。
この比較の結果は、以下の表3に示されるように、表として表すことが可能である。上述の状態が真であればVij=1であり、上述の状態が偽であればVij=0である。
表3−例示的な記述子の比較結果表
Figure 2008504591
各試験物体に対して、正規化パラメータP(Test_Object)は、以下の式に基づいて決定される。
Figure 2008504591
(test_object)は、検出確率をパーセントで表すように、0乃至1の値で正規化されることに留意されたい。このように、超記述子は、個々の記述子の評価に重み付けし(つまり、「0」あるいは「1」)、それらを単一のスカラー量に組み合わせることによって、個々の記述子の評価に基づいて計算される。各試験物体の超記述子は、プリセットされた閾値と比較される。試験物体は、超記述子が検出確率(P)閾値より高い場合に、対象のラベルが付けられ、ハイライトされる。
角度ビューの範囲のそれぞれに対する一組の識別された物体に対して決定された超記述子の例を、以下の表4に示す。この場合、また水平面における回転に対して、物体番号6および7は90°回転させた物体であり、P(TEST_OBJECT)>=60%であることに留意されたい。
表4−超記述子の値(%)
Figure 2008504591
上述のように、1つの物体を検出するために、物体認識システムによって使用される一組の記述子および重みは、別の物体を検出するために、物体認識システムによって使用される一組の記述子および重みとは著しく異なる場合がある。さらに、個々の物体に対して使用される一組の記述子および重みは、対象物体が認識される画像を生成するために使用される撮像システムのタイプによって変化する場合がある。対象物体に対する一組の記述子の絞込みでは、訓練期間は、記述子の異なる組み合わせの有効性を検証し、それぞれの識別しに重みを割り当てるために使用することが可能である。
本発明の物体認識システムは、検出された物体P(TEST_OBJECT)に対する決定された超記述子の確率がPよりも大きい場合、検出された物体を対象物体として識別するように構成することが可能である。上述のように、検出確率(P)の閾値は、オペレータが設定可能な閾値とすることが可能である。Pを低く設定するに従い、認識される物体の数は増加するが、誤検出の数も増加する場合がある。例えば、Pを0%に設定した場合、セグメンテーション/物体検出プロセス中に画像内に検出されるすべての対象は、認識された物体として認識される。上述のように、一組の重み付けした記述子の選択を介して、物体認識システムを訓練することによって、Pの値は、検出確率をほぼ100%に、また誤警報の確率を0%に近づけるように決定することが可能である。オペレータは、動作環境に適した検出と誤警報とのバランスに到達させるために、Pの値を状況に応じて構成することが可能である。
図5は、図2のステップ206について、また図3のステップ304について述べたように、未処理の画像をエンハンス/デサーフェーシングするためのプロセスフロー図である。いくつかの撮像システム(密閉容器内の物体の画像を生成することができるX線撮像システムなど)は、トランスミッタの中央により多く集中し、トランスミッタの中央からの距離に関連して放散するエネルギを放出する。当該のエネルギの不均等な放出は、一般に当該のシステムによって生成される画像内に表される。例えば、当該の撮像システムによって収集されたデジタルデータは、生成された画像の中央において明るいコントラストを示す場合があり、画像の中央から図の外縁部に向かう経路に沿って放散する。当該の撮像システムを使用した場合、本発明によって、当該のシステムによって導かれる画像に対する、当該のコントリビューションの任意の補正が可能になる。
図5に示されるように、ステップ502で、画像を生成した撮像システムに起因する背景コンポーネントを含む画像を受信すると、ステップ504で、初期の標準偏差またはシグマ値が選択され、ステップ506で、背景コンポーネントの強度を近似させることができるモデルに基づいて、背景コンポーネントの近似を生成するために使用される。例えば、X線撮像システムの背景コントリビューションは、準ガウス分布に基づいたモデルを使用して、モデル化することが可能であるが、他の分布に基づいたモデルは、背景コントリビューションの性質によって使用することが可能である。
ステップ506で、画像表面または背景コンポーネントの近似が生成されると、ステップ506で生成された表面の近似およびステップ502で受信した画像に基づいて、ステップ508で、信号対雑音比が決定される。例えば、信号対雑音比(SNR)は、下記の式1を使用して決定することが可能であり、Inputはステップ502で受信した画像であり、Outputはステップ506で生成された表面の近似である。所定の信号対雑音の目標値の所定の誤差の範囲(例、±3dB)内に入るように、ステップ510で、信号対雑音比が決定された場合、ステップ512で、受信した画像は、ステップ502で受信した画像から近似した表面画像を差し引くことによってデサーフェースされる。ステップ510について、35dBの所定の信号対雑音の目標値は、良好な結果をもたらすように発見的に示されている。ステップ510で決定された信号対雑音比が、所定の誤差の範囲を超えている場合は、上述のように、目標の信号対雑音比が達成されるまで、ステップ506で新しい表面の近似を生成することによって、ステップ514で誤差の範囲を縮小して処理を継続するために、シグマ値を調整する。
例えば、準ガウスのカーネル、および標準偏差(値幅)の開始値、またはシグマを使用した巡回フィルタは、以下の式2に基づいた画像表面の近似を生成するために使用することが可能である。
Figure 2008504591
決定されたSNRの値が、発見的に決定された目標値(例えば、上述のように、35dB)に近づくまで、SNRの値を決定し、シグマ値を調整することが可能である。ほぼ35dBのSNRが達成されると、以下の式3に示されるように、受信した入力画像から近似した表面(すなわち出力)を差し引くことによって、デサーフェースされた画像が生成される。
Figure 2008504591
上述のように、画像をデサーフェースすることによって、画像内に表される物体に関係のない、画像の表面へのコントリビューションを取り除く。当該の無関係なコントリビューションの除去によって、処理された画像内の物体の検出が容易になる。上述のように、当該の処理は、状況に応じて、使用される撮像システムの性質に基づいて実行することが可能である。関係のない画像表面の特性を導かない撮像システムを使用する場合、上述のように、画像のデサーフェーシング処理は不要である。
図6は、図2のステップ208および図3のステップ306について述べたように、画像内の物体を検出するためのプロセスフロー図である。図6に示されるように、ステップ602で、原画像またはエンハンス/デサーフェースされた画像を受信すると、ステップ604で、識別可能な強度レベルを有する領域、および近い強度レベルを有する領域に対して、画像データ内の重要な閾値が識別される。識別可能な強度レベルを有する領域は、多モードのヒストグラムを有し、一方、近い強度レベルを有する領域は、オーバーラッピングヒストグラムを有する。閾値は両方の場合に対して計算され、シーンにすべての情報を保存する一組の重要な閾値を形成するように融合される。次に、ステップ606で、画像は、各識別された閾値に対して定量化され、それによって、各識別された閾値に対する二進数の画像を作成する。次に、ステップ608で、各定量化された画像内の物体を識別するために、ピクセルグループ化、および他の従来の画像処理を使用し、それによって、規定された閾値レベルで検出される物体を含むコンポーネント画像を作成する。次いで、ステップ610で、異なる色および/またはグレーレベルを有する異なる強度レベルで表される物体を示す合成画像を作成するために、それぞれの識別された閾値に対応するコンポーネント画像を組み合わせることが可能である。次に、ステップ612で、合成画像内の合成物体を識別するために、従来の画像処理技術を合成画像に使用することが可能である。
図4Aおよび図4Bについて上述したように、一組の不変の形状記述子は、画像内で取得された物体のビューを描写するために使用することが可能である。本発明によれば、形状記述子は、物体の並進(位置)、スケール、および回転(方向)に対して不変であることが好ましい。したがって、物体のビューを描写するために使用することが可能な、一組の不変の形状記述子は、後述するように、円形度、フーリエ記述子、および、モーメントに基づいた形状記述子を含むことが可能である。
物体の円形度は、物体の外観がどのくらい円形か、または細長いかを測る基準である。領域Aおよび周辺部Pを有する物体を想定すると、円形度Cは、以下の式4で示されるように定義することが可能である。
Figure 2008504591
したがって、Cは、物体がどのくらい円形か、または細長いかを測る。一般に領域Aは、検出された物体の境界内に含まれるピクセル数に等しく、一方、周辺部Pは、物体の境界に位置するピクセルから計算される。
フーリエ記述子は、一般に物体の物理的な特性のフーリエ級数表記に基づく。例えば、特定の物体の境界が、0乃至N−1の番号をつけたN個のピクセルを有するとする。輪郭に沿ったK番目のピクセルは、位置(x,y)を有する。複素座標s=x+j.yは、デカルト座標から形成される。Sは、循環曲線(つまり、周期的)であり、そのため、以下の式5に示されるように、計数を有するフーリエ級数において展開することができる。
Figure 2008504591
並進不変性は
Figure 2008504591
を除外することによって達成され、スケール不変性は第2のフーリエ記述子
Figure 2008504591
の大きさを1に設定することによって得られ、回転不変性はすべてのフェーズを
Figure 2008504591
のフェーズと関連付けることによって達成される。フーリエ記述子に基づいた異なるパラメータを、オブジェクトの形状の代表例として使用することが可能である。例えば、形状記述子は、以下の式6に示されるように、フーリエ記述子の大きさに基づくことが可能である。
Figure 2008504591
形状記述子は、物体に対して決定されるモーメントに基づくことも可能である。例えば、デカルトの面(x,y)および物体のグレー値の関数g(x,y)における物体を想定すると、次数(p,q)の中心モーメントは、以下の式7によって与えられる。
Figure 2008504591
離散的な二進数の画像に対する中心モーメントの計算は、式7を以下の式8にする。
Figure 2008504591
スケール不変性は、以下の式9に示されるように、ゼロ次モーメントで中心モーメントを正規化することによって達成される。
Figure 2008504591
並進、スケール、および回転不変の二次および三次正規化モーメントに基づく形状パラメータを、以下の式10に示す。
Figure 2008504591
例えば、9つの形状パラメータを表す、式1、3、および4は、あらゆる画像生成器によって生成される画像における対象物体を自動的に検出するために使用することが可能である。モーメントに基づく形状記述子は、対称物体に対してゼロに等しく、さらに非対称物体に対する値を返す。したがって、対象物体が対象である場合、モーメントベースの形状に割り当てられた重みは一般に小さくなり、一方で、対象物体が非対称である場合、モーメントベースの形状に割り当てられた重みは一般に大きくなる。
当該のスケールおよび回転不変の形状識別子は、画像内の対象物体のアスペクト視野角に関係なく、二次元投影された対象物体のビューを含むあらゆる二次元投影された画像内の問題のある物体を検出するために使用することが可能である。この手法を使用することによって、本発明は、先に確認されたテンプレートマッチングのような従来の手法の不利な点を解決する。さらに、述べられた方法は、テンプレートマッチングのような従来の画像処理検出技術よりも、計算的に単純で柔軟であり、雑然とした画像における略リアルタイムの検出を可能にする。
上述のように、本発明の物体認識システムは、傾斜回転の変化によって不変である(すなわち影響を受けない)形状識別子を使用して、対象物体を認識するために使用することが可能である。さらに上述したように、回転不変の形状記述子の使用によって、あらゆる任意の物体の三次元的回転に基づいて、上述のように、対象物体を識別するために使用することが可能な一組の不変の形状記述子の値の範囲を生成するために、対象物体を回転させなければならない三次元空間の量が減じられる。
本発明の例示的な実施態様は、X線で処理したパッケージの画像内の簡易爆発物(IED)に関連する隠蔽された雷管および他のコンポーネントを自動的に検出およびハイライトする能力を備えた爆発物処理ユニットを提供するように構成することが可能である。例えば、本発明は、X線画像内の潜在的な雷管を自動的に検出およびハイライトすることによって、ワイヤーおよびバッテリのような爆破装置の他のコンポーネントを見つけるために、問題のある領域にオペレータの注意を集中させることを助力する。
多くの従来の雷管で共有される特性は、楕円形状を有する高密度爆発性充填物を使用することである。当該の高密度爆発性充填物は、X線画像において高強度値をもたらすが、雷管の他の部分は、シーン内のノイズまたはクラッターと容易に同化する可能性があり、独立した物体として分離させることが困難になる。都合の悪いことに、当該の楕円形状は、他の物体(例、ペン、鉛筆、コームなど)においても共通である。本発明の物体認識システムは、上述のように、許容可能な検出確率および許容可能な誤警報の確率が達成されるまで、訓練処理に基づいて、一組の記述子および重みを選択することによって、雷管の爆発性充填物を検出するように訓練することが可能である。
例えば、1つの代表的な構成では、代表的な雷管の爆発性充填物を描写し、画像内の類似した形状の物体から充填物を区別するために、35の記述子が使用される。一組の物体記述子には、円形度、フーリエ記述子、モーメント、重心、均等性、偏心率などが含まれる。選択した記述子の大部分は、円形度、フーリエ記述子、およびモーメントについて上述したように、回転、並進、およびスケーリングを不変にさせる。重みは、異なるタイプの信号対雑音比、シーン、回転、およびアスペクトビューの複雑さの統計および性質に基づいて、各記述子に対して生成される。
図7Aおよび図7Bは、上述のように、雷管の爆発性充填物を検出するように選択および訓練された一組の記述子を使用した本発明の物体認識システムの例示的な実施態様を使用して処理される画像に対して、検出確率(PD)および誤警報の確率(PFA)それぞれの性能測度を示す図である。図7Aおよび図7Bに示される曲線は、訓練中に得られた中央値および、検出および誤警報の確率に対する試験データを表す。図7Aおよび図7Bに示されるように、一組の重み付けした記述子および60%の閾値Pに基づいた超識別子を使用することによって、100%の雷管の対象物体の確率、および0%の誤警報の確率(すなわち、検出した物体を雷管の爆発性充填物と誤って識別すること)が達成される。
図8は、オペレータと情報をやりとりするために、物体認識システムのユーザーインターフェース/制御器モジュール104(図1)が使用するための例示的なグラフィカルユーザーインターフェース800を示す。一実施態様では、グラフィカルユーザーインターフェース(GUI)800は、サムネイル表示領域802と、拡大表示領域804と、ツールバー806と、を含む。サムネイル表示領域802は、拡大表示領域804内の選択画像の拡大版を表示するために(例えばクリックして)それぞれ選択することが可能な、種々の処理段階にある画像の小さなビューを示すことが可能である。ツールバー806によって、オペレータは、上述のように、物体識別処理によって生成された出力を制御することが可能になる。
例えば、図8に示されるように、サムネイル表示領域802は、画像認識システムで受信したときに原画像のビュー808、原画像のエンハンス/デサーフェースされたビュー810、およびセグメンテーション/物体検出および物体認識が実行されたエンハンスされた画像のビュー812を示すように構成することが可能である。オペレータは、あらゆる数およびタイプのサムネイル画像を表示するように、サムネイル表示領域802を構成することが可能である。例えば、ユーザーは、原画像、エンハンス/デサーフェースされた画像、1つ以上の生成された閾値コンポーネント画像、セグメント化/物体の合成画像、および/またはあらゆる検出確率(P)の閾値の数に基づいて物体認識処理が実行された画像を表示するように、サムネイル表示領域802を構成することが可能である。任意のサムネイルスクロールバー814は、サムネイル表示領域802内にフィットできる数よりも多いサムネイルが要求された場合に、どの時点においてもサムネイル表示領域802に自動的に追加される。
ツールバー806によって、オペレータは、上述のように、物体識別処理によって生成された出力を制御することが可能になる。例えば、図8に示されるように、ツールバー806は、ロードボタン816、処理ボタン818、処理ステータスバー820、画像選択バー822、検出確率(P)の閾値選択バー824、選択したPの適用ボタン826、および/または終了ボタン828、を示すように構成することが可能である。
ロードボタン816によって、オペレータは、保存された画像データファイルをロードしたり、画像生成システムから新しい画像を受信したりすることが可能になる。処理ボタン818は、現在選択されているサムネイル画像を生成/再生成するために、処理を開始/再開するために使用することが可能である。処理ステータスバー820は、リクエストされた処理タスクのステータスを示す用に構成することが可能である。例えば、オペレータが処理ボタン818を押し下げたときに、ステータスバーは、その色を赤に初期化することが可能である。処理の進行につれて、緑色のセグメントの量が経過した時間の長さに比例し、残りの赤色のセグメントの量が推定残り時間の長さの割合となるように、赤色のセグメントは、逐次左から右に緑色のセグメントと置き換えることが可能である。画像選択バー822は、クリックすることにより、サムネイル表示領域802に示されるサムネイル画像に基づいて、拡大表示領域804に表示される画像を更新することが可能である。例えば、画像選択バー822の上向き矢印部分は、一組のサムネイル画像を昇順に循環させるために使用することが可能であり、または画像選択バー822の下向き矢印部分は、一組のサムネイル画像を降順に循環させるために使用することが可能である。
検出確率(P)の閾値選択バー824は、カラーコードと、1つ以上の検出確率(P)の閾値の範囲を関連付けるために使用することが可能である。例えば、検出確率(P)の選択バー824が、図8に示されるように、3つのカラーコード(例、なし、黄色、赤)をサポートするように構成された場合、各色に関連する閾値は、オペレータが、2つのカラーコード間のセパレータ830をクリックし、セパレータ830を左または右にドラッグすることによって、変更することが可能である。例えば、図8に示される検出確率(P)の選択バーの設定に基づいて、0%乃至50%の間のP(Object)によって処理された画像内に検出された物体はハイライトされず、50%乃至75%の間のP(Object)によって処理された画像内に検出された物体は黄色でハイライトされ、75%乃至100%の間のP(Object)によって処理された画像内に検出された物体は赤色でハイライトされる。しかし、セパレータ830Aが検出確率(P)の選択バー824の一番左側にドラッグされ、セパレータ830Bが検出確率(P)の選択バー824の中間にドラッグされた場合、0%乃至50%の間のP(Object)によって処理された画像内に検出された物体は黄色でハイライトされ、50%乃至100%の間のP(Object)によって処理された画像内に検出された物体は赤色でハイライトされる。選択したPの適用ボタン826は、検出された物体を含む画像に対して、検出確率(P)の選択バー824を使用して更新されたP値を適用するために使用される。選択したPの適用ボタン826をクリックすると、サムネイル表示領域802および拡大表示領域804内に示される画像内に検出された物体の画像が、新しく割り当てられたカラーコードを反映させるために更新される。終了ボタン828をクリックすると、現在のユーザーの設定を格納し、現在表示されている処理された画像を保存し、グラフィカルユーザーインターフェース800を終了させる。このように、オペレータは、操作に必要な変更を適応させるために、迅速かつ容易に検出確率の表示閾値を調整することが可能である。例えば、米陸軍基地または空港のような施設で、隠蔽された武器および爆発物を検出するために使用される画像認識システムでは、検出確率の表示値は、運用上の脅威が高い期間中には、より高いレベルの表示感度に調整し、運用上の脅威が低い期間中には、より低いレベルの表示感度に調整することが可能である。
上述のように、サムネイル表示領域802は、複数のビューを表すように構成することが可能である。例えば、サムネイルは、画像認識システムが受信したときに、上述のように、原画像808、原画像のエンハンス/デサーフェースされたビュー、複数の検出された閾値コンポーネントのビューのうちの1つ、検出された物体との合成ビュー、および認識された物体がハイライトされるビュー、を示すことが可能である。各サムネイル画像は、図3、図5、および図6について上述したように、追加レベルの処理を受けさせた、先のサムネイル画像に示される画像のビューを表す。サムネイル画像を選択すると、オペレータは、先の画像から選択された画像を作成するために実行される処理を制御する一組のデフォルトの/ユーザー設定可能なパラメータを状況に応じて更新することが可能である。例えば、画像のエンハンス/デサーフェースされたビューを選択することによって、オペレータは、準ガウスモデル、初期のシグマ値、および/または原画像からエンハンス/デサーフェースされた画像を生成するために使用される目標の信号対雑音比、を更新することが可能である。閾値コンポーネントまたは検出された物体との合成画像を選択することによって、オペレータは、物体を検出するために使用される自動閾値処理から、1つ以上の閾値レベルを選択および/または取り除くことが可能である。認識された物体を有する画像を選択することによって、オペレータは、状況に応じて、物体の記述子を追加/除去すること、記述子の重みを変更すること、および/または1つ以上の記述子に対する許容可能な値の範囲を手動で変更することが可能である。更新された処理制御パラメータを保存すると、ユーザーは、新しいパラメータに基づいて、選択されたサムネイル画像を再生するために処理ボタン818を選択することが可能である。
上述した、および図に示された実施態様は、生成された画像内に対象物体のビューを認識するために、物体認識システム内に対象物体の記述子を適用する多くの方法のうちのごく一部を示しているに過ぎないことを理解されたい。本発明は、本願明細書に開示された特定の実施態様に限定されるものではなく、本願明細書に開示された方法および装置は、画像処理技術を使用して、ビュー内の対象物体の検出および認識に使用することが可能である。
本願明細書に開示された物体認識システムは、複数のユニットまたはモジュールに実装することが可能であり、いかなる特定のソフトウェアモジュールアーキテクチャにも限定されるものではない。各モジュールは、複数の方法で実装することができ、上述のように、プロセスフローを正確に実行するための実装に限定されるものではない。上述した、およびフローチャートおよび図に示された物体認識システムは、本願明細書に開示された機能を達成するあらゆる方法で改良することが可能である。物体認識システムの様々な機能は、任意の数量(例、1つ以上)のハードウェアおよび/またはソフトウェアモジュールまたはユニット、コンピュータまたは処理システム、または回路の中のいかなる方法においても配信することが可能であると理解されたい。
本発明の物体認識システムは、特定の撮像システムによって生成された、いかなる特定のタイプの画像の分析における使用にも限定されないが、あらゆる撮像システムによって生成された画像内に、および/または複数の画像生成器によって生成された画像の合成物である画像内に対象物体を識別するために使用することが可能である。
対象物体の記述子の組は、いかなる数およびタイプの物体の記述子でも含むことが可能である。記述子の組は、これに限定されないが、1つ以上の画像および/または撮像技術を使用した撮像技術または関連のある画像を組み合わせたものによって生成される物体のビューの形状、色、およびサイズを含む物体の生成された画像のビュー内に検出可能な対象物体のあらゆる特性に基づいた記述子を含むことが可能である。さらに、記述子の組は、対象物体のあらゆる検出可能な特性に基づいた、または特性から導出される記述子を含むことが可能である。
本開示のいかなる内容も、本発明をあらゆる特定の撮像技術に限定すると解釈されるものではない。本開示のいかなる内容も、格納された対象物体の記述子の値の範囲および/または割り当てられた重みを表す、あらゆる特定の方法が必要であると解釈されるものではない。さらに、本開示のいかなる内容も、検出された物体に対して生成された物体の記述子の値を評価するあらゆる特定の方法、または生成された記述子の値と、格納された対象物体の記述子の値および/または値の範囲を比較するあらゆる特定の方法、が必要であると解釈されるものではない。
本開示のいかなる内容も、対象物体を描写するために使用される物体の記述子のタイプまたは性質を制限すると解釈されるものではない。格納された対象物体の記述子は、不変および/または可変の記述子のあらゆる組み合わせを含むことが可能である。例えば、対象物体に対して格納された一組の記述子は、物体の並進(すなわち位置)、スケール、および回転(すなわち方向)に対して不変の記述子、および物体の並進、スケールおよび回転によって変化する記述子を含むことが可能である。
物体認識システムは、1つまたは複数の撮像技術に対して、格納された対象物体の記述子の値および/または値の範囲を含むことが可能である。物体の検出に使用される実際の記述子は、静的なユーザーが定義のパラメータおよび/または自動的に/動的に決定したパラメータに基づいて、決定することが可能である。格納された対象物体の記述子は、あらゆる方法で格納し、あらゆる方法で対象物体に関連付けることが可能である。
物体認識システムは、コマンドラインおよび/またはグラフィカルユーザーインターフェース(例、Windows(登録商標)、OS/2、Unix(登録商標)、Linux、DOSなど)をサポートする、あらゆる利用可能なオペレーティングシステム内で実行することが可能である。物体認識システムは、あらゆるオペレーティングシステム/ハードウェアプラットホームに組み込んで実行することが可能であり、実行システムまたは装置内の多数のプロセッサ上で実行することが可能である。
物体認識システムは、あらゆる所望のコンピュータ言語および/またはコンピュータ言語を組み合わせたもので実行することが可能であり、本願明細書に含まれる機能記述および図に示されるフローチャートに基づいて、コンピュータおよび/またはプログラム技術の当業者によって開発することができる。さらに、物体認識システムのユニットは、本願明細書に開示された物体認識システムによって実行される機能を実装するために、あらゆる方法で構成された市販のコンポーネントを含むことが可能である。さらに、物体認識システムのソフトウェアは、あらゆる好適な媒体を介して入手可能な、または配信されたものであってよい(例えば、CD−ROMおよびディスケットのような装置に格納されたもの、インターネットまたは他のネットワークから(例えば、パケットおよび/または搬送波信号を介して)ダウンロードしたもの、掲示板から(例えば、搬送波信号を介して)、または他の従来の配信機構ダウンロードしたもの)。
物体認識システムは、あらゆる量およびタイプのデータファイルおよび/またはデータベースまたは他の構造を収容することが可能であり、所望のファイルおよび/またはデータベースフォーマット(例、アスキー、バイナリ、プレーンテキスト、または他のファイル/ディレクトリサービスおよび/またはデータベースフォーマットなど)に、複数組の記述子の値/値の範囲を格納することが可能である。さらに、本願明細書における種々の機能を実行するソフトウェアまたは市販のアプリケーションへの言及は、概してこれらの機能をソフトウェアの制御下で実行するプロセッサに言及したものである。当該のプロセッサは、代わりにハードウェアまたは他の処理回路を実装することが可能である。物体認識システムの種々の機能は、多数の(例、1つ以上の)ハードウェアおよび/またはソフトウェアモジュールまたはユニットの中のあらゆる方法で配信することが可能である。処理システムまたは回路は、互いにローカルまたはリモートに配置することが可能であり、あらゆる好適な通信媒体(例、ハードワイヤ、無線など)を介して通信することが可能である。上述した、およびフローチャートおよび図に示されたソフトウェアおよび/または処理は、本願明細書に開示された機能を達成する、あらゆる方法で改良することが可能である。
上述の説明から、本発明は、予め決定された対象物体の記述子の値/値の範囲のフォールトトレラントの評価に基づいて、迅速かつ効率的に検出および認識される画像内の対象物体のビューを可能にする画像処理技術を使用して、物体を検出および認識するための方法および装置を含むものであると理解されたい。
画像処理技術を使用した物体の検出および認識のための方法および装置の好適な実施態様を開示したが、他の改良、バリエーション、および変更は、本願明細書に記述された技術を考慮して、当業者に提案することが可能であると考えられたい。したがって、すべての当該のバリエーション、改良、および変更は、添付の特許請求の範囲に記載の本発明の範囲に入ると考えられることを理解されたい。
本発明の例示的な実施態様による、物体認識システムのブロック図である。 本発明の例示的な実施態様による、物体の記述子を含む情報ベースを構築するためのプロセスフロー図である。 本発明の例示的な実施態様による、画像内に検出された物体を認識するためのプロセスフロー図である。 物体の自由回転を描写するために使用することが可能な角度のグラフィック表現を示す図である。 物体が回転することが可能な三次元空間の量のグラフィック表現を示す図である。 本発明の例示的な実施態様による、未処理の画像をエンハンス/デサーフェーシングするためのプロセスフロー図である。 本発明の例示的な実施態様による、画像内の物体を検出するためのプロセスフロー図である。 本発明の例示的な実施態様による、オペレータが構成した閾値の検出確率(P)の値の関数としての検出確率を示す図である。 本発明の例示的な実施態様による、オペレータが構成した閾値の検出確率(P)の値の関数としての誤警報の確率を示す図である。 本発明の例示的な実施態様による、原画像、処理された/エンハンスされた画像、および検出された、および/または認識された物体を識別する画像のビューを、オペレータが利用できるようにするために使用するインターフェースの図である。

Claims (71)

  1. 画像内の対象物体を認識するための方法であって、
    (a)物体のビューを含む生成画像を受信するステップと、
    (b)前記画像内の前記物体を検出するために前記画像を処理するステップと、
    (c)前記検出された物体の少なくとも1つの特性に基づいて、記述子の値を生成するステップと、
    (d)前記対象物体のビューに基づいて、前記生成記述子の値と前記記述子の格納値を比較して、比較結果を得るステップと、
    (e)前記比較結果の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するステップと、を含む方法。
  2. 前記ステップ(c)は、
    (c.1)前記検出された物体に基づいて、複数の記述子のそれぞれの値を生成するステップをさらに含み、
    前記ステップ(d)は、
    (d.1)前記対象物体のビューに基づいて、前記生成記述子の値のそれぞれと前記記述子の格納値を比較して、複数の比較結果を得るステップをさらに含み、
    前記ステップ(e)は、
    (e.1)前記複数の比較結果に基づいて、超記述子の値を生成するステップと、
    (e.2)前記超記述子の値の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するステップと、をさらに含む、請求項1に記載の方法。
  3. 前記ステップ(d)は、
    (d.1)前記生成記述子の値と前記記述子の複数の格納値を比較するステップであって、前記複数の格納値のそれぞれは一意のアスペクト視野角からの前記対象物体のビューに基づいており、それによって、複数の対象物体のアスペクト視野角の複数の比較結果が得られる、ステップをさらに含み、
    前記ステップ(e)は、
    (e.1)前記一意の対象物体のアスペクト視野角に対して得られた前記複数の比較結果に基づいて、超記述子の値を生成するステップと、
    (e.2)前記対象物体のアスペクト視野角の超記述子の値の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するステップと、をさらに含む、請求項1に記載の方法。
  4. 前記ステップ(e.1)は、
    (e.1.1)少なくとも1つの比較結果がオペレータに割り当てられた重みによって重み付けされる、超記述子を生成するステップをさらに含む、請求項3に記載の方法。
  5. 前記ステップ(e.2)は、
    (e.2.1)前記超記述子と所定の閾値との比較に基づいて、前記検出された物体が前記対象物体のビューであることを判断するステップをさらに含む、請求項3に記載の方法。
  6. 前記対象物体は、
    成形された炸薬、および
    武器のうちの少なくとも1つである、請求項1に記載の方法。
  7. 前記対象物体は、雷管の爆発性充填物である、請求項1に記載の方法。
  8. 前記対象物体は、
    生体組織の器官、
    生体組織の腫瘍、
    生物有機体、および
    化学構造のうちの少なくとも1つである、請求項1に記載の方法。
  9. 前記対象物体は、
    地質特性、および
    地球外の特性のうちの少なくとも1つである、請求項1に記載の方法。
  10. 前記対象物体は、
    車両、および
    人工構造物のうちの少なくとも1つである、請求項1に記載の方法。
  11. 前記ステップ(c)は、回転不変の記述子を生成するステップをさらに含む、請求項1に記載の方法。
  12. 前記ステップ(c)は、
    並進不変の記述子、および
    スケール不変の記述子のうちの少なくとも1つを生成するステップをさらに含む、請求項1に記載の方法。
  13. 前記ステップ(c)は、可変および不変の記述子を組み合わせたものを生成するステップをさらに含む、請求項1に記載の方法。
  14. 前記ステップ(a)は、
    (a.1)格納レポジトリから保存画像を受信するステップをさらに含む、請求項1に記載の方法。
  15. 前記ステップ(a)は、
    (a.1)画像生成器から画像を受信するステップをさらに含む、請求項1に記載の方法。
  16. 前記ステップ(a)は、
    (a.1)複数の画像生成器によって作成される画像の合成物である画像を受信するステップをさらに含む、請求項1に記載の方法。
  17. 前記ステップ(b)は、
    (b.1)受信した画像からピクセル強度の閾値を選択するステップと、
    (b.2)前記受信した画像および前記選択した閾値に基づいて、コンポーネント画像を生成するステップと、
    (b.3)前記生成したコンポーネント画像内の物体を検出するステップと、をさらに含む、請求項1に記載の方法。
  18. 前記ステップ(b)は、
    (b.4)物体が検出されたコンポーネント画像を組み合わせて合成画像を作成するステップと、
    (b.5)前記生成された合成画像内の物体を検出するステップと、をさらに含む、請求項17に記載の方法。
  19. 前記ステップ(c)は、
    前記物体の円形度、
    物体特性のフーリエ表現、
    前記物体のモーメント、
    前記物体の重心、
    前記物体の均等性、および
    前記物体の偏心率のうちの少なくとも1つに関連する物体特性を描写する記述子を生成するステップをさらに含む、請求項1に記載の方法。
  20. 前記ステップ(d)は、
    (d.1)前記対象物体のビューに基づいて、前記生成記述子と格納された対象物体記述子の値の範囲を比較するステップをさらに含む、請求項1に記載の方法。
  21. 前記ステップ(d)は、
    (d.1)前記生成記述子の値が、格納された対象物体記述子の値に対して所定の近接の範囲内であるかどうかを判断するステップをさらに含む、請求項1に記載の方法。
  22. 前記ステップ(d)は、
    (d.1)複数の対象物体の格納記述子の値を含む情報ベースから前記記述子の前記格納値を取り出すステップをさらに含む、請求項1に記載の方法。
  23. 前記ステップ(d)は、
    (d.1)複数の対象物体のそれぞれに対して、複数の格納記述子の値を含む情報ベースから前記記述子の前記格納値を取り出すステップをさらに含む、請求項1に記載の方法。
  24. 前記ステップ(b)は、
    (b.1)前記画像から背景コンポーネントを取り除くステップをさらに含む、請求項1に記載の方法。
  25. 前記ステップ(b.1)は、
    (b.1.1)前記画像の背景コンポーネントの近似を生成するステップと、
    (b.1.2)前記受信した画像から前記生成した背景コンポーネントの近似を取り除くステップと、をさらに含む、請求項24に記載の方法。
  26. 画像内の対象物体を認識するための装置であって、
    物体のビューを含む生成画像を受信するための画像インターフェースモジュールと、
    前記画像内の前記物体を検出するための物体検出モジュールと、
    前記検出された物体の少なくとも1つの特性に基づいて、記述子の値を生成するための生成モジュールと、
    前記対象物体のビューに基づいて、前記生成記述子の値と前記記述子の格納値を比較して比較結果を得るための比較モジュールと、
    前記比較結果の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するための制御器モジュールと、を備える装置。
  27. 前記生成モジュールは、前記検出された物体に基づいて、複数の記述子のそれぞれの値を生成するように構成され、
    前記比較モジュールは、前記対象物体のビューに基づいて、生成記述子の値のそれぞれと前記記述子の格納値を比較して、複数の比較結果を得るように構成され、
    前記制御器モジュールは、
    前記複数の比較結果に基づいて、超記述子の値を生成するための超記述子生成モジュールと、
    前記超記述子の値の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するための超記述子評価モジュールと、をさらに備える、請求項26に記載の装置。
  28. 前記比較モジュールは、前記生成記述子の値と前記記述子の複数の格納値を比較するように構成され、前記複数の格納値のそれぞれは一意のアスペクト視野角からの前記対象物体のビューに基づいており、それによって、複数の対象物体のアスペクト視野角の複数の比較結果が得られ、
    前記制御器モジュールは、
    前記一意の対象物体のアスペクト視野角に対して得られれた前記複数の比較結果に基づいて、超記述子の値を生成するための超記述子生成モジュールと、
    前記対象物体のアスペクト視野角の超記述子の値の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するための超記述子評価モジュールと、をさらに含む、請求項26に記載の装置。
  29. 前記対象物体は、
    成形された炸薬、および
    武器のうちの少なくとも1つである、請求項26に記載の装置。
  30. 前記対象物体は、雷管の爆発性充填物である、請求項26に記載の装置。
  31. 前記生成モジュールは、回転不変の記述子の値を生成するように構成される、請求項26に記載の装置。
  32. 前記生成モジュールは、
    並進不変の記述子の値、および
    スケール不変の記述子の値のうちの少なくとも1つを生成するように構成される、請求項26に記載の装置。
  33. 画像内の対象物体を認識するためのコンピュータプログラムロジックを記録したコンピュータ可読媒体を有するプログラム製品であって、
    物体のビューを含む生成画像を受信するための画像インターフェースモジュールと、
    前記画像内の前記物体を検出するための物体検出モジュールと、
    前記検出された物体の少なくとも1つの特性に基づいて、記述子の値を生成するための生成モジュールと、
    前記対象物体のビューに基づいて、前記生成記述子の値と前記記述子の格納値を比較して比較結果を得るための比較モジュールと、
    前記比較結果の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するための制御器モジュールと、を備えるプログラム製品。
  34. 前記生成モジュールは、前記検出された物体に基づいて、複数の記述子のそれぞれの値を生成するように構成され、
    前記比較モジュールは、前記対象物体のビューに基づいて、生成記述子の値のそれぞれと前記記述子の格納値を比較して、複数の比較結果を得るように構成され、
    前記制御器モジュールは、
    前記複数の比較結果に基づいて、超記述子の値を生成するための超記述子生成モジュールと、
    前記超記述子の値の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するための超記述子評価モジュールと、をさらに備える、請求項33に記載のプログラム製品。
  35. 前記比較モジュールは、前記生成記述子の値と前記記述子の複数の格納値を比較するように構成され、前記複数の格納値のそれぞれは一意のアスペクト視野角からの前記対象物体のビューに基づいており、それによって、複数の対象物体のアスペクト視野角の複数の比較結果が得られ、
    前記制御器モジュールは、
    前記一意の対象物体のアスペクト視野角に対して得られた前記複数の比較結果に基づいて、超記述子の値を生成するための超記述子生成モジュールと、
    前記対象物体のアスペクト視野角の超記述子の値の評価に基づいて、前記検出された物体が前記対象物体のビューであるかどうかを判断するための超記述子評価モジュールと、をさらに含む、請求項33に記載のプログラム製品。
  36. 前記対象物体は、
    成形された炸薬、および
    武器のうちの少なくとも1つである、請求項33に記載のプログラム製品。
  37. 前記対象物体は、雷管の爆発性充填物である、請求項33に記載のプログラム製品。
  38. 前記生成モジュールは、回転不変の記述子の値を生成するように構成される、請求項33に記載のプログラム製品。
  39. 前記生成モジュールは、
    並進不変の記述子の値、および
    スケール不変の記述子の値のうちの少なくとも1つを生成するように構成される、請求項33に記載のプログラム製品。
  40. 複数のステージにおける画像処理を制御するために、グラフィカルユーザーインターフェースを介してオペレータと情報をやりとりするための方法であって、
    (a)複数のサムネイルビューを表示するステップであって、各サムネイルビューは、処理ステージ前および処理ステージ後のうちの1つにおいて画像を描写するステップと、
    (b)オペレータが選択したサムネイル画像の拡大ビューを表示するステップと、
    (c)ステージ中にどのように前記画像が処理されるのか、および前記処理された画像がどのように表示されるのか、のうちの少なくとも1つの制御に使用される、前記オペレータからの入力を受信するステップと、を含み、
    前記画像処理は、前記画像からの背景コンポーネントの除去、前記画像内の物体の検出、および前記画像内の対象物体の認識、のうちの少なくとも1つを含む、方法。
  41. 前記ステップ(a)は、
    (a.1)表示に利用可能なサムネイルビューの数を判断する前記オペレータからの入力を受信するステップをさらに含む、請求項40に記載の方法。
  42. 前記ステップ(a.1)では、前記表示に利用可能なサムネイルビューの数が、同時に表示することが可能なサムネイルビューの数を超え、前記ステップ(a)は、
    (a.2)オペレータが、前記同時に表示することが可能なサムネイルビューの数だけを表示させながら、前記表示に利用可能なサムネイルビューの数を介してスクロールすることができるステップをさらに含む、請求項41に記載の方法。
  43. 前記ステップ(b)は、
    (b.1)前記オペレータのスクロールによって表示されたサムネイルに前記オペレータが選択したサムネイルを更新し、前記更新されたオペレータが選択したサムネイル画像を表示するために前記拡大ビューを更新するステップをさらに含む、請求項42に記載の方法。
  44. 前記ステップ(b)は、
    (b.1)検出された物体および表示された前記拡大ビュー内の認識された物体のうちの少なくとも1つを視覚的に識別するステップをさらに含む、請求項40に記載の方法。
  45. 前記ステップ(b)は、
    (b.1)前記認識された物体に関連する対象物体の検出確率の決定値に基づいて、表示された前記拡大ビュー内の認識された物体を視覚的に識別するステップをさらに含む、請求項40に記載の方法。
  46. 前記ステップ(c)は、
    (c.1)オペレータが選択したサムネイル画像に関連する画像処理のステージの制御パラメータを、オペレータが変更できるようにするステップをさらに含む、請求項40に記載の方法。
  47. 複数のステージにおいて画像処理を制御するために、オペレータと情報をやりとりするためのグラフィカルユーザーインターフェースであって、
    前記画像の複数のサムネイルビューを表示するためのサムネイルモジュールであって、各サムネイルビューは、処理ステージ前および処理ステージ後のうちの1つにおいて前記画像を描写する、サムネイルモジュールと、
    オペレータが選択したサムネイル画像の拡大ビューを表示するための表現モジュールと、
    ステージ中にどのように前記画像が処理されるのか、および前記処理された画像がどのように表示されるのか、のうちの少なくとも1つの制御に使用される、前記オペレータからの入力を受信するための制御モジュールと、を備え、
    前記画像処理は、前記画像からの背景コンポーネントの除去、前記画像内の物体の検出、および前記画像内の対象物体の認識、のうちの少なくとも1つを含む、グラフィカルユーザーインターフェース。
  48. 前記サムネイルモジュールは、
    表示に利用可能なサムネイルビューの数を判断する前記オペレータからの入力を受信するための構成モジュールをさらに備える、請求項47に記載のグラフィカルユーザーインターフェース。
  49. 前記構成モジュールが表示するように構成された前記サムネイルビューの数が、同時に表示することが可能なサムネイルビューの数を超えることが可能であり、前記サムネイルモジュールは、
    オペレータが、前記同時に表示することが可能なサムネイルビューの数だけを表示させながら、前記表示に利用可能なサムネイルビューの数を介してスクロールすることができるようにするスクロールモジュールをさらに含む、請求項48に記載のグラフィカルユーザーインターフェース。
  50. 前記表現モジュールは、
    オペレータのスクロールによって表示されたサムネイルに前記オペレータが選択したサムネイルを更新し、前記更新されたオペレータが選択したサムネイル画像を表示するために前記拡大ビューを更新するためのサムネイルスクロールインターフェースモジュールをさらに備える、請求項49に記載のグラフィカルユーザーインターフェース。
  51. 前記表現モジュールは、
    検出された物体および表示された前記拡大ビュー内の認識された物体のうちの少なくとも1つを視覚的に識別するためのハイライトモジュールをさらに備える、請求項47に記載のグラフィカルユーザーインターフェース。
  52. 前記表現モジュールは、
    前記認識された物体に関連する対象物体の検出確率の決定値に基づいて、表示された前記拡大ビュー内の認識された物体を視覚的に識別するためのハイライトモジュールをさらに備える、請求項47に記載のグラフィカルユーザーインターフェース。
  53. 前記構成モジュールは、
    制御パラメータが変更される前記画像処理ステージに関連するサムネイル画像をオペレータが選択するときに、画像処理の制御パラメータを前記オペレータが変更できるようにするためのサムネイルインターフェースモジュールをさらに備える、請求項47に記載のグラフィカルユーザーインターフェース。
  54. 画像から背景コンポーネントを取り除く方法であって、
    (a)画像を受信するステップと、
    (b)標準偏差値に基づいて、前記画像の前記背景コンポーネントの近似を生成するステップと、
    (c)前記生成された近似および前記受信した画像に基づいて、信号対雑音比を生成するステップと、
    (d)前記信号対雑音比が所定の目標値の閾値の範囲内であると判断したときに、前記受信した画像から前記生成した近似を差し引くステップと、
    (e)前記信号対雑音比が前記所定の目標値の閾値の範囲を超えたと判断したときに、新しい標準偏差値を判断し、前記(b)乃至(d)を繰り返すステップと、を含む方法。
  55. 前記ステップ(a)は、
    (a.1)格納情報のローカルベースおよび格納情報のリモートベースのうちの1つから前記画像を取り出すステップをさらに含む、請求項54に記載の方法。
  56. 前記ステップ(a)は、
    (a.1)前記画像を画像生成器から受信するステップをさらに含む、請求項54に記載の方法。
  57. 前記ステップ(b)は、
    (b.1)準ガウス分布に基づいて、前記近似を生成するステップをさらに含む、請求項54に記載の方法。
  58. 前記ステップ(b)は、
    (b.1)準ガウス分布以外の分布に基づいて、前記近似を生成するステップをさらに含む、請求項54に記載の方法。
  59. 前記ステップ(d)では、前記閾値の範囲が3dBである、請求項54に記載の方法。
  60. 前記ステップ(d)では、所定の信号対雑音の目標値が35dBである、請求項54に記載の方法。
  61. 画像から背景コンポーネントを取り除くための装置であって、
    画像を受信するためのインターフェースモジュールと、
    標準偏差値に基づいて、前記受信した画像の前記背景コンポーネントの近似を生成するための近似モジュールと、
    前記生成された近似および前記受信した画像に基づいて、信号対雑音比を生成するための信号対雑音モジュールと、
    前記信号対雑音比が所定の目標値の閾値の範囲内であると判断したときに、前記受信した画像から前記生成した近似を差し引くためのデサーフェーシングモジュールと、
    前記信号対雑音比が前記所定の目標値の閾値の範囲を超えたと判断したときに、新しい標準偏差値を判断し、前記近似モジュールに前記新しい標準偏差に基づいて新しい近似を生成するように命令するための制御モジュールと、を備える、装置。
  62. 前記インターフェースモジュールは、
    格納情報のローカルベースおよび格納情報のリモートベースのうちの1つから前記画像を取り出すための取り込みモジュールをさらに備える、請求項61に記載の装置。
  63. 前記インターフェースモジュールは、
    前記画像を画像生成器から受信するための受信モジュールをさらに含む、請求項61に記載の装置。
  64. 前記近似モジュールは、
    準ガウス分布に基づいて、前記近似を生成するための生成モジュールをさらに備える、請求項61に記載の装置。
  65. 前記近似モジュールは、
    準ガウス分布以外の分布に基づいて、前記近似を生成するための生成モジュールをさらに備える、請求項61に記載の装置。
  66. 前記デサーフェーシングモジュールは、3dBの閾値範囲を使用するように構成される、請求項61に記載の装置。
  67. 前記デサーフェーシングモジュールは、35dBの所定の信号対雑音の目標値を使用するように構成される、請求項61に記載の装置。
  68. 画像内の雷管の爆発性充填物を認識する方法であって、
    (a)物体のビューを含む生成画像を受信するステップと、
    (b)前記画像内の前記物体を検出するために前記画像を処理するステップと、
    (c)前記検出された物体の形状を含む、前記検出された物体の少なくとも1つの特性に基づいて、記述子の値を生成するステップと、
    (d)比較結果を得るために、前記記述子の格納値と前記生成記述子の値を比較するステップであって、前記記述子の前記格納値はアスペクト視野角の従属である、ステップと、
    (e)前記比較結果の評価に基づいて、前記検出された物体が前記爆発性充填物のビューであるかどうかを判断するステップと、を含む方法。
  69. 前記ステップ(d)は、
    (d.1)前記生成記述子の値と前記記述子の複数の格納値を比較するステップであって、前記複数の格納値のそれぞれは一意のアスペクト視野角からの前記爆発性充填物のビューに基づいており、それによって、複数の爆発性充填物のアスペクト視野角の複数の比較結果が得られる、ステップをさらに含む、請求項68に記載の方法。
  70. 画像内の雷管の爆発性充填物を認識するための装置であって、
    物体のビューを含む生成画像を受信するための画像インターフェースモジュールと、
    前記画像内の物体を検出するための物体検出モジュールと、
    前記検出された物体の形状を含む、前記検出された物体の少なくとも1つの特性に基づいて、記述子の値を生成するための生成モジュールと、
    比較結果を得るために、前記生成記述子の値と前記記述子の格納値を比較するための比較モジュールであって、前記記述子の格納値はアスペクト視野角の従属である、比較モジュールと、
    前記比較結果の評価に基づいて、前記検出された物体が前記爆発性充填物のビューであるかどうかを判断するための制御器モジュールと、を備える装置。
  71. 前記比較モジュールは、前記生成記述子の値と前記記述子の複数の格納値を比較するように構成され、前記複数の格納値のそれぞれは一意のアスペクト視野角からの前記爆発性充填物のビューに基づいており、それによって、複数の爆発性充填物のアスペクト視野角の複数の比較結果が得られる、請求項70に記載の装置。
JP2007515082A 2004-05-28 2005-04-15 画像内の物体を認識するための方法および装置 Pending JP2008504591A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/855,950 US20050276443A1 (en) 2004-05-28 2004-05-28 Method and apparatus for recognizing an object within an image
PCT/US2005/013030 WO2005119573A2 (en) 2004-05-28 2005-04-15 Method and apparatus for recognizing an object within an image

Publications (1)

Publication Number Publication Date
JP2008504591A true JP2008504591A (ja) 2008-02-14

Family

ID=34969924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007515082A Pending JP2008504591A (ja) 2004-05-28 2005-04-15 画像内の物体を認識するための方法および装置

Country Status (6)

Country Link
US (1) US20050276443A1 (ja)
EP (1) EP1766549A2 (ja)
JP (1) JP2008504591A (ja)
AU (1) AU2005251071A1 (ja)
CA (1) CA2567953A1 (ja)
WO (1) WO2005119573A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019150920A1 (ja) * 2018-01-31 2019-08-08 Cyberdyne株式会社 物体識別装置及び物体識別方法

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2352076B (en) * 1999-07-15 2003-12-17 Mitsubishi Electric Inf Tech Method and apparatus for representing and searching for an object in an image
US20090174554A1 (en) 2005-05-11 2009-07-09 Eric Bergeron Method and system for screening luggage items, cargo containers or persons
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
US8331678B2 (en) * 2005-10-12 2012-12-11 Optopo Inc. Systems and methods for identifying a discontinuity in the boundary of an object in an image
JP2007189663A (ja) * 2005-12-15 2007-07-26 Ricoh Co Ltd ユーザインタフェース装置、プレビュー画像表示方法およびプログラム
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
WO2007131328A1 (en) * 2006-05-11 2007-11-22 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US7769132B1 (en) * 2007-03-13 2010-08-03 L-3 Communications Security And Detection Systems, Inc. Material analysis based on imaging effective atomic numbers
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
US8437556B1 (en) 2008-02-26 2013-05-07 Hrl Laboratories, Llc Shape-based object detection and localization system
US8148689B1 (en) 2008-07-24 2012-04-03 Braunheim Stephen T Detection of distant substances
US8600149B2 (en) * 2008-08-25 2013-12-03 Telesecurity Sciences, Inc. Method and system for electronic inspection of baggage and cargo
US9277878B2 (en) * 2009-02-26 2016-03-08 Tko Enterprises, Inc. Image processing sensor systems
US9740921B2 (en) * 2009-02-26 2017-08-22 Tko Enterprises, Inc. Image processing sensor systems
US9299231B2 (en) * 2009-02-26 2016-03-29 Tko Enterprises, Inc. Image processing sensor systems
US9002134B2 (en) * 2009-04-17 2015-04-07 Riverain Medical Group, Llc Multi-scale image normalization and enhancement
US7953245B2 (en) * 2009-08-18 2011-05-31 General Electric Company System, method and program product for camera-based object analysis
KR101350335B1 (ko) * 2009-12-21 2014-01-16 한국전자통신연구원 내용기반 영상검색 장치 및 방법
US20120011119A1 (en) * 2010-07-08 2012-01-12 Qualcomm Incorporated Object recognition system with database pruning and querying
KR101973221B1 (ko) 2011-09-07 2019-04-26 라피스캔 시스템스, 인코포레이티드 적하목록 데이터를 이미징/검출 프로세싱에 통합시키는 x-선 검사시스템
US9123119B2 (en) * 2011-12-07 2015-09-01 Telesecurity Sciences, Inc. Extraction of objects from CT images by sequential segmentation and carving
US20140026039A1 (en) * 2012-07-19 2014-01-23 Jostens, Inc. Foundational tool for template creation
EP2956796B1 (en) * 2013-02-13 2022-04-06 Farsounder, Inc. Integrated sonar devices
US11886493B2 (en) 2013-12-15 2024-01-30 7893159 Canada Inc. Method and system for displaying 3D models
CA2929892C (fr) * 2013-12-15 2018-12-18 Socovar, Societe En Commandite Methode et systeme de comparaison de modeles 3d
CN105447022A (zh) * 2014-08-25 2016-03-30 英业达科技有限公司 快速搜寻目标对象方法
JP6352133B2 (ja) * 2014-09-26 2018-07-04 株式会社Screenホールディングス 位置検出装置、基板処理装置、位置検出方法および基板処理方法
CN104318879A (zh) * 2014-10-20 2015-01-28 京东方科技集团股份有限公司 显示装置、显示装置故障分析系统和方法
US20160180175A1 (en) * 2014-12-18 2016-06-23 Pointgrab Ltd. Method and system for determining occupancy
US10445391B2 (en) 2015-03-27 2019-10-15 Jostens, Inc. Yearbook publishing system
US10339411B1 (en) * 2015-09-28 2019-07-02 Amazon Technologies, Inc. System to represent three-dimensional objects
GB2595986A (en) 2016-02-22 2021-12-15 Rapiscan Systems Inc Systems and methods for detecting threats and contraband in cargo
US10331979B2 (en) * 2016-03-24 2019-06-25 Telesecurity Sciences, Inc. Extraction and classification of 3-D objects
US10699119B2 (en) 2016-12-02 2020-06-30 GEOSAT Aerospace & Technology Methods and systems for automatic object detection from aerial imagery
US10546195B2 (en) 2016-12-02 2020-01-28 Geostat Aerospace & Technology Inc. Methods and systems for automatic object detection from aerial imagery
CN107037493B (zh) * 2016-12-16 2019-03-12 同方威视技术股份有限公司 安全检查系统和方法
US10782441B2 (en) * 2017-04-25 2020-09-22 Analogic Corporation Multiple three-dimensional (3-D) inspection renderings
CN113498530A (zh) * 2018-12-20 2021-10-12 艾奎菲股份有限公司 基于局部视觉信息的对象尺寸标注系统和方法
JP7307592B2 (ja) * 2019-05-24 2023-07-12 キヤノン株式会社 計測装置、撮像装置、制御方法及びプログラム
US11361505B2 (en) * 2019-06-06 2022-06-14 Qualcomm Technologies, Inc. Model retrieval for objects in images using field descriptors
WO2022240667A1 (en) * 2021-05-11 2022-11-17 Arizona Board Of Regents On Behalf Of The University Of Arizona Spatial mode processing for high-resolution imaging
CN114295046B (zh) * 2021-11-30 2023-07-11 宏大爆破工程集团有限责任公司 一种爆堆形态综合评价方法及系统、电子设备、存储介质
CN117437624B (zh) * 2023-12-21 2024-03-08 浙江啄云智能科技有限公司 违禁品检测方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142098A (ja) * 1997-11-11 1999-05-28 Babcock Hitachi Kk 投下爆弾の着弾位置検出方法及び装置
JP2001014473A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 画像監視方法および画像監視装置
WO2002001505A1 (fr) * 2000-06-26 2002-01-03 Iwane Laboratories, Ltd. Systeme de conversion d'informations
US20020090132A1 (en) * 2000-11-06 2002-07-11 Boncyk Wayne C. Image capture and identification system and process
US20030086614A1 (en) * 2001-09-06 2003-05-08 Shen Lance Lixin Pattern recognition of objects in image streams
JP2003518294A (ja) * 1999-12-22 2003-06-03 ナショナル・リサーチ・カウンシル・オブ・カナダ 3次元画像検索方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1171270B (it) * 1980-06-03 1987-06-10 Commw Of Australia Perfezionamento nei sistemi analizzatori di immagini
US5114662A (en) * 1987-05-26 1992-05-19 Science Applications International Corporation Explosive detection system
US20030144800A1 (en) * 2001-12-31 2003-07-31 Lockheed Martin Corporation Methods and system for hazardous material early detection for use with mail and other objects
US7139432B2 (en) * 2002-04-10 2006-11-21 National Instruments Corporation Image pattern matching utilizing discrete curve matching with a mapping operator

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142098A (ja) * 1997-11-11 1999-05-28 Babcock Hitachi Kk 投下爆弾の着弾位置検出方法及び装置
JP2001014473A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 画像監視方法および画像監視装置
JP2003518294A (ja) * 1999-12-22 2003-06-03 ナショナル・リサーチ・カウンシル・オブ・カナダ 3次元画像検索方法
WO2002001505A1 (fr) * 2000-06-26 2002-01-03 Iwane Laboratories, Ltd. Systeme de conversion d'informations
US20020090132A1 (en) * 2000-11-06 2002-07-11 Boncyk Wayne C. Image capture and identification system and process
US20030086614A1 (en) * 2001-09-06 2003-05-08 Shen Lance Lixin Pattern recognition of objects in image streams

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019150920A1 (ja) * 2018-01-31 2019-08-08 Cyberdyne株式会社 物体識別装置及び物体識別方法
JPWO2019150920A1 (ja) * 2018-01-31 2021-01-07 Cyberdyne株式会社 物体識別装置及び物体識別方法

Also Published As

Publication number Publication date
EP1766549A2 (en) 2007-03-28
WO2005119573A2 (en) 2005-12-15
AU2005251071A1 (en) 2005-12-15
US20050276443A1 (en) 2005-12-15
WO2005119573A3 (en) 2006-03-02
CA2567953A1 (en) 2005-12-15

Similar Documents

Publication Publication Date Title
JP2008504591A (ja) 画像内の物体を認識するための方法および装置
EP3349050B1 (en) Inspection devices and methods for detecting a firearm
Jain An evaluation of deep learning based object detection strategies for threat object detection in baggage security imagery
CN108154168B (zh) 综合货物检验系统及方法
US20210056694A1 (en) Visual augmentation of regions within images
EP3834129A1 (en) Systems and methods for image processing
US20080062262A1 (en) Apparatus, method and system for screening receptacles and persons
US20070253625A1 (en) Method for building robust algorithms that classify objects using high-resolution radar signals
Rogers et al. Threat Image Projection (TIP) into X-ray images of cargo containers for training humans and machines
EP3696725A1 (en) Tool detection method and device
CN110826450A (zh) 一种基于毫米波图像的可疑物品自动检测方法
Morawski et al. Convolutional neural network classifier for the output of the time-domain-statistic all-sky search for continuous gravitational waves
Riffo et al. Threat objects detection in x-ray images using an active vision approach
Aydin et al. A new approach for baggage inspection by using deep convolutional neural networks
Veal et al. Generative adversarial networks for ground penetrating radar in hand held explosive hazard detection
Andrews et al. Representation-learning for anomaly detection in complex x-ray cargo imagery
CN113792623B (zh) 安检ct目标物识别方法和装置
CN114821551A (zh) 遗留物检测以及模型训练方法、装置和存储介质
CN110490058A (zh) 行人检测模型的训练方法、装置、系统和计算机可读介质
US20220323030A1 (en) Probabilistic image analysis
Coiras et al. Supervised target detection and classification by training on augmented reality data
Al-Temeemy et al. Laser radar invariant spatial chromatic image descriptor
WO2019150920A1 (ja) 物体識別装置及び物体識別方法
CN109863499A (zh) 使用局部计算机断层摄影值分布分析的物品归类
US20240118450A1 (en) Detection of prohibited objects concealed in an item, using a three-dimensional image of the item

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101014