JP2008519336A - 画像の回転版を利用したオブジェクト検出 - Google Patents

画像の回転版を利用したオブジェクト検出 Download PDF

Info

Publication number
JP2008519336A
JP2008519336A JP2007539364A JP2007539364A JP2008519336A JP 2008519336 A JP2008519336 A JP 2008519336A JP 2007539364 A JP2007539364 A JP 2007539364A JP 2007539364 A JP2007539364 A JP 2007539364A JP 2008519336 A JP2008519336 A JP 2008519336A
Authority
JP
Japan
Prior art keywords
image
predetermined object
rotated
detected
potential
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007539364A
Other languages
English (en)
Other versions
JP4598080B2 (ja
Inventor
ヒュイタオ ルオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2008519336A publication Critical patent/JP2008519336A/ja
Application granted granted Critical
Publication of JP4598080B2 publication Critical patent/JP4598080B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

所定のオブジェクトを画像から検出する方法(200、300、400)は、画像において、可能性のある所定のオブジェクトを検出すること(212、314、414)を含む。この方法では、画像の少なくとも一部が回転し(214、318、422)、可能性のある所定のオブジェクトが画像の回転された少なくとも一部において検出されるかどうかについて判断される(216、320、424)。さらに、可能性のある所定のオブジェクトが画像の回転された少なくとも一部において検出されるかどうかの判断に応じて、可能性のある所定のオブジェクトが所定のオブジェクトの正確な検出であるかどうかを判断する(218、326、430)。

Description

最先端のオブジェクト検出アルゴリズムでは、さまざまなオブジェクトの直立している正面の図を検出することができる。加えて、これらのアルゴリズムの中には、適度に面内回転しているオブジェクトを検出できるものもある。しかしながら、検出アルゴリズムが一旦決定されると、これらのアルゴリズムの検出性能を改善することは困難或いは実行不可能となる。換言すれば、これらのアルゴリズムを使用する際の誤認率を増加させないで、検出率を改善することはできない。また、これらのオブジェクト検出アルゴリズムの性能は、その分類器の基本的な能力によっても制限される。より詳細には、従来の検出アルゴリズムは、分類器の能力に一旦達すると、そのアルゴリズムの誤認率を増加させることなくそのアルゴリズムの検出率を改善することができず、また、逆も同様である。
したがって、比較的高い検出率及び比較的低い誤認率でオブジェクトを検出できることが望ましい。
画像における所定のオブジェクトを検出する方法が開示される。この方法では、画像において、可能性のある所定のオブジェクトが検出される。加えて、画像の少なくとも一部が回転し、可能性のある所定のオブジェクトが画像の回転された少なくとも一部で検出されたかどうか判断される。さらに、可能性のある所定のオブジェクトが画像の回転された少なくとも一部で検出されたかどうかの判断に応じて、可能性のある所定のオブジェクトが所定のオブジェクトの正確な検出であるかどうかが判断される。
本発明の特徴は、図面に関する以下の説明から当業者に明らかになるであろう。
簡単且つ例示を目的として、本発明の一例である実施の形態を主として参照しながら本発明を説明する。以下の説明では、本発明が十分に理解されるように、多くについて具体的に詳細を述べる。しかしながら、本発明は、これらの具体的に詳細に説明したものに制限されることなく実施できることは当業者には明らかであろう。別な例の場合には、本発明を不必要に分かりにくくしないように既知の方法及び構造は詳細には説明しない。
さまざまなオブジェクト検出アルゴリズムの性能を改善する空間フィルタリングアルゴリズムを本明細書で説明する。一般に、空間フィルタリングアルゴリズムは、画像の複数の回転バージョン間の空間的冗長性を活用することによってさまざまなオブジェクト検出アルゴリズムの性能を高めるように設計されている。加えて、空間フィルタリングアルゴリズムは、どの特定のタイプのオブジェクト検出アルゴリズムにも結びついておらず、したがって、いくつかの異なるオブジェクト検出アルゴリズムと共に使用することができる。
換言すれば、本明細書で開示する空間フィルタリングアルゴリズムは、1つ又は2つ以上の画像について複数の回転したもの(回転版)を生成及び評価し、たとえば、人間の顔、自動車、家庭用品等のオブジェクトを正確に検出するように設計されている。或る点で、空間フィルタリングアルゴリズムは、回転版のいずれにおいて同じオブジェクトが検出されたかを判断することができる。同じ検出オブジェクトが画像の回転版の複数のものに現れている場合、その可能性のある検出オブジェクトが画像の実際のオブジェクトである確率は比較的高い。或いは、或る可能性のある検出オブジェクトが、複数の回転版の少なくとも1つに現れていない場合、その可能性のある検出オブジェクトは所望のオブジェクトではなく、したがって、無視できる確率は比較的高い。この点に関して、本明細書で開示する空間フィルタリングアルゴリズムを実施することによって、さまざまなオブジェクト検出アルゴリズムの検出率を、それらの誤認率を増加させることなく改善することができる。
本明細書で開示する空間フィルタリングアルゴリズムは、比較的広い範囲に適用することができ、したがって、多種多様なオブジェクト検出アルゴリズムと共に使用することができる。たとえば、これらの空間フィルタリングアルゴリズムは、顔を使うコンテンツ解析、人間識別管理、画質評価、人工知能等に用いられるオブジェクト検出アルゴリズムと共に使用することができる。
まず図1Aに、オブジェクト検出システム102のブロック図100が示されている。ブロック図100の以下の説明は、このようなオブジェクト検出システム102を構成するさまざまな異なる形態のうちの1つの形態にすぎないと理解すべきである。加えて、オブジェクト検出システム102は追加エレメントを含むことができること、及び、本明細書で説明するエレメントのいくつかは、オブジェクト検出システム102の範囲から逸脱することなく除去及び/又は変更できることも理解されるべきである。たとえば、オブジェクト検出システム102は、追加入力デバイス、追加出力デバイス、追加メモリ、追加モジュール等を含むことができる。
オブジェクト検出システム102は、オブジェクト検出システム102のさまざまな機能を実行するように構成されているコントローラ104を含む。この点に関して、コントローラ104は、たとえば、コンピュータシステム、サーバ等のコンピューティングデバイスを備えることができる。加えて、コントローラ104は、さまざまな処理機能を実行するように構成されたマイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)等を備えることもできる。
たとえば画像データ等の情報をコントローラ104に供給するようにコントローラ104は、入力デバイス106とインターフェースさせることができる。入力デバイス106は、コントローラ104が収容されているコンピューティングデバイスに備えることができる。この点に関して、入力デバイス106は、CD−ROMドライブ、フロッピー(登録商標)ディスケットドライブ、コンパクトフラッシュ(登録商標)メモリリーダ等のストレージデバイスを備えることができる。これに加えて又はこれに代えて、入力デバイス106は、図1Aに示すように、コントローラ104とは別個のデバイスを備えることもできる。この点に関して、たとえば、入力デバイス106は、外部ドライブ、カメラ、走査マシン、内部ネットワーク又はインターネットとのインターフェース等を備えることができる。
いずれにしても、コントローラ104は、入力モジュール108を通じて入力デバイス106から画像データを受信することができる。入力モジュール108は、入力デバイス106からコントローラ104への通信及びデータ転送を可能にするための1つ又は2つ以上のドライバを備えることができる。加えて、コントローラ104は、入力デバイス106と通信してデータを返送するように構成され、それによって、入力デバイス106の一定のオペレーションを制御することができる。したがって、たとえば、コントローラ104は、入力デバイス106と通信し、それによって、画像データを受信することができる。コントローラ104は、イーサネット(登録商標)タイプの接続を介して、又は、IEEE802.3等の有線プロトコル若しくはIEEE802.11b、IEEE802.11g、無線シリアル接続、Bluetooth等の無線プロトコル若しくはそれらの組み合わせを通じて入力デバイス106と通信することができる。
入力デバイス106から受信された画像データは、コントローラ104がアクセス可能なメモリ110に記憶することができる。メモリ110は、DRAM、EEPROM、フラッシュメモリ、それらの組み合わせ等の揮発性メモリ又は不揮発性メモリ等、従来のメモリデバイスとすることができる。本明細書において以下でさらに詳細に開示するが、コントローラ104は、将来の操作及び処理のために画像データが取り出せるように、画像データをメモリ110に記憶することができる。加えて、メモリ110は、コントローラ104が、本明細書において以下で説明するようなさまざまなオブジェクト検出アルゴリズムを実行する際にアクセスできるソフトウェア、プログラム、アルゴリズム、及びサブルーチンを記憶することができる。
画像データによって作られる画像が回転されるように画像データを操作するよう構成された画像回転モジュール112も図1Aに示されている。画像回転モジュール112は、コントローラ104に含まれているものとして示されているが、画像回転モジュール112は、メモリ110に記憶されたアルゴリズムとすることができ、コントローラ104は、このアルゴリズムにアクセスして、このアルゴリズムを実行することができる。加えて、画像回転モジュール112は、上述した機能を実行するように構成される他のソフトウェア又はハードウェアとすることもできる。いずれにしても、画像回転モジュール112は、画像データによって作られた画像を、元画像に対して1つ又は2つ以上の角度に回転するようにプログラミングすることができる。したがって、たとえば、画像回転モジュール112は、時計方向又は反時計方向のいずれかに画像の元の向きから約1〜5°の増分で面に沿った面内方向に画像を回転させるようにできる。画像を回転増分させる数(回転増分数)は、たとえば、オブジェクトを検出する際に所望する正確度のレベルに基づくことができる。したがって、画像の回転増分数が大きいほど、オブジェクトを検出する際の正確度のレベルが大きくなる。一方、ある場合には、比較的高角度へ回転する画像は、オブジェクト検出モジュール114がこれらの回転画像においてオブジェクトを正確に検出できない可能性があるために、オブジェクトを検出する際の正確度を実際には減少させる場合がある。この点に関して、画像回転増分数は、基礎となるオブジェクト検出モジュール114の具体的な検出機能に基づいて決定することができ、たとえば、約1〜5の増分とすることができる。
オブジェクト検出システム102は、オブジェクト検出モジュール114を含むものとして示されている。オブジェクト検出モジュール114は、画像データによって形成された画像に所定のオブジェクトが検出できるように構成されている。この場合も、オブジェクト検出モジュール114は、コントローラ104に含まれるものとして示されているが、オブジェクト検出モジュール114は、メモリ110に記憶されたアルゴリズムにすることができ、コントローラ104は、このアルゴリズムにアクセスしてこのアルゴリズムを実行することができる。加えて、オブジェクト検出モジュール114は、画像でのオブジェクトが検出できる任意の適切な従来のアルゴリズムを備えることができる。一例として、オブジェクト検出モジュール114は、ヴィオラ及びジョーンズのアルゴリズムとすることができる。オブジェクト検出モジュール114は、上述した機能を実行するように構成される他のソフトウェア又はハードウェアにすることもできる。
コントローラ104は、オブジェクト検出モジュール114を使用して、元画像における所定のオブジェクトを検出することができるだけでなく、画像回転モジュール112によって回転された画像においても所定のオブジェクトを検出することができる。これに加えて又はこれに代えて、オブジェクト検出モジュール114は、同じアルゴリズムの異なるパラメータ構成を使用して、又は異なるアルゴリズムの異なるパラメータ構成を使用しても、異なる角度へ回転された画像を処理することもできる。可能性のあるオブジェクトが検出されたロケーションと共に、画像を空間フィルタモジュール116に入力することができる。空間フィルタモジュール116は、コントローラ104がアクセスして実行できる、メモリ110に記憶されたアルゴリズムとすることができる。加えて、空間フィルタモジュール116は、本明細書で説明する空間フィルタモジュール116の機能を実行するように構成される他のソフトウェア又はハードウェアとすることもできる。
空間フィルタモジュール116は、一般に、画像、すなわち、回転画像及び元画像の2つ又は3つ以上を比較して、それら画像のいずれが検出オブジェクトを含むかを判断するように動作する。オブジェクトが、複数の画像、たとえば、元画像と1つの回転画像又は複数の回転画像との双方、において検出された場合、空間フィルタ116は、オブジェクトが正確に検出されたことを表示で出力することができる。一方、より正確を期して、空間フィルタモジュール116は、複数の回転画像を比較して、所定の場合には元画像も比較して、回転画像及び元画像のいずれが検出オブジェクトを含むかを判断することができる。空間フィルタを動作させることができる形態のいくつかを本明細書において以下でさらに詳細に説明する。
空間フィルタモジュール116は、検出画像に関する情報を出力デバイス118に出力することができる。出力デバイス118は、たとえば、検出オブジェクトのロケーションと共に画像を示すディスプレイを備えることができる。これに加えて又はこれに代えて、出力デバイス118は、たとえば、検出オブジェクト情報を使用する別のマシン又はプログラムを備えることもできる。一例として、出力デバイス118は、画質評価プログラム、人間識別管理プログラム、ロボットデバイスのガイダンスシステム等のオブジェクト認識プログラムを備えることができる。さらに別の例として、出力デバイス118は、入力デバイス106について上述したコンポーネントの1つ又は2つ以上を備えることができ、所定の場合には、入力デバイス106を備えることができる。
次に図1Bに関して、オブジェクト検出システム152のブロック図150が示されている。ブロック図150の以下の説明は、このようなオブジェクト検出システム152を構成できるさまざまな異なる形態のうちの1つの形態にすぎないことを理解するべきである。加えて、オブジェクト検出システム152は追加エレメントを含むことができること、及び、本明細書で説明するエレメントのいくつかは、オブジェクト検出システム152の範囲から逸脱することなく除去及び/又は変更できることも理解されるべきである。たとえば、オブジェクト検出システム152は、追加入力デバイス、追加出力デバイス、追加モジュール、追加メモリ等を含むことができる。
オブジェクト検出システム152は、本明細書で上述した図1Aに示すオブジェクト検出システム102と多くの同じエレメントを含む。したがって、図1Aのオブジェクト検出システム102に示すそれらエレメントと同じ参照番号を有するエレメントの詳細な説明は、オブジェクト検出システム152についてはしないことにする。その代わり、それらのエレメントを十分に理解してもらう十分な説明として、それら共通のエレメントについての上述した説明を利用することにする。
図1Bに示すオブジェクト検出システム152と図1Aに示すオブジェクト検出システム102との間の主要な差異は、オブジェクト検出システム152がクロッピングモジュール154を含むということである。クロッピングモジュール154は、一般に、オブジェクト検出モジュール114によって検出されたどのオブジェクトが、検出対象の可能性のある所定のオブジェクトであるかを表面化させる或いは区別するように構成されている。クロッピングモジュール154は、コントローラ104に含まれているものとして示されているが、クロッピングモジュール154は、メモリ110に記憶されたアルゴリズムとすることができ、コントローラ104は、このアルゴリズムにアクセスして、このアルゴリズムを実行することができる。加えて、クロッピングモジュール114は、さまざまな画像をクロッピング(切り取り)できる任意の適切な従来のアルゴリズムとすることもできる。クロッピングモジュール154は、本明細書で説明するさまざまなクロッピング機能を実行するように構成された他のソフトウェア又はハードウェアをさらに備えていてもよい。
オブジェクト検出システム152のオブジェクト検出モジュール114は、誤認率の増加の可能性を犠牲にする一方で、比較的高い正確度で所定のオブジェクトを検出するように設定することができる。このタイプの設定を行う理由は、空間フィルタモジュール116の実施を通じて、誤認が検出結果からフィルタリング除去できることによるものである。
いずれにしても、オブジェクト検出システム152では、クロッピングモジュール154によってクロッピングされた、可能性のある所定のオブジェクトを含む領域を、画像回転モジュール112によって回転させることができる。オブジェクト検出システム152の画像回転モジュール112は、これらの領域をそれらの元の位置に対して1つ又は2つ以上の角度へ回転するように構成することができる。したがって、たとえば、画像回転モジュール112は、時計方向又は反時計方向のいずれかに画像の元の向きから約1〜5°の増分で面内方向に、クロッピング領域を回転するように構成することができる。クロッピング領域の回転増分数は、たとえば、所定のオブジェクトを検出する際に所望する正確度のレベルに基づかせることができる。したがって、クロッピング領域の回転増分数が大きいほど、所定のオブジェクトを検出する際の正確度のレベルは大きくなる。一方、ある例では、比較的高角度へ回転されるクロッピング領域は、オブジェクト検出モジュール152がこれらの回転されたクロッピング領域においてオブジェクトを正確に検出できない可能性があるために、オブジェクトを検出する際に正確度が実際には減じられる場合がある。この点に関して、クロッピング領域の回転増分数は、基礎となるオブジェクト検出モジュール114の具体的な検出機能に基づいて決定することができ、たとえば、約1〜5の増分とすることができる。
オブジェクト検出システム102、152間のもう1つの差異は、オブジェクト検出システム152が、画像の回転されたクロッピング領域で可能性のあるオブジェクトを検出するように構成された第2のオブジェクト検出モジュール156を含むということである。第2のオブジェクト検出モジュール156は、オブジェクト検出モジュール114を備えることもできる。或いは、第2のオブジェクト検出モジュール156は、画像において所定のオブジェクトを検出するように構成される完全に異なるオブジェクト検出モジュールを備えることもできる。第2のオブジェクト検出モジュール156がオブジェクト検出モジュール114を備える場合に、第2のオブジェクト検出モジュール156は、オブジェクト検出モジュール114とは異なるパラメータ構成を備えることができる。
コントローラ104は、第2のオブジェクト検出モジュール156を使用して、画像回転モジュール112により回転されたクロッピング領域で所定のオブジェクトを検出することができる。空間フィルタモジュール116にクロッピング領域を入力することができる。空間フィルタモジュール116は、クロッピング領域、すなわち、回転されたクロッピング領域及び元のクロッピング領域の2つ又は3つ以上、を比較して、それらクロッピング領域のいずれが検出オブジェクトを含むかを判断することができる。オブジェクトが、複数のクロッピング領域、たとえば、元のクロッピング領域及び1つの回転されたクロッピング領域又は複数の回転されたクロッピング領域の双方、において検出された場合、空間フィルタ116は、オブジェクトが正確に検出されたことの表示を出力することができる。一方、より正確を期して、空間フィルタモジュール116は、複数の回転されたクロッピング領域及び所定の場合には元のクロッピング領域のいずれにおいて、オブジェクトが検出されたかどうかを判断することができる。オブジェクト検出システム102について上述したように、空間フィルタモジュール116が、検出されたクロッピング領域に関する情報を出力デバイス118に出力することができる。
1つの点では、オブジェクト検出システム152が、オブジェクト検出システム102と比較してより高速に所定のオブジェクトを検出できる可能性がある。これが当てはまるのは、オブジェクト検出システム152が、主として画像のクロッピング部分を処理するので、オブジェクト検出システム152の処理するデータが、オブジェクト検出システム102と比較して少ない可能性があるからである。
次に空間フィルタモジュール116をさらに詳細に説明する。一般に、空間フィルタモジュール116は、画像又はクロッピング領域の複数の回転版に基づいて、オブジェクト検出モジュール114、156のいずれかにより検出された結果間で一致性を見つけるように構成されている。第1の例では、空間フィルタモジュール116は、元画像(I)における実際の所定のオブジェクトが、回転画像(Rm(I))において検出される可能性があるという発想に基づいている、ここで、m=1、2、…、nである。また、この例は、所定のオブジェクトの誤認又は偽陽性が、元画像(I)及び回転画像(Rm(I))において検出されにくいという発想にも基づいている。これが当てはまる理由は、誤認が、複数の回転画像において連続して検出されにくい不規則信号とみなすことができるからである。
図1A及び図1Bにおいて、画像、すなわち、元画像及び回転画像の双方、のそれぞれからオブジェクト検出モジュール114、156によって検出された結果に、複数のオブジェクトを含む場合がある。これらの複数のオブジェクトは、Om={Om(1),Om(2),…,Om(n)}として分解することができる。この例では、空間フィルタモジュール116を実行する前に、検出オブジェクトOm(j)(ここで、mはさまざまな角度の画像を示し、jはオブジェクトのそれぞれを示す)のそれぞれは、それらの空間関係を比較できるように、最初に元画像にマッピングされて戻される。各検出オブジェクトOm(j)に対して、空間フィルタモジュール116は、Om(j)で表されるものと同じオブジェクトを示す対応した検出結果を見つけるため、検出結果Ok(k≠m)を探索する。このプロセスでは、(各オブジェクト「j」について)一致性ベクトル{v1,v2,…,vn}が生成される。この一致性ベクトルは、対応した検出結果が回転画像Rm(I)で見つかった場合には、ベクトル成分vmが1に設定され、そうでない場合には、ベクトル成分vmが0に設定されるように生成される。最終的な空間フィルタモジュール116の出力は、重み付け合計
sum=w1×v1+w2×v2+…+wn×vn
によって求められる。空間フィルタモジュール116のこの最終結果は、「sum」の値がしきい値「t」よりも大きい場合に有効な検出とみなされる。そうではなく、「sum」の値がしきい値「t」よりも小さい場合には、検出は、誤認とみなすことができる。重み{w1,w2,…,wn}及び対応するしきい値「t」は、任意の適した従来のマシン学習アルゴリズムを使用することによって設定することができる。このマシン学習アルゴリズムは、たとえば、Y. Freund及びR. Schapire著の「A short Introduction to Boosting」(Journal of Japanese Society for Artificial Intelligence, pp. 771-780, September 1999)に開示されたようなアダブースト(Adaboost)等である。この論文の開示は、その全内容が参照によって本明細書に援用される。
これに加えて又はこれに代えて、一致性ベクトル{v1,v2,…,vn}の各成分は、基礎となるオブジェクト検出モジュール114、156によって生成された実数値の信頼性指数を備えることができる。加えて、それら成分のそれぞれについての重み付け合計も、基礎となるオブジェクト検出モジュール114、156によって計算することができる。
第2の例では、空間フィルタモジュール116は、さまざまな発見的な設計に基づく。これらの発見的な設計は、「1−or」フィルタ、「1−and」フィルタ、及び「2−or」フィルタとして特徴付けることができる。「1−or」フィルタは、
OD(R(I,a))‖OD(R(I,−a))
として定義することができる。「1−and」フィルタは、
OD(R(I,a))&&OD(R(I,−a))
として定義することができる。「2−or」フィルタは、
[OD(R(I,a))&&OD(R(I,−a))]‖[OD(R(I,−2a))&&OD(I,−a)]‖[OD(R(I,2a))&&OD(I,a)]
として定義することができる。
上述したフィルタのそれぞれにおいて、画像又は画像のクロッピング領域は「I」によって表され、「R(I,a)」は、画像又はクロッピング領域を「a」度だけ回転した版を表している。ここで、「a」は回転の度合いを決定する所定のパラメータである。「&&」は「and」演算子であり、「‖」は「or」演算子である。「OD()」は、バイナリ出力を返すオブジェクト検出モジュール114、156を表している。このバイナリ出力は、たとえば、OD(R(I,a))=1を含むことができる。OD(R(I,a))=1は、元の検出オブジェクト領域と同様のサイズを有するオブジェクトが、回転画像において検出されたことを示す。そうではなくOD(R(I,a))=0は、元の検出オブジェクトと同様のサイズを有するオブジェクトが、回転画像において検出されなかったことを示す。
「1−and」フィルタについての一例として、d0が、元画像又は元画像のクロッピング領域における可能性のあるオブジェクトであり、d1が、角度「a」に回転された画像又はクロッピング領域における可能性のあるオブジェクトであり、d2が、角度「−a」に回転された画像又はクロッピング領域における可能性のあるオブジェクトである場合に、d1=1であるとき又はd2=1であるときに、オブジェクトは正しく検出されたものと判断することができる。より詳細には、d1とd0との比較が、d1がd0と同様のサイズを有することを示す場合に、d1は1に等しくなり得る。加えて、d2とd0との比較が、d2がd0と同様のサイズを有することを示す場合に、d2は1に等しくなり得る。そうではなくd1及びd2が共に0に等しい場合、d0として検出された可能性のあるオブジェクトは、誤認とみなすことができる。
「1−and」フィルタの一例として、d1及びd2が共に1に等しい場合に、オブジェクトは、正しく検出されたものと判断することができる。したがって、d1又はd2のいずれかが0に等しい場合、d0として検出された可能性のあるオブジェクトは、誤認とみなすことができる。
「2−or」フィルタについての一例として、d3は、別の角度「−2a」に回転された画像又はクロッピング領域における可能性のあるオブジェクトであり、d4は、別の角度「2a」に回転された画像又はクロッピング領域における可能性のあるオブジェクトである。このフィルタでは、d1及びd2が1に等しい場合、d3及びd2が1に等しい場合、d4及びd1が1に等しい場合、d2及びd4が1に等しい場合、d3及びd4が1に等しい場合、又はd3及びd1が1に等しい場合に、オブジェクトが正しく検出されたものと判断することができる。
特定の個数の回転画像又は画像の回転されたクロッピング領域と共にさまざまなフィルタを上述したが、これらのフィルタは、任意の適切な個数の回転画像又は画像の回転されたクロッピング領域と共に機能できることが十分理解されるはずである。この点に関して、本明細書で上述したフィルタの例は、説明した回転画像又は画像の回転されたクロッピング領域の個数に限定されるようには意図されておらず、その代わり、任意の適した個数の回転画像又は画像の回転されたクロッピング領域と共に使用することができる。
図2は、画像においてオブジェクトを検出するための一方法の動作モード200のフロー図を示している。動作モード200の以下の説明は、この動作モード200を実施できるさまざまな異なる方法の1つの方法に過ぎないことが理解されよう。また、動作モード200は一般化された例示を表していること、及び、動作モード200の範囲から逸脱することなく、他のステップを追加したり、存在するステップを除去、変更、又は再配列したりできることが当業者には明らかなはずである。
動作モード200の説明を、図1Aに示すブロック図100及び図1Bに示すブロック図150に関して行い、したがって、図1A及び図1Bで引用されたエレメントが参照される。しかしながら、動作モード200は、ブロック図100及び150で述べたエレメントに限定されないことが理解されるべきである。その代わりに、動作モード200は、ブロック図100及び150で述べたものとは異なる構成を有するオブジェクト検出システムによって実施できることが理解されるべきである。
動作モード200は、ステップ210において、コントローラ104により受信される、ユーザからの命令を通じて手動により起動することができる。或いは、動作モード200は、入力デバイス106等の検出を通じて、さまざまな信号の受信に応答して、所定の期間後に起動することもできる。いずれにしても、ステップ212において、可能性のあるオブジェクトを画像において検出することができる。可能性のあるオブジェクトは、コントローラ104が検出するようにプログラミングされた所定のオブジェクトを含むことができる。
ステップ214において、画像の少なくとも一部を回転することができる。より詳細には、1つ又は2つ以上のクロッピング領域又は画像全体をステップ214において回転することができる。画像の少なくとも一部を回転させる方法は、画像回転モジュール112との関係で既に詳細に説明している。
ステップ216において、可能性のあるオブジェクトが、画像の回転された少なくとも一部において検出されるかどうかを判断することができる。本明細書で上述したように、画像の少なくとも一部における可能性のあるオブジェクトの検出は、ステップ212において可能性のあるオブジェクトを検出するのに使用されたオブジェクト検出モジュールとは異なるオブジェクト検出モジュールが行うこともできるし、同じオブジェクト検出モジュールが行うこともできる。同じオブジェクト検出モジュールが使用される場合、そのオブジェクト検出モジュールは、画像の回転された少なくとも一部において可能性のあるオブジェクトを検出する別なパラメータ構成を備えるものとしても良い。ステップ218に示すように、可能性のあるオブジェクトが画像の回転された少なくとも一部において検出されるかどうかの判断に基づいて、可能性のあるオブジェクトがオブジェクトの正確な検出であるかどうかの判断を行うことができる。
動作モード200は、ステップ220に示すように終了させることができる。この終了条件は、動作モード200のアイドルモードと同様にもできる。なぜなら、別の画像が処理のために受信された時に、動作モード200が再起動される場合があるからである。
動作モード200と共に使用できる追加ステップを図3及び図4を用いて以下で説明する。
図3は、オブジェクトを画像から検出する方法の動作モード300についてのフロー図を示している。動作モード300の以下の説明は、この動作モード300を実施できるさまざまな異なる方法の1つの方法に過ぎないことが理解されよう。また、動作モード300は一般化された例示を表していること、及び、動作モード300の範囲から逸脱することなく、他のステップを追加したり、存在するステップを除去、変更、又は再配列したりできることが当業者には明らかなはずである。
動作モード300の説明を、図1Aに示すブロック図100に関して行い、したがって、図1Aで引用されたエレメントが参照される。しかしながら、動作モード300は、ブロック図100で述べたエレメントに限定されないことが理解されるべきである。その代わり、動作モード300は、ブロック図100で述べたものとは異なる構成を有するオブジェクト検出システムによって実施できることが理解されるはずである。
動作モード300は、ステップ310において、コントローラ104により受信される、ユーザからの命令を通じて手動により起動することができる。或いは、動作モード300は、入力デバイス106等の検出を通じて、さまざまな信号の受信に応答して、所定の期間後に起動することもできる。加えて、ステップ312において、コントローラ104は、入力デバイス106から入力画像データを受信することができる。コントローラ104が画像データを受信できるさまざまな方法は、図1Aについて既に詳細に説明している。
ステップ314において、コントローラ104は、オブジェクト検出モジュール114を実行して、ステップ312で受信された画像データにより表される画像において、可能性のある所定のオブジェクトを検出することができる。より詳細には、オブジェクト検出モジュール114は、所定のオブジェクトを画像から検出するようにプログラミングすることもできるし、その他の方法で構成することもできる。したがって、オブジェクト検出モジュール114は、画像を処理して、可能性のあるオブジェクトが位置する、画像におけるロケーション又は領域を決定することができる。或る点で、オブジェクト検出モジュール114は、可能性のあるオブジェクトの周囲にボックス又は他の識別手段を作成して、画像におけるそれらのロケーション又は領域を表示するように動作させることができる。オブジェクト検出モジュール114の結果は、ステップ316に示すように、空間フィルタモジュール116に入力することができる。
入力画像は、ステップ318に示すように、画像回転モジュール112が回転させることもできる。上述したように、画像回転モジュール112は、時計方向又は反時計方向のいずれかに画像の元の向きから約1〜5°の増分で面内方向に画像を回転させることができる。このように、入力画像は、画像回転モジュール112が第1の角度へ回転させることができる。加えて、コントローラ104は、オブジェクト検出モジュール114を実行して、ステップ320において、回転画像において可能性のある所定のオブジェクトを検出することができる。ステップ314におけるように、オブジェクト検出モジュール114又は異なるオブジェクト検出モジュール(図示せず)は、回転画像を処理して、可能性のあるオブジェクトが位置する、回転画像におけるロケーション又は領域を決定するように構成することができる。この場合も、オブジェクト検出モジュール114又は異なるオブジェクト検出モジュールは、可能性のあるオブジェクトの周囲にボックス又は他の識別手段を作成して、回転画像におけるそれらのロケーション又は領域を表示することができる。この場合も、オブジェクト検出モジュール114の結果は、ステップ322において、空間フィルタモジュール116に入力される。
後述するように、空間フィルタモジュール116が結果にアクセスして画像を処理できるよう、オブジェクト検出モジュールは、結果をメモリ110に記憶することができる。この点に関して、ステップ316及び322において、結果を空間フィルタモジュール116に入力する代わりに、結果をメモリ110に入力することができる。
ステップ324において、コントローラ104は、回転画像における追加のオブジェクト検出をするかどうかを判断することができる。この判断は、画像においてオブジェクトを検出する際の所望する正確度のレベルに基づかせることができる。たとえば、所望のオブジェクトを検出する際の正確度を高くするには、所定の制限内で、解析する回転画像の個数を多くすることができる。或いは、オブジェクト検出処理を高速にするには、解析する回転画像の個数を少なくすることができる。コントローラ104は、解析される回転画像の個数と共にプログラミングすることができ、したがって、そのプログラミングに基づき追加の画像回転を得るかどうかを判断することができる。加えて、画像回転増分数は、基礎となるオブジェクト検出モジュール114の具体的な検出機能に基づいて決定することができ、たとえば、約1〜5の増分とすることができる。
追加の画像回転が必要であるとコントローラ104が判断した場合、ステップ318〜324を繰り返すことができる。加えて、ステップ318〜324は、コントローラ104が、所定の個数の回転画像が処理されたと判断するまで繰り返すこともできる。その時、これは、ステップ324における「no」条件と等価であるが、空間フィルタ116は、ステップ226において、1つ又は2つ以上の回転画像についてのオブジェクト検出モジュール114の結果を処理することができる。より詳細には、空間フィルタモジュール116は、さまざまな結果を比較して、検出結果から、元画像における所定のオブジェクトのロケーションを決定することができ、誤認又は偽陽性を除去することができる。空間フィルタ116がこの決定を行うように動作できるさまざまな方法のより詳細な説明は上述している。
空間フィルタモジュール116からの結果は、ステップ328において出力デバイス118に出力することもできる。或る観点から、出力デバイス118が、表示デバイスを備えることができ、検出された所定のオブジェクトのロケーションを表示させるのに使用することができる。別の観点から、出力デバイス118は、検出された所定のオブジェクト情報を使用するように構成されている別のデバイス又はプログラムを備えることができる。
動作モード300は、ステップ330に示すように終了させることができる。この終了条件は、動作モード300のアイドルモードと同様にもできる。なぜなら、コントローラ104が、処理する別の入力画像を受信した時に、動作モード300が再起動する場合があるからである。
図4は、画像においてオブジェクトを検出する別の方法の動作モード400についてのフロー図を示している。動作モード400の以下の説明は、この動作モード400を実施できるさまざまな異なる方法の1つの方法に過ぎないことが理解されよう。また、動作モード400は一般化された例示を表していること、及び、動作モード400の範囲から逸脱することなく、他のステップを追加したり、存在するステップを除去、変更、又は再配列したりできることが当業者には明らかなはずである。
動作モード400の説明を、図1Bに示すブロック図150に関して行い、したがって、図1Bで引用されたエレメントが参照される。しかしながら、動作モード400は、ブロック図150で述べたエレメントに限定されないことが理解されるはずである。その代わり、動作モード400は、ブロック図150で述べたものとは異なる構成を有するオブジェクト検出システムによって実施できることが理解されるはずである。
動作モード400は、ステップ410において、コントローラ104により受信される、ユーザからの命令を通じて手動により起動することができる。或いは、動作モード400は、入力デバイス106等の検出を通じて、さまざまな信号の受信に応答して、所定の期間後に起動することもできる。加えて、ステップ412において、コントローラ104は、入力デバイス106から入力画像データを受信することができる。コントローラ104が画像データを受信できるさまざまな方法は、図1Aについて既に詳細に説明している。
ステップ414において、コントローラ104は、オブジェクト検出モジュール114を実行して、ステップ412で受信した画像データにより表される画像において、可能性のある所定のオブジェクトを検出することができる。より詳細には、オブジェクト検出モジュール114は、画像において所定のオブジェクトを検出するようにプログラミングすることもできるし、その他の方法で構成することもできる。したがって、オブジェクト検出モジュール114は、画像を処理して、可能性のあるオブジェクトが位置する、画像におけるロケーション又は領域を決定することができる。1つの観点から、オブジェクト検出モジュール114は、可能性のあるオブジェクトの周囲にボックス又は他の識別手段を作成して、画像におけるそれらのロケーション又は領域を表示するように動作することができる。オブジェクト検出モジュール114の結果は、ステップ416に示すように、クロッピングモジュール154に入力することができる。
ステップ418において、クロッピングモジュール154は、可能性のある所定のオブジェクトであるとしてオブジェクト検出モジュール114により検出された領域をクロッピングすることができる。加えて、クロッピングモジュールは、ステップ420において、クロッピング領域を空間フィルタモジュール116に入力することができる。また、クロッピングモジュールは、画像回転モジュール112にもクロッピング領域を入力することができる。ステップ422において、画像回転モジュール112は、クロッピング領域を回転することができる。上述したように、画像回転モジュール112は、時計方向又は反時計方向のいずれかにクロッピング領域の元の向きから約1〜5°の増分で面内方向にクロッピング領域を回転することができる。したがって、ステップ422において、画像回転モジュール112が第1の角度へクロッピング領域を回転させることができる。
回転されたクロッピング領域は、オブジェクト検出モジュール156に入力することができる。オブジェクト検出モジュール156は、上述したように、オブジェクト検出モジュール114又は別個のオブジェクト検出モジュールを備えることができる。加えて、ステップ424において、回転されたクロッピング領域が、それぞれ、可能性のある検出オブジェクトを含むかどうかを判断するようにオブジェクト検出モジュール156を実行することができる。オブジェクト検出モジュール156は、可能性のある所定のオブジェクトがオブジェクト検出モジュール156によって検出されないクロッピング領域からボックス又は他の識別手段を除去するように構成することができる。加えて、オブジェクト検出モジュール156は、ステップ426において、オブジェクト検出の結果を空間フィルタ116に入力するように構成することもできる。
後述するように、空間フィルタモジュール116が結果にアクセスして画像を処理できるよう、オブジェクト検出モジュール114、156は、各オブジェクト検出の結果をメモリ110に記憶することができる。この点に関して、ステップ420及び426において、空間フィルタモジュール116に結果を入力する代わりに、結果をメモリ110に入力することができる。
ステップ428において、コントローラ104は、回転されたクロッピング領域における追加のオブジェクト検出を得るかどうかを判断することができる。この判断は、画像においてオブジェクトを検出する際に所望する正確度のレベルに基づかせることができる。たとえば、所望のオブジェクトを検出する際の正確度を高くするには、所定の制限内で、解析する回転されたクロッピング領域の個数を多くすることができる。或いは、オブジェクト検出処理を高速にするには、解析する回転されたクロッピング領域の個数を少なくすることができる。コントローラ104は、解析する回転されたクロッピング領域の個数と共にプログラミングすることができ、したがって、そのプログラミングに基づき追加のクロッピング領域回転を得るかどうか判断することができる。加えて、画像回転増分数は、基礎となるオブジェクト検出モジュール114の具体的な検出機能に基づいて決定することができ、たとえば、約1〜5の増分とすることができる。
追加のクロッピング領域回転が必要であるとコントローラ104が判断した場合、ステップ422〜428を繰り返すことができる。加えて、ステップ422〜428は、コントローラ104が、所定の個数の回転されたクロッピング領域が処理されたと判断するまで繰り返すこともできる。その時、これはステップ428における「no」条件と等価であるが、空間フィルタ116は、ステップ430において、1つ又は2つ以上の回転されたクロッピング領域についてのオブジェクト検出モジュール114、156の結果を処理することができる。より詳細には、空間フィルタモジュール116は、さまざまな結果を比較して、検出結果から、元画像における所定のオブジェクトのロケーションを決定することができ、誤認又は偽陽性を除去することができる。空間フィルタ116がこの決定を行うように動作できるさまざまな方法のより詳細な説明は上述している。
空間フィルタモジュール116からの結果は、ステップ432において出力デバイス118に出力することもできる。1つの観点から、出力デバイス118は、表示デバイスを備えることができ、検出された所定のオブジェクトのロケーションを表示するのに使用することができる。別の観点から、出力デバイス118は、検出された所定のオブジェクト情報を使用するように構成された別のデバイス又はプログラムを備えることができる。
動作モード400は、ステップ434に示すように終了させることができる。この終了条件は、動作モード400のアイドルモードと同様にもできる。なぜなら、コントローラ104が、処理する別の入力画像を受信した時に、動作モード400が再起動する場合があるからである。
動作モード200、300、及び400に示すオペレーションは、任意の所望のコンピュータアクセス可能媒体に、ユーティリティ、プログラム、又はサブプログラムとして収容することができる。加えて、動作モード200、300、及び400は、コンピュータプログラムによって具現することもできる。コンピュータプログラムは、アクティブ及び非アクティブの双方のさまざまな形態で存在させることができる。たとえば、コンピュータプログラムは、ソースコード、オブジェクトコード、実行可能コード、又は他のフォーマットのプログラム命令で構成されるソフトウェアプログラム(複数可)として存在させることができる。上記のいずれも、コンピュータ可読媒体上に具現することができる。コンピュータ可読媒体には、圧縮形態又は非圧縮形態のストレージデバイス及び信号が含まれる。
例示のコンピュータ可読ストレージデバイスには、従来のコンピュータシステムのRAM、ROM、EPROM、EEPROM、及び磁気ディスク若しくは磁気テープ又は光ディスク若しくは光テープが含まれる。例示のコンピュータ可読信号は、搬送波を使用して変調されていようといまいと、当該信号にアクセスするように、コンピュータプログラムをホスティング又は実行するコンピュータシステムを構成できる信号であり、インターネット又は他のネットワークを通じてダウンロードされる信号が含まれる。上記の具体例には、CDROMによるプログラムの配信又はインターネットダウンロードを介したプログラムの配信が含まれる。或る意味で、インターネット自体が、抽象的なエンティティとして、コンピュータ可読媒体である。同じことは、一般のコンピュータネットワークにも当てはまる。したがって、上述した機能を実行できるどの電子デバイスも、上記に列挙した機能を実行できることが理解されよう。
図5は、コンピュータシステム500を示している。コンピュータシステム500は、上述したオブジェクト検出システム102及び152のさまざまな機能を実行するのに使用することができる。この点に関して、コンピュータシステム500は、オブジェクト検出システム102及び152について上述した機能の1つ又は2つ以上を実行するためのプラットフォームとして使用することができる。
コンピュータシステム500は、プロセッサ502等の1つ又は2つ以上のコントローラを含む。プロセッサ502は、動作モード200、300、及び400で説明したステップの一部又は全部を実行するのに使用することができる。この点に関して、プロセッサ502は、コントローラ104を備えることができる。プロセッサ502からのコマンド及びデータは、通信バス504上で通信される。また、コンピュータシステム500は、ランダムアクセスメモリ(RAM)等のメインメモリ506(メインメモリ506では、ランタイム中に、たとえば、オブジェクト検出システム102及び152のプログラムコードを実行することができる)並びに2次メモリ508も含む。メインメモリ506は、たとえば、上述したメモリ110を備えることができる。
2次メモリ508は、たとえば、1つ又は2つ以上のハードディスクドライブ510、及び/又は、フロッピー(登録商標)ディスケットドライブ、磁気テープドライブ、コンパクトディスクドライブ等を代表する着脱可能ストレージドライブ512を含む。これらのドライブには、オブジェクト検出システム102、152のプログラムコードのコピーを記憶することができる。2次メモリ508は、入力デバイス106及び/又は出力デバイス118を備えることができる。加えて、図示しないが、入力デバイス106は、たとえば、カメラ、スキャナ等の別個の周辺デバイスを備えることもできる。入力デバイス106は、インターネット等のネットワークも備えることができる。
着脱可能ストレージドライブ512は、既知の方法で着脱可能ストレージユニット514から読み出しを行い、且つ/又は、着脱可能ストレージユニット514に書き込みを行う。ユーザ入力デバイス及びユーザ出力デバイスは、キーボード516、マウス518、及びディスプレイ520を含むことができる。ディスプレイ520は、出力デバイス118を備えることもできる。ディスプレイアダプタ522は、通信バス504及びディスプレイ520とインターフェースすることができ、プロセッサ502から表示データを受信して、この表示データをディスプレイ520の表示コマンドに変換することができる。加えて、プロセッサ502は、ネットワークアダプタ524を通じて、たとえば、インターネット、LAN等のネットワーク上で通信を行うこともできる。
コンピュータシステム500では、他の既知の電子コンポーネントを追加又は代用できることが当業者には明らかであろう。加えて、コンピュータシステム500は、データセンターのラック、従来の「ホワイトボックス」サーバ又はコンピューティングデバイス等に使用されるシステムボード又はシステムブレードを含むこともできる。また、図5のコンポーネントの1つ又は2つ以上(たとえば、ユーザ入力デバイス、2次メモリ等)はオプションとすることもできる。
本明細書で説明及び例示したものは、本発明の好ましい実施の形態及びその変形のいくつかである。本明細書で使用された用語、説明、及び図は、単なる例示として述べられているにすぎず、限定として意図されたものではない。当業者は、本発明の精神及び範囲内で多くの変形が可能であることを認識するであろう。本発明の範囲は、添付の特許請求の範囲及びその均等なものによって定められることが意図されている。特許請求の範囲では、すべての用語は、特に指定がない限り、その最も広い妥当な意味を意図している。
本発明の一実施の形態によるオブジェクト検出システムのブロック図である。 本発明の別の実施の形態によるオブジェクト検出システムのブロック図である。 本発明の一実施の形態による、画像においてオブジェクトを検出するための一方法の動作モードのフロー図である。 本発明の別の実施の形態による、画像においてオブジェクトを検出するための一方法の動作モードのフロー図である。 本発明のさらに別の実施の形態による、画像においてオブジェクトを検出するための一方法の動作モードのフロー図である。 本発明の一実施の形態による、上述したオブジェクト検出システムのさまざまな機能を実行するのに使用できるコンピュータシステムを示す図である。

Claims (10)

  1. 画像において、可能性のある所定のオブジェクトを検出すること(212、314、414)と、
    前記画像の少なくとも一部を回転すること(214、318、422)と、
    前記可能性のある所定のオブジェクトが前記画像の前記回転された少なくとも一部において検出されるかどうかを判断すること(216、320、424)と、
    前記可能性のある所定のオブジェクトが前記画像の前記回転された少なくとも一部において検出されるかどうかの判断に応じて、前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるかどうかを判断すること(218、326、430)と、
    を含むことを特徴とする画像において所定のオブジェクトを検出する方法。
  2. 前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるかどうかを判断する前記こと(218、326、430)は、前記画像における前記可能性のある所定のオブジェクトのサイズと、前記画像の前記回転された少なくとも一部において検出された前記可能性のある所定のオブジェクトのサイズとを比較すること(326、430)を含み、前記画像において所定のオブジェクトを検出する方法はさらに、
    前記画像における前記可能性のある所定のオブジェクトのサイズと、前記画像の前記回転された少なくとも一部における前記可能性のある所定のオブジェクトのサイズとの比較がほぼ同様であることを示すことに応じて、前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるとの表示を出力すること(328、432)と、
    前記画像における前記可能性のある所定のオブジェクトのサイズと、前記画像の前記回転された少なくとも一部における前記可能性のある所定のオブジェクトのサイズとの比較が異なることを示すことに応じて、前記可能性のある所定のオブジェクトが誤認であるとの表示を出力すること(328、432)と、
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記画像の前記少なくとも一部を複数の角度へ回転すること(318、422)と、
    前記可能性のある所定のオブジェクトが、前記画像の前記複数の回転された少なくとも一部の1つ又は2つ以上において検出されるかどうかを検出すること(320、424)と、
    前記可能性のある所定のオブジェクトが、前記画像の前記複数の回転された少なくとも一部の1つ又は2つ以上において検出されるかどうかを検出することに応じて、前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるかどうかを判断すること(326、430)と、
    をさらに含むことを特徴とする請求項1に記載の方法。
  4. 前記可能性のある所定のオブジェクトを含む前記画像の領域をクロッピングすること(418)をさらに含み、前記画像の少なくとも一部を複数の角度へ回転する前記こと(422)は、前記画像の前記クロッピング領域を回転することを含むことを特徴とする請求項1ないし3のいずれか1項に記載の方法。
  5. 前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるかどうかを判断する前記こと(430)は、前記可能性のある所定のオブジェクトが前記画像の前記回転されたクロッピング領域において検出されるかどうかを判断することをさらに含み、前記画像において所定のオブジェクトを検出する方法はさらに、
    前記可能性のある所定のオブジェクトが前記画像の前記回転されたクロッピング領域において検出されたことに応じて、前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるとの表示を出力すること(432)
    を含むことを特徴とする請求項4に記載の方法。
  6. 画像において、可能性のある所定のオブジェクトを検出するように構成されたオブジェクト検出モジュール(114)と、
    前記画像の少なくとも一部を回転するように構成された画像回転モジュール(112)と、
    空間フィルタモジュールとを備え、
    前記オブジェクト検出モジュール(114)は、前記画像の前記回転された少なくとも一部において前記可能性のある所定のオブジェクトを検出するように構成されており、
    前記空間フィルタモジュール(116)は、前記画像の前記オブジェクト検出モジュール(114)からの検出結果と、前記画像の前記回転された少なくとも一部の前記オブジェクト検出モジュール(114)からの検出結果とを比較して、前記オブジェクト検出モジュール(114)により検出された前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるかどうかを判断するように構成されていることを特徴とするオブジェクト検出システム。
  7. 前記可能性のある所定のオブジェクトが前記画像の前記回転された少なくとも一部において検出された場合、前記空間フィルタモジュール(116)は、前記オブジェクト検出モジュール(114)により検出された前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるとの判断を出力するように構成されていることを特徴とする請求項6に記載のオブジェクト検出システム。
  8. 数式:sum=w1×v1+w2×v2+…+wn×vn、且つ、sum>t
    が満たされる場合に、前記空間フィルタモジュール(116)は、前記オブジェクト検出モジュール(114)によって検出された前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であるとの表示を出力するように構成され、ここで、w1、w2、…、wnは重みであり、v1、v2、…、vnは、前記画像の検出結果と前記複数の角度へ回転された前記画像の前記少なくとも一部の検出結果との比較を通じて求められた一致性を示すベクトルであり、tは所定のしきい値であり、
    前記一致性を示すベクトルv1、v2、…、vnは、前記複数の角度の1つにおける前記画像の回転された少なくとも一部の検出結果のベクトル成分vmについて、前記可能性のある所定のオブジェクトが、前記画像と、前記複数の角度の1つへ回転された前記画像の前記少なくとも一部との双方において検出された場合には1に設定され、そうでない場合には、前記一致性を示すベクトルv1、v2、…、vnは、ベクトル成分vmについて、0に設定されることを特徴とする請求項6及び7のいずれか1項に記載のオブジェクト検出システム。
  9. 画像において、可能性のある所定のオブジェクトを検出するための命令(212、314、414)と、
    前記画像の少なくとも一部を回転するための命令(214、318、422)と、
    前記可能性のある所定のオブジェクトが前記画像の前記回転された少なくとも一部において検出されるかどうかを検出するための命令(216、320、424)と、
    前記可能性のある所定のオブジェクトが前記画像の前記回転された少なくとも一部において検出されたことに応じて、前記画像において検出された前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であることの表示を出力するための命令(328、432)と
    を含むことを特徴とする、1つ又は2つ以上のコンピュータプログラムが組み込まれ、前記1つ又は2つ以上のコンピュータプログラムが、前記画像において前記オブジェクトを検出する方法を実施し、前記1つ又は2つ以上のコンピュータプログラムが、一連の命令であるコンピュータ可読記憶媒体。
  10. 前記1つ又は2つ以上のコンピュータプログラムは、更に一連の命令を備え、
    前記画像の前記少なくとも一部を複数の角度へ回転するための命令(214、318、422)と、
    前記可能性のある所定のオブジェクトが、前記画像の前記複数の回転された少なくとも一部の1つ又は2つ以上において検出されるかどうかを検出するための命令(216、320、424)と、
    前記可能性のある所定のオブジェクトが、前記画像の前記複数の回転された少なくとも一部のうちの少なくとも1つにおいて検出されたことに応じて、前記画像において検出された前記可能性のある所定のオブジェクトが前記所定のオブジェクトの正確な検出であることの表示を出力するための命令(328、432)と
    をさらに含むことを特徴とする、請求項9に記載のコンピュータ可読記憶媒体。
JP2007539364A 2004-11-05 2005-11-04 画像の回転版を利用したオブジェクト検出 Expired - Fee Related JP4598080B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/981,486 US20060098844A1 (en) 2004-11-05 2004-11-05 Object detection utilizing a rotated version of an image
PCT/US2005/040131 WO2006052804A1 (en) 2004-11-05 2005-11-04 Object detection utilizing a rotated version of an image

Publications (2)

Publication Number Publication Date
JP2008519336A true JP2008519336A (ja) 2008-06-05
JP4598080B2 JP4598080B2 (ja) 2010-12-15

Family

ID=36004301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007539364A Expired - Fee Related JP4598080B2 (ja) 2004-11-05 2005-11-04 画像の回転版を利用したオブジェクト検出

Country Status (7)

Country Link
US (1) US20060098844A1 (ja)
EP (1) EP1807793B1 (ja)
JP (1) JP4598080B2 (ja)
KR (1) KR100915773B1 (ja)
CN (1) CN101052971B (ja)
DE (1) DE602005022747D1 (ja)
WO (1) WO2006052804A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012035672A1 (en) * 2010-09-15 2012-03-22 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140076A (ja) 2007-12-04 2009-06-25 Sony Corp 認証装置及び認証方法
US9547799B2 (en) * 2008-07-17 2017-01-17 Sharp Laboratories Of America, Inc. Methods and systems for content-boundary detection
US8873864B2 (en) * 2009-12-16 2014-10-28 Sharp Laboratories Of America, Inc. Methods and systems for automatic content-boundary detection
US8693725B2 (en) * 2011-04-19 2014-04-08 International Business Machines Corporation Reliability in detecting rail crossing events
CN106462940A (zh) * 2014-10-09 2017-02-22 微软技术许可有限责任公司 图像中通用对象检测
KR102006436B1 (ko) * 2015-10-30 2019-08-01 삼성에스디에스 주식회사 거짓 경보 결정 방법
KR102486986B1 (ko) 2017-05-04 2023-01-10 한화테크윈 주식회사 객체 검출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
CN109389148B (zh) * 2018-08-28 2021-11-23 昆明理工大学 一种基于改进DHash算法的图像相似判定方法
CN111968028A (zh) * 2020-08-14 2020-11-20 北京字节跳动网络技术有限公司 图像生成方法、装置、设备和计算机可读介质
CN112801070B (zh) * 2021-04-14 2021-09-21 浙江啄云智能科技有限公司 一种目标检测方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280A (ja) * 1993-09-10 1995-03-31 Hamamatsu Photonics Kk パターン認識装置
JP2001067472A (ja) * 1999-08-25 2001-03-16 Hitachi Ltd 印鑑照合方法および該方法を実現するための印鑑照合システム
JP2001297327A (ja) * 2000-04-12 2001-10-26 Oki Electric Ind Co Ltd 印鑑照合方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412755A (en) * 1991-11-26 1995-05-02 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Optical implementation of inner product neural associative memory
US5633948A (en) * 1992-11-30 1997-05-27 Kegelmeyer, Jr.; W. Philip Method and apparatus for detecting a desired behavior in digital image data
JPH0835818A (ja) * 1994-07-25 1996-02-06 Omron Corp 画像処理装置および方法
DE19601005A1 (de) * 1996-01-15 1997-07-17 Bosch Gmbh Robert Verfahren zur Erkennung bewegter Objekte in zeitlich aufeinanderfolgenden Bildern
US6118850A (en) * 1997-02-28 2000-09-12 Rutgers, The State University Analysis methods for energy dispersive X-ray diffraction patterns
JP2000201261A (ja) * 1998-10-28 2000-07-18 Fujitsu Ltd 画像読取装置
US6823086B1 (en) * 2000-08-29 2004-11-23 Analogic Corporation Adaptive spatial filter
JP4571763B2 (ja) 2001-07-18 2010-10-27 株式会社新川 画像処理装置、およびボンディング装置
US20030108242A1 (en) * 2001-12-08 2003-06-12 Conant Stephen W. Method and apparatus for processing data
JP3885999B2 (ja) * 2001-12-28 2007-02-28 本田技研工業株式会社 物体検出装置
US7305145B2 (en) * 2003-05-23 2007-12-04 Lockheed Martin Corporation Method and apparatus for filtering an image
EP1530156B1 (en) 2003-11-07 2012-03-14 Mitsubishi Electric Information Technology Centre Europe B.V. Visual object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280A (ja) * 1993-09-10 1995-03-31 Hamamatsu Photonics Kk パターン認識装置
JP2001067472A (ja) * 1999-08-25 2001-03-16 Hitachi Ltd 印鑑照合方法および該方法を実現するための印鑑照合システム
JP2001297327A (ja) * 2000-04-12 2001-10-26 Oki Electric Ind Co Ltd 印鑑照合方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012035672A1 (en) * 2010-09-15 2012-03-22 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2012063945A (ja) * 2010-09-15 2012-03-29 Canon Inc 画像処理装置および画像処理方法
US9298972B2 (en) 2010-09-15 2016-03-29 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Also Published As

Publication number Publication date
KR20070083952A (ko) 2007-08-24
CN101052971A (zh) 2007-10-10
CN101052971B (zh) 2011-01-26
JP4598080B2 (ja) 2010-12-15
DE602005022747D1 (de) 2010-09-16
US20060098844A1 (en) 2006-05-11
EP1807793A1 (en) 2007-07-18
WO2006052804A1 (en) 2006-05-18
KR100915773B1 (ko) 2009-09-04
EP1807793B1 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
JP4598080B2 (ja) 画像の回転版を利用したオブジェクト検出
KR102016082B1 (ko) 딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치
JP4830650B2 (ja) 追跡装置
US11017210B2 (en) Image processing apparatus and method
US20240092344A1 (en) Method and apparatus for detecting parking space and direction and angle thereof, device and medium
US9053389B2 (en) Hough transform for circles
JP5588180B2 (ja) パターン識別装置及びその制御方法
US10250801B2 (en) Camera system and image-providing method
US20210319250A1 (en) Matching method and apparatus, electronic device, computer-readable storage medium, and computer program
WO2020137069A1 (ja) 位置推定システム
CN110686676A (zh) 机器人重定位方法、装置及机器人
JP2008102611A (ja) 画像処理装置
CN110738078A (zh) 一种人脸识别方法及终端设备
Ma et al. Loop-closure detection using local relative orientation matching
CN110032941B (zh) 人脸图像检测方法、人脸图像检测装置及终端设备
CN115471824A (zh) 眼部状态检测方法、装置、电子设备和存储介质
JP4708835B2 (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP4011426B2 (ja) 顔検出装置、顔検出方法および顔検出プログラム
JP2018169776A (ja) 認証装置、認証方法、及びプログラム
JP2007140695A (ja) 不審顔検出システム、不審顔検出方法および不審顔検出プログラム
Noury et al. How to overcome perceptual aliasing in ASIFT?
KR101870542B1 (ko) 모션 인식 방법 및 장치
JPH10262953A (ja) 画像認識装置
JP2003168113A (ja) 画像認識システム、画像認識方法および画像認識プログラム
JP2010055395A (ja) 画像処理装置及び方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100922

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees