JP5261501B2 - 不変の視覚場面及び物体の認識 - Google Patents

不変の視覚場面及び物体の認識 Download PDF

Info

Publication number
JP5261501B2
JP5261501B2 JP2010539917A JP2010539917A JP5261501B2 JP 5261501 B2 JP5261501 B2 JP 5261501B2 JP 2010539917 A JP2010539917 A JP 2010539917A JP 2010539917 A JP2010539917 A JP 2010539917A JP 5261501 B2 JP5261501 B2 JP 5261501B2
Authority
JP
Japan
Prior art keywords
image
cluster
pixels
feature
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010539917A
Other languages
English (en)
Other versions
JP2011508323A (ja
Inventor
クリサンタコパウロス,ジョージオス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2011508323A publication Critical patent/JP2011508323A/ja
Application granted granted Critical
Publication of JP5261501B2 publication Critical patent/JP5261501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、不変の視覚場面(invariant visual scene)及び物体の認識に関する。
コンピューター・ビジョンは、取り込んだ画像から情報を得る人工システムに関連する科学技術の分野である。画像データは、ビデオ・シーケンス又は1つ以上のカメラからの視界を含む多くの形式をとり得るが、必ずしもこれらに限定されない。
一般的なカテゴリーのコンピューター・ビジョンは様々な異なるサブフィールド(subfield)を含む。物体認識は、例えば、複数の画像のうちのどれが目標画像に含まれる物体にもっとも類似した物体を含むかを決定して、画像データから物体を認識することを含むコンピューター・ビジョンのサブフィールドである。別のサブフィールドは、例えば、複数の画像のうちのどれが目標画像に含まれる物体にもっとも類似したシーン(scene)を含むかを決定して、画像データからシーンを認識することを含むシーン認識である。コンピューター・ビジョンは、自律ロボットナビゲーション及び監視されていないセキュリティー機能を含むが必ずしもこれらに限定されない様々な実際のアプリケーションを自動化する基礎としてしばしば利用される。例えば、ロボット及びセキュリティー・システムは特定の物体又はシーンが自動的に検知され識別される場合に、特定の応答を開始するように構成することができる。
現在、自動化されたシーン及び物体認識を含む広範囲の認識指向のコンピューター・ビジョン・タスクをサポートするシステムが存在する。これらのシステムのうちのいくつかは合理的な程度の正確さで認識タスクを行い得るが、性能は、特に必要なコンピューター処理及び/又はメモリー資源の点から、必ずしも効率的なものではない。さらに、多くの既存のシステムが不変の画像認識を提供することに関して有効ではない。
上記の議論は、一般的な背景情報について提供されるものにすぎず、特許請求された主題の範囲の決定における助けとして使用されることを意図していない。
画像認識を行う方法の実施例が開示される。1つの実施例では、方法は、一群のピクセル(collection of pixels)を取得して、当該ピクセルのうちの少なくともいくつかを勾配の大きさに基づいて1組のクラスター特徴(cluster feature)へとグループ化することを含む。当該組の中の各クラスター特徴について、統計的変数が生成される。統計的変数は、クラスター特徴におけるピクセルの集合としての特性(collective property)を表す。統計的変数は、一群のピクセルを異なる一群のピクセルと比較するための基準として利用される。
この概要は、詳細な説明においてさらに以下に説明される概念の選択を単純化された形式で紹介するために提供される。この概要は、特許請求された主題の主な特徴又は不可欠な特徴を識別するようには意図されず、特許請求された主題の範囲の決定における助けとして使用するようにも意図されない。特許請求された主題は、背景技術において指摘した欠点のうち任意のもの又はすべてのものを解決するシステムに実施例に限定されない。
画像認識システムのブロック図である。 画像比較処理のフローチャート図である。 画像比較処理のフローチャート図である。 画像認識システムに関連したユーザー・インターフェースの例である。 コンピューター・システム環境の例を示す。
本発明は、コンピューター・ビジョン・システム、特に画像認識システムの性能及び信頼性を改善する方法に関する。この詳細な説明は、物体及び/又はシーン認識システムのコンテキストにおけるシステム及び方法について説明することになるかもしれないが、同一又は類似の概念が他の種類のコンピューター・ビジョン・システム内で同じように容易に適用できることが理解されるべきである。
図1は、本発明の実施例を実施することができる画像認識システム10のブロック図である。システム10は適切なシステムの1つの例にすぎず、特許請求された主題の使用又は機能の範囲に関していかなる限定も示唆するようには意図されない。また、システム10は、示されたコンポーネントの任意の1つ又は組み合わせに関連するいなかる従属性又は要件を有しているものと解釈されるべきでもない。
画像認識システム10は言うまでもなく単純化された表現であり、画像取り込み装置12、画像アナライザー/プロセッサー14、データベース16及び出力15を含む。画像取り込み装置12は、画像を取り込むことができ、画像アナライザー/プロセッサー14などの画像アナライザーに対応するデータを転送することができる任意のカメラ又は他のシステム・コンポーネントであってもよい。取り込んだ画像は、分離された画像を含んでもよく、又はビデオ画像の性質をより帯びていてもよい。さらに、装置12は、本発明の範囲から逸脱することなく、例えば、同じシーン又は物体の複数の画像の視点(perspective)を取り込む複数のデバイスを容易に含むのと同じようにすることができる。
1つの実施例において、装置12は、光学的システムを介して、画像化すべきシーン又は物体の視覚表現(visual representation)を受け取る撮像装置を含む。撮像装置は受信した視覚表現を示すアナログ画像信号を生成する。アナログ信号はアナログ・デジタル変換器に転送され、アナログ・デジタル変換器はアナログ信号のデジタル表現を生成する。デジタル信号は、格納し操作することができるデジタル化された画像へ再フォーマットされる。それが画像アナライザー/プロセッサー14に転送されるこのデジタル化された画像の説明である。
本発明の1つの実施例において、より詳細に以下に説明されるように、画像アナライザー/プロセッサー14は、画像取り込み装置12から受け取られた画像の特徴及び特性を示すデータを生成する。1つの実施例では、このデータは、受信された画像を、データベース16内に表される、1つ以上の異なる以前に得られた画像と効率的に比較するための基礎として利用される。出力15は比較処理の実例の結果である。出力15の正確な性質は、システム10が適用される特定のコンテキストに依存する。例えば、出力15は肯定的な又は否定的な比較結果の表示であってもよい。代替的に、出力15は、もっとも類似しているか又は一致しきい値を越えるのに十分類似した、データベース16中の特定の画像を識別することができる。しかし、これらは出力15の多くの可能な形式の例にすぎない。
この点においてまた、不変性の概念に言及する価値がある。画像の1つの取り込みから次の取り込みまでに、例えば、視点、方向、照明などの観点から整合性がないことは論理的である。一致を断言するために、以前の画像が取り込まれた環境についての正確な又は実質的な再作成をシステム10が要求する場合、システム10はその後あまりロバストではなく、実際的な有用性がほとんど又はまったくないこともあり得る。より非常に詳しく以下に説明されるように、本明細書に記載された一致処理及びアルゴリズムは比較的効率的であるが、また、比較的に不変の画像認識をサポートすることができる点で有効である。
システム10によって提供されるような画像認識機能から利益を得る様々な実際的なアプリケーションがある。多くの例のうちの1つにおいて、システム10は、移動ロボットがその現在の環境(近郊、environs)が以前に経験した環境の画像のデータベースに対してよく知られているか否かを認識するべきためにコンピューター・ビジョンを利用することを可能にするように実施することができる。ロボットが周囲を移動する際、ロボットは、例として、その環境の写真を撮り、次に、識別子で写真にタグを付ける。当該識別子は、コンピューターにより生成された文字列であってもよいが、代替的に、人間にとってよりなじみのある識別補助として役立つ言葉や語句でもよい。このように、ロボットは、例えば、位置の場所を突き止める(例えば、この位置はキッチンであるなど)ためやシーンから物体を識別する(例えば、この物体は椅子であるなど)ために、ある程度の人工知能をサポートするべく、比較出力を利用することができる。このビジョンベースのアプローチは、GPS(全地球測位システム)技術などの他の技術が利用可能でない環境において特に有益である。さらに、位置識別を可能にするほとんどの他の技術と比較して、ビジョンベースのアプローチの利用は比較的安価である。当業者は、移動ロボットアプリケーションが適用可能な実用的なアプリケーションの多くの例のうち1つにすぎないことを認識するであろう。
図2は、画像比較処理200の単純化された表現を提供するフローチャート図である。処理200は例えばコンピューターで実施される。1つの実施例では、処理200はコンピューターによって実施される画像アナライザー/プロセッサー(例えば、図1の14)によって実行される。ブロック202によれば、処理200は単に第1の画像を得ることにより始まる。この画像が同時に取り込まれることは要求されない。当該画像が画像取り込み装置から直接得られることも要求されない。画像は、カメラ、デスクトップ、インターネット(例えば、ウェブ)、ディスク、又はスキャナーなどの任意のソースが起源であってもよいが、これらに限定されない。
1つの実施例では、得られた画像のパラメーターに設定される限定はほとんど又はまったくない。例えば、例として、必要な解像度(例えば、320×240、640×480など)はない。例として、必要な色濃度はない。画像は例えば白黒かもしれない。特に、画像は実際のシーンを表す必要はない。画像は、例えば、ビジュアル化補助、シミュレートされた環境又はグラフですらあり得る。明らかであるように、処理200は任意の一群のピクセルを別の一群のピクセルと比較するために本質的に利用することができる。
ステップ204によれば、端部(境界、エッジ、edge)検出処理が得られた画像に適用される。当業者であれば、端部検出のために利用することができる様々な異なる方法があることを認識するであろう。本発明は特に1つのいかなる方法にも限定されない。1つの実施例では、端部検出は、各点(例えば、各ピクセル)における画像強度の勾配を計算するようにソーベルの係数(Sobel coefficient)の適用を利用して遂行される。
別の実施例では、端部検出は、X及びYについての単純な一次元勾配ベクトル(−1,0,1)の適用を利用して遂行される。この場合、単一の畳み込みが勾配を増幅する画像の表現を作成するように画像中の各ピクセルにわたって適用される。この処理は、例としては畳み込みカーネルに対するパラメーターである。
この、後の方の端部検出処理を概念化するための1つの方法は、ピクセルのアレイ(すなわち、画像)を引き渡すスライディングウィンドウを想像することである。畳み込みは、そうでなければ例えば5×5ピクセルに容易にちょうどサイズ化することができるが、ウィンドウは例えば3×3のピクセルである。画像の3×3セクションの画像内の任意の点(例えば左上)から開始して、畳み込みが適用される。例えば、例として水平方向で3×3ピクセルに−1、0及び1を掛ける。同時に、垂直方向でそれらに−1、0及び1を掛ける。したがって、処理は、本質的に3×3行列から始まり、説明された処理に続いて、対応する3×3行列が作成される。結果は本質的には勾配の抽出である。元の画像と同じサイズであるが端部が強調された新たな画像が作成される。ここでも、本発明の範囲は特に1つのいかなる端部検出方法にも限定されない。当業者であれば、多数の既知の選択肢があることを認識するであろう。
当業者であれば、また、ほとんどの画像が、本質的に、互いに重なった赤色ピクセル行列、青色ピクセル行列及び緑色ピクセル行列の3つの画像であることを認識するであろう。1つの実施例では、勾配は、各色のチャネルについて実行される(例えば、勾配アルゴリズムは、赤色チャネルにおいて実行され、その後青色チャネルにおいて実行され、その後緑色チャネルにおいて実行される)。個々の勾配画像の各々は、本質的に、個別のモノクロ画像(例えば、赤色勾配、青色勾配及び緑色勾配)と見なすことができる。結果として生じる3つの勾配画像は、例として、互いの上に置かれて結合した単一の勾配画像を形成する。「勾配画像」という語が本明細書において利用される程度に、当該語が異なる色チャネルに集合的に関連したデータを含むことができることが理解されるべきである。
本発明の実施例がRGB(赤色、緑色、青色)以外の色空間における画像にちょうど同じように容易に適用できることについて言及する価値がある。例えば、実施例は、着色された画像の別の3つのチャネル符号化であるYcbCr色空間における画像に適用することができる。YcbCr色空間において、勾配は、通常、Yチャネルにおいて強く、RGBに比べて、色と色彩照明の不変性が改善される。しかし、これは、本発明の実施例が適用され得る別の色空間の1つの例にすぎない。本発明の範囲は、本明細書において提供される例に限定されず、3チャネルをコード化するスキームに限定されない。
勾配画像内では、端部は明確に識別可能である。例えば、壁の垂直の角の画像は、対応する勾配画像において、当該角の端部に沿った高い大きな(high magnitude)ピクセル(すなわち、比較的強い線)を作成することがあり得る。もちろん、高く大きなピクセルは、異なる色のチャネルのうちのいくつか又はすべてにおいて勾配画像内に現れ得る。
1つの実施例では、辞書(例えば、ハッシュ表)が、勾配画像において見つかった個別の勾配の大きさの値についてエントリーを作成するために利用される。1つの実施例では、効率化のため、勾配の大きさは、(すなわち、元の倍精度から)最も近い整数値に量子化される。1つの実施例では、しきい値は、所定の値を上回る大きさの値を有するピクセルのみが辞書に加えられるように選択的に適用される。しきい値は例として調整可能なシステムパラメーターである。
ブロック206によれば、同じ(又はシステム許容度に依存する実質的に類似の)特徴を示すピクセルは、実質的にクラスター化される。辞書中の各エントリーは、各々が独自の(又はシステム許容度に依存する実質的に独自の)大きさの値を有する新たな「バケツ(bucket)」を作成する。1つの実施例では、勾配画像におけるすべてのピクセル(又は所定のしきい値を超える大きさを備えたすべてのピクセル)は、当該バケツのうちの1つに分類される。
勾配画像全体が処理された後、個別の勾配の大きさについてどれだけの数の合計のピクセルがシーン内に見つかったかを示すN個のバケツが存在する。ブロック208によれば、第1の画像に関連したクラスター又はバケツは(例えば、保存された画像データに名付けるためにテキストのタグを使用して)格納される。
ブロック210によれば、ステップ202−208は第2の画像に対して繰り返される。最後に、ブロック212により、第2の画像に対する第1の画像の類似度が、第2の画像に関連したクラスター/バケツの特性に対する第1の画像に関連したクラスター/バケツの特性の評価に基づいて評価される。
1つの実施例では、第1の画像に関連したクラスター/バケツの特徴は、複数の画像のうちのどれが第1の画像にもっとも類似するかを決定するために、複数の他の画像に関連したクラスター/バケツの特徴に対して評価される。1つの実施例では、複数の記憶された画像のうちのどれ(例えば、どのシーン、どの物体かなど)が第1の画像に対して(例えば、同時に取り込まれた画像に対して)もっとも一致するかを(クラスター/パケット特徴の全体又は一部に基づいて)示すヒストグラムが生成される。1つの実施例では、複数の格納されたシーンが(クラスター/パケット特徴の全体又は一部に基づいて)同時に取り込まれたシーンと平行して比較されるように、同時比較アルゴリズムが使用される。
特に、処理200は、第1及び第2の画像の直接の文字どおりの比較を含んでいない。これは、少なくとも、2つの画像の間に大きな不整合があっても画像が比較されて一致しているとみなされ得るという点で有利である。これを概念化する別の方法は、処理200が不変の画像認識を有効にサポートすることである。これが真実でない場合、その後第1及び第2の画像が同じカメラから得られたとしても、カメラが撮影の間にほんのわずかに移動された場合に、画像は恐らく一致するとは判断されない。また、第1及び第2の画像が反対の視点から同じ物体であったとしても、画像は恐らく一致するとは判断されない。
第1又は第2の画像のいずれかが同時に取り込まれる必要がないこともまた強調されるべきである。2つの画像は、カメラ、デスクトップ、インターネット(例えば、ウェブ)、ディスク、又はスキャナーなどの任意のソースを起源とすることができるが、これらに限定されない。もちろん、画像は同じソースを起源とする必要はない。画像は、解像度、色、照明などの点から同じパラメーター又は特徴を有していることを要求されることもない。処理200は、実質的に、任意の第1の組のピクセルを任意の第2の組のピクセルと比較することをサポートする。
概して言えば、画像比較処理200の基本的な理論は、比較すべき画像内の個々のピクセルの特定の位置に焦点を当てない。その代わりに、実質的に類似する勾配を有するピクセルがクラスター化され、本質的に、個々の特徴のように集合的に扱われる。通常の画像は、いくつかの強い端部、いくつかの弱い端部及びいくつかの中間の端部を持つことがあり得る。強度におけるこれらの差は対応する勾配画像中の勾配の分散に反映される。強い端部に関連したピクセルは、弱い端部に関連したピクセルとは異なるグループに割り当てられる。(例えば、平面のテーブル表面の画像などの端部のない画像の場合のように)画像中のすべてのピクセルが同じ勾配を有する場合には、特徴は識別されない(1つの画像を別のものと比較する場合にそれ自体の中の又はそれ自体のいずれかが有用な情報かもしれない)。
例として、白い背景に対する4つの同一の垂直に配向された一連の黒いラインのみを含む画像を想像することができる。一般に、画像比較処理200は、黒線ピクセルが捜し出される位置に単に注目するのではない。その代わりに、端部、及び同一の強い勾配の大きさを備えた多くのピクセルがあるという事実が注目される。これらのピクセルはともにクラスター化され、画像比較処理の間、集合的に考慮される。
1つの実施例では、勾配の大きさに基づいてクラスター/バケツ特徴(機能)へピクセルを割り当てる処理は、ある程度、ピクセル位置を考慮に入れるように構成される。例えば、ある状況において、同一又は類似の勾配について複数のクラスター/バケツ特徴を作成するために、規則が課されてもよい。例えば、同じ勾配を有するがxより大きな距離部分の2つのピクセル(xは調整可能なシステムパラメーターである)を2つの別個のクラスター/バケツ特徴へ割り当てることが望ましいことがあり得る。これは、比較の目的のためのより多くの特徴を作成するオプションとなる方法である。もちろん、画像比較ステップ(例えば、処理200のステップ212)は、例として、そのような状況が存在する場合に同一又は類似の勾配特徴を有する複数のクラスター/バケツを説明するか又は有利に利用するように構成される。
画像比較が比較されるべき画像に関連したクラスター/バケツ特徴の勾配の大きさの特性に単に基づいてなされることが考えられる一方、それらの比較の正確さがすべての画像にとって良くはないであろう。例えば、白色背景に対する4つの黒い垂直の線を備えた画像は、白色背景に対する4つの類似する黒いが水平な線を備えた画像と一致すると判断され得る。比較処理がこれらのような状況においてより柔軟であることが望ましい。この説明は、比較処理をより柔軟且つロバストにする方法の例に変わる。
1つの実施例において、各クラスター/バケツについて、実際の個々の物理的なピクセル位置の記録を保持するのではなく、勾配特徴のより広い集合的な組がクラスター中のピクセルのすべてに対して追跡される。当業者であれば、特徴が追跡される正確な性質が1つのアプリケーションから次のものまで変化してもよいことを認識するであろう。別のクラスター/バケツ特徴との1つのクラスター/バケツ特徴の比較をサポートするいかなる特徴も、本発明の範囲内にあると考慮されるべきである。勾配画像及び/又は対応する元の画像に由来した値にクラスター/バケツ特徴特性が基づくことがあることに留意すべきである。さらに、特徴は、所与のクラスター/バケツ特徴において表されたピクセルにわたって計算された平均値であり得る。
1つの実施例では、特徴ベクトルは各クラスター/バケツ特徴について生成される。各特徴ベクトルは、対応するクラスター/バケツに含まれるピクセルの集合的又は平均的な特徴を表す。1つの実施例では、特徴ベクトルは、クラスター/バケツ内のピクセルに基づいて平均化されたいくつかの変数を含んでいる。1つの実施例では、変数は、平均的な領域(例えば、特徴に含まれるピクセル数)、平均の位置(例えば、重心)、平均の勾配角度、平均勾配の大きさ、傾斜(例えば、重心の)、標準偏差(例えば、重心の)及びカートシス(例えば、変数の確率分布が正規分布に対してとがっているか平坦であるかについての測定)のうちのいずれか又はすべてを含む。特徴ベクトルは例として画像比較処理をサポートするために生成される。
クラスター/バケツ特徴が大きさにおいて類似したピクセルを含む一方、それらは元の画像内の異なる位置から来てもよい。したがって、1つの画像を別のものと比較することが望まれる場合、比較の目的(例えば、特徴ベクトルにおいて表される変数を比較する目的)のために、1つの画像からのクラスター/バケツ特徴が他方からのクラスター/バケツ特徴とどのようにそろえられる(aligned)べきかは直ちには明らかではない。
説明された整列ジレンマ(alignment dilemma)に対する解決策の一例として、図3は、第1の画像(以後、「目標画像」と呼ばれる)を、複数の他の画像(以後、データベースに格納される画像のような(「格納された画像」と呼ばれる)と比較する処理300を示すフローチャート図である。1つの実施例では、処理300は、コンピューターにより実施される画像アナライザー/プロセッサー(例えば、図1の中の14)によって行われる。例として、クラスター/バケツ特徴が目標画像と格納された画像とについて生成された(そして格納された)と仮定する。また、例として、比較変数がクラスター/バケツ特徴について生成された(そして格納された)と仮定する。
ブロック302によれば、各保存された画像について、目標画像からの各クラスター/バケツ特徴は、例えば特徴ベクトルにおける変数を比較することにより、保存された画像において最も近い特徴に一致される。1つの実施例では、これは、目標画像のすべての特徴と保存された画像のすべての特徴との間のユークリッド距離をとり、次に、最小の距離を備えたものをとることにより行われる。オプションとして、この動作はすべての変数が等しいと考えられるとは限らないように、重み付けをするスキームを課するように構成することができる。
ブロック304によれば、目標画像からの整列した特徴は、保存された画像からのベクトルと一致する順で1つの大きなベクトルに書き出される。ブロック306によれば、各保存された画像ベクトルとその対応する目標画像ベクトルとの間で差が計算される。ブロック308によれば、最小距離を備えた保存された画像は、最も近い一致する画像として選択される。
したがって、「異なる」特徴ベクトルは、各保存された画像との比較をサポートするために、目標画像について計算される(特徴の順序は異なる)。これにより、1つの重み行列がすべての保存された画像に対して利用されることが可能になる。その順序は、例として、目標画像が変化する場合に(すなわち、異なる整列により)変わる。これは、各保存された画像の異なる重みベクトルを生成することを意味する。1組の画像に対するトレーニングは、検出の最も高い可能性を与える。
当業者であれば、本発明の範囲から逸脱することなく、他の比較アルゴリズムを利用することができることを認識するであろう。例えば、説明された平面ベクトル手法ではなく、最も近い一致が最も一致する変数を有することにより最も多くの点を記録する保存された画像であるような、「ポイント」システムを実施することができる。これは本発明の範囲内で考慮されるべき他の多くの可能な比較スキームのうちの1つにすぎない。
この点において、クラスター/バケツ特徴比較処理において考慮することができる変数のうちのいくつかを精査する価値があり得る。言及された変数のうちの1つは平均の勾配角度であった。1つの実施例では、勾配角度は、例えば、水平の勾配の大きさで除算された垂直の勾配の大きさの逆タンジェントを使用して、ピクセルごとに計算される(その後、変数をサポートするために平均される)。当該逆タンジェントは次のように表すことができる:
Atan(gradMagY[i]/gradMagX[i]) 式1
考慮に入れることができる別の変数は平均色強度である。説明されたように、クラスター/バケツ特徴へのピクセルの割り当ては、例として、各色チャネルについて行われる。真ん中に緑色のボールのあるテーブルの画像及び同じテーブルであるが真ん中に青色のボールのある別の画像を想像することができる。2つの画像は非常に類似しているが、ボールの色が異なる。処理中、赤色チャネルにおいては、ボールに対応する勾配はない。青色チャネルには青色ボールの勾配があり、緑色チャネルには緑色のボールの勾配がある。処理が異なる色チャネル内で生じるので、処理200は、色の差を検出する。1つの実施例では、各クラスター/バケツについて、平均色強度(すなわち、平均の緑色強度、平均の青色強度及び平均の赤色強度)が各色チャネルに対して追跡される。1つの実施例では、平均色強度は、(勾配画像とは対照的に)元の画像内の個々のピクセルの色に基づく。
クラスター/バケツ特徴の標準偏差は、例として、機能内に含まれるピクセルの分散の表示である。例えば、標準偏差は、特定の機能が画像の全体にわたるピクセルを含むことを示してもよい(すなわち、比較的高い標準偏差)。言いかえれば、当該機能は、比較的遠く離れており、散在しているピクセルを含む。標準偏差が小さい場合、それは画像内でそれらのピクセルが実際にともにグループ化されていることを意味する(例えば、テーブルの真ん中にあるボールを形成する明るい赤色ピクセル)。
1つの実施例では、画像を比較するために使用される追加の測定は特徴ベクトル自体のサイズである。例えば、すべての色チャネルにわたって画像Aが10のクラスター/バケツ特徴(すなわち、10の異なる勾配の大きさの値の)を有すると想像することができる。各クラスターは、例として9つの変数(勾配、平均角度、クラスター中のピクセル数、平均色、平均色標準偏差、重心X、重心Y、標準偏差x、標準偏差y)を含む。その後、画像Aについて記述する全体の特徴ベクトルは、90(例えば、9×10=90)のサイズを有する。ここで、画像Bがすべての色チャネルにわたって30のクラスター/バケツ特徴を有していると想像することができる。その特徴ベクトルは、その結果、はるかに大きな300である。ベクトルサイズのこの差にもかかわらず、一致アルゴリズムは、それでもなお、例として、画像Aからの特徴を画像Bからの特徴とうまく調和させるように試みる(特に、Bにおける同じ機能がAにおける同じ機能に複数回一致することができる)。しかし、1つの実施例では、追加の特徴のサイズの値は、一致処理において計算され考慮される。1つの実施例では、特徴のサイズ(feature size)の値は次のように計算される:
FeatureSize=fvlA−fvlB/max(fvlA,fvlC) 式2
ここで、fvlAは特徴ベクトルAの長さ、fvlBは特徴ベクトルBの長さ、fvlCは特徴ベクトルCの長さである。機能のサイズは、例として、ユークリッド距離に加えられ、シーン同士の間で計算される。したがって、全体の特徴ベクトルのサイズの不一致が大きくなるほど、画像はより大きく「離れる」。実際的見地から言えば、これは、相対的な画像複雑度の良い指標である(例えば、勾配を持たない画像はほとんどクラスター/バケツ特徴を有さず、したがって、多くの勾配及びクラスター/バケツ特徴を有する画像とそれがよく一致しないことが迅速に決定できる)。
所与の画像は、任意の数のピクセル、おそらくは300,000又はそれより多くのピクセルをも含むことができる。本発明は、画像比較目的のために多くの個々のピクセル特性を分析しなければならないという処理負担を回避する。代わりに、比較的少数のクラスター/バケツ特徴の特性が比較処理をサポートする。多くのピクセルを含む画像は、少数のクラスター/バケツ特徴、例えば、1つの色チャネルあたり10の特徴、にまで低減される。その後、少数の追跡される変数は、各機能について導出される。したがって、これは、正確で効率的な画像比較処理をサポートする比較的少数のデータ点につながる。
図4は例示的なユーザー・インターフェース400である。インターフェース400は、画像比較処理200及び300を適用するシステムのどの一部がユーザーの視点からのように見え得るかを示す。実例のみの目的で、同時に得られた目標画像を保存された画像のデータベースと比較するためにシステムが適用されていると仮定される。
目標画像を3つの異なる保存された画像(例えば、データベースにおいて最も近い一致した3つの画像)と比較した結果に関連したデータが図4に含まれる。ボックス402、404及び406は各々、3つの画像(保存された画像あたり1つの勾配画像)のうちの1つに関連した勾配画像の表現を含む。ボックス408、410及び412は各々、3つの画像を目標画像と比較する処理の間に導出された統計(保存された画像ごとに1組の統計)の図的表現を含む。
各々のボックス408、410及び412は、10本の異なるバーを備えたチャートを含む。第1の9つのバーの各々は異なる特徴変数によってラベル付けされ、各特徴変数はクラスター/バケツ特徴の特性である。特に、9つの特性は、領域(例えば、特徴に含まれるピクセル数)、角度(例えば、特徴におけるピクセルにわたる平均勾配角度)、大きさ(例えば、特徴におけるピクセルの平均の大きさ)、色(例えば、特徴におけるピクセルの平均色)、色標準偏差、X軸に対する標準偏差、Y軸に対する標準偏差、X軸に対する傾斜(skew)、及びY軸に対する傾斜を含む。
ボックス408、410及び412の各々において、9つの特徴のうち各々について、誤差値はその値のバー表現(bar representation)と共に提供される。誤差値は、例として、その特性について、関連する格納された画像が目標画像と比較される(例えば、図3に関連して説明される処理などのクラスター/バケツ特徴の整列を最適化するためのアルゴリズムに従って比較される)ときに生成される誤差を表す。バーが高くなるほど(すなわち、誤差値が大きくなるほど)、目標画像と比較して、格納された画像についてより大きな誤差が存在したことになる。
したがって、目標シーンと最も緊密に一致する画像は、最も小さなバー(すなわち、最も小さな誤差)を備えた画像である。図4に示される例の場合には、目標シーンは、ボックス408に関連した保存された画像(すなわち、「WallWithMouse」という名のシーン)に最も近い。ボックス408、410及び412の各々に含まれる10番目の値/バーは、現在のシーンと保存されたシーンの各々との間のクラスター/バケツ特徴の数の差を表すことに留意すべきである。
ユーザー・インターフェース400は、一群の制御(collection of controls)を含む領域420を含んでいる。特徴特性/変数が比較処理において等しい重みを必ずしも与えられないように、制御部は、例として、ユーザーが機能特徴/変数(例えば、ボックス408、410及び412に示される10の変数)を操作することを可能にする。ユーザー・インターフェース400はまた、ユーザーが大きさしきい値(例えば、クラスター/バケツ特徴を形成する処理に課されるべき最小の勾配しきい値)を選択的に課することができる領域422を含む。領域422はまた、ユーザーが特徴範囲(feature radius)に関連する要求を課することを可能にする。もちろん、当業者であれば、インターフェース400が、制御及びデータ表現がユーザーにどのように提示され得るかについての多くの例のうちの1つにすぎないことを認識するであろう。他の制御及び/又はデータ表現を準備する構成は確実に本発明の範囲内にある。
図5は、実施例が実施され得る適切なコンピューター・システム環境500の例を示す。コンピューター・システム環境500は、適切なコンピューター環境の1つの例にすぎず、特許請求された主題の使用又は機能の範囲に関していかなる限定も示唆するようには意図されない。また、コンピューター環境500は、例示的な動作環境500に示されたコンポーネントの任意の1つ又はそれらの組み合わせに関連する従属性又は要件を有しているものとも解釈されるべきでない。
実施例は、多数の他の汎用もしくは専用のコンピューター・システム環境又な構成により使用可能である。様々な実施例による使用に適した周知のコンピューター・システム、環境及び/又は構成は、パーソナル・コンピューター、サーバー・コンピューター、ハンドヘルド装置もしくはラップトップ・デバイス、マルチプロセッサー・システム、マイクロプロセッサー・ベースのシステム、セットトップ・ボックス、プログラム可能な家電、ネットワークPC、ミニコンピューター、メインフレーム・コンピューター、電話システム、上述のシステムもしくは装置の任意のものを含む分散コンピューティング環境などを含むがこれらに限定されない。
本明細書において、実施例は、コンピューターによって実行されるプログラム・モジュールなどのコンピューター実行可能命令の一般的なコンテキストにおいて説明された。一般に、プログラム・モジュールは、特定のタスクを実行するか又は特定の抽象データ型を実施するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。実施例は、通信ネットワークを介してリンクされる遠隔処理装置によってタスクが行われる分散コンピューティング環境において実行することができる。分散コンピューティング環境において、プログラム・モジュールは、記憶装置デバイスを含むローカル・コンピューター記憶媒体及びリモート・コンピューター記憶媒体の両方(又はそのいずれか)に配置することができる。
図5を参照すると、いくつかの実施例を実施するための例示的なシステムは、コンピューター510の形式の汎用の計算装置を含む。コンピューター510のコンポーネントは、演算処理装置(processing unit)520、システム・メモリー530、及び演算処理装置520にシステム・メモリーを含む様々なシステム・コンポーネントを結合するシステム・バス521を含み得るが、これらに限定されない。
コンピューター510は、通常、様々なコンピューター読み取り可能な媒体を含む。コンピューター読み取り可能な媒体は、コンピューター510によってアクセスすることができ、揮発性及び不揮発性の媒体、取り外し可能及び取り外し不能の媒体を含む任意の利用可能な媒体とすることができる。限定ではなく例として、コンピューター読み取り可能な媒体はコンピューター記憶媒体及び通信媒体を含んでもよい。コンピューター記憶媒体は、コンピューター読み取り可能な命令、データ構造、プログラム・モジュール又は他のデータなどの情報の記憶のための任意の方法又は技術において実施される、揮発性及び不揮発性の媒体、取り外し可能及び取り外し不能の媒体を含む。コンピューター記憶媒体は、RAM、ROM、EEPROM、フラッシュ・メモリーもしくは他のメモリー技術、CD−ROM、デジタル・バーサタイル・ディスク(DVD)もしくは他の光学ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置もしくは他の磁気記憶装置、又は所望の情報を格納するために使用することができコンピューター510によってアクセスすることができる任意の他の媒体を含むがこれらに限定されない。通信媒体は、通常、コンピューター読み取り可能な命令、データ構造、プログラム・モジュール又は他のデータを、搬送波又は他の移送機構などの変調データ信号に具体化し、任意の情報配信媒体を含む。「変調データ信号」なる語は、その特徴の1つ以上を有するか又は信号内に情報を符号化する方法において変化された信号を意味する。限定ではなく例として、通信媒体は、有線ネットワークもしくは直接の有線接続などの有線媒体、及び、音響、RF、赤外線及び他の無線媒体などの無線媒体を含む。上記のもののうちの任意のものの組み合わせもまたコンピューター読み取り可能な媒体の範囲内で含まれるべきである。
システム・メモリー530は、コンピューター記憶媒体を、読み出し専用メモリー(ROM)531及びランダム・アクセス・メモリー(RAM)532などの揮発性及び/又は不揮発性のメモリーの形式で含む。起動中などにコンピューター510内の要素間で情報を転送するのを助ける基本ルーチンを含む基本入出力システム533(BIOS)は、通常、ROM531に格納される。RAM532は、通常、演算処理装置520にすぐにアクセス可能であり及び/又は演算処理装置520によって現在動作されているデータ及び/又はプログラム・モジュールを含む。限定ではなく例として、図5は、オペレーティング・システム534、アプリケーション・プログラム535、他のプログラム・モジュール536及びプログラム・データ537を示す。アプリケーション535は、処理200及び300と同一又は類似の機能を実施するアナライザー/プロセッサーであり得る、画像アナライザー/プロセッサーを含むものとして示される。これは、コンピューター・システムのコンテキストにおける本発明の実施例の可能な実施の1つの例にすぎない。
コンピューター510はまた、他の取り外し可能/取り外し不能、揮発性/不揮発性のコンピューター記憶媒体を含んでもよい。一例として、図5は、取り外し不能で不揮発性の磁気媒体から読み出しをするか又は当該媒体へ書き込みをするハードディスクドライブ541、取り外し可能で不揮発性の磁気ディスク552から読み出しをするか又は当該媒体へ書き込みをする磁気ディスク装置551、及びCD ROM又は他の光学的媒体などの取り外し可能で不揮発性の光ディスク556から読み出しをするか又は当該光ディスクから読み出しをするか又は当該媒体へ書き込みをする光ディスクドライブ555を示す。例示的な動作環境において使用することができる他の取り外し可能/取り外し不能な、揮発性/不揮発性のコンピューター記憶媒体は、磁気カセットテープ、フラッシュ・メモリー・カード、デジタル・バーサタイル・ディスク、デジタル・ビデオ・テープ、固体RAM、固体ROMなどを含むがこれらに限定されない。ハードディスクドライブ541は、通常、インターフェース540などの取り外し不能なメモリー・インターフェースを介してシステム・バス521に接続され、磁気ディスクドライブ551及び光ディスクドライブ555は、通常、インターフェース550などの取り外し可能なメモリー・インターフェースを介してシステム・バス521に接続される。
既に議論され図5に示された駆動装置及びそれらの関連するコンピューター記憶媒体は、コンピューター510のため、コンピューター読み取り可能な命令、データ構造、プログラム・モジュール及び他のデータについての記憶装置を提供する。図5において、例えば、ハードディスクドライブ541は、オペレーティング・システム544、アプリケーション・プログラム545、他のプログラム・モジュール546及びプログラム・データ547を格納するものとして示される。これらのコンポーネントがオペレーティング・システム534、アプリケーション・プログラム535、他のプログラム・モジュール536及びプログラム・データ537と同じであるか又はこれらと異なることに留意されたい。オペレーティング・システム544、アプリケーション・プログラム545、他のプログラム・モジュール546及びプログラム・データ547は、少なくとも、それらが異なるコピーであることを示すために、ここでは異なる参照番号を与えられる。アプリケーション545は画像アナライザー/プロセッサーを含むものとして示され、それは処理200及び300と同一であるか又は類似する機能を実施するアナライザー/プロセッサーであってもよい。これは、コンピューター・システムのコンテキストにおける本発明の実施例の可能な実施の1つの例にすぎない。
ユーザーは、キーボード562、及びマウス、トラックボール又はタッチパッドなどのポインティング・デバイス561などの入力装置を介してコンピューター510へコマンド及び情報を入力することができる。他の入力装置(図示せず)は、ジョイスティック、ゲーム・パッド、マイクロホン、衛星放送アンテナ、スキャナーなどを含んでもよい。これら及び他の入力装置は、しばしば、システム・バスに結合されるユーザー入力インターフェース560を介して演算処理装置520に接続されるが、並列ポート、ゲームポート又はユニバーサル・シリアル・バス(USB)などの他のインターフェース及びバス構造によって接続されてもよい。モニター591又は他の種類のディスプレイ装置はまた、ビデオ・インターフェース590などのインターフェースを介してシステム・バス521に接続される。モニターに加えて、コンピューターはまた、スピーカー597及びプリンター596などの他の周辺出力装置を含んでもよく、これらは出力周辺インターフェース595を介して接続されてもよい。
コンピューター510は、リモート・コンピューター580などの1つ以上のリモート・コンピューターへの論理接続を使用して、ネットワーク化された環境中で動作される。図5に示された論理接続は広域ネットワーク(WAN)573であるが、さらに又はこれに代えて他のネットワークを含んでもよい。コンピューター510は、インターネットなどのWAN573を介して通信を確立するために、モデム572又は他の手段を含む。モデム572は、内蔵のものでも外付けのものでもよいが、ユーザー入力インターフェース560又は他の適切な機構を介してシステム・バス521に接続されてもよい。リモート・コンピューター580はリモート・アプリケーション585を動作するものとして示される。アプリケーション585は画像アナライザー/プロセッサーを含むものとして示され、それは処理200及び300と同一又は類似する機能を実施するアナライザー/プロセッサーであってもよい。これは、コンピューター・システムのコンテキストにおける本発明の実施例の可能な実施の1つの例にすぎない。
本発明の主題は、構造的特徴及び/又は方法論的な動作に特有の言葉で説明されたが、添付の特許請求の範囲において定義される主題が上述の特定の特徴又は動作に必ずしも限定されないことは理解されるべきである。より正確に言えば、上述の特定の特徴及び動作は、請求項を実施する例示的な形式として開示されるものである。

Claims (19)

  1. コンピューターにより実施される画像処理方法であって、
    第1の画像に関連付けられた一群の勾配データを生成するステップと、
    前記一群の勾配データに反映されるように、勾配の大きさに基づいて、前記第1の画像内のピクセルをクラスター特徴の組へ割り当てるステップと、
    前記クラスター特徴の組を格納するステップと
    前記クラスター特徴の組のうちの各クラスター特徴について、該クラスター特徴内のピクセルに基づく1つ又は複数の変数を含む特徴ベクトルを生成するステップと、
    前記第1の画像について、特徴ベクトル全体のサイズを求めるステップと
    を含む方法。
  2. 前記割り当てるステップは、所与のクラスター特徴中のピクセルが同一又は実質的に類似する勾配の大きさを有するようにピクセルを割り当てるステップを含む請求項1に記載の方法。
  3. 第2の画像に関連付けられた第2の一群の勾配データを生成するステップと、
    前記第2の一群の勾配データに反映されるように、勾配の大きさに基づいて、第2の画像内のピクセルをクラスター特徴の第2の組へ割り当てるステップと、
    前記第2の組のクラスター特徴を格納するステップと
    前記第2の組のクラスター特徴のうちの各クラスター特徴について、該クラスター特徴内のピクセルに基づく1つ又は複数の変数を含む特徴ベクトルを生成するステップと、
    前記第2の画像について、特徴ベクトル全体のサイズを求めるステップと、
    前記第1の画像の特徴ベクトル全体のサイズと前記第2の画像の特徴ベクトル全体のサイズとを比較することにより、前記第1の画像を前記第2の画像と比較するステップ
    をさらに含む請求項1に記載の方法。
  4. 前記第2の組のクラスター特徴と比較して第1の組のクラスター特徴を評価することにより、前記第1の画像を前記第2の画像と比較するステップをさらに含む請求項3に記載の方法。
  5. 前記第2の組のクラスター特徴と比較して第1の組のクラスター特徴を評価するステップは、第1の統計的変数を第2の統計的変数に対して評価するステップを含み、前記第1の統計的変数は、前記第1の組のクラスター特徴の一部である第1のクラスター特徴に含まれるピクセルの特性を示し、前記第2の統計的変数は、前記第2の組のクラスター特徴の一部である第のクラスター特徴に含まれるピクセルの特性を示す請求項4に記載の方法。
  6. 前記第1の統計的変数は、前記第1のクラスター特徴におけるすべてのピクセルにわたって平均を決定することにより計算される特性を示す請求項5に記載の方法。
  7. 前記第1の画像を前記第2の画像と比較するステップは、クラスター特徴の類似性に基づいて、前記第1の組におけるクラスター特徴を前記第2の組におけるクラスター特徴と整列させるステップを含む請求項3に記載の方法。
  8. 前記組における各クラスター特徴について、前記クラスター特徴に含まれるピクセルの特性を示す統計的変数の組を計算して格納するステップをさらに含む請求項1に記載の方法。
  9. 前記統計的変数の組は前記クラスター特徴におけるピクセル数を示す領域変数を含む請求項8に記載の方法。
  10. 所定の距離より互いに離れた2つのピクセルが異なるクラスター特徴へ割り当てられる請求項に記載の方法。
  11. 前記統計的変数の組は前記クラスター特徴内のピクセルを集合的に示す平均勾配角度変数を含む請求項8に記載の方法。
  12. 前記統計的変数の組は傾斜変数を含む請求項8に記載の方法。
  13. 前記統計的変数の組は標準偏差変数を含む請求項8に記載の方法。
  14. 画像認識を実行するコンピューターにより実施される方法であって、
    一群のピクセルを取得するステップと、
    勾配の大きさに基づいて、前記一群のピクセルにおけるピクセルのうちの少なくともいくつかを1組のクラスター特徴へグループ化するステップと、
    前記組における各クラスター特徴について、前記クラスター特徴におけるピクセルの集合的な特性を表す生成する統計的変数を生成するステップと、
    前記組における各クラスター特徴について、前記統計的変数を含む特徴ベクトルを生成するステップと、
    前記一群のピクセルについて、特徴ベクトル全体のサイズを求めるステップと、
    前記一群のピクセルを異なる一群のピクセルと比較する基準として前記特徴ベクトル全体のサイズを利用するステップと
    を含む方法。
  15. 前記一群のピクセルを異なる一群のピクセルと比較する基準として前記統計的変数を利用するステップを含む請求項14に記載の方法。
  16. 前記統計的変数を利用するステップは、前記組におけるクラスター特徴を、前記異なる一群のピクセルに関連付けられる異なる組におけるクラスター特徴と比較するステップを含む請求項15に記載の方法。
  17. 前記統計的変数を生成するステップは前記クラスター特徴に含まれるピクセルの平均色を生成するステップを含む請求項14に記載の方法。
  18. 前記統計的変数を生成するステップは前記クラスター特徴に含まれるピクセルの平均の位置を生成するステップを含む請求項14に記載の方法。
  19. 前記統計的変数を生成するステップは前記クラスター特徴に含まれるピクセル数を生成するステップを含む請求項14に記載の方法。
JP2010539917A 2007-12-24 2008-12-20 不変の視覚場面及び物体の認識 Active JP5261501B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/963,858 2007-12-24
US11/963,858 US8036468B2 (en) 2007-12-24 2007-12-24 Invariant visual scene and object recognition
PCT/US2008/087866 WO2009082719A1 (en) 2007-12-24 2008-12-20 Invariant visual scene and object recognition

Publications (2)

Publication Number Publication Date
JP2011508323A JP2011508323A (ja) 2011-03-10
JP5261501B2 true JP5261501B2 (ja) 2013-08-14

Family

ID=40788718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010539917A Active JP5261501B2 (ja) 2007-12-24 2008-12-20 不変の視覚場面及び物体の認識

Country Status (6)

Country Link
US (2) US8036468B2 (ja)
EP (1) EP2235680A4 (ja)
JP (1) JP5261501B2 (ja)
KR (1) KR101548928B1 (ja)
CN (1) CN101911116B (ja)
WO (1) WO2009082719A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100246688A1 (en) * 2009-03-26 2010-09-30 Apple Inc. Blind noise analysis for video compression
JP5272890B2 (ja) * 2009-05-21 2013-08-28 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9164131B2 (en) * 2010-05-13 2015-10-20 Tektronix, Inc. Signal recognition and triggering using computer vision techniques
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
SE536299C2 (sv) * 2011-06-08 2013-08-13 Imtt Svenska Ab Förfarande för att jämföra och identifiera likhetsgrad mellan bilder
KR101951414B1 (ko) * 2011-06-22 2019-02-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
US8655029B2 (en) * 2012-04-10 2014-02-18 Seiko Epson Corporation Hash-based face recognition system
US20140089423A1 (en) * 2012-09-27 2014-03-27 United Video Properties, Inc. Systems and methods for identifying objects displayed in a media asset
JP6322593B2 (ja) * 2015-02-24 2018-05-09 日本電信電話株式会社 画像照合装置、及び方法
US9704025B2 (en) 2015-07-31 2017-07-11 King Abdulaziz City For Science And Technology Identifying non-occluded faces by learning from partially occluded faces
US10416877B2 (en) * 2015-08-25 2019-09-17 Myscript System and method of guiding handwriting input
US10169684B1 (en) 2015-10-01 2019-01-01 Intellivision Technologies Corp. Methods and systems for recognizing objects based on one or more stored training images
CN112163121B (zh) * 2020-11-03 2021-03-23 万得信息技术股份有限公司 一种基于大数据的视频内容信息智能分析处理方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5093869A (en) * 1990-12-26 1992-03-03 Hughes Aircraft Company Pattern recognition apparatus utilizing area linking and region growth techniques
US5619593A (en) * 1991-09-12 1997-04-08 Fuji Photo Film Co., Ltd. Method for extracting object images and method for detecting movements thereof
US5604822A (en) * 1993-11-12 1997-02-18 Martin Marietta Corporation Methods and apparatus for centroid based object segmentation in object recognition-type image processing system
US5640468A (en) * 1994-04-28 1997-06-17 Hsu; Shin-Yi Method for identifying objects and features in an image
JPH07299053A (ja) * 1994-04-29 1995-11-14 Arch Dev Corp コンピュータ診断支援方法
KR0174454B1 (ko) * 1995-06-30 1999-03-20 배순훈 특징점 기반 움직임 보상에서의 에지 검출, 세선화 방법 및 장치
US5845007A (en) 1996-01-02 1998-12-01 Cognex Corporation Machine vision method and apparatus for edge-based image histogram analysis
EP0901105A1 (en) * 1997-08-05 1999-03-10 Canon Kabushiki Kaisha Image processing apparatus
US6094508A (en) * 1997-12-08 2000-07-25 Intel Corporation Perceptual thresholding for gradient-based local edge detection
KR100361244B1 (ko) * 1998-04-07 2002-11-18 오므론 가부시키가이샤 화상 처리 장치 및 방법, 화상 처리를 위한 프로그램을기억한 매체 및 검사장치
US6711293B1 (en) * 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6647131B1 (en) * 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US6576099B2 (en) 2000-03-23 2003-06-10 Cabot Corporation Oxygen reduced niobium oxides
US6694049B1 (en) * 2000-08-17 2004-02-17 The United States Of America As Represented By The Secretary Of The Navy Multimode invariant processor
JP2002170122A (ja) * 2000-09-20 2002-06-14 Hitachi Software Eng Co Ltd テクスチャ解析方法およびプログラム
US20020168091A1 (en) * 2001-05-11 2002-11-14 Miroslav Trajkovic Motion detection via image alignment
US7236632B2 (en) * 2003-04-11 2007-06-26 Ricoh Company, Ltd. Automated techniques for comparing contents of images
GB2428325B (en) 2003-10-09 2007-08-01 Univ York Image Recognition
EP1530156B1 (en) * 2003-11-07 2012-03-14 Mitsubishi Electric Information Technology Centre Europe B.V. Visual object detection
JP4121026B2 (ja) * 2004-01-21 2008-07-16 富士フイルム株式会社 撮像装置および方法並びにプログラム
US7376246B2 (en) * 2005-06-27 2008-05-20 Mitsubishi Electric Research Laboratories, Inc. Subspace projection based non-rigid object tracking with particle filters
US20070070365A1 (en) * 2005-09-26 2007-03-29 Honeywell International Inc. Content-based image retrieval based on color difference and gradient information
JP2007156626A (ja) * 2005-12-01 2007-06-21 Nissan Motor Co Ltd 物体種別判定装置及び物体種別判定方法

Also Published As

Publication number Publication date
US8406535B2 (en) 2013-03-26
KR20100098641A (ko) 2010-09-08
JP2011508323A (ja) 2011-03-10
US20110299787A1 (en) 2011-12-08
WO2009082719A1 (en) 2009-07-02
EP2235680A1 (en) 2010-10-06
CN101911116B (zh) 2013-01-02
KR101548928B1 (ko) 2015-09-02
US20090161968A1 (en) 2009-06-25
US8036468B2 (en) 2011-10-11
CN101911116A (zh) 2010-12-08
EP2235680A4 (en) 2018-03-21

Similar Documents

Publication Publication Date Title
JP5261501B2 (ja) 不変の視覚場面及び物体の認識
US11210550B2 (en) Image-based feature detection using edge vectors
KR101117837B1 (ko) 멀티 스케일 지향 패치를 이용한 멀티 이미지 특징 매칭
CN105164700B (zh) 使用概率模型在视觉数据中检测对象
CN110546651B (zh) 用于识别对象的方法、系统和计算机可读介质
JP2013508844A (ja) 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置
CN102782708A (zh) 用于图像辨识的描述符小块的快速子空间投影
JP6393230B2 (ja) オブジェクト検出方法及び画像検索システム
US20120033873A1 (en) Method and device for determining a shape match in three dimensions
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
CN116415210A (zh) 图像侵权检测方法、装置及存储介质
CN105074729A (zh) 光度边缘描述
Clark et al. Perspective correction for improved visual registration using natural features.
Tashiro et al. Super-vector coding features extracted from both depth buffer and view-normal-angle images for part-based 3D shape retrieval
JP4953211B2 (ja) 特徴抽出装置および特徴抽出方法
George et al. Real-time logo detection and tracking in video
CA3070701A1 (en) Systems and methods for processing images
CN112149507A (zh) 基于图像的无人机自主地面污染物推理与定位方法及系统
JP2018106413A (ja) 被写体識別装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130426

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5261501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250