JP5361664B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP5361664B2
JP5361664B2 JP2009251356A JP2009251356A JP5361664B2 JP 5361664 B2 JP5361664 B2 JP 5361664B2 JP 2009251356 A JP2009251356 A JP 2009251356A JP 2009251356 A JP2009251356 A JP 2009251356A JP 5361664 B2 JP5361664 B2 JP 5361664B2
Authority
JP
Japan
Prior art keywords
feature
feature quantity
cluster
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009251356A
Other languages
English (en)
Other versions
JP2011096135A5 (ja
JP2011096135A (ja
Inventor
貴之 猿田
雅人 青葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009251356A priority Critical patent/JP5361664B2/ja
Priority to US12/910,296 priority patent/US8526679B2/en
Publication of JP2011096135A publication Critical patent/JP2011096135A/ja
Publication of JP2011096135A5 publication Critical patent/JP2011096135A5/ja
Application granted granted Critical
Publication of JP5361664B2 publication Critical patent/JP5361664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像における特徴量を取り扱う技術に関するものである。
近年、工場等で行われる組立等の作業をロボットに行わせる需要が高まっている。位置および姿勢が常に一定でない作業対象物体をロボットで扱う場合、作業対象物体の位置および姿勢を計測する手段が必要となり、視覚センサはその手段として一般的によく用いられる。
より高度な組立等の作業をロボットに行わせるためには、組み立てる部品等を視覚センサを用いて認識する必要がある。古くから部品のCADデータ等の形状情報と視覚センサ等により得られる2次元もしくは3次元情報とを照合して、部品の種別および位置・姿勢を認識する研究がなされてきた。また、認識手法のひとつとして、撮像手段によって得られる対象物体の画像から抽出される特徴量をコンピュータに学習させ、入力された画像中に映る被写体物体の種別を認識する研究も活発になされてきた。
現在、工場では大量生産の時代から多品種生産の時代に対応するために、同じ生産ラインで多品種の製品を組み立てる場合があり、各組立工程において類似した部品、似て非なる部品を組み立てる必要がある。このような組立工程を自動化するためには、類似した部品、似て非なる部品を識別することが可能な認識手法が必要と考えられる。
そこで、工場内等での物品の識別や搬送を行うロボットの視覚を想定し、対象物体に対するカメラ等の視覚センサの位置・姿勢を制御して変化させることができるアクティブビジョンを用いた研究がなされている。
非特許文献1では、入力画像上に現われた認識対象物体について、各モデル物体のどの物体であるかを認識した結果を各モデルである基本確率の和で表される認識曖昧度で表現する。そして、その認識曖昧度をカメラの位置・姿勢の関数とし、その認識曖昧度を最小化するように最急降下法を用いてカメラを移動させる。
非特許文献2では、移動可能なカメラによって多方向からの画像を取得し、認識を行っている。類似物の識別では先ず、2つのCAD図形情報の差分を求めることで2つのCAD図形の異なっている部分を推定し、その部分を識別しやすいカメラの位置及び方向を決定する。そして、その位置及び方向から入力画像とCAD図形を比較することで、類似物の識別を可能にする。
非特許文献3では、対象物体の視点変動や照明変動によるアピアランス変化を固有空間上で多様体として学習する。認識時には認識結果を確率分布によって表現し、多様体上で最適化することでその物体の識別と位置・姿勢推定を行う。
特許文献1では、撮像装置が取得した2次元画像データから3次元物体を認識する際、ニューラルネットワークの認識結果を判定部に入力し、ニューロンの興奮の大きさが予め設定されたレベルより小さい場合には撮像装置の位置を変える。そして、異なる位置から3次元物体の2次元画像データを取得する。ニューロンの興奮の大きさが予め設定されたレベルより大きくなるまで、撮像位置の変更、認識、判定のプロセスを繰り返す。
特許文献2では、撮像した被写物体の画像情報と既知物体に関する3次元形状、見かけの形状、物体表面の色の知識情報との形状および色の比較に基づき、撮像した被写物体の画像情報がどのような物体をどの方向から見ている画像の情報かを判定する。そして、この判定結果より物体の形状が判別できた場合には処理を終了する。一方、判定時に画像情報が不足して物体形状が判別できない場合には、不足している画像情報を獲得するための撮像位置を求め、この位置に従って撮像機を移動させて撮像することで、不足している画像情報を補充する。
特許文献3では、撮像装置から入力される認識対象と撮像装置との間の離間距離情報から、認識装置の認識操作に適した撮像条件を算定し、その算定した条件に基づいて撮像装置の撮像動作を制御している。実施例では、ナンバープレートの車番のサイズが画像上で記憶している車番のサイズとほぼ同じ大きさになるように、車番とレンズとの離間距離、焦点距離、車番サイズ、撮像素子上での車番のサイズから、カメラの画角を算定している。
また、画像からある特徴量を抽出し、その特徴ベクトルによって張られる特徴空間にマッピングし、識別関数を学習する認識技術の研究のなかで、類似している対象物、似て非なる対象物同士を識別するための研究も多くなされている。
特許文献4では、特徴ベクトル空間内で各々の特徴ベクトルに対して近い距離にある特徴ベクトルを選出し、その選出された特徴ベクトル群に対して直交射影したときに、局所的な散在性が最も大きくなるような部分空間ベクトル空間を出力する。生成された部分空間に対して射影して識別を行うことで、紛らわしいデータの識別も従来より精度よく行うことが可能になる。
特許文献5では、類似カテゴリ識別の為に、次のような構成が示されている。即ち、着目カテゴリと類似する類似カテゴリの共分散行列の加重平均及び着目カテゴリの共分散行列を混合した部分空間の軸方向に射影して求めた分散を用いて形成した二次識別関数に基づいて類似カテゴリとの誤認識を回避している。
特許文献6では、検索(認識)の精度を維持しつつ、学習の際に保存する画像の数を抑制するために、検索(認識)対象が含まれる画像から抽出される特徴量をもちいて、特徴量空間上で検索(認識)対象が張る範囲を求める。次に、検索(認識)対象が含まれない学習画像すべてに対して特徴空間上で距離を算出し、その距離が予め設定された値の範囲内にある画像を類似画像として登録し、特徴空間中の検索(認識)対象領域(空間)と類似画像領域(空間)のみを保存しておく。
特開平5−288531号公報 特許第3154501号公報 特開2000−285198号公報 特許第3841481号 特許第3945971号 特開2003−345830号公報
西川昇、大西正輝、松本拓矢、泉正夫、福永邦雄、"カメラ位置姿勢制御を用いたモデルベース物体認識"、電学論C、118巻2号、平成10年 神代充、大崎紘一、柴田諭、清水顕、"移動可能なカメラによる画像処理と三次元CAD図形情報を組合せた認識手法に関する研究"、日本機械学会論文集66巻650号. H.Borotschnig, "Appearance-based active object recognition", Image and Vision Computing 18(2000) pp.715-727.
画像からある特徴量を抽出し、その特徴量ベクトルによって張られる特徴空間にマッピングして、識別関数を学習する認識技術の研究のなかで、類似している対象物、似て非なる対象物同士を高精度に識別することが困難であるという問題がある。
類似している対象物、似て非なる対象物をある撮像条件でとらえた画像から特徴抽出を行って特徴空間中にマッピングした場合、特徴空間中で近接する。その距離が測定誤差等より小さければ、これらは識別することはできない。その場合、撮像条件を変更して対象物体の画像を再度取得するか2次識別等の工夫が必要となる。
非特許文献1では、認識曖昧度をカメラの位置・姿勢を変数とする関数で表すことで、最急降下法によって、認識曖昧度を減少させる方向で最適化を行う。しかし、認識対象物体に対して最適な撮像装置の位置が一意に決定されるわけではない。また、変更する撮像条件のパラメータが撮像装置の位置・姿勢に限定されている。
非特許文献2では、3次元CADデータと移動可能なカメラを用いて、カメラの視点位置を変更しながら認識を行うが、限定条件が多い。対象物は認識領域にひとつだけ置かれ、鉛直上向きから一様な光が照射しているものとし、認識領域は黒く塗られており、処理の際には対象物よりも輝度値が小さくなるものとしている。また、基本的にはCADデータの幾何情報と輝度値ベースの手法で、画像から得られる特徴量を使用するものではない。また、最適なカメラ位置・姿勢を一意に決めるものでもない。
非特許文献3では、単一物体の姿勢推定のみについて言及されており、類似物、似て非なる対象物の識別・区別について述べられておらず、それらを区別する撮像条件が一意に決定される手法ではない。
特許文献1では、ニューロンの興奮の大きさがあらかじめ設定されたレベルよりも大きくなるまで、撮像装置の位置を変更して認識を繰り返すため、認識対象物体に対して最適な撮像装置の位置が一意に決定されるわけではない。また、変更する位置も認識や学習結果によって決定されるわけではない。非特許文献1と同様に変更する撮像条件のパラメータが撮像装置の位置・姿勢に限定されている。
特許文献2では、特許文献1と同様、変更する撮像条件のパラメータが撮像装置の位置に限定されている。また、実施例においては対象物体の隠れ(オクルージョン)に対応するものであり、類似物、似て非なる対象物の識別をするために撮像装置の位置を変更するといった課題を解決する方法ではない。
特許文献4、5では、類似対象物をある視点で捉えた際に見えが同一となって、画像から抽出される特徴量などがほぼ同一の場合に識別することが困難である。その場合に対象物の画像を取得するための撮像条件を変更するなどの課題を解決するものではない。
特許文献6では、特徴空間上で距離を算出し、その距離に応じて類似画像領域を特徴空間上で学習している。しかし、先の特許文献4、5と同様に、類似対象物をある視点で捉えた際に見えが同一となって、識別の際に検索(認識)画像なのか類似画像なのか区別がつかない場合について解決するものではない。
本発明は以上の問題に鑑みてなされたものであり、類似している対象物、似て非なる対象物同士を識別するために有用な技術を提供することを目的とする。
本発明の目的を達せするために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、N(N≧2)種類の撮像条件のそれぞれに基づいて撮像されたN枚の撮像画像を取得する手段と、前記N枚の撮像画像のそれぞれから特徴量を抽出し、抽出した特徴量の集合を、該特徴量の抽出元の撮像画像の撮像条件と関連付けて特徴量クラスタとして管理する管理手段と、前記管理手段が管理する第1の特徴量クラスタ中の特徴量と類似する特徴量を含む第2の特徴量クラスタを、前記管理手段が管理する特徴量クラスタ群から特定する第1の特定手段と、前記第1の特徴量クラスタ及び前記第2の特徴量クラスタから同じ撮像条件に関連付けられている特徴量を特定し、該特定した特徴量間の距離を求める第2の特定手段と、前記第2の特定手段が前記N種類の撮像条件のそれぞれについて求めた距離のうち、最も大きい距離を特定する第3の特定手段と、前記N種類の撮像条件のうち、前記第3の特定手段により特定された最も大きい距離を求めた撮像条件を、前記第1の特徴量クラスタと前記第2の特徴量クラスタとの間の識別が可能な撮像条件として出力する手段とを備えることを特徴とする。
本発明の構成によれば、類似している対象物、似て非なる対象物同士を識別するために有用な技術を提供することができる。
画像処理装置の機能構成例を示すブロック図。 計算部200が行う処理のフローチャート。 (a)、(b)は画像処理装置の外観例を示す図、(c)〜(h)は特徴空間を説明する図。 対象物識別処理のフローチャート。 画像処理装置の機能構成例を示すブロック図。 コンピュータのハードウェア構成例を示すブロック図。 画像処理装置の機能構成例を示すブロック図。 計算部200が行う処理のフローチャート。 画像処理装置の機能構成例を示すブロック図。 画像処理装置の機能構成例を示すブロック図。 (a)は計算部200が行う処理のフローチャート、(b)は識別処理のフローチャート。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
図1は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。図1に示す如く、本実施形態に係る画像処理装置は、設定された撮像条件に基づいて現実空間の撮像を行う撮像部100と、後述する様々な計算処理を行う計算部200と、で構成されている。更に計算部200は、撮像条件制御部210、画像データ保持部201、特徴量クラスタ生成部220、特徴量クラスタ保持部202、特徴空間距離算出部230、特徴空間距離保持部203、撮像条件設定部240、撮像条件保持部204を有する。
図3(a)は、本実施形態に係る画像処理装置の外観例を示す図である。図3(a)に示す如く、撮像部100は、複数台のカメラ10により構成されており、それぞれは様々な撮像条件に基づいて1つの対象物20を撮像している。この「撮像条件」には、カメラ10の位置姿勢情報に加え、対象物20に照射する照明条件、獲得する画像の解像度、カメラ10の画角、及びその組み合わせなどがある。
計算部200は、図3(a)に示す如く、一般のPC(パーソナルコンピュータ)で、後述する様々な計算処理を実行する。図6は、計算部200に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
CPU2501は、RAM2502やROM2503に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、計算部200が行うものとして後述する各処理を実行する。
RAM2502は、コンピュータ読み取り可能な記憶媒体の一例として機能するものである。RAM2502は、外部記憶装置2507からロードされたコンピュータプログラムやデータ、I/F(インターフェース)2508を介して撮像部100から取得した画像のデータを一時的に記憶するためのエリアを有する。更に、RAM2502は、CPU2501が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM2502は、各種のエリアを適宜提供することができる。ROM2503は、コンピュータ読み取り可能な記憶媒体の一例として機能するもので、コンピュータの設定データやブートプログラムなどを格納する。
操作部2504は、キーボードやマウスなどにより構成されており、ユーザが操作することで、各種の指示をCPU2501に対して入力することができる。表示部2506は、CRTや液晶画面などにより構成されており、CPU2501による処理結果を画像や文字などでもって表示することができる。
外部記憶装置2507は、コンピュータ読み取り可能な記憶媒体の一例として機能するもので、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置2507には、OS(オペレーティングシステム)や、計算部200が行うものとして後述する各処理をCPU2501に実行させるためのコンピュータプログラムやデータが保存されている。
係るコンピュータプログラムには、図1に示した撮像条件制御部210、特徴量クラスタ生成部220、特徴空間距離算出部230、撮像条件設定部240のそれぞれに対応するコンピュータプログラム(若しくは関数)が含まれている。また、係るデータには、処理対象の画像のデータや、以下の説明において既知の情報として用いるものが含まれている。即ち、外部記憶装置2507は、図1に示した画像データ保持部201、特徴量クラスタ保持部202、特徴空間距離保持部203、撮像条件保持部204としても機能することになる。
外部記憶装置2507に保存されているコンピュータプログラムやデータは、CPU2501による制御に従って適宜RAM2502にロードされ、CPU2501による処理対象となる。
I/F2508は、撮像部100を接続する為のもので、本コンピュータはこのI/F2508を介して撮像部100とのデータ通信を行う。2509は、上述の各部を繋ぐバスである。
次に、計算部200が行う処理について、図2(a)のフローチャートを用いて説明する。なお、図2(a)のフローチャートに従った処理をCPU2501に実行させるためのコンピュータプログラムは外部記憶装置2507に保存されており、CPU2501はこれをRAM2502にロードして実行する。
以下では説明上、図1に示した各部を処理の主体として説明する。しかし上記の通り、撮像条件制御部210、特徴量クラスタ生成部220、特徴空間距離算出部230、撮像条件設定部240は何れもコンピュータプログラムとして実装し、このコンピュータプログラムはCPU2501によって実行される。然るに実際には、図2(a)のフローチャートに従った処理の主体はCPU2501となる。
先ず、ステップS110では、撮像条件制御部210は、それぞれ異なる撮像条件を、撮像部100を構成するそれぞれのカメラに設定し、それぞれのカメラに対象物Aを撮像させる。本実施形態では撮像部100はN(N≧2)台のカメラで構成されているものとするので、撮像条件はカメラの台数分、即ちN種類存在することになる。そして撮像条件制御部210は、この撮像により得られるN枚の撮像画像を撮像部100から取得し、画像データ保持部201に格納する。以下では、対象物Aを撮像したN枚の撮像画像を「撮像画像群A」と呼称する。
なお、N種類の撮像条件のそれぞれに基づいて撮像されたN枚の撮像画像を取得することができるのであれば、そのための構成は1つに限定するものではなく様々な構成が考え得る。例えば、1台のカメラを移動させながら対象物Aを撮像し、それぞれ撮像条件が異なるN枚の撮像画像を取得するようにしても良い。また、図3(b)に示す如く、回転ステージ11上に対象物20を配置し、回転ステージ11を回転させながら対象物20を1台のカメラ10を用いて撮像することで、それぞれ撮像条件が異なるN枚の撮像画像を取得するようにしても良い。
次に、特徴量クラスタ生成部220は、画像データ保持部201に格納されている撮像画像群Aを読み出し、撮像画像群Aを構成するN枚の撮像画像のそれぞれから特徴量(特徴点及びその特徴点まわりを記述する特徴量)を抽出する。例えば、以下の文献1に詳述されている、SURFのような抽出された特徴点まわりの輝度勾配などの情報を記述するものでよい。
・ (文献1) H.Bay, “Speeded-Up Robust Features (SURF)”, Computing Vision and Image Understanding, Vol.110 (3) June 2008, pp.346-359.
また、以下の文献2,3に詳述されている、その他のいわゆるKeypointsなどの特徴点でも良い。
・ (文献2) E.Tola, “A Fast Local Descriptor for Dense Matching”, CVPR 2008.
・ (文献3) K.Mikolajczyk, “A Performance Evaluation of Local Descriptors”, PAMI, 27(10) 2004, pp.1615-1630.
本実施形態では、Bag−of−keypoints(Bag−of−words)のように、各特徴点から得られた特徴量(ベクトル)をベクトル量子化し、撮像画像毎にヒストグラムを作成し、そのヒストグラムをもって撮像画像から得られる特徴量とする。もちろん、特徴量については様々なものがあるので、何れか1つに限定するものではない。
これにより、撮像画像群Aのそれぞれの撮像画像から抽出した特徴量の集合を特徴量クラスタとして得ることができる。そして本実施形態では、以上説明した各処理を複数の対象物(対象物B、対象物C、…)のそれぞれについて行う。これにより、対象物A、対象物B、対象物C、…のそれぞれについて特徴量クラスタを生成することができる。特徴量クラスタは、以下のように表記することができる。
Figure 0005361664
係る式においてFmiは、対象物m(m=A、B、C、…)の撮像画像群mを構成する撮像画像i(i=1,2,…,N)から抽出された特徴量(ベクトル)を示している。例えばSURFの場合、撮像画像から特徴点を抽出し、その特徴点のスケールに従って、特徴点まわりの領域を切り出し、その領域内のx方向、y方向の勾配の和を記述子とする。あらかじめ求められたvisual words(codebook)に基づいてSURFをベクトル量子化し、撮像画像ごとにヒストグラムを作成し、これをFとする。
Φmは、撮像画像群mから抽出した特徴量Fmiの集合である。また、撮像画像毎に撮像条件は異なるので、インデックスiは、撮像条件に対するインデックスでもある。
特徴量クラスタ生成部220は、このようにして生成した特徴量クラスタを特徴量クラスタ保持部202に格納するのであるが、その際、特徴量クラスタ中のそれぞれの特徴量には、対応する撮像条件を関連付ける。即ち、特徴量Fmiには、対象物mの撮像画像iの撮像条件iと関連付ける。
図3(c)は、特徴量クラスタを特徴空間にマッピングした場合における、特徴空間を示す図である。40は特徴空間の軸を示しており、50はある対象物に対して得られた特徴量クラスタを示しており、各点は各撮像条件における撮像画像から得られた特徴量を示している。なお、カメラと対象物との相対位置・姿勢を変化させる場合などは、図3(d)に示す如く、特徴量間を補間若しくは関数近似を行い、50に示す如く、manifold(多様体)を生成してもよい。
これにより、N種類の撮像条件のそれぞれに基づいて撮像されたN枚の撮像画像を取得し、取得したN枚の撮像画像のそれぞれから特徴量を抽出し、抽出したそれぞれの特徴量を対応する撮像条件と関連付けて特徴量クラスタとして管理することができる。また、この特徴量クラスタは対象物毎に生成されるので、対象物毎に特徴量クラスタを管理することになる。なお、ステップS110における上記処理は前もって行っておき、本実施形態では、ステップS120以降の処理を開始するようにしても良い。
図2(a)に戻って次に、ステップS120では、特徴空間距離算出部230は、特徴量クラスタ保持部202から1つの特徴量クラスタ(第1の特徴量クラスタ)を取得する。そしてこの第1の特徴量クラスタ中の各特徴量について、最も類似する特徴量を含む特徴量クラスタを、特徴量クラスタ保持部202が保持する特徴量クラスタ群から特定する(第1の特定)。具体的には、特徴空間において、第1の特徴量クラスタ中の着目特徴量との距離が最小となる特徴量を含む特徴量クラスタ(第2の特徴量クラスタ)を特徴量クラスタ保持部202から特定する処理を、第1の特徴量クラスタ中のそれぞれの特徴量について行う。
図3(e)は、特徴量クラスタ50と、特徴量クラスタ51との間での特徴量間の距離60を説明する図である。なお、特徴量x1と特徴量x2との間の距離d(x1,x2)は、以下の式に従って求める。
Figure 0005361664
係る式においてnは特徴空間の全次元数を示しており、jは各次元を表すインデックスであるので、特徴量x1、特徴量x2のそれぞれのj番目の要素をx1j、x2jと表している。
そして特徴空間距離算出部230は、第1の特徴量クラスタ中の特徴量x1と最も類似する特徴量を含む第2の特徴量クラスタを指し示すポインタ値、及びこれらの特徴量間の距離を、特徴量x1と関連付けて特徴空間距離保持部203に格納する処理を行う。係る処理は、第1の特徴量クラスタ中のそれぞれの特徴量x1について行う。
なお、特徴量間の距離の代わりに、特徴量間の相関値を計算しても良い。即ち、第1の特徴量クラスタ中の着目特徴量と最も類似する特徴量を含む第2の特徴量クラスタを特定することができるのであれば、如何なる計算処理を行っても良い。図3(f)は、第1の特徴量クラスタとしての特徴量クラスタ50と第2の特徴量クラスタとしての特徴量クラスタ51との間における特徴量間の距離61の例を示す図である。なお、特徴量間の距離は、特徴量クラスタ間で計算することに限定するものではなく、特徴量クラスタ内で行うようにしても良い。
図2(a)に戻って、次に、ステップS130では、撮像条件設定部240は、特徴空間距離保持部203において第1の特徴量クラスタ中の各特徴量に関連付けられている距離を参照し、閾値以下の距離と関連付けられている特徴量を特定する。この特定した特徴量(特定特徴量)が以下の処理の対象となる特徴量である。以下では、特定特徴量のうちの1つ(着目特定特徴量)についての処理を説明するが、同様の処理は、他の特定特徴量についても行う。
撮像条件設定部240は、着目特定特徴量と関連付けられているポインタ値が指し示す特徴量クラスタを第2の特徴量クラスタとして特定する。次に撮像条件設定部240は、第1の特徴量クラスタと第2の特徴量クラスタとで同じ撮像条件に対応する特徴量を抽出する(第2の特定)。即ち、第1の特徴量クラスタにおいて撮像条件iに関連付けられている特徴量FAiと第2の特徴量クラスタにおいて撮像条件iに関連付けられている特徴量FBiとのセットiを取得する処理をi=1〜Nについて行う。そしてi=1〜Nについて、セットi中の特徴量間の距離を求め、求めた距離が最大となるセットjを特定する(第3の特定)。係るjは、以下の式を用いて求めることができる。
Figure 0005361664
係る式においてXは着目特定特徴量の集合を示している。そして撮像条件設定部240は、セットj中の特徴量FBjと関連付けられている撮像条件jを、着目特定特徴量について、第1の特徴量クラスタと第2の特徴量クラスタとの間の識別が可能な撮像条件として撮像条件保持部204に格納(出力)する。もちろん、セットj中の特徴量間の差分を、着目特定特徴量について、第1の特徴量クラスタと第2の特徴量クラスタとの間の識別が可能な撮像条件として撮像条件保持部204に格納(出力)しても良い。
図3(g)は、第1の特徴量クラスタと第2の特徴量クラスタとの間でのステップS130における処理を説明する図である。第1の特徴量クラスタ50中の着目特徴量との距離が最小の特徴量を含む特徴量クラスタが第2の特徴量クラスタ51であり、その距離は62で示されている。70は、セットj中のそれぞれの特徴量間の距離を示している。
なお、以上説明したステップS130における処理は、撮像条件の種別に関係なく一般的なものである。ここで、撮像部100と対象物との相対姿勢を撮像条件とする場合を例に取り、ステップS130における処理の詳細について説明する。
撮像条件設定部240は、θを視点(相対姿勢)、視点θで得られる特徴量をF(θ)、視点変化量をΔθで示すと、F1(θ1)とF2(θ2)との間の識別が可能な相対姿勢の角度移動量Δθは以下の式を解くことにより決定される。特徴空間中で近接する各特徴量が得られる視点をθ1、θ2とおき、視点の組みあわせの集合をA’とおくと、以下の式が成り立つ。
Figure 0005361664
次に、対象物の画像から上記の処理により学習された特徴量クラスタおよび設定された撮像条件を用いた対象物識別処理について、同処理のフローチャートを示す図4を用いて説明する。なお、図4のフローチャートに従った処理をCPU2501に実行させるためのコンピュータプログラムやデータは、外部記憶装置2507に保存されており、CPU2501はこれをRAM2502にロードして処理を実行する。もちろん、係る処理は、他の装置が行っても良い。
先ずステップS1001では、対象物が映っている画像から特徴量を抽出する。抽出する特徴量は上記ステップS110で取り扱った特徴量と同じである。次にステップS1002では、上記ステップS110で生成した特徴量クラスタとの特徴空間における距離に基づいて、ステップS1001で抽出された特徴量を識別する。識別方法は特徴空間における距離が最も小さい特徴量を選ぶこととする。この特徴量クラスタ上の特徴量を1次識別特徴量とする。
次に、ステップS1003では、上記ステップS1002において識別された1次識別特徴量に付与されている撮像条件を参照する。1次識別特徴量に付与されている撮像条件がない場合、その1次識別特徴量と近接する特徴量は存在しないので、識別処理を終了する。一方、付与されている撮像条件がある場合、1次識別特徴量と近接する特徴量が存在するので、撮像条件を変更して2次識別を行うために処理をステップS1004に進める。この1次識別特徴量と近接する特徴量を近接特徴量とする。
次に、ステップS1004では、上記ステップS1003において参照された撮像条件に従って、撮像条件を変更する。たとえば、識別された1次識別特徴量に視点位置が付与されている場合、対象物を撮像するカメラの位置もしくは対象物を移動して画像を獲得し、特徴量を抽出する。
次に、ステップS1005では、上記ステップS1004において抽出された特徴量を識別する。識別方法は、上記ステップS1002において識別された1次識別特徴量と近接特徴量とをそれぞれ撮像条件を変更した場合に得られる特徴量との距離に基づいて、2次識別を行う。
[第2の実施形態]
本実施形態は、上記ステップS120及びステップS130における処理のみが第1の実施形態と異なり、その他については第1の実施形態と同様である。本実施形態のステップS120では、第1の特徴量クラスタ中の着目特徴量と、第1の特徴量クラスタ中のそれ以外の特徴量との間の距離求める処理を、第1の特徴量クラスタ中のそれぞれの特徴量について行う。これにより、同じ対象物を違う撮像条件で撮像した場合に得られる撮像画像群から抽出される特徴量が特徴空間内で近接していても、識別することができる撮像条件を付与することができる。図3()において63は、1つの特徴量クラスタ50の中で近接する特徴量群を示している。これにより、たとえば、カメラと対象物体との相対姿勢を変数とする特徴量クラスタを生成した場合、対象物の姿勢を識別することに有用な撮像条件を付与することが可能となる。
次に、ステップS130では、ステップS120で求めた距離のうち、閾値以下の距離を求めた特徴量i、特徴量jのセットを特定する。そして特定したセット中のそれぞれの特徴量に対応する撮像条件を、これらの特徴量i、jと関連付けて撮像条件保持部204に格納する。
なお、撮像条件を設定する際に、現在の撮像条件からの変化が定義できる撮像条件であることが望ましい。たとえば、カメラと対象物体との間の相対位置・姿勢変化を定義すれば解くことができる。近接する特徴量のカメラと対象物体との間の相対位置・姿勢から、同じ変化量を与えて得られる特徴量同士の距離があらかじめ設定したしきい値より大きい特徴量ベクトルの組を選択する。ここでは特徴量ベクトル間の距離が最大となる特徴量の組を与える撮像条件を設定するとして、θを視点、視点θで得られる特徴量ベクトルをF(θ)および視点変化量をΔθ’で示すと、Δθ’は以下の式を解くことにより決定される。特徴空間中で近接する特徴量ベクトルが得られる視点をθ1、θ2とおき、視点の組みあわせの集合をBとおく。
Figure 0005361664
対称物のような場合、複数姿勢で同じ見えとなる場合やある区間で同じ見えとなる場合がある。ある特徴量に対して距離があらかじめ設定されたしきい値より小さい特徴量がk個ある場合は、Δθ’は以下の式を解くことにより決定される。
Figure 0005361664
近接する特徴量の分布が一次元分布としてθ1からθkまでの区間で与えられるとすれば、Δθ’は以下の式を解くことにより決定してもよい。
Figure 0005361664
[第3の実施形態]
図5は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。図5に示した構成は、図1に示した計算部200に特徴量クラスタ選択部250、選択特徴量クラスタ保持部205を加えた構成となっている。図2(b)は、本実施形態に係る計算部200が行う処理のフローチャートである。なお、以下に説明する点以外については、第1の実施形態と同じであるものとする。
図2(b)においてステップS220では、特徴空間距離算出部230は、特徴量クラスタ保持部202に管理されている特徴量クラスタ間で、特徴量間の距離を求める。そして特徴空間距離算出部230は、それぞれの特徴量クラスタに対して、特徴量間の最小距離を求めた他特徴量クラスタへのポインタ値、及びこの最小距離、を関連付けて、特徴空間距離保持部203に登録する。
次にステップS230では、特徴量クラスタ選択部250は、ステップS220において閾値以上の距離と関連付けた第1の特徴量クラスタ、及び第1の特徴量クラスタに関連付けられているポインタ値が指し示す第2の特徴量クラスタを特定(選択)する。そして選択した第1の特徴量クラスタ、第2の特徴量クラスタを、選択特徴量クラスタ保持部205に格納する。なお、選択する前に、距離以外にさまざまな撮像条件で特徴量が安定して得られている、撮像条件の変化によって特徴量が変化するなどの指標で特徴量クラスタを選別してもよい。
そしてステップS240では第1の実施形態と同様、撮像条件設定部240は、第1の特徴量クラスタと第2の特徴量クラスタとで同じ撮像条件に対応する特徴量を抽出する。そして、抽出した特徴量間の距離を求め、求めた距離が最大となる特徴量のセットを特定する。以降については第1の実施形態と同様である。撮像条件を設定する場合の距離のしきい値はあらかじめ設定しておく。この処理により選択された特徴量クラスタの中からより有用な特徴量を選択する。また、識別時の処理については、第1の実施形態と同じである。しかし、ステップS1001では、ステップS230において選択された特徴量のみを抽出する。
[第4の実施形態]
本実施形態では、特徴空間中の距離に基づいて特徴量クラスタ同士を識別するのに有用な撮像条件(特徴量)を設定したあと、その設定された撮像条件も加味して特徴量クラスタを選択する。識別時の処理については第3の実施形態と同じである。
図9は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。図9に示した構成は、図1に示した計算部200に特徴量クラスタ選択部260、選択特徴量クラスタ保持部206を加えた構成となっている。図8(b)は、本実施形態に係る計算部200が行う処理のフローチャートである。なお、以下に説明する点以外については、第1の実施形態と同じであるものとする。
ステップS340では、ステップS120で算出された距離、ステップS130で設定された撮像条件に基づいて識別に有用な特徴量クラスタを選択する。例えば、特徴量クラスタ内の特徴量に付与されている距離および撮像条件、撮像条件を変化させた場合の特徴量同士の距離を重みつけ加算し、その値から決定されるスコアから(例えばスコアの大きい)特徴量クラスタを選択する。
[第5の実施形態]
本実施形態では、特徴空間中の距離に基づいて、撮像条件ごとに特徴量を選択する。特徴量が選択されなかった撮像条件については、特徴量に別の対象物間の識別が可能な撮像条件を付与する。図10は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。図11(a)は、本実施形態に係る計算部200が行う処理のフローチャートである。
ステップS430では、特徴量選択部290は、撮像条件ごとに距離があらかじめ設定されたしきい値以上の特徴量を選択し、選択した特徴量を選択特徴量保持部209に登録する。
ステップS440では、撮像条件設定部240は、選択特徴量保持部209に登録されている特徴量がない場合は、次のような処理を行う。即ち、最も距離が大きい特徴量同士の識別可能な撮像条件を、その特徴量が属する特徴量クラスタ内から、あらかじめ対象物間の識別が可能と設定された距離以上の特徴量を選択することで設定する。
次に、識別処理について、同処理のフローチャートを示す図11(b)を用いて以下説明する。まず、ステップS2201では、対象物を識別するのに有用な撮像条件に設定するか、対象物を撮像する条件を入力もしくは推定する。次にステップS2202では、上記ステップS2201で設定(入力、推定)された撮像条件に基づいて撮像された画像から特徴量を抽出する。抽出する特徴量は上記ステップS110における特徴量と同様である。
次に、ステップS2203では、上記ステップS110で生成した特徴量クラスタとの特徴空間における距離に基づいて、ステップS2202において抽出された特徴量を識別する。識別方法は特徴空間における距離が最も小さい特徴量を選ぶこととする。この特徴量クラスタ上の特徴量を1次識別特徴量とする。
次に、ステップS2204では、上記ステップS2203において識別された1次識別特徴量に付与されている撮像条件を参照する。1次識別特徴量に付与されている撮像条件がない場合、その1次識別特徴量と近接する特徴量は存在しないので、識別処理を終了する。
一方、付与されている撮像条件がある場合には、1次識別特徴量と近接する特徴量が存在するので、次のステップS2205にて撮像条件を変更して2次識別を行う。この1次識別特徴量と近接する特徴量を近接特徴量とする。
ステップS2205では、ステップS2204において参照された撮像条件に従って、撮像条件を変更する。必要であれば、画像を獲得、特徴量を抽出し、抽出された特徴量を識別する。識別方法は、上記ステップS2203において識別された1次識別特徴量と近接特徴量とをそれぞれ撮像条件を変更した場合に得られる特徴量との距離に基づいて、2次識別を行う。
[第6の実施形態]
本実施形態では、特徴空間中の距離に基づいて特徴量同士を識別するのに有用な撮像条件(特徴量)を設定したあと、その設定された撮像条件に変更したあとの特徴間の距離も加味して撮像条件ごとに識別に有用な特徴量を選択する。識別時の処理については第5の実施形態と同様である。
図7は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。図8(a)は、本実施形態に係る計算部200が行う処理のフローチャートである。ステップS540では、ステップS120で算出された距離およびステップS130で設定された撮像条件および変更後の距離に基づいて、撮像条件ごとに特徴量を選択する。その際の選択方法は、特徴量クラスタ内の特徴量に付与されている距離および撮像条件、撮像条件を変化させた場合の特徴量同士の距離を重みつけ加算し、その値から決定されるスコアから撮像条件ごとに特徴量を選択する方法などがあげられる。なお、以上説明した各実施形態は適宜組み合わせて使用しても良い。
以上説明した撮像条件設定方法は、類似している対象物、似て非なる対象物の識別のための撮像条件を特徴空間における距離に基づいて選択することで、識別可能な撮像条件を設定するものである。これにより、識別の際に、被測定対象物に類似している対象物が存在する場合、それらを識別するための撮像条件を出力し、撮像条件を変更することで2次識別を可能とする。
また、以上説明した特徴選択方法は、類似している対象物、似て非なる対象物の識別のための特徴量および撮像条件を特徴空間における距離に基づいて選択することで、識別可能な特徴量を選択、撮像条件を設定するものである。これにより、識別の際に、被測定対象物に類似している対象物が存在する場合、それらを識別するための特徴量もしくは特徴量を取得するための撮像条件を出力し、特徴量もしくは撮像条件を変更することで2次識別を可能とする。また、撮像条件があらかじめわかっている場合、あらかじめ撮像条件に対応する特徴量を選択しておけば、その特徴量を抽出することで識別を高精度に行うことができる。

Claims (9)

  1. (N≧2)種類の撮像条件のそれぞれに基づいて撮像されたN枚の撮像画像を取得する手段と、
    前記N枚の撮像画像のそれぞれから特徴量を抽出し、抽出した特徴量の集合を、該特徴量の抽出元の撮像画像の撮像条件と関連付けて特徴量クラスタとして管理する管理手段と、
    前記管理手段が管理する第1の特徴量クラスタ中の特徴量と類似する特徴量を含む第2の特徴量クラスタを、前記管理手段が管理する特徴量クラスタ群から特定する第1の特定手段と、
    前記第1の特徴量クラスタ及び前記第2の特徴量クラスタから同じ撮像条件に関連付けられている特徴量を特定し、該特定した特徴量間の距離を求める第2の特定手段と、
    前記第2の特定手段が前記N種類の撮像条件のそれぞれについて求めた距離のうち、最も大きい距離を特定する第3の特定手段と、
    前記N種類の撮像条件のうち、前記第3の特定手段により特定された最も大きい距離を求めた撮像条件を、前記第1の特徴量クラスタと前記第2の特徴量クラスタとの間の識別が可能な撮像条件として出力する手段と
    を備えることを特徴とする画像処理装置。
  2. 前記第1の特定手段は、
    前記第1の特徴量クラスタ中の各特徴量について、該特徴量最も類似する特徴量を含む特徴量クラスタを前記第2の特徴量クラスタとして特定することを特徴とする請求項1に記載の画像処理装置。
  3. (N≧2)種類の撮像条件のそれぞれに基づいて撮像されたN枚の撮像画像を取得する手段と、
    前記N枚の撮像画像のそれぞれから特徴量を抽出し、抽出した特徴量の集合を、該特徴量の抽出元の撮像画像の撮像条件と関連付けて特徴量クラスタとして管理する管理手段と、
    前記特徴量クラスタ中の着目特徴量と類似する特徴量を前記特徴量クラスタ中の該着目特徴量以外の各特徴量から特定する特定手段と、
    前記着目特徴量と関連付けられている撮像条件と、前記特定手段が特定した特徴量と関連付けられている撮像条件と、、前記特徴量クラスタの識別が可能な撮像条件として出力する出力手段と
    を備えることを特徴とする画像処理装置。
  4. 更に、
    前記距離及び前記撮像条件に基づいて、特徴量クラスタ間の識別処理で用いる特徴量クラスタを選択する手段を備えることを特徴とする請求項1又は2に記載の画像処理装置。
  5. 更に、
    前記距離及び前記撮像条件に基づいて、特徴量クラスタ間の識別処理で用いる、撮像条件ごと特徴量を選択する手段を備えることを特徴とする請求項1又は2に記載の画像処理装置。
  6. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、(N≧2)種類の撮像条件のそれぞれに基づいて撮像されたN枚の撮像画像を取得する工程と、
    前記画像処理装置の管理手段が、前記N枚の撮像画像のそれぞれから特徴量を抽出し、抽出した特徴量の集合を、該特徴量の抽出元の撮像画像の撮像条件と関連付けて特徴量クラスタとして管理する管理工程と、
    前記画像処理装置の第1の特定手段が、前記管理工程で管理する第1の特徴量クラスタ中の特徴量と類似する特徴量を含む第2の特徴量クラスタを、前記管理工程で管理する特徴量クラスタ群から特定する第1の特定工程と、
    前記画像処理装置の第2の特定手段が、前記第1の特徴量クラスタ及び前記第2の特徴量クラスタから同じ撮像条件に関連付けられている特徴量を特定し、該特定した特徴量間の距離を求める第2の特定工程と、
    前記画像処理装置の第3の特定手段が、前記第2の特定工程で前記N種類の撮像条件のそれぞれについて求めた距離のうち、最も大きい距離を特定する第3の特定工程と、
    前記画像処理装置の出力手段が、前記N種類の撮像条件のうち、前記第3の特定工程で特定された最も大きい距離を求めた撮像条件を、前記第1の特徴量クラスタと前記第2の特徴量クラスタとの間の識別が可能な撮像条件として出力する工程と
    を備えることを特徴とする画像処理方法。
  7. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、(N≧2)種類の撮像条件のそれぞれに基づいて撮像されたN枚の撮像画像を取得する工程と、
    前記画像処理装置の管理手段が、前記N枚の撮像画像のそれぞれから特徴量を抽出し、抽出した特徴量の集合を、該特徴量の抽出元の撮像画像の撮像条件と関連付けて特徴量クラスタとして管理する管理工程と、
    前記画像処理装置の特定手段が、前記特徴量クラスタ中の着目特徴量と類似する特徴量を前記特徴量クラスタ中の該着目特徴量以外の各特徴量から特定する特定工程と、
    前記画像処理装置の出力手段が、前記着目特徴量と関連付けられている撮像条件と、前記特定工程で特定した特徴量と関連付けられている撮像条件と、、前記特徴量クラスタの識別が可能な撮像条件として出力する出力工程と
    を備えることを特徴とする画像処理方法。
  8. コンピュータを、請求項1乃至5の何れか1項に記載の画像処理装置各手段として機能させるためのコンピュータプログラム。
  9. 請求項8に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2009251356A 2009-10-30 2009-10-30 画像処理装置、画像処理方法 Active JP5361664B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009251356A JP5361664B2 (ja) 2009-10-30 2009-10-30 画像処理装置、画像処理方法
US12/910,296 US8526679B2 (en) 2009-10-30 2010-10-22 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009251356A JP5361664B2 (ja) 2009-10-30 2009-10-30 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2011096135A JP2011096135A (ja) 2011-05-12
JP2011096135A5 JP2011096135A5 (ja) 2012-12-13
JP5361664B2 true JP5361664B2 (ja) 2013-12-04

Family

ID=43925487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009251356A Active JP5361664B2 (ja) 2009-10-30 2009-10-30 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US8526679B2 (ja)
JP (1) JP5361664B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5631086B2 (ja) * 2010-07-12 2014-11-26 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP5868005B2 (ja) * 2011-02-04 2016-02-24 キヤノン株式会社 撮像装置、撮像条件設定方法、プログラム
JP5806606B2 (ja) * 2011-12-01 2015-11-10 キヤノン株式会社 情報処理装置、情報処理方法
FR2983607B1 (fr) * 2011-12-02 2014-01-17 Morpho Procede et dispositif de suivi d'un objet dans une sequence d'au moins deux images
US9471847B2 (en) * 2013-10-29 2016-10-18 Nec Corporation Efficient distance metric learning for fine-grained visual categorization
JP2016139957A (ja) * 2015-01-28 2016-08-04 オリンパス株式会社 撮像装置、撮像方法及び撮像プログラム
CN104992151A (zh) * 2015-06-29 2015-10-21 华侨大学 一种基于tfidf的人脸图像年龄的估计方法
JP6983524B2 (ja) * 2017-03-24 2021-12-17 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US11501517B2 (en) 2017-03-28 2022-11-15 Nec Corporation Individual identifying device
JP7026456B2 (ja) 2017-07-05 2022-02-28 キヤノン株式会社 画像処理装置、学習装置、フォーカス制御装置、露出制御装置、画像処理方法、学習方法、及びプログラム
JP7350218B1 (ja) 2022-04-15 2023-09-25 三菱電機株式会社 学習モデル生成装置、情報処理装置、学習モデル生成方法および情報処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07120883B2 (ja) 1989-11-13 1995-12-20 株式会社村田製作所 静磁波装置
JP3154501B2 (ja) 1991-02-14 2001-04-09 富士通株式会社 物体認識方法および物体認識装置
JP2830606B2 (ja) 1992-04-14 1998-12-02 日本電気株式会社 3次元物体の認識装置
US5901244A (en) 1996-06-18 1999-05-04 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system
JP3841481B2 (ja) 1996-06-18 2006-11-01 松下電器産業株式会社 特徴抽出装置及びそれを用いたパターン識別装置
JP2000285198A (ja) 1999-03-31 2000-10-13 Omron Corp 画像認識システムおよび情報採取システム
JP3945971B2 (ja) 2000-11-07 2007-07-18 グローリー株式会社 パターン認識装置、パターン認識方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4232388B2 (ja) 2002-05-29 2009-03-04 日本電気株式会社 映像検索装置及びそれに用いる映像検索方法並びにそのプログラム
JP2004192555A (ja) * 2002-12-13 2004-07-08 Fuji Xerox Co Ltd 情報管理方法、情報管理装置及び情報管理プログラム
JP2008020963A (ja) * 2006-07-10 2008-01-31 Toshiba Corp パターン認識装置及びその方法
JP5010905B2 (ja) * 2006-12-13 2012-08-29 パナソニック株式会社 顔認証装置

Also Published As

Publication number Publication date
US20110103652A1 (en) 2011-05-05
US8526679B2 (en) 2013-09-03
JP2011096135A (ja) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5361664B2 (ja) 画像処理装置、画像処理方法
JP5588196B2 (ja) 認識装置及びその制御方法、コンピュータプログラム
Su et al. Learning a dense multi-view representation for detection, viewpoint classification and synthesis of object categories
Gopalakrishnan et al. Random walks on graphs to model saliency in images
Zhang et al. Reflectance hashing for material recognition
JP5261501B2 (ja) 不変の視覚場面及び物体の認識
JP2008547094A (ja) 三次元クラスモデルを用いた二次元画像における認識システムおよび方法
CN109544603B (zh) 基于深度迁移学习的目标跟踪方法
JP6149710B2 (ja) 画像処理装置及びプログラム
CN108509925B (zh) 一种基于视觉词袋模型的行人重识别方法
JP4925120B2 (ja) 物体認識装置および物体認識方法
JP4946878B2 (ja) 画像識別装置及びプログラム
CN116229189B (zh) 基于荧光内窥镜的图像处理方法、装置、设备及存储介质
Hu et al. A grasps-generation-and-selection convolutional neural network for a digital twin of intelligent robotic grasping
JP6547626B2 (ja) 画像の特徴量に関する処理システム、処理方法及びプログラム
Bharadwaj et al. Can holistic representations be used for face biometric quality assessment?
JP4721829B2 (ja) 画像検索方法及び装置
CN105139013A (zh) 一种融合形状特征和兴趣点的物体识别方法
JP2012123631A (ja) 注目領域検出方法、注目領域検出装置、及びプログラム
CN109074643B (zh) 图像中的基于方位的对象匹配
Monzo et al. Color HOG-EBGM for face recognition
WO2015136716A1 (ja) 画像処理装置、画像センサ、画像処理方法
Ciubotariu et al. Enhancing the performance of image classification through features automatically learned from depth-maps
Fihl et al. Invariant gait continuum based on the duty-factor
Huang Learning a 3D descriptor for cross-source point cloud registration from synthetic data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R151 Written notification of patent or utility model registration

Ref document number: 5361664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151