JP6448204B2 - 物体検出装置、物体検出方法及びプログラム - Google Patents

物体検出装置、物体検出方法及びプログラム Download PDF

Info

Publication number
JP6448204B2
JP6448204B2 JP2014069687A JP2014069687A JP6448204B2 JP 6448204 B2 JP6448204 B2 JP 6448204B2 JP 2014069687 A JP2014069687 A JP 2014069687A JP 2014069687 A JP2014069687 A JP 2014069687A JP 6448204 B2 JP6448204 B2 JP 6448204B2
Authority
JP
Japan
Prior art keywords
value
feature
feature amount
pattern
ulbp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014069687A
Other languages
English (en)
Other versions
JP2015191545A (ja
Inventor
大介 中嶋
大介 中嶋
ソクイ チン
ソクイ チン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014069687A priority Critical patent/JP6448204B2/ja
Priority to US14/664,065 priority patent/US9659227B2/en
Publication of JP2015191545A publication Critical patent/JP2015191545A/ja
Application granted granted Critical
Publication of JP6448204B2 publication Critical patent/JP6448204B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、特に、様々な姿勢の物体を検出するために用いて好適な物体検出装置、物体検出方法及びプログラムに関する。
従来、画像に含まれる顔や、人体等の対象物を検出する技術が提案されている。この技術では、一般的に以下のような処理により画像中の対象物を検出する。まず、対象物が存在するかどうかを判定する領域を設定し、その領域から所定の特徴量を抽出する。そして、予め機械学習により作成した識別器が特徴量を参照して、その領域に対象物が存在するかどうかを判定する。
ここで、画像中には様々な姿勢の対象物が存在する。同じ対象物であっても姿勢により特徴量のパターンが変化するため、同一の識別器を用いてすべての姿勢の対象物を高精度に検出することは困難である。そこで、特許文献1には、特定の姿勢の対象物を検出することに特化した識別器を複数用意する手法が提案されている。この手法において、1つの識別器が検出対象とする姿勢を限定することにより、すべての姿勢に対して同一の識別器を用いるよりも様々な姿勢の対象物を高精度に検出できるようにしている。
また、特許文献2〜7には、回転及び反転の関係にある姿勢に対して識別器を共通化する手法が提案されている。これらの手法では、回転及び反転の関係にある特徴量を生成することにより、1つの姿勢に対する識別器を用いてその姿勢の回転及び反転の関係にある姿勢の対象物を検出する。具体的な例として、特許文献2〜4には、画像を回転及び反転し、それぞれの画像から特徴量を抽出する手法が提案されている。また、特許文献5及び6には、特徴量を算出するために用いる画素位置を回転及び反転に応じて変更する手法が提案されている。さらに、特許文献7には、算出した特徴量の参照位置と特徴量の値とを回転及び反転に応じて変換する手法が提案されている。一方、非特許文献1及び2には、回転及び反転に不変な特徴量を取り扱う手法が提案されている。
図12は、対象物の検出において一般に用いられるBoosting識別器(非特許文献3を参照)による処理の流れを説明するための図である。識別処理1201〜120Nはそれぞれ1、2、N番目の識別処理であり、1〜Nの順に識別処理を実行する。それぞれの識別処理では、予め機械学習により作成した識別パラメータに従って特徴量を参照し、対象物が存在する(True)もしくは存在しない(False)と判定する。
図12に示す例の場合、Trueであると判定されると次の識別処理に移り、すべての識別処理の判定結果がTrueであった場合に、その領域に対象物が存在すると判定する。一方、いずれかの識別処理の判定結果がFalseであった場合は、その時点で領域内に対象物は存在しないと判定する。このように対象物を高精度に検出するためには多数の識別処理が必要であるが、識別処理の数が増えると識別パラメータのサイズが増大する。
特許第5025893号公報 特許第4628882号公報 特許第4238537号公報 特開2009−32022号公報 特許第4556891号公報 国際公開第09/078155号 特開2012−203691号公報
T. Ojala, M. Pietikainen, and T. Maenpaa, "Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns", IEEE Trans. on PAMI, Vol. 24, No. 7, pp. 971-987, 2002. Q. Tao, and R. Veldhuis, "Illumination Normalization Based on Simplified Local Binary Patterns for A Face Verification System", Biometrics Symposium, pp. 1-6, 2007. P. Viola, and M. Jones, "Rapid Object Detection Using a Boosted Cascade of Simple Features", CVPR2001, Vol. 1, pp. 511-518.
前述したように、画像中の様々な姿勢の対象物を高精度に検出するためには、対象物の姿勢に応じて異なる識別器を用意する必要がある。しかし、特許文献1に記載の手法のように、検出対象とする姿勢それぞれに対して識別器を用意すると、識別パラメータのサイズが増大するという課題がある。例えば、図10に示すように、顔の姿勢を9種類に分類した場合には、9種類の識別器それぞれに対して識別パラメータを用意する必要がある。
一方、回転及び反転の関係にある姿勢に対する識別器を共通化することによって、識別パラメータのサイズを削減することが可能である。例えば、図10に示した例の場合は、回転の関係にある識別器を共通化し、例えば姿勢1002、1005、1008の3種類の識別パラメータを用意する。他の例としては、左右反転の関係にある識別器を共通化し、例えば姿勢1001〜1005の5種類の識別パラメータを用意する。
しかしながら特許文献2〜4に記載された方法のように、元の画像を回転及び反転処理した後にそれぞれの画像から特徴量を抽出する場合には、特徴量の抽出処理を繰り返し実行する必要があり、処理時間が長くなるという課題がある。
また、特許文献5及び6に記載の手法によれば、画像を回転及び反転処理せずに、画素の参照位置を変更することによって回転及び反転の関係にある特徴量を生成することが可能である。しかし、この手法が適用可能なのは、元の画素値をそのまま参照する場合に限られるという課題がある。画像からLBP(Local Binary Pattern)のような複数の画素間の関係性を考慮した特徴量を抽出し、特徴量を参照する場合、回転及び反転により画素の関係性が変化する。このため、対象物を高精度に検出するためには、参照位置だけではなく特徴量の値も合わせて変換する必要がある。
また、特許文献7に記載の方法では、画像から特徴量を抽出し、抽出した特徴量の参照位置と、その参照位置における特徴量の値とを変換して回転及び反転の関係にある特徴量を生成するが、特徴量の値を変換するための変換テーブルを必要とする。このように変換テーブルを用いることを前提としているため、特徴量のビット数が大きい場合には変換するためのコストが増大するという課題がある。例えば、特徴量のビット数が16である場合、16×216=1Mbitの変換テーブルが必要となる。
また、非特許文献1及び2に記載の方法によれば、回転及び反転に不変な特徴量を抽出するため、特徴量の値を変換する処理が不要であるが、特徴量には画像の方向特性に関する情報を含まれていない。このため、方向特性に関する情報を含む特徴量と比較して検出精度が低下するという課題がある。
本発明は前述の問題点に鑑み、物体を検出するための特徴量を、簡単に、かつ精度よく生成できるようにすることを目的としている。
本発明に係る物体検出装置は、入力画像から画素ごとに所定の方向に対する画素値の変化するパターンを示す方向特性のパターンを抽出する抽出手段と、前記抽出手段によって抽出された方向特性のパターンに基づいて第1の特徴量を生成する生成手段と、前記生成手段によって生成された第1の特徴量を回転または軸に対して反転させて第2の特徴量に変換する変換手段と、前記第1の特徴量及び前記第2の特徴量を用いて物体を検出する検出手段とを備え、前記生成手段は、前記方向特性が回転する関係、及び軸に対して反転する関係の少なくともいずれかに基づいた計算式により第1の特徴量を生成することを特徴とする。
本発明によれば、元の特徴量から回転または反転の関係にある特徴量を生成するコストを低減して、特徴量を簡単にかつ精度よく生成することができる。
各実施形態におけるパターン識別装置の機能構成例を示すブロック図である。 第1の実施形態において、左右反転処理を実行する場合の特徴量変換部の詳細な構成例を示すブロック図である。 第1の実施形態において、回転処理を実行する場合の特徴量変換部の詳細な構成例を示すブロック図である。 ULBP特徴量における各方向特性の位置関係の例を示す図である。 第1の実施形態において、回転を考慮したULBP特徴量のエンコード方法を説明するための図である。 第1の実施形態において、左右反転を考慮したULBP特徴量のエンコード方法を説明するための図である。 第1の実施形態における識別パラメータセットの例を示す図である。 第1の実施形態におけるULBP特徴量を格納する際の格納形式を説明するための図である。 元の座標と回転後または左右反転後の座標との関係を説明するための図であ 異なる姿勢の顔の一例を示す図である。 第1の実施形態において、評価部により行われる処理手順の一例を示すフローチャートである。 Boosting識別器による処理の流れを説明するための図である。 第1の実施形態において、上下反転を考慮したULBP特徴量のエンコード方法を説明するための図である。 第2の実施形態において、回転及び左右反転及び上下反転を考慮したエンコード方法を説明するための図である。 第2の実施形態において、回転処理及び左右反転処理を実行する場合の特徴量変換部の詳細な構成例を示すブロック図である。 第3の実施形態における特徴量変換部の詳細な構成例を示すブロック図である。 第3の実施形態における識別パラメータセットの例を示す図である。 第3の実施形態において、ヒストグラムのビン入替の例を説明するための図である。 その他の実施形態として回転を考慮した特徴量のエンコード方法を説明するための図である。
(第1の実施形態)
以下、第1の実施形態について、図面を参照しながら詳細に説明する。本実施形態では、パターン識別装置(物体検出装置)を用いて画像中に存在する様々な姿勢の対象物(物体)を検出する例を説明する。ここで、姿勢とは対象物の画像上での見え方のことであり、撮像装置に対する対象物の向きにより変化するものである。なお、本実施形態では、特徴量としてULBP(Uniform Local Binary Pattern)特徴量を使用し、識別器としてBoosting識別器を使用する例について説明するが、これに限るわけではない。例えば、画像から方向特性パターンを抽出し、方向特性パターンを所定の値にエンコードして得られる他の特徴量に対しても本発明は適用可能である。また、サポートベクトルマシンやニューラルネットワーク等の他の識別器に対しても適用可能である。
図1は、本実施形態におけるパターン識別装置100の機能構成例を示すブロック図である。
図1において、画像入力部101は、光学系デバイスおよび光電変換デバイス並びにセンサーを制御するドライバー回路や、ADコンバーター、各種画像補正を司る信号処理回路、フレームバッファ等により構成されている。特徴量抽出部109は、画像入力部101が取得した画像から特徴量を抽出する。なお、特徴量抽出部109は、さらに方向特性抽出部102とエンコード部103とから構成されている。
方向特性抽出部102は、画像中の各(x,y)座標における方向特性パターンを抽出する。ここで、方向特性パターンとは、所定の方向に対する画素値の変化パターンを意味する。ULBP特徴量における方向特性パターンは、以下の式(1)を用いて計算される。
Figure 0006448204
ここで、i(x,y)は、座標(x,y)における入力画素値(注目画素の値)を表し、dn(x,y)は、座標(x,y)における方向nに対する特性(方向特性パターン)を表す。また、座標(xn,yn)は、参照画素の注目画素に対する相対位置を表し、xn={−1,0,1}、yn={−1,0,1}、及びxn 2+yn 2≠0を満たすものとする。
式(1)に示すように、ULBP特徴量における方向特性パターンdn(x,y)は、注目画素の値i(x,y)と各方向における参照画素の値i(x+xn,y+yn)との大小関係を示す。つまり、参照画素の値が注目画素の値以上である場合はその方向の特性は1であり、そうでない場合はその方向の特性は0となる。なお、図4には、ULBP特徴量における各方向特性の位置関係の例を示しており、図4に示す例では、左上の位置を起点とし、時計周りに特性はd0〜d7となる。
エンコード部103は、方向特性抽出部102によって算出された方向特性パターンに対応する値を割り当てる。エンコード部103は、方向特性パターンを入力とする変換テーブルを備え、公知のRAM、レジスタ等により記憶される。本実施形態における方向特性パターンは、方向の数が8であり、各方向の特性は0または1であるため、8ビットで表現される。そのため、変換テーブルのサイズは256×8ビットとなる。ULBP特徴量におけるエンコード処理では、以下の式(2)を用いて計算される。
Figure 0006448204
ここで、ULBP(x,y)は、座標(x,y)におけるULBP特徴量を表し、v(d0(x,y),...,d7(x,y))は、方向特性パターンに応じて割り当てられる値を表している。ここで、式(2)中のt(x,y)は、以下の式(3)により定義される関数であり、隣り合う方向特性の変化回数を示す。
Figure 0006448204
式(2)に示すように、ULBP特徴量におけるエンコード処理では、隣り合う方向特性の変化回数が2回以下の方向特性パターンに対してはそれぞれ固有の値を与え、その他の方向特性パターンには同一の値を与える。ここで、本実施形態では、前者の方向特性パターンのことをUniformパターンと呼ぶ。例えば、方向特性パターンが"1110000"である場合は、変化回数が2回であるためUniformパターンであり、方向特性パターンが"00111010"である場合は、変化回数が4回であるためUniformパターンではない。本実施形態におけるULBP特徴量では、Uniformパターンは58種類存在するため、Uniformパターンにはそれぞれ「0」〜「57」の値を与え、その他のパターンには「58」を与える。
従来のエンコード処理では、Uniformパターンに値を割り当てる際に、Uniformパターン間の回転や反転の関係性は考慮されていない。そのため、元のULBP特徴量から回転及び反転後のULBP特徴量を生成するためには、元の値と回転及び反転後の値との対応関係を示す変換テーブルが必要となる。この場合、ULBP特徴量の値は「0」〜「58」であるため、回転及び反転に必要な変換テーブルのサイズは59×6ビットとなる。
また、使用する参照画素の数を増加させると、より豊富な画像特徴を抽出することが可能となり、対象物の検出精度が向上することが期待できる。しかし、参照画素の数が増加すると、Uniformパターンの数が多くなり、回転及び反転に必要な変換テーブルのサイズが増大する。例えば、参照画素の数が24である場合は、Uniformパターンは554通りあり、必要な参照テーブルのサイズは555×10=5.55Kbitとなる。
それに対し、本実施形態におけるエンコード処理では、Uniformパターン間の回転及び反転の関係性を考慮して値を割り当てる。これにより、変換テーブルを用いずに簡単な演算により元のULBP特徴量から回転及び反転後のULBP特徴量を生成できるようする。以下、回転及び反転を考慮したエンコード方法について、それぞれ説明する。
まず、回転を考慮したエンコード方法について説明する。図5は、回転を考慮したULBP特徴量のエンコード方法を説明するための図である。図5には、58種類のUniformなパターンを含むグループ501、502と1種類のUniformでないパターンを含むグループ503とを示している。図5において、白い丸印はその方向の特性が0であることを示し、黒い丸印はその方向の特性が1であることを示す。Uniformパターンのうち、グループ501は回転するとパターンが変化するものであり、グループ502は回転してもパターンが変化しないものである。
本実施形態に係るエンコード方法では、下位3ビットに回転角度に応じた値を加算することにより、回転したULBP特徴量を生成可能となるように値を割り当てる。図5に示した例では、グループ501に属するUniformパターンに対して、回転の関係にある8種類のパターンを1組とする。そして、同じ組に属する場合には上位3ビットは同じであり、下位3ビットは時計周りに45度回転すると値が1だけ増加するように値を割り当てる。
また、グループ502に属するUniformパターンは、回転してもパターンは変化せず、グループ503に属するUniformでないパターンは回転してもUniformでないパターンであるため、値を割り当てる際に回転は考慮しないようにする。また、これらのパターンとグループ501に属するUniformパターンとでは上位3ビットにより区別できるようにする。図5に示した例では、グループ501の上位3ビットを「000」〜「110」とし、グループ502、503の上位3ビットを「111」とする。
次に、反転を考慮したエンコード方法について説明する。図6は、左右反転を考慮したULBP特徴量のエンコード方法を説明するための図である。図6において、グループ601は左右反転するとパターンが変化するUniformパターンが属するグループであり、グループ602は左右反転してもパターンが変化しないUniformパターンが属するグループである。また、グループ603はUniformでないパターンを含むグループである。
本実施形態に係るエンコード方法では、下位1ビットをビット反転することにより左右反転したULBP特徴量となるようにエンコードする。図6に示した例では、グループ601に属するUniformパターンに対して、左右反転の関係にある2種類のパターンを1組とする。そして、同じ組に属する場合には上位5ビットは同じであり、下位1ビットが異なるように値を割り当てる。
また、グループ602に属するUniformパターンは、左右反転してもパターンは変化せず、グループ603に属するUniformでないパターンは左右反転してもUniformでないパターンである。このため、値を割り当てる際に左右反転は考慮しないようにする。また、これらのパターンとグループ601に属するUniformパターンとでは、上位5ビットにより区別できるようにする。図6に示した例では、グループ601の上位5ビットを「00000」〜「10111」とし、グループ602、603の上位5ビットを「11000」〜「11101」とする。
また、図13は、上下反転を考慮したULBP特徴量のエンコード方法を説明するための図である。左右反転の場合と同様に、上下反転の関係にある2種類のパターンを1組とし、同じ組に属するパターンには、上位5ビットは同じであり、下位1ビットが異なる値を割り当てる。以下、反転に関しては左右反転についてのみ説明するが、上下反転についても同様の処理を適用することが可能である。
図1の説明に戻り、特徴量格納部104は、エンコード部103により生成されたULBP特徴量が格納されており、公知のRAM、レジスタなどにより構成されている。
図8は、本実施形態におけるULBP特徴量を特徴量格納部104に格納する際の格納形式を説明するための図である。本実施形態では、入力画像のサイズをW×Hとした場合、周辺1画素に対するULBP特徴量は計算することができないため、ULBP特徴量のサイズは(W−2)×(H−2)である。特徴量格納部104には、これらがラスター順に並べた1次元配列として格納される。
識別部110は、特徴量格納部104に格納されたULBP特徴量を参照して画像中の対象物を検出する。本実施形態では、画像中に領域を設定し、その領域内に対象物が存在するかどうかを判定する。以降、この領域のことを検出領域と呼ぶ。また、識別部110は、特徴量変換部105、座標変換部106、評価部107、及び識別パラメータ格納部108から構成されている。以下、識別部110の各構成要素について詳細に説明する。
特徴量変換部105は、特徴量格納部104からULBP特徴量を読み出して回転または反転させることで変換し、回転及び反転後のULBP特徴量を生成する。そして、生成したULBP特徴量を評価部107に出力する。以下、元のULBP特徴量から回転及び反転後のULBP特徴量を生成する処理内容と、処理を実現するための構成について、以下に説明する。なお、以降の説明では、式の見やすさのためにULBP(x,y)を単にULBPと表記する。
まず、回転処理の内容と回転処理を実現するための構成とについて説明する。エンコード部103において図5に示すエンコード方法を適用した場合、回転後のULBP特徴量を生成する際に、以下の式(4)の変換式を用いる。
Figure 0006448204
ここで、θは回転角度(θ=0,1,...,7)を表し、rotθ(ULBP)は角度θだけ回転した後のULBP特徴量を表す。また、p[a:b]はpのaビット目からbビット目までを選択することを示す。例えば、2進数でp=011010である場合、p[2:0]=010であり、p[5:3]=011である。また、{p1,p2}はp1とp2とをビット連結することを示す。例えば、2進数でp1=110、p2=101である場合、2進数で{p1,p2}=110101となる。θは回転角度であり、45度を単位として時計周りに何度回転するかを示す。つまり、θ=0,1,...,7はそれぞれ時計周りに0度,45度,...,315度回転することを意味する。
また、ULBP[5:3]≦6は、上位3ビットが「000」〜「110」であることを示す。つまり、図5において、グループ501に属するULBP特徴量に対しては回転処理を実行し、グループ502、503に属するULBP特徴量は入力された値をそのまま出力することを意味する。
図3は、式(4)に示した回転処理を実行する特徴量変換部105の詳細な構成例を示すブロック図である。
図3において、比較部301は、式(4)中のULBP[5:3]≦6が成立するかどうかを判定し、判定結果を回転処理部302に送信する。回転処理部302は、比較部301から受信した判定結果が真であった場合は、入力されたULBP特徴量を、式(4)における上段の計算式に従って回転した値を生成する。
ここで、回転角度θは検出対象とする姿勢に応じて定まる値であり、評価部107からその値を受信する。評価部107は、識別器が対象とする姿勢の対象物を検出する場合はθ=0を設定し、例えば対象とする姿勢から45度回転した姿勢の対象物を検出する場合はθ=1を設定する。一方、比較部301から受信した判定結果が偽であった場合は、回転角度θの値に関係なく、入力されたULBP特徴量の値をそのまま出力する。
次に、左右反転処理の内容と処理を実現するための構成とについて説明する。エンコード部103において図6に示すエンコード方法を適用した場合、左右反転後のULBP特徴量を生成する際に、以下の式(5)の変換式を用いる。
Figure 0006448204
ここで、ref(ULBP)は左右反転後のULBP特徴量を表し、 "〜"はビット反転を表わす記号である。また、ULBP[5:1]≦23は、上位5ビットが「00000」〜「10111」であることを表す。つまり、図6において、グループ601に属するULBP特徴量に対しては左右反転処理を実行し、グループ602、603に属するULBP特徴量に対しては、入力された値をそのまま出力することを意味する。
図2は、式(5)に示した左右反転処理を実行する特徴量変換部105の詳細な構成例を示すブロック図である。
図2において、比較部201は、式(5)中のULBP[5:1]≦23が成立するかどうかを判定し、判定結果を左右反転処理部202に送信する。左右反転処理部202は、比較部201から受信した判定結果が真であり、評価部107から左右反転を指示する信号を受信した場合は、入力されたULBP特徴量を式(5)における上段の計算式に従って左右反転した値を出力する。
ここで、評価部107は、識別器が対象とする姿勢の対象物を検出する場合は左右反転しないことを指示し、対象とする姿勢を左右反転した姿勢の対象物を検出する場合は左右反転を指示する。一方、比較部201から受信した判定結果が偽である、または評価部107から左右反転しないことを指示する信号を受信した場合は、入力されたULBP特徴量の値をそのまま出力する。
座標変換部106は、評価部107から受信した検出領域内の座標及び検出領域の位置情報(左上座標及びサイズ)を基に、所定角度だけ回転あるいは反転した座標を算出する。回転角度及び反転するかどうかについては、評価部107が指示するものとする。
図9(a)は、元の座標と回転後の座標との関係を説明するための図であり、図9(b)は、左右反転後の座標との関係を説明するための図である。図9において、検出領域910における座標901は元の座標であり、座標902〜908は順に時計周りに45度〜315度回転した座標である。また、座標909は左右反転した座標である。なお、回転後の座標が整数でない場合は再近傍の座標とする。
座標変換部106は、生成した座標から参照するULBP特徴量のアドレスを計算し、特徴量格納部104に送信する。例えば、生成した座標が座標(x,y)であった場合は、特徴量格納部104に送信するアドレスはy×(W−2)+xとなる。特徴量格納部104は、座標変換部106から受信したアドレスに格納されているULBP特徴量を特徴量変換部105に送信する。
識別パラメータ格納部108は、対象物の検出に使用する識別パラメータを格納するメモリであり、公知のRAM、レジスタなどにより構成されている。
図7は、本実施形態における識別パラメータセットの例を示す図である。ここで、識別パラメータセットとは、1つの姿勢の対象物を検出するために使用する識別パラメータの集合を示す。なお、本実施形態では、図12に示す構成の識別器を使用するものとする。図7に示す「i」は、図12における識別処理の番号に対応する値である。各識別処理に対する識別パラメータは、参照する特徴量の検出領域内の座標、その座標における特徴量の値から検出対象らしさを示す評価値を算出する変換テーブル、及び対象物が存在するかどうかを判定するための閾値から構成される。
識別パラメータは予め用意した学習サンプルを用いてブースティング等の公知の機械学習手法により作成する。本実施形態では、対象物の姿勢に応じて異なる識別パラメータセットを用意する。ただし、すべての姿勢に対する識別パラメータセットを作成するのではなく、回転または反転関係にある場合は、そのうちの1つの姿勢に対する識別パラメータセットのみを作成する。
例えば、図10に示すように顔の姿勢を9種類に分類した場合に、回転の関係にある識別パラメータを共通化する場合には、姿勢1002、1005、1008の3種類で共通化した識別パラメータセットを作成する。また、左右反転の関係にある識別パラメータを共通化する場合には、姿勢1001〜1005の5種類で共通化した識別パラメータセットを作成する。そして、姿勢別に識別パラメータを作成するために、学習サンプルを姿勢に応じて分類し、分類後の学習サンプルを用いてそれぞれの姿勢に対する識別パラメータセットを作成する。
評価部107は、識別パラメータと特徴量とを基に画像中に設定した各検出領域に対象物が存在するかどうかを判定する。
図11は、評価部107により行われる処理手順の一例を示すフローチャートである。本実施形態では、設定した検出領域に対して、1つの姿勢に対する識別処理を実行する。対象物が検出された場合は、他の姿勢に対する識別処理は実行せずに、次の検出領域に対する処理に進む。一方、対象物が検出されなかった場合は別の姿勢に対する識別処理を実行する。以下、各ステップにおける処理について説明する。
まず、ステップS1101において、全検出領域に対する処理が完了したかどうかを判定する。この判定の結果、全検出領域に対する処理が完了した場合は、そのまま処理を終了する。一方、ステップS1101の判定の結果、まだ処理していない検出領域がある場合は、次のステップS1102に進む。
次に、ステップS1102において、新たな検出領域を画像中に設定する。本実施形態では、予め定めたサイズの矩形領域をラスター順に移動させることにより検出領域を順次設定するものとする。そして、ステップS1103において、全姿勢に対する識別処理が完了したかどうかを判定する。この判定の結果、識別処理が完了した場合はその検出領域に対する処理は終了することになるため、ステップS1101に進む。一方、ステップS1103の判定の結果、まだ識別処理を実行していない姿勢がある場合は、次のステップS1104において、使用する識別パラメータセットを新たな姿勢を検出対象とするものに切り替える。
次に、ステップS1105において、ステップS1104において設定した識別パラメータセットが検出対象とする姿勢に対して、回転もしくは左右反転の関係にある姿勢の識別処理が完了したかどうかを判定する。この判定の結果、回転もしくは左右反転の関係にある姿勢の識別処理が完了した場合は、その識別パラメータセットを用いた処理は囚虜であるため、ステップS1103に戻る。一方、ステップS1105の判定の結果、回転もしくは左右反転の関係にある姿勢の識別処理がまだ完了していない場合は、ステップS1106に進む。
次のステップS1106においては、回転角度、もしくは左右反転の有無を設定する。例えば、図10に示した9種類の姿勢を検出対象とし、回転の関係にある辞書を共通化して姿勢1002、1005、1008の3種類の識別パラメータセットを用意した場合、回転角度は0(回転無し)、1(45度)、7(315度)の順に設定する。また、左右反転の関係にある辞書を共通化して姿勢1001〜1005の5種類の識別パラメータセットを用意した場合、姿勢1001〜1004は左右反転無、有の順に設定する。そして、姿勢1005は左右反転しても姿勢は変化しないため、左右反転無しのみを設定する。以上のように、回転角度もしくは左右反転の有無を指示する信号を特徴量変換部105及び座標変換部106に送信する。
次に、ステップS1107において、識別パラメータ格納部108から読み出す識別パラメータの番号iの値と、累積評価値(eval)とを初期化する。そして、ステップS1108において、ステップS1104において設定した識別パラメータセットに含まれる識別パラメータの数をNpとした場合に、Np個の識別パラメータをすべて使用したかどうかを判定する。この判定の結果、すべての識別パラメータを使用した場合は、図12に示した構成による識別処理をすべて通過したことを意味する。したがってこの場合は、現在の検出領域に対象物が存在すると判定し、次の検出領域に対する処理を実行するためにステップS1101へ進む。一方、ステップS1108の判定の結果、まだ識別パラメータが残っている場合はステップS1109に進む。
ステップS1109においては、累積評価値(eval)を更新する。まず、i番目の識別パラメータを読み出し、識別パラメータ中の座標と、検出領域の位置情報(左上座標及びサイズ)とを座標変換部106に送信する。そして、特徴量変換部105から受信した特徴量の値と識別パラメータ中の評価値算出テーブルとを用いて評価値を算出し、累積評価値に加算する。
ステップS1110においては、累積評価値がi番目の閾値(Thi)未満であるかどうかを判定する。この判定の結果、閾値未満であった場合は、現在対象とする姿勢の対象物は存在しないと判定し、次の姿勢に対する処理を実行するため、ステップS1105に進む。一方、ステップS1110の判定の結果、累積評価値が閾値以上であった場合は、ステップS1111において、次の識別処理を実行するためにiの値をインクリメントし、ステップS1108に戻る。
以上説明したように本実施形態によれば、画像中の対象物を検出する処理において、加算やビット反転といった簡単な演算により回転及び反転後の特徴量を生成できるようにエンコードを行うようにした。これにより、回転及び軸に対して反転の関係にある識別パラメータを共通化した場合に、特徴量を変換するコストを低減することができる。
(第2の実施形態)
以下、本実施形態では、第1の実施形態と異なる部分のみを説明する。第1の実施形態では、特徴量の回転、左右反転もしくは上下反転のいずれか1つのみを考慮したエンコード方法及び特徴量の変換方法について説明した。これに対して本実施形態では、これらのパターンをすべて考慮したエンコード方法及び特徴量の変換方法の例について説明する。本実施形態の方式は、反転の関係にある方向特性パターンが、回転の関係にある方向特性パターンに含まれる場合に適用可能である。なお、方向特性がバイナリ値である場合はこの条件を満たすものとする。
本実施形態の方式を適用すると、図10に示した9種類の姿勢の顔を検出対象とした場合、姿勢1002、1005の2種類に対する識別パラメータのみ用意すればよい。回転もしくは反転のみを考慮する場合からさらに識別パラメータを削減することが可能となる。
図14は、本実施形態における回転及び左右反転及び上下反転を考慮したエンコード方法を説明するための図である。本実施形態におけるエンコード方法では、まず、図5に示した回転を考慮したエンコード方法をベースとし、左右反転及び上下反転した場合の下位3ビットの変化が同じであるグループ1401、1402に分ける。左右反転を例に挙げると、グループ1401に属するUniformパターンは、「000」と「010」、「011」と「111」、及び「100」と「110」が左右反転の関係にある。また、「001」と「101」は左右反転してもパターンが変化しない。一方、グループ1402に属するUniformパターンは、「000」と「001」、「010」と「111」、「011」と「110」、「100」と「101」が左右反転の関係にある。そして、グループ1401、1402及び第1の実施形態において説明したグループ502、503は、上位3ビットにより区別できるようにする。
図15は、本実施形態における特徴量変換部105の詳細な構成例を示すブロック図である。
図15において、比較部1501は、入力されたULBP特徴量の上位3ビットを基に、入力されたULBP特徴量が図14に示した何れのグループに属するかを判定する。そして、比較部1501は、ULBP特徴量がグループ1401もしくはグループ1402に属する(ULBP[5:3]≦6が成立する)かどうかを示す信号を回転処理部302に送信する。さらに、ULBP[5:3]≦3を満たすグループ1401、3<ULBP[5:3]≦6を満たすグループ1402、及びULBP[5:3]>6を満たすグループ502、503のいずれに属するかを示す信号を左右反転処理部1502に送信する。
回転処理部302は、第1の実施形態と同様に式(4)に従って回転処理し、回転処理後のULBP特徴量rotθ(ULBP)を左右反転処理部1502に送信する。そして、左右反転処理部1502は、以下の式(6)に従ってULBP特徴量rotθ(ULBP)を左右反転したULBP特徴量ref(rotθ(ULBP))を生成する。
Figure 0006448204
ここで、lut1、lut2は、それぞれグループ1401、1402に属するULBP特徴量の左右反転前後の下位3ビットの対応関係を記憶した変換テーブルによる処理を示す。左右反転処理部1502は、評価部107から左右反転を指示する信号を受信した場合、比較部1501から受信した信号を基に、式(6)におけるいずれかの計算式に従って左右反転した値を出力する。一方、評価部107から左右反転しないことを指示する信号を受信した場合は、入力されたULBP特徴量rotθ(ULBP)の値をそのまま出力する。
以上説明したエンコード方法及び特徴量変換部105の構成により、回転及び左右反転後のULBP特徴量を生成することができる。また、上下反転後のULBP特徴量については、180度回転した後に左右反転することによって生成することができる。なお、本実施形態では、回転処理、左右反転の順に処理するように構成したが、順番は逆であってもよい。また、左右反転処理部1502の代わりに上下反転する処理部を使用するように構成してもよい。
以上説明したように本実施形態によれば、回転、左右反転及び上下反転の関係を考慮してエンコードを行うようにしたので、第1の実施形態よりも識別パラメータのサイズを削減することができる。
(第3の実施形態)
以下、本実施形態について、第1及び第2の実施形態と異なる部分のみを説明する。第1及び第2の実施形態では、ULBP特徴量の値を所定の計算式に従って変換することにより、回転及び反転後のULBP特徴量を生成する例について説明した。本実施形態では、所定の領域内のULBP特徴量の各値が出現する頻度を示すヒストグラムを生成し、生成後のヒストグラムのビンを所定の計算式に従って入れ替えることにより、回転及び反転後のヒストグラムを生成する例について説明する。
図17は、本実施形態における識別パラメータセットの例を示す図である。図17に示すように、本実施形態では、ヒストグラムを算出する領域情報は、左上座標及び幅及び高さから構成されるものとする。また、ヒストグラムの各ビンに係数を乗算して足し合わせた値を評価値とする。
また、図1に示す構成において、評価部107は、識別パラメータ格納部108から識別パラメータを読み出し、領域情報を座標変換部106に送信する。また、領域情報から領域のサイズ(幅×高さ)を算出し、特徴量変換部105に送信する。さらに、第1の実施形態における図11のステップS1106と同様に、回転角度もしくは反転の有無を決定し、特徴量変換部105及び座標変換部106に送信する。
座標変換部106は、まず、評価部107から受信した領域情報から、領域に含まれる座標を算出する。次に、評価部107から受信した回転角度もしくは反転の有無を指示する信号を基に、算出した座標を順次座標変換し、変換後の座標位置を示すアドレスを特徴量格納部104に送信する。
特徴量変換部105は、特徴量格納部104から受信した領域内のULBP特徴量からヒストグラムを算出し、評価部107から受信した回転角度もしくは反転の有無を指示する信号を基にヒストグラムを回転及び反転処理して評価部107に送信する。
図16は、本実施形態における特徴量変換部105の詳細な構成例を示すブロック図である。
図16において、ヒストグラム作成部1601は、ヒストグラム生成手段として、受信したULBP特徴量からヒストグラムを作成する。ヒストグラムの各ビンはULBP特徴量の値に対応しており、ヒストグラム作成部1601はULBP特徴量を受信すると、対応するビンにおける頻度値を1だけ加算する。そして、ヒストグラム作成部1601は、評価部107から受信した領域サイズ分のULBP特徴量からヒストグラムを作成すると、ヒストグラムをビン入替部1602に送信する。
ビン入替部1602は、評価部107から指定された回転角度または反転方向に従ってヒストグラムのビンを入れ替える。ただし、回転角度が0であった場合、あるいは反転しないこと指示する信号を受信した場合は、ビンを入れ替えずに作成したヒストグラムをそのまま出力する。そして、ビン入替部1602は、第1及び第2の実施形態において説明したULBP特徴量の変換方法に従って、各ビンにおける頻度値を回転及び反転後の特徴量に対応するビンの頻度値とする。
図18は、ヒストグラムのビン入替の例を説明するための図であり、ULBP特徴量のヒストグラムを45度回転する場合のビン入替の例を示している。図18(a)は、入替前のヒストグラムを示しており、図18(b)は入替後のヒストグラムを示している。式(4)に示した変換式に従ってビンを入れ替えることにより、ULBP[5:3]≦6であるビンは、下位3ビットに1だけ加算した位置に移動する。このとき、図18に示すビン56、57、58は移動しない。
以上説明したように本実施形態によれば、ヒストグラムを用いて画像中の対象物を検出する場合に、加算やビット反転といった簡単な演算により回転及び反転後のヒストグラムを生成できるようなエンコードを行うようにした。これにより、回転及び左右反転の関係にある識別パラメータを共通化した場合にヒストグラムを変換するコストを低減することができる。
(その他の実施形態)
第1〜第3の実施形態では、特徴量としてULBP特徴量に適用する例を説明したが、これに限る訳ではない。ULBP特徴量では注目画素と参照画素との2画素を用いて各方向の特性を抽出するが、注目画素と複数の参照画素とを用いて各方向の特性を抽出するように構成してもよい。あるいは、注目画素を使用せずに、複数の参照画素を用いて各方向の特性を抽出するように構成してもよい。さらには、特定の位置の画素のみではなく、所定の領域内の画素の平均値を用いるように構成してもよい。
また、ULBP特徴量では、各方向の特性は0または1のバイナリ値であるが、多値であってもよい。この場合、例えば、画素間及び領域間の差分値や、画素及び領域に所定の係数を乗算して足し合わせた値などをそのまま用いるように構成してもよい。あるいは、それらの値を所定のルールに従ってM(M≧2)値に量子化したものを用いるように構成してもよい。以下、各方向の特性が0,1,2の3値をとり得る場合のエンコード方法と特徴量の変換方法とについて以下に説明する。
図19は、各方向の特性が0,1,2の3値をとり得る場合に、回転を考慮した特徴量のエンコード方法を説明するための図である。なお、図19に示す例では、方向特性の数は4としている。図19において、白、グレー、黒の丸印はそれぞれその方向の特性がそれぞれ0,1,2であることを示している。また、パターンの数は34=81である。
図19に示すグループ1901は回転するとパターンが変化するグループであり、グループ1902は90度、270度回転するとパターンが変化するが、180度回転してもパターンが変化しないグループである。また、グループ1903は回転してもパターンが変化しないグループである。図19に示したエンコード方法を適用することにより、第1の実施形態と同様に、上位5ビットの比較によりグループを判定し、回転角度に応じて下位2ビットに値を加算することにより回転後の特徴量を生成することができる。
また、左右反転及び上下反転に関しても、反転の関係にあるパターンをペアとするエンコード方法を適用することにより、第1の実施形態と同様の変換方法を適用することができる。さらに、第3の実施形態に示したようなヒストグラムを使用する方法も同様に適用することができる。なお、図19に示す例では、方向の数が4であったが、方向の数に制限はない。また、すべての方向特性パターンに対して異なる値を割り当てたが、ULBP特徴量のように所定の条件に応じて異なる方向特性パターンに同じ値を割り当ててもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 方向特性抽出部
103 エンコード部
105 特徴量変換部
107 評価部

Claims (8)

  1. 入力画像から画素ごとに所定の方向に対する画素値の変化するパターンを示す方向特性のパターンを抽出する抽出手段と、
    前記抽出手段によって抽出された方向特性のパターンに基づいて第1の特徴量を生成する生成手段と、
    前記生成手段によって生成された第1の特徴量を回転または軸に対して反転させて第2の特徴量に変換する変換手段と、
    前記第1の特徴量及び前記第2の特徴量を用いて物体を検出する検出手段とを備え、
    前記生成手段は、前記方向特性が回転する関係、及び軸に対して反転する関係の少なくともいずれかに基づいた計算式により第1の特徴量を生成することを特徴とする物体検出装置。
  2. 前記生成手段は、回転角度に対応する値を用いた演算により前記第1の特徴量を生成することを特徴とする請求項に記載の物体検出装置。
  3. 前記生成手段は、前記方向特性が左右反転する値を割り当てて前記第1の特徴量を生成することを特徴とする請求項に記載の物体検出装置。
  4. 前記生成手段は、前記方向特性が上下反転する値を割り当てて前記第1の特徴量を生成することを特徴とする請求項に記載の物体検出装置。
  5. 前記生成手段は、回転角度に対応する値を用いた演算を行い、さらに前記方向特性が左右反転または上下反転する値を割り当てて前記第1の特徴量を生成することを特徴とする請求項に記載の物体検出装置。
  6. 前記第1の特徴量の各値が出現する頻度を示す第1のヒストグラムを生成するヒストグラム生成手段をさらに備え、
    前記変換手段は、前記第1のヒストグラムのビンを入れ替えることにより、前記第2の特徴量の各値が出現する頻度を示す第2のヒストグラムを生成し、
    前記検出手段は、前記第1のヒストグラム及び前記第2のヒストグラムを用いて物体を検出することを特徴とする請求項1に記載の物体検出装置。
  7. 入力画像から画素ごとに所定の方向に対する画素値の変化するパターンを示す方向特性のパターンを抽出する抽出工程と、
    前記抽出工程において抽出された方向特性のパターンに基づいて第1の特徴量を生成する生成工程と、
    前記生成工程において生成された第1の特徴量を回転または軸に対して反転させて第2の特徴量に変換する変換工程と、
    前記第1の特徴量及び前記第2の特徴量を用いて物体を検出する検出工程とを備え、
    前記生成工程においては、前記方向特性が回転する関係、及び軸に対して反転する関係の少なくともいずれかに基づいた計算式により第1の特徴量を生成することを特徴とする物体検出方法。
  8. 入力画像から画素ごとに所定の方向に対する画素値の変化するパターンを示す方向特性のパターンを抽出する抽出工程と、
    前記抽出工程において抽出された方向特性のパターンに基づいて第1の特徴量を生成する生成工程と、
    前記生成工程において生成された第1の特徴量を回転または軸に対して反転させて第2の特徴量に変換する変換工程と、
    前記第1の特徴量及び前記第2の特徴量を用いて物体を検出する検出工程とをコンピュータに実行させ、
    前記生成工程においては、前記方向特性が回転する関係、及び軸に対して反転する関係の少なくともいずれかに基づいた計算式により第1の特徴量を生成することを特徴とするプログラム。
JP2014069687A 2014-03-28 2014-03-28 物体検出装置、物体検出方法及びプログラム Active JP6448204B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014069687A JP6448204B2 (ja) 2014-03-28 2014-03-28 物体検出装置、物体検出方法及びプログラム
US14/664,065 US9659227B2 (en) 2014-03-28 2015-03-20 Detecting object from image data using feature quantities

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014069687A JP6448204B2 (ja) 2014-03-28 2014-03-28 物体検出装置、物体検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015191545A JP2015191545A (ja) 2015-11-02
JP6448204B2 true JP6448204B2 (ja) 2019-01-09

Family

ID=54191114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014069687A Active JP6448204B2 (ja) 2014-03-28 2014-03-28 物体検出装置、物体検出方法及びプログラム

Country Status (2)

Country Link
US (1) US9659227B2 (ja)
JP (1) JP6448204B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105844132A (zh) * 2016-03-17 2016-08-10 中国科学院上海微系统与信息技术研究所 基于移动终端的人脸识别方法及系统
US10262187B1 (en) * 2016-11-10 2019-04-16 Synaptics Incorporated Systems and methods for spoof detection based on local binary patterns
JP7402623B2 (ja) 2019-06-17 2023-12-21 キヤノン株式会社 フィルタ処理装置及びその制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01250184A (ja) * 1987-12-09 1989-10-05 Ricoh Co Ltd 文字認識方法及び文字の回転角度判定方法
JP4238537B2 (ja) 2002-07-31 2009-03-18 富士ゼロックス株式会社 画像処理装置
JP5025893B2 (ja) 2004-03-29 2012-09-12 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP4628882B2 (ja) 2005-06-16 2011-02-09 富士フイルム株式会社 判別器の学習方法、顔判別方法および装置並びにプログラム
JP4556891B2 (ja) 2006-03-17 2010-10-06 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP2009032022A (ja) 2007-07-26 2009-02-12 Seiko Epson Corp 画像処理装置、画像処理方法、およびコンピュータプログラム
EP2221768A1 (en) 2007-12-14 2010-08-25 Panasonic Corporation Image judgment device
JP5121506B2 (ja) * 2008-02-29 2013-01-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US8542951B2 (en) * 2008-06-04 2013-09-24 National University Corporation Shizuoka University Image retrieval device and computer program for image retrieval applicable to the image retrieval device
KR101592999B1 (ko) * 2009-02-09 2016-02-11 삼성전자주식회사 휴대용 단말기에서 손 모양을 인식하기 위한 장치 및 방법
JP5254893B2 (ja) * 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
JP2012198781A (ja) * 2011-03-22 2012-10-18 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5417368B2 (ja) 2011-03-25 2014-02-12 株式会社東芝 画像識別装置及び画像識別方法
JP5997545B2 (ja) 2012-08-22 2016-09-28 キヤノン株式会社 信号処理方法及び信号処理装置

Also Published As

Publication number Publication date
US9659227B2 (en) 2017-05-23
JP2015191545A (ja) 2015-11-02
US20150279039A1 (en) 2015-10-01

Similar Documents

Publication Publication Date Title
JP4628882B2 (ja) 判別器の学習方法、顔判別方法および装置並びにプログラム
JP2018151748A (ja) 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム
CN104915949A (zh) 一种结合点特征和线特征的图像匹配算法
CN111133471A (zh) 信息处理装置
JP6278108B2 (ja) 画像処理装置、画像センサ、画像処理方法
JP4772819B2 (ja) 画像検索装置および画像検索方法
JP6937508B2 (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
JP6448204B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP2010165052A (ja) 画像処理装置及び画像処理方法
US5521987A (en) Image processing method and apparatus employing gray scale images having fewer bits per pixel and gray scale image restoration using small areas of an image window
CN110546687B (zh) 图像处理装置及二维图像生成用程序
JP2018206260A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
RU2361273C2 (ru) Способ и устройство для распознавания изображений объектов
WO2021117363A1 (ja) オブジェクト検出方法及びオブジェクト検出装置
CN111164604A (zh) 信息处理装置
JP2018137667A (ja) カメラキャリブレーション方法、プログラムおよび装置
JP5625196B2 (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体
CN114550062A (zh) 图像中运动对象的确定方法、装置、电子设备和存储介质
CN114596245A (zh) 一种图像重构模型的生成方法和计算机设备
KR101620928B1 (ko) 우선순위 주소 배분과 이동창 기법을 이용한 얼굴검출 시스템
JP2020035338A (ja) 物体検出方法及び物体検出装置
US20230169307A1 (en) Method of executing class classification processing using machine learning model, information processing device, and non-transitory computer-readable storage medium storing computer program
JP2009032046A (ja) 分類装置、分類方法、ならびに、プログラム
KR101574409B1 (ko) 출판물의 핑거프린트 생성 방법과 이를 이용한 출판물 식별 장치 및 방법
JP6226206B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R151 Written notification of patent or utility model registration

Ref document number: 6448204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151