JP2015194927A - 対象識別装置 - Google Patents

対象識別装置 Download PDF

Info

Publication number
JP2015194927A
JP2015194927A JP2014072837A JP2014072837A JP2015194927A JP 2015194927 A JP2015194927 A JP 2015194927A JP 2014072837 A JP2014072837 A JP 2014072837A JP 2014072837 A JP2014072837 A JP 2014072837A JP 2015194927 A JP2015194927 A JP 2015194927A
Authority
JP
Japan
Prior art keywords
data
learning
target
input data
sample data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014072837A
Other languages
English (en)
Other versions
JP6255296B2 (ja
Inventor
徳見 修
Osamu Tokumi
修 徳見
黒川 高晴
Takaharu Kurokawa
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014072837A priority Critical patent/JP6255296B2/ja
Publication of JP2015194927A publication Critical patent/JP2015194927A/ja
Application granted granted Critical
Publication of JP6255296B2 publication Critical patent/JP6255296B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】機械学習した識別器の識別精度は学習データを増やしても効果的に向上しない。
【解決手段】入力データが所定の対象を含んだ対象データと前記対象を含まない非対象データとのいずれのクラスであるかを識別する対象識別装置であって、標本データ記憶手段は、予め識別された対象データと非対象データとを標本データとしてそれぞれ複数記憶している。学習用データ選出手段13は各標本データと入力データとの相違度を算出し、相違度が疎隔値を超えない標本データを除外して相違度が疎隔値を超える標本データの一部または全部を学習用データとして選出する。ローカル識別器生成手段14は学習用データを用いた学習により、入力データについての識別器を生成する。入力データ識別手段15は当該識別器により入力データが対象を含むか否かを識別させる。
【選択図】図2

Description

本発明は、入力データが所定の対象を含むか否かを識別する対象識別装置に関する。
監視カメラの画像やデジタルスチルカメラの画像から人や顔などの対象物を検知する技術として識別器を用いたものが知られている。識別器は、対象物である人が撮された対象物画像、及び対象物が撮されていない非対象物画像からなる多数の学習用画像を用いた学習により生成される。従来は、一群の学習用画像から生成された同じ識別器を用いて、複数の入力画像について識別を行っている。また、学習用画像の数を増やすこと、特に識別境界付近の学習用画像を増やすことが識別精度の向上に効果があると言われており、できる限り多数の画像を収集して識別器を学習させるための研究が行われてきた。
例えば、特許文献1には、装置の設置環境の特性にあわせて識別器を学習させる物体検出装置が提案されている。この物体検出装置は、監視カメラを設置した時に監視カメラからの画像を用いて識別器を学習させることで、識別境界付近の学習用画像を増やしている。この物体検出装置が学習した識別器は、各監視カメラが撮影する画像の全てに共通して用いられる。
特開2010−170201号公報
しかし、実際に学習用画像を増やしても識別精度は飽和する傾向にあり、効果的に識別精度を向上させることが困難であった。精度飽和の要因の1つに、全ての入力画像に対して共通の識別器を学習させていることが考えられる。つまり、識別器の精度を全ての入力画像に対して平均的に高くしても、統計的に見て少数派となる一定割合の入力画像に対しては精度が平均値より大きく下回ることが考えられる。また、識別境界付近では、学習用画像が有限個数であり離散的である以上、入力画像に近い学習用画像を用いて学習したか否かの次第で性能が左右される偶発性が存在する。この偶発性によって性能が安定せず、近い学習用画像を用意できなかった一定割合の入力画像に対して精度が低くなることも精度飽和の要因と考えられる。そして、識別境界付近の全ての入力画像について、それに近い対象物画像と非対象物画像とを実際に用意しておくことはほぼ不可能である。
本発明は上記問題を鑑みてなされたものであり、入力データ付近における学習データの収集状態に依存せずに高い識別精度を実現可能な対象識別装置を提供することを目的とする。
本発明に係る対象識別装置は、入力データが所定の対象を含むか否かを識別する対象識別装置であって、予め前記対象を含むか否かが識別された複数の標本データを記憶している標本データ記憶手段と、前記各標本データと前記入力データとの相違度を算出し、前記相違度が疎隔値を超えない標本データを除外して前記相違度が疎隔値を超える標本データの一部または全部を学習用データとして選出する学習用データ選出手段と、前記学習用データを用いた学習により、前記入力データについての識別器を生成する識別器生成手段と、前記識別器により前記入力データが前記対象を含むか否かを識別させる入力データ識別手段と、を備える。
本発明に係る対象識別装置において、さらに、予めの学習にて定められた、前記標本データを表すベクトルの各成分の信頼度を予め記憶した信頼度記憶手段を有し、前記学習用データ選出手段は、前記標本データと前記入力データとの前記相違度として、当該両データを表す2つのベクトルについて前記信頼度で重み付けした相違度を算出する構成とすることができる。
また本発明に係る対象識別装置において、さらに、予めの学習により定められた、前記対象を含む標本データ及び前記対象を含まない標本データを分ける識別境界と、前記各標本データとの間の第1距離値を予め記憶した距離値記憶手段を有し、前記学習用データ選出手段は、前記識別境界と前記入力データとの間の第2距離値を算出して、前記標本データと前記入力データとの前記相違度として前記第1距離値と前記第2距離値との差を算出する構成とすることができる。
他の本発明に係る対象識別装置においては、前記学習用データ選出手段は、前記入力データと前記対象を含むと識別された標本データとの前記相違度に基づいて前記対象を含むと識別された標本データのうちの複数の標本データを前記学習用データとして選出可能な前記疎隔値を決定する構成とすることができる。
別の本発明に係る対象識別装置においては、前記学習用データは前記対象を含む標本データと前記対象を含まない標本データとを予め定めた同じ数ずつ含む構成とすることができる。
他の本発明に係る対象識別装置は、入力データが所定の対象を含むか否かを識別する対象識別装置であって、前記入力データがとり得る範囲内の複数の特徴データそれぞれに付与したインデックスと、当該インデックスを付与した特徴データの識別に適した識別器の構成情報とを対応付けたテーブルを予め記憶した識別器テーブル記憶手段と、前記入力データと対応する特徴データから前記インデックスを特定し、当該インデックスに対応する前記識別器の構成情報を用いて識別器を生成する識別器生成手段と、を有し、前記識別器生成手段が生成した識別器にて前記入力データに所定の対象を含むか否かを識別する。
本発明に係る対象識別装置においては、前記識別器テーブル記憶手段に記憶する前記構成情報は、前記対象を含むか否かが予め識別された複数の標本データの中から前記特徴データとの相違度が疎隔値を超えない標本データを除外した残余の標本データの一部又は全部を用いた学習により生成された構成情報である構成とすることができる。
本発明によれば、入力データごとに、当該入力データ付近を除いて選出した学習用データを用いた学習により識別器を生成して当該入力データを識別するので、個々の入力データに対する識別精度を高めることが容易となり、また入力データの近傍に存在する学習データに識別精度を左右されにくくなる。そのため、学習用標本データの収集状態に依存せずに高精度な識別が可能となる。
本発明の実施形態に係る画像センサーの概略の構成を示すブロック図である。 本発明の第1の実施形態に係る画像センサーの概略の機能ブロック図である。 学習用データの選出の仕方の例を説明する模式図である。 本発明の実施形態に係る画像センサーの概略の動作を示すフロー図である。 本発明の第1の実施形態に係る画像センサーの識別処理の概略のフロー図である。 学習用データの選出の仕方の他の例を説明する模式図である。 学習用データの選出の仕方の他の例を説明する模式図である。 学習用データの選出の仕方の他の例を説明する模式図である。 本発明の第2の実施形態に係る画像センサーの概略の機能ブロック図である。
本発明の実施の形態(以下実施形態という)である画像センサー1は監視空間を撮影して侵入者を検知する。画像センサー1は本発明に係る対象識別装置を備える。当該対象識別装置は撮影した画像、又は当該画像から抽出した特徴量を入力データとし、入力データに所定の対象が含まれているか否かを識別する。対象識別装置の基本構成における原理では、予め用意した複数クラスの標本データのうちの比較的少数であって入力データの識別に有効なものを学習用データとして選択し、これら選択した学習用データで識別境界を生成し入力データの識別を行う。以下、標本データ全てを用いて生成され各入力データに共通に適用される従来の識別器、識別境界をグローバル識別器、グローバル識別境界と呼び、一方、用意した標本データから各入力データに対応して選択したものを用いて生成される識別器、識別境界をローカル識別器、ローカル識別境界と呼ぶことにする。本発明の発明者は、入力データに対して一定以下の相違度を有する標本データを選択対象から除外し、相違度が一定より大きな標本データだけを用いてローカル識別器、ローカル識別境界を生成すると、入力データの識別精度が格段に向上するとの知見を得た。本発明は上記知見に基づいてなされたものである。以下、本発明の実施形態である画像センサー1を図面に基づいて説明する。
《第1の実施形態》
[画像センサー1の構成]
画像センサー1は監視空間を撮影して侵入者を検知する。そのため画像センサー1は人の像を識別対象とした対象識別装置を備える。図1は画像センサー1の概略の構成を示すブロック図である。画像センサー1は撮影部2、記憶部3、画像処理部4及び出力部5を含んで構成される。画像処理部4は撮影部2、記憶部3及び出力部5と接続される。
撮影部2は例えば、CCDイメージセンサまたはC−MOSイメージセンサなどの撮像素子を用いて、監視空間から受光した光をグレースケールまたはカラーの画像信号に変換するカメラである。撮影部2は監視空間を所定時間おきに撮影し、撮影した画像を順次、画像処理部4に入力する。
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部3は画像処理部4を後述する各手段として動作させるためのプログラム、学習データや各手段が生成したデータなどの各種データを記憶し、画像処理部4との間でこれらのプログラムやデータを入出力する。
画像処理部4はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の少なくとも1つのプロセッサ、及びその周辺回路を用いて構成される。画像処理部4は記憶部3からプログラムを読み出して実行することで、後述する各手段として動作し、撮影部2から入力された画像に人の像が含まれているか否かを識別し、人の像が含まれていた場合、侵入者を検知したとして出力部5に検知信号を出力する。
出力部5は検知信号を入力されると外部出力を行うインターフェース機器であり、例えば、ネットワークに接続されて警備センターに通報を行う。また例えば、ブザー等に接続されてブザー鳴動による報知を行わせる。
図2は第1の実施形態である画像センサー1の概略の機能ブロック図である。画像処理部4は、切り出し手段10、特徴抽出手段11、学習用データ選出手段13、ローカル識別器生成手段14及び入力データ識別手段15として適宜動作する。記憶部3は標本データ記憶手段12、信頼度記憶手段、及び距離値記憶手段として機能する。対象識別装置は、少なくとも標本データ記憶手段12、学習用データ選出手段13、ローカル識別器生成手段14及び入力データ識別手段15を含む。
切り出し手段10は撮影部2から入力された画像(入力画像)から一部の領域を切り出して、切り出した部分画像を特徴抽出手段11に入力する。切り出し手段10は入力画像全体の各所から切り出しを行う。また切り出しは、入力画像中で検出したい人サイズの範囲に応じて画像または切り出す領域を拡大及び縮小して行われる。部分画像のサイズ(幅及び高さ)は標本データの基となった画像と同サイズに規格化する。切り出し手段10は、例えば、入力画像を予め定めた範囲で複数通りに拡大及び縮小し、入力画像、並びにその拡大画像及び縮小画像それぞれの画像上にて、標本データを抽出した画像のサイズと同一サイズの窓領域を垂直方向及び水平方向に所定画素ずつずらして順次配置し、各配置における窓領域内の画像を部分画像として順次出力する。
特徴抽出手段11は切り出し手段10が切り出した部分画像から予め定めた種類の特徴量を抽出し、抽出した特徴量を学習用データ選出手段13へ出力する。特徴量として輝度勾配方向分布に関するヒストグラム・オブ・オリエンティッド・グラディエント(Histograms of Oriented Gradients:HoG)を用いることができる。または、ハール(Haar)特徴量、ローカル・バイナリー・パターン(Local Binary Pattern:LBP)、スパースコーディング(Sparse Coding)係数、部分画像そのもの、エッジ画像など、対象の識別に適した特徴量を用いることができる。いずれの特徴量も複数の要素からなる特徴ベクトルで表現される。この部分画像から抽出した特徴量が本実施形態における入力データである。
標本データ記憶手段12は予め対象を含むことが識別された複数の対象データと予め対象を含まないことが識別された複数の非対象データとを標本データとして予め記憶している。標本データは、ローカル識別器の学習用データとして学習用データ選出手段13により読み出され、ローカル識別器生成手段14によるローカル識別器の学習・生成に用いられる。
具体的には、対象データは、人の全身が写っているN枚の画像それぞれから特徴抽出手段11が事前に抽出したN個の特徴量と、それらが対象データであることを示す符号(例えば値“1”)とを対応付けたデータである。また、非対象データは、人が写っていないM枚の画像それぞれから特徴抽出手段11が事前に抽出したM個の特徴量と、それらが対象データでないことを示す符号(例えば値“0”)とを対応付けたデータである。
標本データを抽出する画像のサイズは規格化され、全て一定サイズであり、例えば、幅64×高さ128画素である。また、標本データは抽出元の画像の特徴量(特徴ベクトル)であり、その種類は特徴抽出手段11が抽出する特徴量と同種である。
ここで、標本データ記憶手段12に格納される全ての対象データと全ての非対象データ、つまり全ての標本データを用いて予め機械学習を行い、入力データが対象データと非対象データとのいずれのクラスであるかを識別するグローバル識別器を生成することができる。例えば、グローバル識別器はサポートベクターマシーン(SVM)で構成することができる。また、サポートベクターマシーンに代えて、全ての対象データと全ての非対象データにフィッシャー(Fisher)判別分析法あるいはアダブースト(AdaBoost)法などを適用することによって生成したグローバル識別器を用いることもできる。グローバル識別器の構成情報は予め記憶部3に記憶される。
グローバル識別器を用いてグローバル識別境界と各標本データとの間の距離値(第1距離値)を予め求めることができる。グローバル識別境界は、全ての標本データを用いた予めの学習により定められた、これらの標本データを対象データと非対象データとに分ける識別境界であり、グローバル識別器の構成情報として記憶部3に記憶される。ちなみに、当該距離値はグローバル識別器に各標本データを入力したときの出力値として得られる。記憶部3は、予め算出された当該距離値、すなわちグローバル識別境界から対象データそれぞれまでの距離値及びグローバル識別境界から非対象データそれぞれまでの距離値を記憶する(距離値記憶手段)。
なお、識別器の種類によっては、尤度をその出力値とするものもあるが、尤度も距離値と同質のものとして扱うことができる。
また、記憶部3は標本データを表す特徴ベクトルの各成分が有する識別の信頼度を予め記憶する(信頼度記憶手段)。当該信頼度は、グローバル識別器における特徴ベクトルの各成分の重みであり、グローバル識別器の構成情報として予め記憶部3に記憶される。
学習用データ選出手段13は、対象を含む標本データである対象データN個と、対象を含まない標本データである非対象データM個との両方を学習用データとして選出する。特に、学習用データ選出手段13は、標本データのうち入力データの近傍のものを除外して当該入力データに対する相違度が疎隔値を超えるものの一部または全部を学習用データとして選出する。
疎隔値は、入力データ近傍の標本データとそれ以外の標本データとを弁別するための閾値であり、相違度と比較される。疎隔値は事前の実験に基づいて予め設定される、或いは入力データと標本データとの関係に基づいて入力データごとに設定される。
例えば、学習用データ選出手段13は、標本データのうち当該入力データとの相違度が予め定めた疎隔値未満のものを除いた残存標本データから学習用データを選出する。つまり、学習用データ選出手段13は標本データ記憶手段12に記憶されている標本データの中から、少なくとも入力データとの相違度が疎隔値T以上であるものを学習用データとして選出し、当該学習用データをローカル識別器生成手段14へ出力する。これにより、ローカル識別器の学習に用いる学習用データは、特徴空間において入力データの近傍に存在する標本データを含まないデータ集合となる。
具体的にはこの選出方法では、学習用データ選出手段13は標本データ記憶手段12に記憶されている対象データの中から入力データとの相違度が疎隔値T以上であるN個の対象データを選出すると共に、標本データ記憶手段12に記憶されている非対象データの中から入力データとの相違度が疎隔値T以上であるM個の非対象データを選出する。但し、N<N、M<Mであり、N及びMは予め定めておく。
ここで、選出する対象データの数Nと非対象データの数Mは同数とし、ローカル識別器の学習用データが対象データと非対象データとのいずれかに偏らないようにするのが好適である。このようにすることでローカル識別器が対象データ側、又は非対象データ側に偏ることが防げ、識別精度が向上する。
また、ローカル識別器生成手段14における学習が確実に収束するよう、特徴量の次元数Pと比べて、N+Mを十分小さくするのが望ましい。例えば、P=5000のときにN=M=100とする。
学習用データ選出手段13における学習用データの選出の仕方についてはさらに後述する。
ローカル識別器生成手段14は学習用データ選出手段13にて選出した学習用データを用いた機械学習によりローカル識別器を生成する。すなわち、ローカル識別器生成手段14は、選出されたN個の対象データ及びM個の非対象データを用い、当該対象データ及び当該非対象データによって形成される特徴空間において、当該対象データが帰属する対象領域と当該非対象データが帰属する非対象領域とを分けるローカル識別境界を学習し、入力データ識別手段15へ出力する。
例えば、ローカル識別器はサポートベクターマシーンで構成される。また、フィッシャー判別分析法、アダブースト法などを用いた機械学習により生成することもできる。なお、ローカル識別器はグローバル識別器と同種の識別器である必要はない。
入力データ識別手段15は入力データをローカル識別器生成手段14により生成されたローカル識別器に入力して、入力データに対象が含まれているか否かを識別する。対象が含まれていると識別した場合、入力データ識別手段15は検知信号を生成して出力部5へ出力する。すなわち、入力データ識別手段15は入力データをローカル識別器に入力することでローカル識別境界から入力データまでの距離値を算出し、当該距離値が正であれば入力データが対象を含むと識別し、距離値が0又は負であれば入力データが対象を含まないと識別する。
[学習用データの選出方法]
学習用データ選出手段13による学習用データの選出方法を説明する。N,N,M,M,T等の記号は上述した選出方法と共通とする。なお、Tは入力データの近傍にて学習用データが選出されない領域(空白領域)を規定する相違度の上限値であり、上述した選出方法では学習用データの選出範囲の下限閾値として選出に利用している。
以下に説明する選出方法は、入力データと標本データとの相違度として入力データから標本データまでの距離値を直接算出するのではなく、グローバル識別境界から入力データまでの距離値(第2距離値)とグローバル識別境界から標本データまでの距離値(第1距離値)との差を相違度として算出する。
グローバル識別境界から入力データまでの距離値は、入力データを記憶部3に記憶しているグローバル識別器に入力したときの出力値として得られる。一方、グローバル識別境界から各標本データまでの距離値は記憶部3に予め記憶されており、これを読み出して利用することができる。
なお、グローバル識別器に入力して得られる距離値は、特徴ベクトルにて識別性の高い要素(成分)ほど高く重み付けた重み付け距離値となっている。ここで、重み付けを行わない場合、入力データと標本データとの間の識別性の低い要素における違いによって相違度が不当に高くなり、特徴空間において入力データの近傍に存在する標本データが学習用データとして選出されてしまう可能性が高まってしまうが、重み付け距離値を相違度とすることでその可能性を低減できる。
また、グローバル識別境界から各標本データまでの距離値は予め算出しておくことができるため、入力データごとに相違度を算出するための負荷を減じることができる。標本データの数が多いほど当該効果は大きくなる。
空白領域の疎隔値Tは上述した選出方法のように予め定めて選出範囲の閾値として利用することができるが、対象データを基準にして動的に定まるような選出方法もある。図3はこのTが動的に定まる学習用データの選出の仕方を説明する模式図である。同図において横軸はグローバル識別器の出力値(スコアS)であり、S=0がグローバル識別境界の位置であり、対象データのスコアは主に正の領域(境界から右側)に分布し、非対象データのスコアは主に負の領域(境界から左側)に分布する。
学習用データ選出手段13はまず、学習用データの選出範囲の基準位置として、入力データと対象データとの相違度の最大値DMAXを求める。そして対象データの中から相違度が当該最大値DMAXに近い順、つまり入力データとの相違度が大きい順にN個の対象データを学習用データとして選出する。例えば、入力データのスコアSを0.3、標本データのうちの対象データのスコア最大値SP−MAXを0.8とすると、DMAX=0.5となる。学習用データの対象データはSP−MAXを起点にSが大きい順にN個選出される。選出された対象データのスコアの範囲(選出範囲)を[SP−L,SP−H]とする。ここでSP−H=SP−MAXであり、対象データについての選出範囲はDMAXを基準にして入力データ側に設定される。
標本データのうちの学習用データとして選出する非対象データのスコア最小値SN−Lを入力データとの相違度がDMAXとなる値に定める。具体的にはSN−L=S−DMAXであり、図3の例ではSN−Lは−0.2となる。学習用データとしての非対象データはSN−Lを起点にSが小さい順(入力データとの相違度が大きい順)にM個選出される。選出された対象データのスコアの範囲を[SN−L,SN−H]とする。非対象データについての選出範囲は入力データに対して相違度がDMAX異なるSN−Lを基準にして入力データ側に設定される。
この学習用データの選出では、選出した対象データに対する相違度の最小値(SP−L−S)と、選出した非対象データに対する相違度の最小値(S−SN−H)とのいずれか小さい方が上述したTに相当する。すなわち、或る入力データについて選出した学習用データは、当該入力データとの相違度がT未満のものを除いた標本データから選出されている。
識別対象が人である本実施形態のように対象データ数よりも非対象データ数が多い場合は(S−SN−H)>(SP−L−S)となる。よって、DMAXとNとによって疎隔値Tが定まり、相違度がT未満の標本データを除外した残存標本データの中から学習用データを選出したことになる。
別の選出方法として、標本データの対象データの中から入力データとの相違度が大きい順にN個を学習用データの対象データとして選出すると共に選出した対象データの相違度の最小値(SP−L−S)を疎隔値Tとし、これを非対象データの選出に際して閾値として用い、標本データの非対象データのうち入力データとの相違度が疎隔値T以上であるものの中から相違度が小さい順にM個の非対象データを選出する方法がある。この選出方法においてもDMAXとNとによって疎隔値Tが定まり、相違度がT未満の標本データを除外した残存標本データの中から学習用データを選出したことになる。
ここで説明した入力データと対象データとの相違度の最大値DMAXを用いた選出方法では、対象データの中から入力データとの相違度ができるだけ大きなものを選出できる。このようにすれば、識別対象を人とした場合のように標本データにおいて非対象データよりも対象データの分布範囲の方が狭いデータを識別する場合に、特徴空間において入力データの近傍に存在する標本データが学習用データに選出される可能性を好適に排除できる。
MAXを用いたこれらの選出方法によって、学習用データ選出手段13は入力データと対象データとの相違度に基づいて複数の対象データを選出可能な疎隔値を決定している。これにより、複数の対象データ及び複数の非対象データを確実に含んだ学習用データを選出できる。
[画像センサー1の動作]
図4は画像センサー1の概略の動作を示すフロー図である。例えば、装置の管理者が電源を投入すると画像センサー1の各部が動作を始める。撮影部2は所定の時間間隔で監視空間を撮像し、撮像した画像を画像処理部4に入力する。画像処理部4は画像が入力されるたびにS1〜S7の処理を繰り返す。
画像処理部4は、撮影部2から順次、画像を取得する(ステップS1)。画像処理部4は切り出し手段10として機能し、例えば、0 .75倍〜1.5倍まで0.125刻みの7段階で監視画像を順次、拡大または縮小し、各倍率の画像の各所から64×128画素の部分画像を順次切り出す(ステップS2)。次に、画像処理部4は特徴抽出手段11として機能し、ステップS2にて切り出した部分画像から特徴量を抽出する(ステップS3)。ここでは、この部分画像から抽出された特徴量が上述した入力データに当たる。当該特徴量は画像センサー1の対象識別装置に入力され、当該特徴量に人の情報が含まれるかを識別する識別処理が行われる(ステップS4)。
図5は識別処理S4の概略のフロー図である。画像処理部4は本発明の対象識別装置を構成する学習用データ選出手段13として機能し、標本データ記憶手段12から標本データである対象データ及び非対象データを読み出すと共に、記憶部3の信頼度記憶手段から信頼度を、記憶部3の距離値記憶手段から距離値をそれぞれ読み出し、上述した相違度を算出する(S10)。具体的には、部分画像から抽出した特徴量と各対象データとの間で信頼度にて重み付けた相違度を算出し、相違度で対象データをソートする。また部分画像から抽出した特徴量と各非対象データとの間で信頼度にて重み付けた相違度を算出し、相違度で非対象データをソートする。そして、学習用データ選出手段13は、対象データの相違度の最大値DMAXを求め(ステップS11)、対象データの中から相違度が上位のN個を学習用データとして選出する(ステップS12)。また、非対象データのうち相違度がDMAX以下のものの中から相違度が上位のM個を学習用データとして選出する(ステップS13)。
次に、画像処理部4は本発明の対象識別装置を構成するローカル識別器生成手段14として機能し、特徴量に対応してステップS12及びS13にて選出した(N+M)個の学習用データを用いて当該特徴量に対応したローカル識別器を生成する(ステップS14)。
ローカル識別器が得られると、画像処理部4は本発明の対象識別装置を構成する入力データ識別手段15として機能し、ステップS14にて生成したローカル識別器に部分画像から抽出した特徴量を入力し、ローカル識別器の出力を識別結果として得る(ステップS15)。人の情報が含まれていることを示す識別結果が得られた場合、例えば、人を検知したことと、当該部分画像の切り出し位置及び倍率を記憶部3に記録する(ステップS16)。なお、侵入者を検知する画像センサー1においては、人の情報が含まれていないことを示す識別結果が得られた場合の記録は省略してもよい。
図4に戻り説明を続ける。監視画像から切り出される全ての部分画像についてステップS2〜S4の処理が繰り返され(ステップS5)、それが完了すると、画像処理部4はステップS4にて記録した識別結果に、人の情報が含まれていたことを示すものがあるかを調べる(ステップS6)。人の情報が含まれていたことを示す識別結果があれば、画像処理部4は侵入者を検知した旨を表す検知信号を出力部5に送出して、ステップS1に戻り次の監視画像の処理を開始する。一方、人の情報が含まれていたことを示す識別結果がなければ、画像処理部4は侵入者を検知しないとしてステップS1に戻り次の監視画像の処理を開始する。
[学習用データの選出方法の変形例]
(1)図3を用いて説明した上述の選出方法では、入力データに対する対象データの相違度の最大値DMAXを基準に学習用データとする対象データ及び非対象データをそれぞれ選出したが、基準とする値はDMAXに代えて、入力データに対する対象データの相違度の平均値DAVEとしてもよい。
図6は平均値DAVEを基準にした学習用データの選出の仕方を説明する模式図であり、図3と同様、横軸はグローバル識別器のスコアSである。学習用データ選出手段13は、学習用データとする対象データを、標本データにおける対象データのスコアの平均値SP−AVE又は、入力データと対象データとの相違度の平均値DAVEを求める。なお、SP−AVEとDAVEとはSP−AVE=S+DAVEなる関係にある。
学習用データとするN個の対象データとして、スコアSP−AVEの両側からそれぞれN/2個選出する。つまり、DAVEより相違度が大きい(つまりスコアがSP−AVEより大きい)対象データとDAVEより相違度が小さい(つまりスコアがSP−AVEより小さい)対象データとをそれぞれN/2個選出する。
非対象データに関しては、対象データに基づいて求めたDAVEを用いてSN−M=S−DAVEで与えられる基準点を定め、学習用データとするM個の非対象データとして、当該基準点SN−Mの両側からそれぞれM/2個選出する。つまり、DAVEより相違度が大きい(つまりスコアがSN−Mより小さい)対象データとDAVEより相違度が小さい(つまりスコアがSN−Mより大きい)対象データとをそれぞれM/2個選出する。
たとえば、図6の例では、標本データにおける対象データの分布に応じてSP−AVE=0.7またはスコアS=0.3なる入力データに対してDAVE=0.4が定まり、その結果、非対象データの選出基準点SN−MはSN−M=−0.1に設定される。
なお、この選出方法を実行すると、DAVEとNとによって疎隔値Tが定まり、相違度がT未満の標本データを除外した残存標本データの中から学習用データを選出したことになる。
この方法によっても、学習用データ選出手段13は入力データと対象データとの相違度に基づいて複数の対象データを選出可能な疎隔値を決定している。これにより、複数の対象データ及び複数の非対象データを確実に含んだ学習用データを選出できる。
(2)図3や図6で説明した選出方法では入力データ及び標本データそれぞれのグローバル識別境界からの距離値の差を相違度として求めたが、入力データから各標本データまでの距離値を直接求めて相違度とすることもできる。その際、特徴ベクトルで表現された入力データ及び標本データそれぞれの各要素(ベクトル成分)を、全ての対象データと全ての非対象データを用いて機械学習した識別の信頼度にて重み付けた重み付け距離値(重み付けユークリッド距離)とするのがよい。なお、各要素に対する識別の信頼度は、グローバル識別器における当該要素に対する重みとして標本データ記憶手段12に記憶されている。
重み付け距離値を用いることで、識別性の低い要素が入力データと偶然に相違している標本データの相違度が不当に高くなることを防止でき、特徴空間において入力データの近傍に存在する標本データが学習用データに含まれてしまう可能性を減じることができる。
図7はこの選出方法の一例を示す特徴空間の模式図であり、▲印は入力データ、標本データのうち対象データを●及び○印で、また非対象データを■及び□印で示している。このうち●及び■印は本手法で学習用データとして選出され得る候補であり、○及び□印は選出されないデータである。
図7に示す選出方法では、空白領域の上限相違度として予め設定された疎隔値Tを用い、相違度が疎隔値T以上の対象データの中からN個をランダムに選出し、相違度が疎隔値T以上の非対象データの中からM個をランダムに選出する。この方法では簡単な方法でローカルデータにおける対象データ及び非対象データのそれぞれが偏りなく選出でき、ローカル識別器の識別精度が向上する。なお、距離値の代わりに正規化相関値の逆数を相違度としてもよい。
図8は他の例を示す特徴空間の模式図であり、図に示す記号は図7と共通である。図8に示す選出方法では、相違度が疎隔値T以上の対象データと相違度が疎隔値Tより大きな非対象データとを比較して、N個の対象データ及びM個の非対象データを確保可能な相違度の範囲[TMIN,TMAX]を決定し、当該範囲の中からN個の対象データ及びM個の非対象データをランダムに選出する。この方法では規定数の学習用データを確実に確保でき、ローカル識別器の識別精度が向上する。
なお、相違度が疎隔値T以上の対象データの中から相違度の分散を最大化するN個を選出し、相違度が疎隔値T以上の非対象データの中から相違度の分散を最大化するM個を選出してもよい。具体的には、選出するN個の対象データを変えながらこれらN個の相違度の分散を求め、先に求めた分散と比較することを繰り返すことで、相違度の分散を最大化するN個を選出する。非対象データについても同様にして分散の最大化を図る。
《第2の実施形態》
本発明の第2の実施形態に係る画像センサー1では、本発明の特徴である、学習用データの選出及びそれに基づくローカル識別器の生成の中核処理が予め行われ、生成されたローカル識別器の構成情報を記憶部から読み出して各入力データに対応したローカル識別器を生成する。この点で第1の実施形態の画像センサー1と基本的に相違する。
以下、第1の実施形態と同一の構成要素には同一の符号を付して第1の実施形態での説明を援用しここでの説明の簡素化を図ることとし、主に、第2の実施形態の画像センサー1が第1の実施形態と異なる点について説明する。
図9は第2の実施形態である画像センサー1の概略の機能ブロック図である。画像処理部4は、切り出し手段10、特徴抽出手段11、ローカル識別器生成手段17及び入力データ識別手段15として適宜動作する。記憶部3は識別器テーブル記憶手段16として動作する。対象識別装置は、少なくとも識別器テーブル記憶手段16、ローカル識別器生成手段17及び入力データ識別手段15を含む。
識別器テーブル記憶手段16は、入力データがとり得る範囲内の特徴データそれぞれに付与したインデックスと、当該インデックスを付与した特徴データの識別に適したローカル識別器の構成情報とを対応付けるテーブルである。各特徴データの識別に適したローカル識別器は、特徴空間における各点で表される特徴データ(特徴ベクトル)を仮想的な入力データとして第1の実施形態で説明した方法を適用して予め生成することができる。すなわち、識別器テーブル記憶手段16に記載する構成情報は、対象を含むか否かが予め識別された複数の標本データの中から、インデックスを介して当該構成情報と対応付けられた特徴データとの相違度が疎隔値を超えない標本データを除外した残余の標本データの一部又は全部を用いた学習により生成された構成情報である。
ローカル識別器は線形結合された識別関数で与えられ、その線形式の各項の係数のセットを識別器の構成情報とすることができる。なお、係数の個数は基本的には特徴量の次元数で定まるが、スパースコーディングや、主成分分析、独立成分分析などの手法を用いることで、実質的な係数の個数を減らすことができ、そのような手法により、識別器テーブル記憶手段16に格納するテーブルのサイズを小さくすることができる。
例えば、入力データがとり得る範囲は、特徴空間における標本データの分布範囲とすることができ、この範囲において、特徴空間の各次元を予め定めた間隔で離散化して得られる微小空間ごとに、当該微小空間を代表する特徴ベクトル定め、これに対応するローカル識別器の構成情報を求める。
微小空間にはそれらを代表するインデックスを付与し、識別器テーブル記憶手段16には当該インデックスとローカル識別器の構成情報とを対応付けたテーブルが格納される。
ローカル識別器生成手段17は、特徴抽出手段11から入力データが入力されると、入力データと対応する特徴データを求め、求めた特徴データからそのインデックスを特定する。例えば、入力データとの距離が最も近い特徴データのインデックスを求める。そして、これをキーとして識別器テーブル記憶手段16のテーブルを検索して当該インデックスに対応するローカル識別器の構成情報を読み出し、ローカル識別器を作る。
入力データ識別手段15は入力データをローカル識別器生成手段17により生成されたローカル識別器に入力して、ローカル識別器により入力データが対象をが含むか否かを識別させる。対象が含まれていると識別された場合、入力データ識別手段15は検知信号を生成して出力部5へ出力する。
このテーブルに予めローカル識別器の構成情報を格納しておく構成は、入力データごとに学習用データの選出、及びローカル識別器の生成のための演算処理を省略することができ、画像センサー1の処理負荷が軽減され、処理速度が向上する効果がある。
特に当該効果は、テーブルがグローバル識別器の出力値(スコア)をローカル識別器の構成情報に対応付けた場合に顕著となる。この場合には、テーブルは離散化されたスコアごとにローカル識別器の構成情報を格納する。対象識別装置は予め用意した標本データから予め生成されたグローバル識別器を有し、ローカル識別器生成手段17は入力データに対してグローバル識別器のスコアを算出し、それに対応するインデックスを求めテーブルを検索する。
この構成では、インデックスは1次元であるスコア軸を離散化して設定され、インデックスの数は多次元の空間を離散化する場合よりはるかに少なくなる。つまり、テーブルのサイズを小さくでき、記憶部3の容量を少なくできると共に画像処理部4におけるテーブルの検索処理時間を短縮できる。
なお、グローバル識別器は例えば、その構成情報を識別器テーブル記憶手段16に格納しておき、ローカル識別器生成手段17が読み出して利用する構成とすることができる。
[その他の変形例]
(1)入力データは、入力画像そのもの、入力画像の全体から特徴抽出手段11により抽出した特徴量または切り出し手段10が切り出した部分画像とすることもできる。
撮影部2に代えて画像ファイルを格納している録画装置やコンピューターを接続し、過去に撮影された画像又はその特徴量を対象識別装置への入力データとしてもよい。
さらに、入力データは画像に限らない。音響信号、マイクロ波センサー等のセンサー信号又はそれらの特徴量などとしてもよい。
(2)上記実施形態では人の像と人以外の像を識別する例を示したが、対象はこれに限らない。例えば、入力データが画像又はその特徴量の場合は対象を人の顔、性別または車両などとすることができ、入力データが音響信号又はその特徴量の場合は対象を悲鳴などとすることができる。
(3)上記実施形態では対象と非対象を識別する2クラス問題を例示したが、車種判定、文字認識、顔による個人識別などの多クラス問題にも適用できる。この場合、クラスのペアごとに学習データを選出して該ペア間のローカル識別境界を学習すればよい。
(4)上記第1の実施形態では、標本データ記憶手段12が記憶している全ての標本データを用いてグローバル識別器、グローバル識別境界及び信頼度を学習しておくとしたが、記憶している標本データ数と学習に用いた標本データ数とは異なっていてもよく、N個より十分多い個数の対象データ及びM個より十分多い個数の非対象データを用いて学習しておけばよい。例えば、グローバル識別器、グローバル識別境界及び信頼度の学習後に、標本データ記憶手段12に新たな標本データを追記してローカル識別器の生成に利用可能なデータを増やす運用などが考えられる。要するにグローバル識別器、グローバル識別境界及び信頼度は入力データの近傍の標本データを除外した学習によって生成できない代わりに、ローカル識別器の学習用データよりも多くの標本データを用いて予めの学習により生成しておける点が重要である。
なお、この場合、標本データの追記と共に当該標本データの第1距離値を算出して距離値記憶手段に追記しておく。
(5)上記実施形態では、対象識別装置が入力データの全てに対してローカル識別器を生成または読み出し、当該ローカル識別器により入力データを識別したが、別の実施形態において対象識別装置はグローバル識別境界付近の入力データに限定してローカル識別器を用い、その他の入力データに対してはグローバル識別器により入力データを識別することで識別精度を維持しつつ計算量を削減する。
すなわち、対象識別装置はまずグローバル識別器に入力データを入力して、出力値であるスコア(グローバル・スコア)の絶対値|S|を予め定めた閾値Tと比較する。|S|>Tの場合、対象識別装置はSに基づき入力データが対象を含むか否かを識別する。例えばS>0であれば対象を含み、S≦0であれば対象を含まないと識別する。他方、|S|≦Tの場合、対象識別装置は上述したように入力データに対応してローカル識別器を生成または読み出して、当該ローカル識別器により入力データを識別する。
1 画像センサー、2 撮影部、3 記憶部、4 画像処理部、5 出力部、10 切り出し手段、11 特徴抽出手段、12 標本データ記憶手段、13 学習用データ選出手段、14,17 ローカル識別器生成手段、15 入力データ識別手段、16 識別器テーブル記憶手段。

Claims (7)

  1. 入力データが所定の対象を含むか否かを識別する対象識別装置であって、
    予め前記対象を含むか否かが識別された複数の標本データを記憶している標本データ記憶手段と、
    前記各標本データと前記入力データとの相違度を算出し、前記相違度が疎隔値を超えない標本データを除外して前記相違度が疎隔値を超える標本データの一部または全部を学習用データとして選出する学習用データ選出手段と、
    前記学習用データを用いた学習により、前記入力データについての識別器を生成する識別器生成手段と、
    前記識別器により前記入力データが前記対象を含むか否かを識別させる入力データ識別手段と、
    を備えたことを特徴とする対象識別装置。
  2. さらに、予めの学習にて定められた、前記標本データを表すベクトルの各成分の信頼度を予め記憶した信頼度記憶手段を有し、
    前記学習用データ選出手段は、前記標本データと前記入力データとの前記相違度として、当該両データを表す2つのベクトルについて前記信頼度で重み付けした相違度を算出すること、
    を特徴とする請求項1に記載の対象識別装置。
  3. さらに、予めの学習により定められた、前記対象を含む標本データ及び前記対象を含まない標本データを分ける識別境界と、前記各標本データとの間の第1距離値を予め記憶した距離値記憶手段を有し、
    前記学習用データ選出手段は、前記識別境界と前記入力データとの間の第2距離値を算出して、前記標本データと前記入力データとの前記相違度として前記第1距離値と前記第2距離値との差を算出すること、
    を特徴とする請求項1に記載の対象識別装置。
  4. 前記学習用データ選出手段は、前記入力データと前記対象を含むと識別された標本データとの前記相違度に基づいて前記対象を含むと識別された標本データのうちの複数の標本データを前記学習用データとして選出可能な前記疎隔値を決定すること、を特徴とする請求項1から請求項3のいずれか1つに記載の対象識別装置。
  5. 前記学習用データは前記対象を含む標本データと前記対象を含まない標本データとを予め定めた同じ数ずつ含むこと、を特徴とする請求項1から請求項4のいずれか1つに記載の対象識別装置。
  6. 入力データが所定の対象を含むか否かを識別する対象識別装置であって、
    前記入力データがとり得る範囲内の複数の特徴データそれぞれに付与したインデックスと、当該インデックスを付与した特徴データの識別に適した識別器の構成情報とを対応付けたテーブルを予め記憶した識別器テーブル記憶手段と、
    前記入力データと対応する特徴データから前記インデックスを特定し、当該インデックスに対応する前記識別器の構成情報を用いて識別器を生成する識別器生成手段と、を有し、
    前記識別器生成手段が生成した識別器にて前記入力データに所定の対象を含むか否かを識別すること、
    を特徴とする対象識別装置。
  7. 前記識別器テーブル記憶手段に記憶する前記構成情報は、前記対象を含むか否かが予め識別された複数の標本データの中から前記特徴データとの相違度が疎隔値を超えない標本データを除外した残余の標本データの一部又は全部を用いた学習により生成された構成情報であること、を特徴とする請求項6に記載の対象識別装置。
JP2014072837A 2014-03-31 2014-03-31 対象識別装置 Active JP6255296B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014072837A JP6255296B2 (ja) 2014-03-31 2014-03-31 対象識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014072837A JP6255296B2 (ja) 2014-03-31 2014-03-31 対象識別装置

Publications (2)

Publication Number Publication Date
JP2015194927A true JP2015194927A (ja) 2015-11-05
JP6255296B2 JP6255296B2 (ja) 2017-12-27

Family

ID=54433866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014072837A Active JP6255296B2 (ja) 2014-03-31 2014-03-31 対象識別装置

Country Status (1)

Country Link
JP (1) JP6255296B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187918A (ja) * 2016-04-05 2017-10-12 日本電信電話株式会社 訓練画像選択装置、方法、及びプログラム
JP2020021372A (ja) * 2018-08-02 2020-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法および情報処理システム
JP2020058590A (ja) * 2018-10-10 2020-04-16 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
WO2020261906A1 (ja) * 2019-06-27 2020-12-30 キヤノン株式会社 画像処理装置及びその方法、画像入力装置、画像処理システム、プログラム
WO2022157892A1 (ja) * 2021-01-21 2022-07-28 日本電信電話株式会社 画像選出装置、画像選出方法、及び、画像選出プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168113A (ja) * 2001-12-04 2003-06-13 Nec Corp 画像認識システム、画像認識方法および画像認識プログラム
JP2003208595A (ja) * 2002-01-10 2003-07-25 Mitsubishi Electric Corp 類識別装置及び類識別方法
JP2004341959A (ja) * 2003-05-16 2004-12-02 Just Syst Corp データ分類装置、データ分類方法およびその方法をコンピュータに実行させるプログラム
JP2005198970A (ja) * 2004-01-19 2005-07-28 Konica Minolta Medical & Graphic Inc 医用画像処理装置
JP2006189915A (ja) * 2004-12-28 2006-07-20 Olympus Corp 分類装置及び分類方法
JP2009140285A (ja) * 2007-12-07 2009-06-25 Fujifilm Corp 画像識別装置、画像識別方法、及び、撮像装置
JP2009282660A (ja) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム
JP2010170201A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2011044064A (ja) * 2009-08-24 2011-03-03 Nikon Corp 画像処理装置、および画像処理プログラム
WO2012032889A1 (ja) * 2010-09-09 2012-03-15 日本電気株式会社 物体識別向けの学習装置、学習システム、学習方法、及び学習プログラム
WO2013186906A1 (ja) * 2012-06-14 2013-12-19 トヨタ自動車株式会社 識別器生成装置およびパターン検出装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168113A (ja) * 2001-12-04 2003-06-13 Nec Corp 画像認識システム、画像認識方法および画像認識プログラム
JP2003208595A (ja) * 2002-01-10 2003-07-25 Mitsubishi Electric Corp 類識別装置及び類識別方法
JP2004341959A (ja) * 2003-05-16 2004-12-02 Just Syst Corp データ分類装置、データ分類方法およびその方法をコンピュータに実行させるプログラム
JP2005198970A (ja) * 2004-01-19 2005-07-28 Konica Minolta Medical & Graphic Inc 医用画像処理装置
JP2006189915A (ja) * 2004-12-28 2006-07-20 Olympus Corp 分類装置及び分類方法
JP2009140285A (ja) * 2007-12-07 2009-06-25 Fujifilm Corp 画像識別装置、画像識別方法、及び、撮像装置
JP2009282660A (ja) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム
JP2010170201A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2011044064A (ja) * 2009-08-24 2011-03-03 Nikon Corp 画像処理装置、および画像処理プログラム
WO2012032889A1 (ja) * 2010-09-09 2012-03-15 日本電気株式会社 物体識別向けの学習装置、学習システム、学習方法、及び学習プログラム
WO2013186906A1 (ja) * 2012-06-14 2013-12-19 トヨタ自動車株式会社 識別器生成装置およびパターン検出装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187918A (ja) * 2016-04-05 2017-10-12 日本電信電話株式会社 訓練画像選択装置、方法、及びプログラム
JP2020021372A (ja) * 2018-08-02 2020-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法および情報処理システム
JP7231996B2 (ja) 2018-08-02 2023-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法および情報処理システム
JP2020058590A (ja) * 2018-10-10 2020-04-16 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
US11257211B2 (en) 2018-10-10 2022-02-22 Canon Medical Systems Corporation Medical image processing apparatus, medical image processing system, and medical image processing method
JP7187244B2 (ja) 2018-10-10 2022-12-12 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
WO2020261906A1 (ja) * 2019-06-27 2020-12-30 キヤノン株式会社 画像処理装置及びその方法、画像入力装置、画像処理システム、プログラム
JP2021005340A (ja) * 2019-06-27 2021-01-14 キヤノン株式会社 画像処理装置及びその方法、画像入力装置、画像処理システム、プログラム
JP7353825B2 (ja) 2019-06-27 2023-10-02 キヤノン株式会社 画像処理装置及びその方法、画像入力装置、画像処理システム、プログラム
WO2022157892A1 (ja) * 2021-01-21 2022-07-28 日本電信電話株式会社 画像選出装置、画像選出方法、及び、画像選出プログラム

Also Published As

Publication number Publication date
JP6255296B2 (ja) 2017-12-27

Similar Documents

Publication Publication Date Title
CN107358149B (zh) 一种人体姿态检测方法和装置
JP5010905B2 (ja) 顔認証装置
EP3333768A1 (en) Method and apparatus for detecting target
CN110569731B (zh) 一种人脸识别方法、装置及电子设备
US9292745B2 (en) Object detection apparatus and method therefor
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP6255296B2 (ja) 対象識別装置
Sarfraz et al. Head Pose Estimation in Face Recognition Across Pose Scenarios.
US8929595B2 (en) Dictionary creation using image similarity
US20150054824A1 (en) Object detection method, object detection device, and image pickup device
JP6111297B2 (ja) 方法、装置、およびプログラム
US9996554B2 (en) Search apparatus, search method, and storage medium
JP2007272897A (ja) 文脈支援型人間識別のためのデジタル画像処理方法および装置
JP6351243B2 (ja) 画像処理装置、画像処理方法
KR101449744B1 (ko) 영역 기반 특징을 이용한 얼굴 검출 장치 및 방법
CN111814690B (zh) 一种目标重识别方法、装置和计算机可读存储介质
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
CN112651364B (zh) 图像处理方法、装置、电子设备及存储介质
Amaro et al. Evaluation of machine learning techniques for face detection and recognition
Bekhet et al. Gender recognition from unconstrained selfie images: a convolutional neural network approach
CN103530646B (zh) 使用分类器级联的复杂对象检测
CN107480628B (zh) 一种人脸识别方法及装置
JP2015225410A (ja) 認識装置、方法及びプログラム
WO2018173848A1 (ja) オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体
JP5389723B2 (ja) 対象物検知装置及びその学習装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171204

R150 Certificate of patent or registration of utility model

Ref document number: 6255296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250