JP2015125662A - 物体識別プログラム及び装置 - Google Patents

物体識別プログラム及び装置 Download PDF

Info

Publication number
JP2015125662A
JP2015125662A JP2013270744A JP2013270744A JP2015125662A JP 2015125662 A JP2015125662 A JP 2015125662A JP 2013270744 A JP2013270744 A JP 2013270744A JP 2013270744 A JP2013270744 A JP 2013270744A JP 2015125662 A JP2015125662 A JP 2015125662A
Authority
JP
Japan
Prior art keywords
dictionary
identification
group
classifier
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013270744A
Other languages
English (en)
Inventor
史紘 佐々木
Fumihiro Sasaki
史紘 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013270744A priority Critical patent/JP2015125662A/ja
Publication of JP2015125662A publication Critical patent/JP2015125662A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体識別処理において、特性差異による識別精度の劣化を解決する。【解決手段】まず、特性差異毎に学習画像を粗分類する。以下、各特性の分類画像特徴群・学習辞書・識別器を含む概念を「実ドメイン」と定義する。次に、実ドメイン間の画像特徴の中間表現を、辞書学習を用いて自動的に抽出する。以下、実ドメイン間の中間表現特徴群・学習辞書・識別器を含む概念を「仮想ドメイン」と定義する。次に、実ドメインの学習画像を用いて、実ドメイン・仮想ドメインの識別器に学習させる。【選択図】図7

Description

本発明は、物体識別プログラム及び装置に関し、特に、特性差異に起因する識別精度の劣化を防止する技術に関する。
近年、様々なイメージングデバイスにおいて顔認識をはじめとする物体識別アルゴリズムが搭載されている。物体識別アルゴリズムとして、予め用意した識別対象物体画像から画像特徴量を抽出・学習することで識別器を生成し、生成した識別器にテスト画像を入力して識別結果を得るアルゴリズムが既に知られている。例えば、識別対象の物体画像が人物画像である場合、画像特徴量を抽出するアルゴリズムとしてHOG(Histogram of Oriented Gradients)が、学習するアルゴリズムとしてAdaBoostが知られている。
しかし、今までの物体識別アルゴリズムは、学習画像上の識別対象物体と、テスト画像上の識別対象物体の特性が違うことで、識別精度が劣化するという問題が広く知られている。識別精度を劣化させる画像の特性差異として、解像度、照明環境、撮影視点等が挙げられる。上記識別精度劣化を解決する手段として従来、主に2つの手段がなされている。
1つ目の手段として、特性差異を網羅した学習画像を用意し、特性差異がある識別対象画像間で共通する画像特徴を抽出・学習する手段が挙げられる。例えば特性差異が撮影視点の違いであれば、各視点の画像を学習画像として用意し、全学習画像を用いて一つの識別器を生成する、すなわち撮影視点に対してジェネラリストの識別器を生成する手段として解釈できる。ただし特性差異がある画像特徴間の差異(ある特性状態固有の画像特徴)を学習できないため、識別精度の向上は限定的であるという問題点がある。
2つ目の手段として、特性差異毎に分類した学習画像を用意し、特性差異毎に識別器を生成する手段が挙げられる。例えば特性差異が撮影視点の違いであれば、各撮影視点の画像を学習画像として用意し、視点毎に学習画像を分類し、分類した学習画像毎に識別器を生成する、すなわち各撮影視点に対してスペシャリストの識別器群を生成する手段として解釈できる。しかしながら、下記2つの問題点があった。
第1に、一般的に識別器の生成に使用する学習画像の枚数が多いほど、識別器の識別精度が良いという傾向がある。本手段において、特性差異毎に学習画像を分類する程、一つの識別器の生成に使用する学習画像の枚数が少なくなり、各識別器の識別精度は低下する傾向にある。
第2に、人手により特性差異を細かい粒度で(精度良く)分類することには限界がある。例えば特性差異が撮影視点の違いであれば、人物の撮影角度の違いを目視により細かい粒度で判断することは困難である。すなわち、生成した識別器群の各撮影視点に対するスペシャリティは限定的となる。
顔認識を高精度で行うために莫大な量のデータを必要とする。例えば様々な視点(viewpoint)のテンプレートを用意する場合、それに応じたデータ量がそのまま増えることになる。特許文献1には、この莫大なデータ量を緩和する目的で、高精度の視点非依存性顔認識システムを構築する手法が開示されている。
特許文献1は、本発明とは確かに学習画像を特性差異(視点毎)に分類する点では似ている点がある。しかし、学習画像の特性差異を細かい粒度で(精度良く)分類することには言及されておらず、生成した識別器群の特性差異毎のスペシャリティが限定的となるという問題点が解消できていない。
非特許文献1には、学習画像とテスト画像間の特性差異を緩和する目的で、学習画像・テスト画像間の特徴量の中間表現を、辞書学習(Dictionary Learning)を用いて自動抽出する手法が開示されている。
非特許文献1は、本発明とは確かに特徴量の中間表現を、辞書学習を用いて抽出する点では似ている点がある。しかし、学習画像を特性差異毎に分類し識別器を生成するフレームワークを採用していないため、識別精度の向上が限定的であるという問題点は解消できていない。
本発明は、上記実情に鑑みてなされたものであって、物体識別処理において、特性差異による識別精度の劣化を解決することを目的とする。
上記目的を達成するために本発明は、一態様として、コンピュータを、同一の識別対象が写った学習画像群であって特性差異毎に分類された学習画像群に基づいて第1の辞書群を生成する実ドメイン辞書生成部と、2つの前記第1の辞書に基づいて、1以上複数の第2の辞書群を生成する仮想ドメイン辞書生成部と、前記識別対象が写った学習画像群とラベルと前記第1の辞書群を用いて、第1の識別器群を生成し、前記識別対象が写った学習画像群と前記ラベルと前記第2の辞書群を用いて、第2の識別器群を生成する識別器学習・生成部と、評価画像を、前記第1の識別器群及び前記第2の識別器群を用いて評価する識別機能部として機能させるための物体識別プログラムを提供する。
本発明によれば、物体識別処理において、特性差異による識別精度の劣化を解決することができる。
実施形態における実ドメインの生成の概念を説明するための図である。 実施形態における仮想ドメインの生成の概念を説明するための図である。 実施形態における識別器学習フローを示すフローチャート図である。 実施形態における識別フローを示すフローチャート図である。 実施形態における連結ベクター最頻値探索の概念を説明するための図である。 実施例のハードウェア構成例を示す図である。 第1の実施例のソフトウェア機能ブロック図である。 第2の実施例のソフトウェア機能ブロック図である。
以下に開示される発明は、物体識別処理に際して、以下の特徴を有する。
要するに、以下の処理により識別器の学習を行うことが特徴になっている。
まず、特性差異毎に学習画像を粗分類する。以下、各特性の分類画像特徴群・学習辞書・識別器を含む概念を「実ドメイン」と定義する。
次に、実ドメイン間の画像特徴の中間表現を、辞書学習を用いて自動的に抽出する。以下、実ドメイン間の中間表現特徴群・学習辞書・識別器を含む概念を「仮想ドメイン」と定義する。
次に、実ドメインの学習画像を用いて、実ドメイン・仮想ドメインの識別器に学習させる。
このように識別器の学習を行うことにより、仮想ドメインが学習した学習画像の数は、実ドメインの学習画像の数と同じになるので、一つの識別器に学習させる学習画像の枚数が少なくなり物体識別精度が劣化するという問題が起きない。また、仮想ドメイン群を生成することにより、粒度の細かい特性差異分類が可能となる。
これらの特徴を備える実施形態について、添付の図面を用いて以下、詳細に解説する。
本実施形態に係る物体識別プログラムのアルゴリズムは、学習フローと識別フローに分かれる。図1乃至図3を参照して学習フローについて説明し、次に図4、図5を参照して識別フローについて説明する。その後、本実施形態に係る物体識別プログラムのアルゴリズムを用いた実施例を図6乃至図8を参照しながら説明する。
<学習フロー>
図3のフローに沿って、学習フローを説明する。
・L1:図1に示すように、学習画像群(識別対象したい対象が写った画像群)を特性差異毎にN個に粗分類し、実ドメイン1〜Nを形成する。
粗分類の手法は手作業、あるいは学習画像群から特徴量を抽出し分類アルゴリズムにかける手法がある。
・L2:実ドメイン毎の学習画像群を用いて、実ドメイン毎の辞書を学習・生成する。
例えば、実ドメイン1の辞書を生成する場合、実ドメイン1の学習画像群を学習して生成する。なお、辞書学習手法の例として、KSVD(K Singular Value Decomposition)等が存在する。
KSVDによる辞書学習においては、例えば、Y∈Riを学習画像、A∈Ri×jを辞書、学習画像のX∈Rjを学習画像のスパースコードだとすると、学習画像群に対して式:Y=AXが成立するような(YとAXの差がないような)辞書を学習する。
・L3:L2にて学習した実ドメインの辞書群を用いて、各実ドメイン間の仮想ドメインの辞書をM個学習・生成する。
図2に示すように、実ドメイン1と実ドメイン2の間の仮想ドメイン1−1〜1−Mに対する辞書を生成する場合、実ドメイン1の辞書と、実ドメイン2の辞書を学習して生成する。仮想ドメインの辞書学習方法については、非特許文献に記載の方法を採用することができる。当該方法は、仮想ドメインの辞書自体が中間表現特徴の抽出に関する設計を表し、辞書により得られるスパースコードが中間表現特徴というように捉えることができる。
・L4:L3にて学習された辞書により、実ドメイン毎の画像群(識別したい対象が写った画像群)、及びどのドメインにも属さない画像群(識別したい対象以外が写った画像群)の、スパースコードXを生成し、スパースコードX自体、あるいはスパースコードXを用いた記述子(例:ヒストグラム)を特徴ベクターとし、特徴ベクター及び画像ラベル(例:1=識別したい対象が写った画像/0=識別したい対象以外が写った画像)を学習することにより、ドメイン毎の識別器を生成する。
例えば、実ドメイン1の識別器を生成する場合、実ドメイン1の画像群(識別したい対象が写った画像群)、及びどのドメインにも属さない画像群(識別したい対象以外が写った画像群)のスパースコードを実ドメイン1の辞書を用いて生成し、生成されたスパースコードから特徴ベクターを生成し、特徴ベクター及び画像ラベル(例:1=識別したい対象が写った画像/0=識別したい対象以外が写った画像)を学習し、識別器を生成する。
例えば、仮想ドメイン1−1の識別器を生成する場合、実ドメイン1の学習画像群(識別したい対象が写った画像群)、及びどのドメインにも属さない画像群(識別したい対象以外が写った画像群)のスパースコードを仮想ドメイン1−1の辞書を用いて生成すると共に、実ドメイン2の学習画像群(識別したい対象が写った画像群)、及びどのドメインにも属さない画像群(識別したい対象以外が写った画像群)のスパースコードを仮想ドメイン1−2の辞書を用いて生成する。そして、生成した全てのスパースコードからそれぞれ特徴ベクターを生成し、特徴ベクター及び画像ラベル(例:1=識別したい対象が写った画像/0=識別したい対象以外が写った画像)を学習し、識別器を生成する。
<識別フロー>
前提として、中間特徴表現により生成した識別器群が出力する識別スコア値において、以下の特性があるという仮定を置く。
・ドメイン毎に距離が近ければ、近い識別スコア値を出力する。
・識別スコア値に外れ値が存在する。
本実施形態の識別フローは、1つ目の特性を活かし、2つ目の特性を低減するように、以下に述べるように構成される。図4のフローに沿って識別フローを説明する。
・D1:評価画像を入力し、各辞書によりスパースコード・特徴ベクターを生成し、各識別器に各辞書により生成した特徴ベクターを入力し、各識別器からの識別スコアを生成する。
・D2:各ドメインの辞書と識別スコアを連結したベクターを生成する。
辞書A∈Ri×jだとすると、連結ベクターの次元数は(i×j+1)となる。
そこで、辞書ベクターの類似度(内積の大きさ)がドメインの近さを表すと仮定すると、辞書ベクター部分空間(i×j)次元の各ベクターの分布を観測することで、ドメイン間の距離を観測することが可能となる。
辞書ベクター部分空間に識別スコアの次元を加え(i×j+1)次元の連結ベクターを観測することで、距離の近いドメインの識別スコア値の近さを観測することが可能となる。
・D3:各ドメインの連結ベクターの密度分布を推定し、最頻値探索(密度分布の頂点)を実施する。
密度分布推定手法の例としては、カーネル密度推定等を採用することができる。また、最頻値探索手法の例としては、平均値シフト等を採用することができる。
・D4:最頻値点に一番近い連結ベクターを抽出し、抽出された連結ベクターの1要素である識別スコアを閾値判定し、最終検出結果とする。
例えば、図5中の一番突出した凸領域に近い連結ベクターを持つドメインの識別スコア値は、真判定される。一方、図5中のその他の凸領域に近い連結ベクターを持つドメインの識別スコア値は、偽判定される。
各識別器の識別スコアを閾値判定にかけると外れ値を真の結果として誤判定する場合があるが、閾値判定にかける識別スコアとして最頻値点に近いものを選ぶことで、(外れ値は推定密度分布上で疎であるはずなので)外れ値による誤判定を防ぐ事ができる。
上記実施形態によれば、仮想ドメイン群を生成することにより、学習画像分類コストの抑止が可能になり、また、粒度の細かい特性差異分類が可能となる。また、実ドメインの学習画像を用いて実ドメインの識別器のみならず仮想ドメインの識別器の学習も行うことにより、仮想ドメインが学習した学習画像の数が、実ドメインの学習画像の数と同じになるので、一つの識別器に学習させる学習画像の枚数が少なくなり物体識別精度が劣化するという問題が起きない。
<実施例>
以下、第1、第2の実施例を説明する。
図6に、実施例のハードウェア構成例を示す。実施例に係る物体識別装置1は、一般的な情報処理端末と同様の構成を有する。即ち、実施例に係る物体識別装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)11、ROM(Read Only Memory)12、HDD(Hard Disk Drive)13及びI/F14がバスを介して接続されている。また、I/F14にはLCD(Liquid Crystal Display)15及び操作部16が接続されている。
CPU10は演算手段であり、装置全体の動作を制御する。RAM11は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU10が情報を処理する際の作業領域として用いられる。ROM12は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。HDD13は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム等が格納されている。I/F14は、バスと各種のハードウェアやネットワーク等を接続し制御する。LCD15は、ユーザが装置の状態を確認するための視覚的ユーザインタフェースである。操作部16は、キーボードやマウス等、ユーザが装置に情報を入力するためのユーザインタフェースである。
上述のようなハードウェア資源を用いたソフトウェアプログラムによる情報処理により、以下に述べるような機能の構成がCPU10などで形作られる制御部に実現する。以下、第1及び第2の実施例について述べる。
<第1の実施例>
図7に、第1の実施例に係る物体識別装置1のソフトウェア機能ブロック図を示す。図示のように、物体識別装置1は、識別器学習機能部110と識別機能部120の他、各種保存部を備える。
識別器学習機能部110は、図3に示した識別器学習機能を担う機能ブロックである。
識別器学習機能部110は、学習画像入力部111、実ドメイン辞書生成部112、仮想ドメイン辞書生成部113、学習画像・ラベル入力部114、スパースコード生成部115、特徴ベクター生成部116、識別器学習・生成部117を備える。
学習画像入力部111は、L1処理にて分類した画像群を後段ブロックに出力する。
実ドメイン辞書生成部112は、学習画像入力部111からの入力画像に対しL2処理を実施し、生成した辞書を辞書保存部118に保存する。
仮想ドメイン辞書生成部113は、辞書保存部118から複数の実ドメインの辞書を参照し、学習画像入力部111からの入力画像に対しL3処理を実施し、生成した辞書を辞書保存部118に保存する。
学習画像・ラベル入力部114は、L4処理に必要な画像群とそのラベル群を、後段ブロックに出力する。
スパースコード生成部115は、辞書保存部118から辞書を参照し、学習画像入力部111からの入力画像に対しL4処理中のスパースコード生成処理を実施し、後段ブロックに出力する。
特徴ベクター生成部116は、スパースコード生成部115からの入力スパースコードに対し、L4処理中の特徴ベクター処理を実施する。
識別器学習・生成部117は、特徴ベクター生成部116からの入力特徴ベクター、及びそれに対応するラベルに対し、L4処理中の識別器学習・生成処理を実施し、生成した識別器を識別器保存部119に保存する。
辞書保存部118は、実ドメイン辞書生成部112、仮想ドメイン辞書生成部113にて生成された辞書を保存する。
識別器保存部119は、識別器学習・生成部117にて生成された識別器を保存する。
識別機能部120は、図4、5に示した識別処理機能を担う機能ブロックである。
識別機能部120は、評価画像入力部121、スパースコード生成部122、特徴ベクター生成部123、識別スコア算出部124、連結ベクター生成部125、最頻値探索部126、閾値判定部127を備える。
評価画像入力部121は、評価画像を後段のブロックへ出力する。
スパースコード生成部122は、評価画像入力部121からの入力画像に対し、辞書保存部118から辞書を参照し、D1処理中のスパースコード生成処理を実施し、生成したスパースコードを後段ブロックへ出力する。
特徴ベクター生成部123は、スパースコード生成部122からの入力スパースコードに対し、D1処理中の特徴ベクター生成処理を実施し、生成した特徴ベクターを後段ブロックへ出力する。
識別スコア算出部124は、特徴ベクター生成部123からの入力特徴ベクターに対し、D1処理中の識別スコア生成処理を実施し、生成した識別スコアを後段ブロックへ出力する。
連結ベクター生成部125は、識別スコア算出部124からの入力識別スコアに対し、識別器保存部119から辞書を参照し、D2処理中の連結ベクター生成処理を実施し、生成した連結ベクターを連結ベクター保存部128へ保存する。
最頻値探索部126は、連結ベクター保存部128から連結ベクターを取得し、D3処理を実施する。また、推定密度分布、最頻値探索中間結果の保存取得を最頻値探索結果保存部129に対して繰り返し、最頻値探索最終結果を最頻値探索結果保存部129に保存する。
閾値判定部127は、最頻値探索結果保存部129から最頻値探索最終結果を取得してD4処理を実施し、生成された最終検出結果を最終検出結果保存部130に保存する。
連結ベクター保存部128は、連結ベクター生成部125にて生成された連結ベクターを保存する。
最頻値探索結果保存部129は、最頻値探索部126にて生成された推定密度分布、最頻値探索中間結果、最頻値探索最終結果を保存する。
最終検出結果保存部130は、閾値判定部127にて生成された最終検出結果を保存する。
なお、識別機能部120が、閾値判定部127による判定結果において真判定された連結ベクターに係るドメインの識別器の識別対象を、識別した物体として出力してもよい。
<第2の実施例>
評価画像は、静止画像に限定されず、動画像でもよい。動画像から物体を識別する場合は、識別機能部120がフレーム毎に物体を識別するとよい。しかしながら、物体識別処理は、フレーム数の規模に応じて非常に時間がかかってしまうという課題がある。そこで本実施例では、以下に述べるような構成によりこの問題を解決する。
図8に、第2の実施例に係る物体識別装置1のソフトウェア構成ブロック図を示す。第1の実施例のものと異なる点は、識別機能部120が領域特定部131を備える点である。領域特定部131は、D4処理を実施する閾値判定部127の処理の結果を利用して、抽出した連結ベクターの1要素である識別スコアが前記所定の閾値以下であり、D3処理を実施する最頻値探索部126の処理の結果を利用して、密度が所定の密度以上の領域を特定する。また、領域特定部131は、特定した領域内に連結ベクターを持つドメインを特定する機能も備える。領域特定部131による処理は、任意のフレームに対する物体識別処理の際に行う。
領域特定部131により特定した領域の情報と、特定したドメインの情報は、最終検出結果保存部130に一時的に記憶される。そして、上記条件に合う領域が特定された場合、次のフレームにおける物体識別処理の際、最終検出結果保存部130は、特定された領域内に連結ベクターを持つドメインの識別器の、D3処理をスキップする。すなわち、D3処理において、そのような識別器の連結ベクターのマッピングをしない。
本実施例の構成及び処理は、評価画像の特性から遠いドメインの識別器の処理をスキップすることにより、物体識別処理速度を高めることができる。
1 物体識別装置
110 識別器学習機能部
111 学習画像入力部
112 実ドメイン辞書生成部
113 仮想ドメイン辞書生成部
114 学習画像・ラベル入力部
115 スパースコード生成部
116 特徴ベクター生成部
117 識別器学習・生成部
118 辞書保存部
119 識別器保存部
120 識別機能部
121 評価画像入力部
122 スパースコード生成部
123 特徴ベクター生成部
124 識別スコア算出部
125 連結ベクター生成部
126 最頻値探索部
127 閾値判定部
128 連結ベクター保存部
129 最頻値探索結果保存部
130 最終検出結果保存部
131 領域特定部
特許4571628号公報
Ni, Jie, Qiang Qiu, and Rama Chellappa. "Subspace Interpolation via Dictionary Learning for Unsupervised Domain Adaptation.", CVPR 2013

Claims (8)

  1. コンピュータを、
    同一の識別対象が写った学習画像群であって特性差異毎に分類された学習画像群に基づいて第1の辞書群を生成する実ドメイン辞書生成部と、
    2つの前記第1の辞書に基づいて、1以上複数の第2の辞書群を生成する仮想ドメイン辞書生成部と、
    前記識別対象が写った学習画像群とラベルと前記第1の辞書群を用いて、第1の識別器群を生成し、前記識別対象が写った学習画像群と前記ラベルと前記第2の辞書群を用いて、第2の識別器群を生成する識別器学習・生成部と、
    評価画像を、前記第1の識別器群及び前記第2の識別器群を用いて評価する識別機能部
    として機能させるための物体識別プログラム。
  2. 前記識別機能部が、
    第1の辞書群及び第2の辞書群の個々の辞書毎に、当該辞書から生成される辞書ベクターと、当該辞書に対応する識別器を前記評価画像に用いた識別スコアと、を連結させた連結ベクターを生成する連結ベクター生成部と、
    前記連結ベクターの密度分布に基づいて最頻値探索を行う最頻値探索部と、
    最頻値点に近い前記連結ベクターの前記識別スコアが、所定の閾値以上であるか否かを判定する閾値判定部と、
    を備えるように機能させるための請求項1に記載の物体識別プログラム。
  3. 前記識別機能部が、前記所定の閾値を超えた連結ベクターに係る識別対象を、識別した物体とするように機能させるための請求項2に記載の物体識別プログラム。
  4. 前記評価画像が動画像であり、
    前記コンピュータをさらに、
    あるフレームにおいて、前記識別スコアが、前記所定の閾値以下であり、密度が所定の密度以上の領域を特定する領域特定手段として機能させ、
    前記識別機能部が、前記あるフレームの次フレームにおける、特定された領域内に存在する前記連結ベクターに係る識別器による評価をスキップする
    ように機能させるための請求項2又は3に記載の物体識別プログラム。
  5. 同一の識別対象が写った学習画像群であって特性差異毎に分類された学習画像群に基づいて第1の辞書群を生成する実ドメイン辞書生成部と、
    2つの前記第1の辞書に基づいて、1以上複数の第2の辞書群を生成する仮想ドメイン辞書生成部と、
    前記識別対象が写った学習画像群とラベルと前記第1の辞書群を用いて、第1の識別器群を生成し、前記識別対象が写った学習画像群と前記ラベルと前記第2の辞書群を用いて、第2の識別器群を生成する識別器学習・生成部と、
    評価画像を、前記第1の識別器群及び前記第2の識別器群を用いて評価する識別機能部と、
    を備えることを特徴とする、物体識別装置。
  6. 前記識別機能部は、
    第1の辞書群及び第2の辞書群の個々の辞書毎に、当該辞書から生成される辞書ベクターと、当該辞書に対応する識別器を前記評価画像に用いた識別スコアと、を連結させた連結ベクターを生成する連結ベクター生成部と、
    前記連結ベクターの密度分布に基づいて最頻値探索を行う最頻値探索部と、
    最頻値点に近い前記連結ベクターの前記識別スコアが、所定の閾値以上であるか否かを判定する閾値判定部と、
    を備えることを特徴とする請求項5に記載の物体識別装置。
  7. 前記識別機能部は、前記所定の閾値を超えた連結ベクターに係る識別対象を、識別した物体とすることを特徴とする請求項6に記載の物体識別装置。
  8. 前記評価画像が動画像であり、
    さらに、
    あるフレームにおいて、前記識別スコアが、前記所定の閾値以下であり、密度が所定の密度以上の領域を特定する領域特定手段を備え、
    前記識別機能部は、前記あるフレームの次フレームにおける、特定された領域内に存在する前記連結ベクターに係る識別器による評価をスキップする
    ことを特徴とする請求項6又は7に記載の物体識別装置。
JP2013270744A 2013-12-27 2013-12-27 物体識別プログラム及び装置 Pending JP2015125662A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013270744A JP2015125662A (ja) 2013-12-27 2013-12-27 物体識別プログラム及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013270744A JP2015125662A (ja) 2013-12-27 2013-12-27 物体識別プログラム及び装置

Publications (1)

Publication Number Publication Date
JP2015125662A true JP2015125662A (ja) 2015-07-06

Family

ID=53536314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013270744A Pending JP2015125662A (ja) 2013-12-27 2013-12-27 物体識別プログラム及び装置

Country Status (1)

Country Link
JP (1) JP2015125662A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260741A (zh) * 2015-09-29 2016-01-20 刘伟锋 一种基于高阶图结构p-Laplacian稀疏编码的数字图像标记方法
CN106874930A (zh) * 2016-12-29 2017-06-20 中国农业大学 一种籽粒分类方法及装置
JP2018507495A (ja) * 2015-11-25 2018-03-15 小米科技有限責任公司Xiaomi Inc. 特徴抽出方法及び装置
JP2018507494A (ja) * 2015-11-25 2018-03-15 シャオミ・インコーポレイテッド 特徴抽出方法及び装置
JP2018142039A (ja) * 2017-02-24 2018-09-13 セコム株式会社 分布推定装置
CN110020674A (zh) * 2019-03-13 2019-07-16 清华大学 一种提升局部类别区分度的跨领域自适应图像分类方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260741A (zh) * 2015-09-29 2016-01-20 刘伟锋 一种基于高阶图结构p-Laplacian稀疏编码的数字图像标记方法
JP2018507495A (ja) * 2015-11-25 2018-03-15 小米科技有限責任公司Xiaomi Inc. 特徴抽出方法及び装置
JP2018507494A (ja) * 2015-11-25 2018-03-15 シャオミ・インコーポレイテッド 特徴抽出方法及び装置
US10282637B2 (en) 2015-11-25 2019-05-07 Xiaomi Inc. Method, device, and storage medium for image characteristic extraction
CN106874930A (zh) * 2016-12-29 2017-06-20 中国农业大学 一种籽粒分类方法及装置
JP2018142039A (ja) * 2017-02-24 2018-09-13 セコム株式会社 分布推定装置
CN110020674A (zh) * 2019-03-13 2019-07-16 清华大学 一种提升局部类别区分度的跨领域自适应图像分类方法

Similar Documents

Publication Publication Date Title
US9418283B1 (en) Image processing using multiple aspect ratios
US9600746B2 (en) Image processing apparatus and image processing method
Gunay et al. Automatic age classification with LBP
US20230237841A1 (en) Occlusion Detection
US9378422B2 (en) Image processing apparatus, image processing method, and storage medium
US9633044B2 (en) Apparatus and method for recognizing image, and method for generating morphable face images from original image
Holder et al. Improved gradient local ternary patterns for facial expression recognition
JP2015125662A (ja) 物体識別プログラム及び装置
CN105488463B (zh) 基于人脸生物特征的直系亲属关系识别方法及系统
US9639779B2 (en) Feature point detection device, feature point detection method, and computer program product
Dutta et al. Online detection of abnormal events using incremental coding length
US20210319340A1 (en) Machine learning model confidence score validation
Zhang et al. A l p-norm mtmkl framework for simultaneous detection of multiple facial action units
Priya et al. Occlusion invariant face recognition using mean based weight matrix and support vector machine
JP2010108494A (ja) 画像内の顔の特性を判断する方法及びシステム
Liu et al. Robust head pose estimation using Dirichlet-tree distribution enhanced random forests
US10296782B2 (en) Processing device and method for face detection
Wang et al. Pedestrian recognition in multi-camera networks using multilevel important salient feature and multicategory incremental learning
Wu et al. Semi-supervised human detection via region proposal networks aided by verification
CN109583266A (zh) 一种目标检测方法、装置、计算机设备及存储介质
KR101681233B1 (ko) 저 에너지/해상도 가지는 얼굴 검출 방법 및 장치
JP2017084006A (ja) 画像処理装置およびその方法
US11113569B2 (en) Information processing device, information processing method, and computer program product
CN113762027B (zh) 一种异常行为的识别方法、装置、设备及存储介质
Sanin et al. K-tangent spaces on Riemannian manifolds for improved pedestrian detection