JP5063632B2 - 学習モデル生成装置、対象物検出システム、及びプログラム - Google Patents

学習モデル生成装置、対象物検出システム、及びプログラム Download PDF

Info

Publication number
JP5063632B2
JP5063632B2 JP2009056350A JP2009056350A JP5063632B2 JP 5063632 B2 JP5063632 B2 JP 5063632B2 JP 2009056350 A JP2009056350 A JP 2009056350A JP 2009056350 A JP2009056350 A JP 2009056350A JP 5063632 B2 JP5063632 B2 JP 5063632B2
Authority
JP
Japan
Prior art keywords
learning
rank
detection
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009056350A
Other languages
English (en)
Other versions
JP2010211468A (ja
Inventor
美也子 馬場
晃一郎 山口
芳樹 二宮
歳康 勝野
祥雅 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2009056350A priority Critical patent/JP5063632B2/ja
Publication of JP2010211468A publication Critical patent/JP2010211468A/ja
Application granted granted Critical
Publication of JP5063632B2 publication Critical patent/JP5063632B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、学習モデル生成装置、対象物検出システム、及びプログラムに関する。
従来、対象物(例えば人物。検出対象物とも呼ぶ)の画像と、非対象物(非検出対象物)の画像との2種類の学習用画像から、例えば、Viola&Jonesの手法(例えば、「Paul Viola and Michael Jones :"Rapid Object Detection using a Boosted Cascade of Simple Features" , IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001」に記載の手法、カスケード型ブースティングアルゴリズム)を用いて、Haar−like特徴の集合からなる学習モデルを生成する学習モデル生成装置と、この学習モデル生成装置によって生成された学習モデルと入力画像とに基づいて、入力画像から対象物を検出する検出手段を備えた対象物検出装置とを含む対象物検出システムが知られている(例えば、特許文献1参照)。
特開2008−165496号公報
しかしながら、学習用画像の質によって、生成された学習モデルを構成するHaar−like特徴の数(特徴数)は大きく異なる。ここで、学習用画像の質とは、例えば、学習用画像の解像度の大きさ、学習用画像における検出対象の対象物(検出対象物)が当該検出対象物以外の対象物によって隠れている部分の大きさ、学習用画像におけるボケの度合いの大きさ、及び学習用画像における背景雑音の大きさ等によって定められるものである。例えば、学習用画像の質は、学習用画像の解像度の大きさが大きくなるほど良好となり、学習用画像における検出対象の対象物(検出対象物)が当該検出対象物以外の対象物によって隠れている部分の大きさが小さくなるほど良好となり、学習用画像におけるボケの度合いが小さくなるほど良好となり、学習用画像における背景雑音の大きさが小さくなるほど良好となる。すなわち、学習用画像において解像度が小さい画像が多くなるほど、特徴数が多くなる。また、学習用画像における検出対象物が当該検出対象物以外の対象物によって隠れている部分が大きい画像が多くなるほど特徴数が多くなる。また、学習用画像におけるボケの度合いが大きい画像が多くなるほど特徴数が多くなる。また、学習用画像における背景雑音が大きい画像が多くなるほど特徴数が多くなる。
特許文献1に記載の学習モデル生成装置では、学習用画像の質については考慮しておらず、学習用画像をランダムに用いて学習モデルを生成しているので、特徴数が多くなることにより学習モデルの大きさが大きくなってしまう場合があり、このような場合には学習モデルを記憶するための記憶手段の容量が大きくなってしまう、という問題があった。また、特徴数が多くなると、対象物検出装置での検出対象物の検出処理(識別処理)に長い時間を要する、という問題があった。
そこで、特徴数を少なくするために、質が良い学習用画像(例えば、解像度が大きく、検出対象物が当該検出対象物以外の対象物によって隠れている部分が小さく、ボケの度合いが小さく、かつ背景雑音が小さい学習用画像)のみを用いて学習モデルを生成することが考えられるが、このような学習用画像のみに基づいて生成された学習モデルは、様々な質のバリエーションの対象物に基づいた学習モデルではないので、多様な検出対象物の検出に対応できず、対象物検出装置での検出性能が低くなってしまう、という問題があった。
本発明は上述した問題点を解決するために成されたものであり、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルを生成することができる学習モデル生成装置、対象物検出システム、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る学習モデル生成装置は、検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段と、前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルを生成する生成手段とを含んで構成されている。
第1の発明に係る学習モデル生成装置によれば、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像が選択され、選択された複数の学習用画像に基づいて、複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルが生成される。このようにして生成された学習モデルは、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルである。
従って、第1の発明に係る学習モデル生成装置によれば、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルを生成することができる。
また、上記目的を達成するために、第2の発明に係る学習モデル生成装置は、検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の基準画像に基づいて、複数の学習用画像の各々を前記複数のランクのうちの何れかのランクに分類する分類手段と、前記分類手段によって分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段と、前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルを生成する生成手段とを含んで構成されている。
第2の発明に係る学習モデル生成装置によれば、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の基準画像に基づいて、複数の学習用画像の各々が複数のランクのうちの何れかのランクに分類され、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像が選択され、選択された複数の学習用画像に基づいて、複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルが生成される。このようにして生成された学習モデルは、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルである。
従って、第2の発明に係る学習モデル生成装置によれば、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルを生成することができる。
また、前記検出対象物の検出し易さの度合いを、学習用画像の解像度が大きくなるほど大きくなり、学習用画像における検出対象物が当該検出対象物以外の対象物によって隠れている部分が大きくなるほど小さくなり、学習用画像におけるボケの度合いが大きくなるほど小さくなり、または、学習用画像における背景雑音が大きくなるほど小さくなるように定めてもよい。
また、前記検出対象物の検出し難さの度合いを、学習用画像の解像度が大きくなるほど小さくなり、学習用画像における検出対象物が当該検出対象物以外の対象物によって隠れている部分が大きくなるほど大きくなり、学習用画像におけるボケの度合いが大きくなるほど大きくなり、または、学習用画像における背景雑音が大きくなるほど大きくなるように定めてもよい。
また、上記目的を達成するために、第3の発明に係る対象物検出システムは、上記の学習モデル生成装置と、前記学習モデル生成装置によって生成された学習モデルと入力画像とに基づいて、前記入力画像から対象物を検出する検出手段を備えた対象物検出装置とを含んで構成されている。
また、上記目的を達成するために、第4の発明に係るプログラムは、コンピュータを、検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段、及び前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴を含む学習モデルを生成する生成手段として機能させるためのものである。
第4の発明に係るプログラムによれば、コンピュータによって、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像が選択され、選択された複数の学習用画像に基づいて、複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルが生成される。このようにして生成された学習モデルは、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルである。
従って、第4の発明に係るプログラムによれば、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルを生成することができる。
また、上記目的を達成するために、第5の発明に係るプログラムは、コンピュータを、検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の基準画像に基づいて、複数の学習用画像の各々を前記複数のランクのうちの何れかのランクに分類する分類手段、前記分類手段によって分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段、及び前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴を含む学習モデルを生成する生成手段として機能させるためのものである。
第5の発明に係るプログラムによれば、コンピュータによって、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の基準画像に基づいて、複数の学習用画像の各々が複数のランクのうちの何れかのランクに分類され、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像が選択され、選択された複数の学習用画像に基づいて、複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルが生成される。このようにして生成された学習モデルは、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルである。
従って、第5の発明に係るプログラムによれば、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルを生成することができる。
以上説明したように、本発明に係る学習モデル生成装置、対象物検出システム、及びプログラムによれば、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルを生成することができる、という効果が得られる。
本実施の形態に係る対象物検出システムを示す図である。 本実施の形態に係る基準画像の一例を示す図である。 本実施の形態に係る学習モデル生成装置20が実行する学習モデル生成処理の処理ルーチンのフローチャートを示す図である。 本実施の形態に係る対象物検出装置30が実行する対象物検出処理の処理ルーチンのフローチャートを示す図である。 ランダムに学習用画像を選択し、歩行者検出を行う際に用いられる学習モデルを生成した場合の歩行者検出性能(すなわち、従来の技術)と、本実施の形態の対象物検出システムの歩行者検出性能の実験結果の比較例を表すグラフである。 ランダムに学習用画像を選択し、歩行者検出を行う際に用いられる学習モデルを生成した場合の特徴数と、本実施形態の対象物検出システムの特徴数の実験結果の比較例を表すグラフである。
以下、図面を参照して、検出対象の対象物(検出対象物)として人物(更に具体的には歩行者)を検出するための学習モデルを生成する学習モデル生成装置と、学習モデル生成装置によって生成された学習モデルと入力画像とに基づいて入力画像から検出対象物として人物を検出する検出手段を備えた対象物検出装置と、を含む対象物検出システムに、本発明を適用した場合の実施の形態を詳細に説明する。
図1は、本発明の実施の形態に係る対象物検出システム10の構成を示す図である。本実施形態に係る対象物検出システム10は、検出対象物を検出する対象物検出装置30と、対象物検出装置30で使用される学習モデルを生成する学習モデル生成装置20と、を含んで構成されている。
対象物検出装置30は、図示しないCPU(Central Processing Unit)、図示しないROM(Read Only Memory)、図示しないRAM(Random Access Memory)、及びこれらを接続するバス(図示せず)を備えたコンピュータを含んで構成されている。CPUは、プログラムをROMから読み出して実行することにより、対象物検出装置30全体の制御を司る。ROMには、OS等の基本プログラム、及び後述する対象物検出処理の処理ルーチンを実行するためのプログラムが記憶されている。ワークエリアとしてのRAMには、データが一時的に格納される。
この対象物検出装置30を、ハードウェアとソフトウェアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、ウインドウ画像抽出部32と、識別部34と、結果出力部36と、を含んだ構成で表すことができる。
ウインドウ画像抽出部32は、外部から入力された入力画像からウインドウ画像(ウインドウに基づいた領域の画像)を抽出する。本実施の形態では、入力画像から検出対象物を検出する際に、当該入力画像から予め定められたサイズのウインドウ(探索ウインドウと呼称)を予め定められた移動量(探索ピッチと呼称)だけ移動させながら画像を切り取り(画像を抽出し)、当該切り取った画像(抽出された画像)から検出対象物を探索する。ここでは、切り取った画像をウインドウ画像といい、ウインドウ画像のサイズ(すなわち探索ウインドウのサイズ)をウインドウサイズと呼称する。ウインドウサイズは複数種設定されており、ウインドウ画像抽出部32は、設定されている全ての探索ウインドウを用いてウインドウ画像を抽出する。また、ウインドウ画像抽出部32は、抽出したウインドウ画像を予め設定された画素数の画像(例えば16×32画素の画像)に変換する。
識別部(評価部)34は、ウインドウ画像と後述の学習モデルとを用いて、検出対象物らしさを示す評価値を算出し、対象物を検出する。すなわち、識別部34は、ウインドウ画像と学習モデルとの比較により、ウインドウ画像が検出対象物(本実施の形態では人物)であるか否かを判定し、ウインドウ画像が人物であると判定された場合には、ウインドウ画像が人物であると判定する。これによって、入力画像から検出対象物が検出される。
結果出力部36は、検出対象物の有無を示した対象物有無情報、検出対象物の画像を示す画像データ、検出対象物の位置を示す位置情報などを検出対象物の検出結果として、報知手段、例えば表示装置38に出力することにより、例えば、入力画像に検出結果を重畳させて表示するように表示装置38の表示を制御する。
なお、この対象物検出装置30では、入力画像に対して予め設定されている各サイズの探索ウインドウを探索ピッチだけ移動させながらウインドウ画像を抽出し、該抽出した全てのウインドウ画像について検出対象物の検出処理を実行するため、ウインドウ画像抽出部32、及び評価部34での処理は、抽出するウインドウ画像の数だけ繰り返し行なわれる。
学習モデル生成装置20は、図示しないCPU(Central Processing Unit)、図示しないROM(Read Only Memory)、図示しないRAM(Random Access Memory)、図示しないHDD(Hard Disk Drive)、及びこれらを接続するバス(図示せず)を備えたコンピュータを含んで構成されている。CPUは、プログラムをROM及びHDDから読み出して実行する。ROMには、OS等の基本プログラムが記憶されている。ワークエリアとしてのRAMには、データが一時的に格納される。HDDには、後述する学習モデル生成処理の処理ルーチンを実行するためのプログラムが記憶されている。
また、HDDには、下記の表1に示す検出対象物(本実施の形態では人物であり、より詳細には歩行者)の検出し易さまたは検出し難さの度合いに応じた複数のランク1〜4毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の基準画像が記憶されている。
ここで、このランクについて説明する。本実施の形態では、質が良好である度合いが大きい画像ほど、数字が小さいランクに属することとする。なお、画像の質とは、例えば、画像の解像度の大きさ、画像における検出対象の対象物(検出対象物)が当該検出対象物以外の対象物によって隠れている部分の大きさ、画像におけるボケの度合いの大きさ、及び画像における背景雑音の大きさ等によって定められるものである。例えば、画像の質は、画像の解像度の大きさが大きくなるほど良好となり、画像における検出対象の対象物(検出対象物)が当該検出対象物以外の対象物によって隠れている部分の大きさが小さくなるほど良好となり、画像におけるボケの度合いが小さくなるほど良好となり、画像における背景雑音の大きさが小さくなるほど良好となる。すなわち、検出対象物の検出し易さの度合いは、学習用画像の解像度が大きくなるほど大きくなり、学習用画像における検出対象物が当該検出対象物以外の対象物によって隠れている部分が大きくなるほど小さくなり、学習用画像におけるボケの度合いが大きくなるほど小さくなり、または、学習用画像における背景雑音が大きくなるほど小さくなるように定められている。同様に、検出対象物の検出し難さの度合いは、学習用画像の解像度が大きくなるほど小さくなり、学習用画像における検出対象物が当該検出対象物以外の対象物によって隠れている部分が大きくなるほど大きくなり、学習用画像におけるボケの度合いが大きくなるほど大きくなり、または、学習用画像における背景雑音が大きくなるほど大きくなるように定められている。
本実施の形態では、本検出対象システム10の設計者等によって、予め、ランク1〜4の各々のランクに対応する複数の基準画像が分類されて、HDDに記憶されている。例えば、図2に示すように、設計者等の手作業によって、「ボケや隠れ、背景雑音も少なく、画質が良好な歩行者」の基準画像60aがランク1に分類され、「多少のボケや隠れ、背景雑音があるが、比較的画質が良好な歩行者」の基準画像60bがランク2に分類され、「ボケや隠れ、背景雑音があり、画質が悪く、検出は難しいと思われる歩行者」の基準画像60cがランク3に分類され、「ボケや隠れ、背景雑音が大きく、検出は不可能と思われる歩行者」の基準画像60dがランク4に分類されて、基準画像60a〜dがHDDに記憶される。
この学習モデル生成装置20を、ハードウェアとソフトウェアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、学習用画像分類部42と、学習用画像選択部44と、学習部46と、学習モデルDB(識別用モデルDB)48と、を含んだ構成で表すことができる。
学習用画像分類部42には、予め設定されたウインドウサイズの学習用画像が複数枚(例えば約3万枚)入力される。学習用画像としては、検出対象物を含む画像(ポジティブデータ)、および検出対象物を含まない非対象物の画像(ネガティブデータ)が考えられる。学習用画像分類部42は、検出対象物を含む学習用画像が1枚入力されると、HDDに記憶された基準画像60a〜dに基づいて、例えば、Nearest Neighbor(最近傍決定則)により、入力された検出対象物を含む学習用画像を、複数のランク1〜4のうちの何れかのランクに分類する。そして、学習用画像分類部42は、入力された検出対象物を含む画像の枚数分だけ、この分類を行う。なお、学習用画像分類部42は、非対象物の学習用画像が入力されると、その学習用画像については上記の分類を行わない。
学習用画像選択部44は、下記の式(1)に従って、学習用画像分類部42によって対応するランクに分類された複数の学習用画像に基づいて、最も検出し易いランク1と最も検出し難いランク4との間のランク2及びランク3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T以下となるように、複数M(N+N)枚の検出対象物の学習用画像を選択する。
例えば、このTの値を、例えば1.0に設定した場合には、学習用画像選択部44は、例えば、ランク1に分類された学習用画像5000枚、ランク2に分類された学習用画像5000枚、ランク3に分類された学習用画像0枚、ランク4に分類された学習用画像0枚を選択する。なお、このとき、ランク2及びランク3に分類され、かつ選択される学習用画像の数Nは5000(5000+0)であり、ランク1とランク4とに分類され、かつ選択される学習用画像の数Nは5000(5000+0)であり、「N/N」の値は、1(5000/5000)となる。
同様に、Tの値を、例えば0.2に設定した場合には、学習用画像選択部44は、例えば、ランク1に分類された学習用画像1000枚、ランク2に分類された学習用画像5000枚、ランク3に分類された学習用画像1000枚、ランク4に分類された学習用画像0枚を選択する。なお、このとき、ランク2及びランク3に分類され、かつ選択される学習用画像の数Nは6000(1000+5000)であり、ランク1とランク4とに分類され、かつ選択される学習用画像の数Nは1000(1000+0)であり、「N/N」の値は、0.16・・・(1000/6000)となる。
また、学習用画像選択部44は、学習用画像分類部42によって分類されなかった非対象物の学習用画像を複数M枚選択する。
学習部46は、学習用画像選択部44によって選択されたM枚の検出対象物の学習用画像、及び学習用画像選択部44によって選択されたM枚の非対象物の学習用画像から検出対象物の特徴を示す学習モデルを生成する。
学習部46で生成された学習モデルは、学習モデルDB48に記憶される。なお、本実施の形態では、学習モデルDB48を、記憶手段としてのHDDを用いて実現する例について説明するが、本発明はこれに限られない。例えば、学習モデルDB48は、CD−ROM等のように、外付けの記憶手段であって、学習モデルを記憶できる媒体により構成されていれば、特に限定されない。学習モデルDB48に記憶された学習モデルは、対象物検出装置30の識別部34で対象物の検出に利用される。
なお、本実施の形態では、学習モデル生成装置20と対象物検出装置30とを互いに独立したコンピュータで実現する例について説明するが、これらを同一コンピュータ上で実現するようにしてもよい。
以上のように構成された本実施の形態の対象物検出システム10では、上述したように、Viola&Jonesの手法(以下、V&Jと記す)を用いて、入力画像から歩行者等の検出対象物を検出する。
V&J手法は2クラス識別を行う手法で、Haar−like特徴の利用とそのインテグラルイメージによる高速演算法、カスケード接続のAdaboost型の識別器により、高速な識別処理を実現している(Paul Viola and Michael Jones :"Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001.を参照。)。
V&J手法に従い、本実施の形態の学習モデル生成装置20は、検出対象物の画像と、非対象の画像の2種類の学習用画像から、Haar−like特徴の集合からなる学習モデル(対象物か否かを識別するために用いる辞書の役割をするもの)を生成する。
また、対象物検出装置30では、前述したように、入力画像に対して探索ウインドウと呼ばれる複数の大きさのウインドウを縦横に少しずつずらしながらウインドウ画像を抽出し、該ウインドウ画像と上記生成された学習モデルとの比較を行うことにより、対象物を抽出する。
次に、学習モデル生成装置20のCPUが実行する学習モデル生成処理の処理ルーチンについて図3を用いて説明する。なお、この学習モデル生成処理は、本実施の形態では、例えば、図示しない指示受付手段(例えばタッチパネルやキーボード等)が学習モデル生成装置20に設けられており、この指示受付手段をユーザが操作することにより、学習モデルを生成する指示を、学習モデル生成装置20のCPUが受け付けた場合に実行される。また、ここでは、学習の手法として、上述したV&J手法を用いることとする。また、検出対象物の画像と非対象物の画像との2種類の学習用画像を所定枚数(例えば、各15000枚)予め用意しておく。また、入力される学習用画像のサイズは、予め設定されたサイズ(例えば16×32画素)とする。
まず、ステップ100で、学習用画像を1枚読み込む。
次のステップ102では、入力された学習用画像が検出対象物を含む画像であるか否かを判定し、入力された学習用画像が検出対象物を含む画像であると判定された場合には、HDDに記憶された基準画像60a〜dに基づいて、例えば、Nearest Neighbor(最近傍決定則)により、入力された検出対象物を含む学習用画像を、複数のランク1〜4のうちの何れかのランクに分類する。これにより、入力された検出対象物を含む学習用画像を、基準画像60a〜d中の最も類似した基準画像と同じランクに分類することができる。なお、画像間の類似度として、画素値そのものや、4方向面特徴などの特徴量の正規化相関を用いてもよいし、類似性を表す指標として、ユークリッド距離や、市街地距離等を用いてもよい。また、入力された学習用画像が検出対象物を含む画像であるか否かを判定する方法としては、例えば、学習用画像に含まれているラベル(検出対象物を含む画像であるか否かを示すラベル)に基づいて判定する方法が考えられる。
次のステップ104では、用意しておいた全ての学習用画像について、上記ステップ102の処理が行われたか否かを判定する。ステップ104で、用意しておいた全ての学習用画像について上記ステップ102の処理が行われていないと判定された場合には、ステップ100に戻り、ステップ100で次の学習用画像を読み込む。一方、ステップ104で、用意しておいた全ての学習用画像について上記ステップ102の処理が行われたと判定された場合には、次のステップ106へ進む。
ステップ106では、下記の式(2)に従って、上記ステップ102によって、対応するランクに分類された複数の学習用画像(検出対象物を含む学習用画像)に基づいて、最も検出し易いランク1と最も検出し難いランク4との間のランク2及びランク3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T以下となるように、複数M(N+N)枚の検出対象物の学習用画像を選択する。
上述したように、例えば、このTの値を、例えば1.0に設定した場合には、ステップ106では、例えば、ランク1に分類された学習用画像5000枚、ランク2に分類された学習用画像5000枚、ランク3に分類された学習用画像0枚、ランク4に分類された学習用画像0枚を選択することができる。なお、このとき、ランク2及びランク3に分類され、かつ選択された学習用画像の数Nは5000(5000+0)であり、ランク1とランク4とに分類され、かつ選択された学習用画像の数Nは5000(5000+0)であり、「N/N」の値は、1(5000/5000)となる。
また、上述したように、Tの値を、例えば0.2に設定した場合には、ステップ106では、例えば、ランク1に分類された学習用画像1000枚、ランク2に分類された学習用画像5000枚、ランク3に分類された学習用画像1000枚、ランク4に分類された学習用画像0枚を選択することができる。なお、このとき、ランク2及びランク3に分類され、かつ選択される学習用画像の数Nは6000(1000+5000)であり、ランク1とランク4とに分類され、かつ選択される学習用画像の数Nは1000(1000+0)であり、「N/N」の値は、0.16・・(1000/6000)となる。
また、ステップ106では、上記ステップ102で分類されなかった非対象物の学習用画像を複数M枚選択する。
次のステップ108では、上記ステップ106で選択されたM枚の検出対象物の学習用画像、及び上記ステップ106で選択されたM枚の非対象物の学習用画像から、V&J手法に従い、Haar−like特徴の集合からなる学習モデル(検出対象物の特徴を示す学習モデル)を生成して、生成された学習モデルを学習モデルDB48に記憶する。そして、学習モデル生成処理を終了する。
なお、ステップ100、102、104は学習用画像分類部42で実行され、ステップ106は学習用画像選択部44で実行され、ステップ108は学習部46で実行される。
また、上記では、CPUの処理によって、複数の学習用画像の各々を複数のランクのうちの何れかのランクに分類する例について説明したが、設計者等によって、複数の学習用画像の各々を複数のランクのうちの何れかのランクに予め分類しておいてもよい。
次に、対象物検出装置30のCPUが実行する対象物検出処理の処理ルーチンについて図4を用いて説明する。なお、この対象物検出処理は、本実施の形態では、例えば、図示しない指示受付手段(例えばタッチパネルやキーボード等)が、対象物検出装置30に設けられており、この指示受付手段をユーザが操作することにより、検出対象物を検出する指示を、対象物検出装置30のCPUが受け付けた場合に実行開始され、当該指示を受け付けた以降は、所定時間間隔(例えば、100ms間隔)で実行される。
まず、ステップ200で、検出対象物を検出する対象となる画像(本実施の形態ではこの画像を入力画像と称する)を1枚読み込む。なお、この入力画像は、例えば、カメラ等の撮影手段(図示しない)によって撮影された画像であり、ステップ200では、この撮影手段から入力画像を読み込む。
次のステップ202では、入力画像に対して、所定の初期サイズ、例えば、16×32画素の探索ウインドウを初期位置(例えば、入力画像の左角の領域)に設定する。
次のステップ204では、設定された探索ウインドウを用いて、入力画像から所定サイズ、例えば16×32画素のウインドウ画像を抽出する。なお、設定された探索ウインドウが16×32画素を超えるサイズのウインドウであった場合には、抽出したウインドウ画像を所定サイズ、例えば16×32画素に変換する。
次のステップ206では、上記ステップ204で抽出されたウインドウ画像と、学習モデルDB48から読み出した学習モデルとを比較して、検出対象物の確からしさを評価値として算出する。
次のステップ208では、算出された評価値に基づいてウインドウ画像が検出対象物(本実施の形態では、例えば、人物)であるか否かを判定することにより、検出対象物を検出する。
なお、ウインドウ画像と学習モデルとを用いた検出対象物の検出の方法は様々あるが、前述のV&Jの手法で採用されているAdaBoostアルゴリズム等を用いて検出することができる。
ステップ208で、ウインドウ画像が検出対象物であると判定された場合には、検出対象物が検出されたと判断し、次のステップ210へ進む。一方、ステップ208で、ウインドウ画像が検出対象物でないと判定された場合には、次のステップ212へ進む。
ステップ210では、上記ステップ208で、ウインドウ画像が検出対象物であると判定されたときの探索ウインドウの位置及び大きさ等の情報を、検出対象物の検出結果としてRAMに記憶する。
次のステップ212では、入力画像全体について探索ウインドウをスキャンして探索が終了したか否かを判定する。肯定判定のとき(入力画像全体について探索ウインドウをスキャンして探索が終了したと判定された場合)はステップ216に進み、否定判定のとき(入力画像全体について探索ウインドウをスキャンして探索が終了していないと判定された場合)はステップ214に進む。
ステップ214では、探索ウインドウの位置を予め定められた探索ピッチだけ移動させて、ステップ204に戻る。そして、再びステップ204からステップ212までの処理が繰り返し実行される。探索ウインドウが画像全体を探索すると、ステップ216に進む。
ステップ216では、全てのサイズの探索ウインドウでの探索が終了したか否かを判定する。ここで、探索ウインドウは検出対象物を検出するためのウインドウ画像を抽出するためのフレームとして用いられているが、探索ウインドウのサイズが異なれば、様々なサイズの検出対象物を検出することができる。本実施の形態では、様々なサイズの探索ウインドウが予め用意されており、各々の探索ウインドウで画像全体を探索する必要がある。そこで、ステップ216で否定判定された場合(全てのサイズの探索ウインドウでの探索が終了していないと判定された場合)には、ステップ218へ進み、当該ステップ218で、異なるウインドウサイズの探索ウインドウを設定する。例えば、ステップ218では、サイズがそれまでの探索ウインドウより1ステップ拡大された探索ウインドウ(例えば、サイズが1.2倍の探索ウインドウ)を初期位置(例えば、入力画像の左角の領域)に設定する。そして、ステップ204に戻り、上記と同様にステップ204以降の処理を繰り返し実行する。
一方、ステップ216で肯定判定された場合(全てのサイズの探索ウインドウでの探索が終了したと判定された場合)には、次のステップ220へ進む。ステップ220では、RAMに記憶された検出対象物の検出結果に基づいて、入力画像に対して、検出された検出対象物がウインドウで囲まれて表示されるように、表示装置38を制御する。そして、対象物検出処理を終了する。
なお、ステップ200、202、204、212、214、216、218はウインドウ画像抽出部32で実行され、ステップ206、208、210は識別部34で実行され、ステップ220は結果出力部36で実行される。
次に、図5及び図6を参照して、本実施の形態の効果について説明する。
図5には、ランダムに学習用画像を選択し、歩行者検出を行う際に用いられる学習モデルを生成した場合の歩行者検出性能(すなわち、従来の技術)と、本実施形態の対象物検出システム10の歩行者検出性能の実験結果の比較例を表すグラフが示されている。このグラフは、識別器のステージ毎に検出率と1フレームあたりの誤検出数をプロットしたROC(receiver operating characteristic)曲線であり、縦軸が検出率、横軸が1フレームあたりの誤検出数である。なお、検出率は、「検出された歩行者/検出対象となる歩行者」で表され、1フレームあたりの誤検出数は、「検出対象以外に対する検出数/評価フレーム数」で表される。また、ROC曲線ではグラフが左上方にあるほど性能が高い。すなわち横軸の値が同じ(誤検出数が等しい)場合は、縦軸の値が大きいほど検出率が高く、縦軸の値が同じ(検出率が等しい)場合は、横軸の値が小さいほど誤検出が少ないことを意味する。
実験では、ランク毎に分類された学習用画像を用いて、3つのデータセットを作成した。1つめのデータセット(データセット1)は、ランク1に分類された学習用画像0枚、ランク2に分類された学習用画像5000枚、ランク3に分類された学習用画像0枚、ランク4に分類された学習用画像0枚を用いて作成した。2つめのデータセット(データセット2)は、ランク1に分類された学習用画像5000枚、ランク2に分類された学習用画像5000枚、ランク3に分類された学習用画像0枚、ランク4に分類された学習用画像0枚を用いて作成した。3つめのデータセット(データセット3)は、ランク1に分類された学習用画像1000枚、ランク2に分類された学習用画像5000枚、ランク3に分類された学習用画像1000枚、ランク4に分類された学習用画像0枚を用いて作成した。なお、これらのデータセットは、いずれも、最も検出し易いランク1と最も検出し難いランク4との間のランク2及びランク3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T以下となる、複数M(N+N)枚の検出対象物の学習用画像が用いられている。図5には、これらのデータセット1、2、3の各々に対応するROC曲線70、72、74が示されている。
また、図5には、比較として、同じ学習用画像の集合から質を考慮せずにランダムに5000枚選択し、学習し、歩行者検出を行う際に用いられる学習モデルを生成した場合(ランダムサンプリング)における最も性能が高かったときのROC曲線76が示されている。
図5のROC曲線70、72、74、76が示すように、どの場合も検出性能は同程度であることがわかる。
図6には、ランダムに学習用画像を選択し、歩行者検出を行う際に用いられる学習モデルを生成した場合の特徴数と、本実施形態の対象物検出システム10の特徴数の実験結果の比較例を表すグラフが示されている。このグラフは、縦軸が特徴数、横軸が1フレームあたりの誤検出数である。
図6には、これらのデータセット1、2、3の各々に対応するグラフ80、82、84が示されている。また、図6には、ランダムサンプリングの場合におけるグラフ86が示されている。
図6に示すように、ランダムサンプリングの場合と比較して、データセット1〜3を用いた場合には、特徴数が減少(削減)していることが分かる。
このように本実施の形態の学習モデル生成装置20によって生成された学習モデルは、図5及び図6の実験結果が示すように、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルである。
以上、説明したように、本実施の形態の学習モデル生成装置20によれば、検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク1〜4の各々毎に、検出対象物の最も検出し易いランク1から最も検出し難いランク4にわたって予め分類された複数の学習用画像に基づいて、最も検出し易いランク1と最も検出し難いランク4との間のランク2、3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T以下となるように、複数の学習用画像が選択され、選択された複数の学習用画像に基づいて、この複数の学習用画像の各々に応じた数の特徴(本実施の形態ではHaar−like特徴)の集合を含む学習モデルが生成される。
また、本実施の形態の学習モデル生成装置20によれば、検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク1〜4の各々毎に、検出対象物の最も検出し易いランク1から最も検出し難いランク4にわたって予め分類された複数の基準画像60a〜dに基づいて、複数の学習用画像の各々が複数のランク1〜4のうちの何れかのランクに分類され、分類された複数の学習用画像に基づいて、最も検出し易いランク1と最も検出し難いランク4との間のランク2、3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T以下となるように、複数の学習用画像が選択され、選択された複数の学習用画像に基づいて、この複数の学習用画像の各々に応じた数の特徴(本実施の形態ではHaar−like特徴)の集合を含む学習モデルが生成される。
本実施の形態の学習モデル生成装置20によって生成された学習モデルは、図5及び図6の実験結果が示すように、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルである。
従って、本実施の形態に係る学習モデル生成装置20によれば、従来の技術と比較して、検出性能が同程度となり、かつ特徴数が削減された学習モデルを生成することができる。
なお、本実施の形態では、ランクの数を1〜4の4つとしたが、本発明はこれに限られない。例えば、ランクの数を4以外の複数の数としてもよい。
また、ステップ106において、上記の式(2)に従って、最も検出し易いランク1と最も検出し難いランク4との間のランク2及びランク3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T以下となるように、複数M(N+N)枚の検出対象物の学習用画像を選択する例について説明したが、本発明はこれに限られない。例えば、ステップ106において、下記の式(3)に従って、最も検出し易いランク1と最も検出し難いランク4との間のランク2及びランク3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T´となるように、複数M(N+N)枚の検出対象物の学習用画像を選択するようにしてもよい。
また、ステップ106において、下記の式(4)に従って、最も検出し易いランク1と最も検出し難いランク4との間のランク2及びランク3に分類された複数の学習用画像の数Nに対する、ランク1とランク4とに分類された複数の学習用画像の数Nの割合が所定値T´´から所定値T´´´の範囲内となるように、複数M(N+N)枚の検出対象物の学習用画像を選択するようにしてもよい。
なお、上記で説明した所定値T、所定値T´、所定値T´´、及び所定値T´´´の各々の値は、例えば、実験によって、従来の技術と比較して検出性能が同程度となり、かつ特徴数が削減された学習モデルが生成された場合における所定値T、または、所定値T´、または所定値T´´及び所定値T´´´の値を予め求めておき、予め求められた値を設定しておけばよい。
10 対象物検出システム
20 学習モデル生成装置
30 対象物検出装置
42 学習用画像分類部
44 学習用画像選択部
46 学習部
48 学習モデルDB

Claims (7)

  1. 検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段と、
    前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルを生成する生成手段と、
    を含む学習モデル生成装置。
  2. 検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の基準画像に基づいて、複数の学習用画像の各々を前記複数のランクのうちの何れかのランクに分類する分類手段と、
    前記分類手段によって分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段と、
    前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴の集合を含む学習モデルを生成する生成手段と、
    を含む学習モデル生成装置。
  3. 前記検出対象物の検出し易さの度合いを、学習用画像の解像度が大きくなるほど大きくなり、学習用画像における検出対象物が当該検出対象物以外の対象物によって隠れている部分が大きくなるほど小さくなり、学習用画像におけるボケの度合いが大きくなるほど小さくなり、または、学習用画像における背景雑音が大きくなるほど小さくなるように定めた請求項1または請求項2記載の学習モデル生成装置。
  4. 前記検出対象物の検出し難さの度合いを、学習用画像の解像度が大きくなるほど小さくなり、学習用画像における検出対象物が当該検出対象物以外の対象物によって隠れている部分が大きくなるほど大きくなり、学習用画像におけるボケの度合いが大きくなるほど大きくなり、または、学習用画像における背景雑音が大きくなるほど大きくなるように定めた請求項1または請求項2記載の学習モデル生成装置。
  5. 請求項1〜請求項4の何れか1項記載の学習モデル生成装置と、
    前記学習モデル生成装置によって生成された学習モデルと入力画像とに基づいて、前記入力画像から対象物を検出する検出手段を備えた対象物検出装置と、
    を含む対象物検出システム。
  6. コンピュータを、
    検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段、及び
    前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴を含む学習モデルを生成する生成手段
    として機能させるためのプログラム。
  7. コンピュータを、
    検出対象物の検出し易さまたは検出し難さの度合いに応じた複数のランク毎に、検出対象物の最も検出し易いランクから最も検出し難いランクにわたって予め分類された複数の基準画像に基づいて、複数の学習用画像の各々を前記複数のランクのうちの何れかのランクに分類する分類手段、
    前記分類手段によって分類された複数の学習用画像に基づいて、最も検出し易いランクと最も検出し難いランクとの間のランクに分類された複数の学習用画像の数に対する、前記最も検出し易いランクと最も検出し難いランクとに分類された複数の学習用画像の数の割合が所定値以下となるように、複数の学習用画像を選択する選択手段、及び
    前記選択手段によって選択された複数の学習用画像に基づいて、該複数の学習用画像の各々に応じた数の特徴を含む学習モデルを生成する生成手段
    として機能させるためのプログラム。
JP2009056350A 2009-03-10 2009-03-10 学習モデル生成装置、対象物検出システム、及びプログラム Expired - Fee Related JP5063632B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009056350A JP5063632B2 (ja) 2009-03-10 2009-03-10 学習モデル生成装置、対象物検出システム、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009056350A JP5063632B2 (ja) 2009-03-10 2009-03-10 学習モデル生成装置、対象物検出システム、及びプログラム

Publications (2)

Publication Number Publication Date
JP2010211468A JP2010211468A (ja) 2010-09-24
JP5063632B2 true JP5063632B2 (ja) 2012-10-31

Family

ID=42971562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009056350A Expired - Fee Related JP5063632B2 (ja) 2009-03-10 2009-03-10 学習モデル生成装置、対象物検出システム、及びプログラム

Country Status (1)

Country Link
JP (1) JP5063632B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8852438B2 (en) 1995-08-11 2014-10-07 Zenon Technology Partnership Membrane filtration module with adjustable header spacing

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5898221B2 (ja) * 2010-10-19 2016-04-06 スリーエム イノベイティブ プロパティズ カンパニー 製造されたウェブ製品のデジタルサンプルに対する評価のコンピュータ支援割り当て
US9008438B2 (en) 2011-04-25 2015-04-14 Panasonic Intellectual Property Corporation Of America Image processing device that associates photographed images that contain a specified object with the specified object
EP3471049A4 (en) * 2016-06-09 2019-06-19 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP6182242B1 (ja) * 2016-06-13 2017-08-16 三菱電機インフォメーションシステムズ株式会社 データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム
KR101879735B1 (ko) * 2017-03-15 2018-07-18 (주)넥셀 자동적인 학습데이터 생성 방법 및 장치와 이를 이용하는 자가 학습 장치 및 방법
JP7011146B2 (ja) * 2017-03-27 2022-01-26 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法
JP6795562B2 (ja) 2018-09-12 2020-12-02 ファナック株式会社 検査装置及び機械学習方法
JP6823025B2 (ja) * 2018-09-12 2021-01-27 ファナック株式会社 検査装置及び機械学習方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304900A (ja) * 2006-05-12 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> オブジェクト認識装置及びオブジェクト認識プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8852438B2 (en) 1995-08-11 2014-10-07 Zenon Technology Partnership Membrane filtration module with adjustable header spacing

Also Published As

Publication number Publication date
JP2010211468A (ja) 2010-09-24

Similar Documents

Publication Publication Date Title
JP5063632B2 (ja) 学習モデル生成装置、対象物検出システム、及びプログラム
US11527055B2 (en) Feature density object classification, systems and methods
TWI651662B (zh) 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體
US8594431B2 (en) Adaptive partial character recognition
Mita et al. Discriminative feature co-occurrence selection for object detection
EP2545502B1 (en) Image feature detection based on application of multiple feature detectors
EP2374089B1 (en) Method, apparatus and computer program product for providing hand segmentation for gesture analysis
US20110085728A1 (en) Detecting near duplicate images
US20120114250A1 (en) Method and system for detecting multi-view human face
CN107038409B (zh) 检测图像中所含文本的方法、装置和计算机可读记录介质
US8965115B1 (en) Adaptive multi-modal detection and fusion in videos via classification-based-learning
JP2017146840A (ja) 画像処理装置およびプログラム
JP4553044B2 (ja) 集団学習装置及び方法
US8515184B1 (en) System for visual object recognition using heterogeneous classifier cascades
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP2008165496A (ja) 画像正規化装置、対象物検出装置、対象物検出システム及びプログラム
JP5220482B2 (ja) 対象物検出装置及びプログラム
Duan et al. The logitboost based on joint feature for face detection
JP5283267B2 (ja) コンテンツ識別方法及び装置
JP5083162B2 (ja) 画像データ判定装置、画像データ判定システム、及びプログラム
CN111353353A (zh) 跨姿态的人脸识别方法及装置
US20230230342A1 (en) Training data selection device, training data selection method, and program
Kang et al. Head pose estimation using random forest and texture analysis
Raghunandan et al. Sharpness and contrast based features for word-wise video type classification
Davami et al. Classification with NormalBoost

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120807

R150 Certificate of patent or registration of utility model

Ref document number: 5063632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees