JP6203077B2 - 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム - Google Patents

学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム Download PDF

Info

Publication number
JP6203077B2
JP6203077B2 JP2014031847A JP2014031847A JP6203077B2 JP 6203077 B2 JP6203077 B2 JP 6203077B2 JP 2014031847 A JP2014031847 A JP 2014031847A JP 2014031847 A JP2014031847 A JP 2014031847A JP 6203077 B2 JP6203077 B2 JP 6203077B2
Authority
JP
Japan
Prior art keywords
learning
image
partial
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014031847A
Other languages
English (en)
Other versions
JP2015158712A (ja
Inventor
ヴェトクォク ファン
ヴェトクォク ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014031847A priority Critical patent/JP6203077B2/ja
Priority to US14/616,867 priority patent/US9563822B2/en
Publication of JP2015158712A publication Critical patent/JP2015158712A/ja
Application granted granted Critical
Publication of JP6203077B2 publication Critical patent/JP6203077B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7625Hierarchical techniques, i.e. dividing or merging patterns to obtain a tree-like representation; Dendograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Description

本発明は、学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システムに関する。
入力画像に含まれる物体の密度を算出する装置が提案されている。例えば、部分画像の特徴量と、部分画像の物体密度データと、の関連性を示すランダムフォレストを学習する技術が知られている。この技術では、このランダムフォレストを用いて、入力画像の物体密度が計測される。また、入力画像に含まれる人物の一部分を検出する技術が知られている。この技術では、検出結果から、入力画像内に含まれる人物の人数が算出される。
特開2012−108785号公報
L.Fiaschi,R.Nair,U.Koethe anR F.A.Hamprecht,"Learning to count with a Regression Forest anR StructureR Labels,"Int. Conf. Pattern Recognition,pp.2685−2688,2012
しかしながら、ランダムフォレストを学習する技術では、物体密度データのデータ量が大きいため、密度計算には膨大なメモリが必要であった。また、人物の一部分を検出する技術では、入力画像に含まれる人物等の物体が小さいほど、また、入力画像に含まれる物に重なりがあるほど、検出精度が低下していた。このため、従来では、密度計算を高精度且つ低メモリで行う事が出来なかった。
本発明が解決しようとする課題は、密度計算を高精度で且つ低メモリで行うためのデータを提供する学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システムを提供することである。
実施形態の学習装置は、第1抽出部と、第1計算部と、探索部と、投票部と、学習部と、第1予測部と、を備える。第1抽出部は、学習画像から複数の第1部分画像を抽出する。第1計算部は、第1部分画像の特徴量を計算する。探索部は、第1部分画像に含まれる物体を探索し、第1部分画像における第1位置と該第1部分画像に含まれる全ての物体の各々との相対位置を表すベクトルを、ラベルとして特徴量に付与する。投票部は、複数の第1部分画像の各々について、相対位置の分布を表すヒストグラムを算出し、パラメータ空間に投票した投票ヒストグラムを生成する。学習部は、複数の第1部分画像の各々に対応する特徴量を、対応する投票ヒストグラムのばらつきが小さくなるように複数のクラスタに分割することによって、第1部分画像の特徴量と第1部分画像に含まれる物体の相対位置との関係を示す回帰モデルを学習する。第1予測部は、複数のクラスタの各々について、クラスタに属する特徴量に付与されたラベルから、代表ラベルを予測する。
学習装置の機能的構成を示すブロック図。 学習画像の一例を示す図。 学習画像、第1部分画像、及びラベルの説明図。 ラベル及びヒストグラムの説明図。 投票ヒストグラムの説明図。 ランダムツリーの説明図。 ランダムフォレストの説明図。 代表ラベルの予測の説明図。 ランダムフォレストの説明図。 学習処理の手順を示すフローチャート。 密度計測装置の機能的構成を示すブロック図。 代表ラベルの予測の説明図。 密度計測処理の手順を示すフローチャート。 最近傍識別器を用いた学習の説明図。 密度計測システムの説明図。 学習装置、密度計測装置、及び密度計測システムのハードウェア構成のブロック図。
以下に添付図面を参照して、学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システムの一の実施形態を詳細に説明する。
(実施の形態1)
図1は、本実施の形態の学習装置1の機能的構成を示すブロック図である。学習装置1は、記憶部16及び制御部17を備える。記憶部16及び制御部17は、電気的に接続されている。
記憶部16は、学習画像を予め記憶する。記憶部16は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ROM(Read Only Memory)、メモリカードなどの、磁気的、光学的、及び電気的に記憶可能な記憶装置の少なくともいずれかにより実現できる。
学習画像は、学習装置1において学習する対象の画像である。学習画像は、1または複数の物体を含む。本実施の形態では、一例として、物体が人物である場合を説明する。しかし、物体は、人物に限定されない。
図2は、学習画像30の一例を示す図である。学習画像30は、例えば、物体の各々の中心にマークを付与した画像である。制御部17では、このマークの部分を物体として認識し、後述する処理を実行する。なお、制御部17が、学習画像30における物体を検索し、物体の中心にマークを付与してもよい。本実施の形態では、学習画像30は、物体としての人物の頭部の中心にマークを付けた画像である場合を説明する。
図1に戻り、制御部17は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)などを含んで構成されるコンピュータである。なお、制御部17は、CPU以外の回路等であってもよい。
制御部17は、学習装置1全体を制御する。学習装置1は、第1抽出部10、第1計算部11、探索部12、投票部13、学習部14、及び第1予測部15を備える。
第1抽出部10、第1計算部11、探索部12、投票部13、学習部14、及び第1予測部15の一部または全ては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
第1抽出部10は、学習画像30から複数の第1部分画像を抽出する。第1抽出部10は、記憶部16から学習画像30を読取ってもよいし、外部から取得してもよい。
第1部分画像は、学習画像30の一部の画像であり、少なくとも1つの物体を含む画像である。本実施の形態では、第1部分画像は、学習画像30の一部を矩形状に抽出した画像である場合を説明する。なお、第1部分画像の形状は、矩形に限られず、任意の形であってよい。
図3は、学習画像30、第1部分画像32、ラベル34(詳細後述)の説明図である。図3(A)は、学習画像30の一例を示す図である。図3(B)は、第1部分画像32の一例を示す図である。
第1抽出部10は、学習画像30上において、抽出する対象となる矩形状の領域を移動させて、複数の第1部分画像32を抽出する(図3(A)参照)。学習画像30から抽出される複数の第1部分画像32は、互いに同じ大きさで且つ同じ形状である。
学習画像30から抽出される複数の第1部分画像32は、少なくとも一部分が互いに重なっていてもよい。第1抽出部10が学習画像30から抽出する第1部分画像32の数は、2以上であればよいが、抽出する第1部分画像32の数は大きいほど好ましい。具体的には、第1抽出部10は、1000以上の第1部分画像32を学習画像30から抽出することが好ましい。
第1抽出部10が学習画像30から抽出する第1部分画像32の数が多いほど、学習装置1は、後述する密度計測装置において高精度に密度を計算可能な、回帰モデルを学習することができる。
図1に戻り、第1計算部11は、第1抽出部10で抽出された複数の第1部分画像32の各々の特徴量を計算する。特徴量は、第1部分画像32の特徴を示す値である。特徴量には、例えば、部分画像を構成する画素の画素値を離散化して一次元に並べたものや、これを、この一次元に並べた画素値における隣接画素値の差(すなわち勾配)で正規化したもの、を用いる。また、特徴量には、SIFT特徴(D.Lowe“,Object recognition from local scale−invariant features,”Int. Conf. Comp. Vision, Vol.2, pp.1150−1157, 1999参照)等を用いてもよい。SIFT特徴は、微小な変化に頑健なヒストグラム特徴である。
探索部12は、複数の第1部分画像32の各々の特徴量にラベルを付与する。ラベルは、各第1部分画像32に含まれる物体と、各第1部分画像32における第1位置と、の相対位置を表す。具体的には、探索部12は、まず、第1抽出部10によって抽出された複数の第1部分画像32の各々に含まれる物体を探索する。そして、探索部12は、第1部分画像32の各々について、第1部分画像32における第1位置と、該第1部分画像32に含まれる全ての物体の各々と、の相対位置を表すベクトルを、ラベルとして生成する。そして、探索部12は、生成したラベルを、対応する第1部分画像32の特徴量に付与する。
第1位置は、部分画像内における予め定められた任意の位置であればよい。本実施の形態では、第1位置は、第1部分画像32における中心位置(第1部分画像32の中央)であるものとして説明する。
図3(C)及び図3(D)は、ラベル34の説明図である。例えば、探索部12が、図3(B)に示す第1部分画像32の各々に含まれる物体を探索する。そして、探索部12は、第1部分画像32の中心位置Pと、該第1部分画像32に含まれる全ての物体(図3(B)及び(C)に示す例では、3つの物体)の各々と、の相対位置を示すベクトルL1、L2、L3を生成する(図3(C)参照)。そして、探索部12は、これらのベクトルL1、L2、L3を1組とするベクトルLを、ラベル34として(図3(D)参照)、該第1部分画像32の特徴量に付与する。
図1に戻り、投票部13は、複数の第1部分画像32の各々について、各第1部分画像32に含まれる物体の相対位置の分布を表すヒストグラムを算出する。
図4は、ラベル34及びヒストグラム36の説明図である。図4に示すように、投票部13は、ラベル34から、ヒストグラム36を算出する。
ヒストグラム36は、第1部分画像32に一様に配置したビン(bin)の集合である。ヒストグラム36におけるビンの大きさは、第1部分画像32に含まれる物体の相対位置によって定まる。例えば、第1部分画像32における位置bのビンの大きさは、以下の式(1)で表される。
B(b)=ΣN(b;oj,σ) ・・・式(1)
式(1)中、B(b)は、第1部分画像32における、位置bのビンの大きさを示す。ojは、物体の位置を示す。式(1)中、N(b;oj,σ)は、位置bにおける(中心oj、分散σ)の正規分布の確率密度関数の値である。
図1に戻り、次に、投票部13は、複数の第1部分画像32ごとに算出したヒストグラム36の各々を、パラメータ空間に投票する。これにより、投票部13は、複数の第1部分画像32の各々について、各第1部分画像32に対応する投票ヒストグラムを生成する。
図5は、投票ヒストグラム40の説明図である。ヒストグラム36は、パラメータ空間38に投票されることで、投票ヒストグラム40となる。図5では、パラメータ空間を、二次元に簡略して示している。
なお、本実施の形態では、パラメータ空間は、3次元のパラメータ空間(x、y、s)であるものとして説明する。(x,y)は、部分画像内の二次元位置(x,y)を示す。(s)は、物体の大きさ(s)を示す。なお、パラメータ空間として、上記パラメータ以外に、物体の姿勢、物体の向き等を加えたより多次元のパラメータ空間であってもよい。
図1に戻り、学習部14は、第1部分画像32の特徴量と、第1部分画像32に含まれる物体の相対位置と、の関係を示す回帰モデルを学習する。具体的には、学習部14は、複数の第1部分画像32の各々に対応する、ラベル34の付与された特徴量を、対応する投票ヒストグラムのばらつきが小さくなるように複数のクラスタに分割することによって、回帰モデルを学習する。
本実施の形態では、回帰モデルが、1または複数のランダムツリーである場合を説明する。複数のランダムツリーは、すなわち、ランダムフォレストである。本実施の形態では、クラスタは、ランダムツリーの末端のノードである葉ノードを意味する。
本実施の形態において、学習部14が回帰モデルを学習する、とは、ランダムツリーによって示されるルートノードから子ノードを介して葉ノードに至るまでの各々のノードの分割指標と、葉ノードに属する特徴量と、を決定することを意味する。なお、この特徴量は、上述したように、ラベル34の付与された特徴量である。
本実施の形態では、学習部14は、投票ヒストグラム40のばらつきが小さくなるように、ルートノードから子ノードを介して複数の葉ノードに至るまでの各ノードの分割指標と、複数の葉ノードの各々に属する特徴量と、を決定することによって回帰モデルを学習する。
なお、学習部14は、分割指標の組合せの異なる複数の回帰モデルを学習することが好ましい。本実施の形態では、学習部14は、各ノードの分割指標の組合せを変えることによって、予め定められた数(以下、Tと称する)の回帰モデルを学習する。
図6は、ランダムツリー42の説明図である。
図6には、各ノードの横に、二次元に簡略化したパラメータ空間38の投票ヒストグラム40を示した。図6に示す例では、複数の第1部分画像32の特徴量の各々に対応する投票ヒストグラム40として、投票ヒストグラム40A〜投票ヒストグラム40Fを示した。以下では、第1部分画像32の特徴量を、特徴量vと称して説明する場合がある。この特徴量vには、上述したように、ラベルが付与されている。
まず、学習部14は、ルートノード42Aである「S」に、第1計算部11及び探索部12で算出した、ラベルの付与された全ての特徴量vを割当てる。
学習部14は、このルートノード42Aである「S」を2つの子ノード42Bである「L」、「R」の各々に分割するときの分割指標を定める。分割指標は、特徴量vの要素vjと、その閾値tjと、により定められる。
具体的には、学習部14は、分割先のノード(子ノード42Bまたは葉ノード42C)における投票ヒストグラムのばらつきが小さくなるように、分割元のノードの分割指標を決定する。分割指標は、特徴量vの要素vjと、その閾値tjと、によって定められる。
詳細には、学習部14は、要素vj<閾値tjの関係を満たすラベル付き特徴量vを、子ノード42Bである「L」に(図6のyesの場合)、要素vj<閾値tjの関係を満たさない特徴量vを、子ノード42Bである「R」に(図6のnoの場合)、仮に割当てた場合の分割指標を決定する(以下、仮割当操作と称する)。
このとき、学習部14は、投票ヒストグラム40のばらつきが小さくなるように、特徴量vの分割指標を決定する。学習部14は、例えば、下記式(2)を用いて分割指標を決定する。
G=Σ{H(l)−HL}+Σ{H(r)―HR} ・・・式(2)
式(2)中、H(l)は、ルートノード42Aである「S」から子ノード42Bである「L」に分割された投票ヒストグラム40を示す。式(2)中、H(r)は、ルートノード42Aである「S」から子ノード42Bである「R」に分割された投票ヒストグラム40を示す。式(2)中、HLは、全てのH(l)の平均値である。HRは、全てのH(r)の平均値である。
なお、学習部14が分割指標の決定に用いる式は、式(2)に限定されない。
学習部14は、各ノードについて、最も投票ヒストグラム40のばらつきの小さくなるように分割指標を決定し、ルートノード42Aから子ノード42Bを介して葉ノード42Cに至るまで、この仮割当操作を繰り返す。すなわち、学習部14は、各ノードについて、上記式(2)におけるGの値が最も小さくなるように、要素vjと閾値tjとの組合せを分割指標として決定し、各ノードに属する特徴量vを分割することを繰り返す。
そして、学習部14は、終了条件を満たした時のノードを、末端の葉ノード42Cとして決定する。終了条件は、例えば、第1の条件、第2の条件、及び第3の条件の少なくとも1つである。第1の条件は、ノードに含まれる特徴量vの数が予め定めた数よりも小さいときである。第2の条件は、ランダムツリー42の木構造の深さが予め定めた値よりも大きいときである。第3の条件は、分割指標の値が予め定めた値より小さいときである。
この葉ノード42Cの決定により、学習部14は、葉ノード42Cに属する特徴量vを学習する。
上述のようにして、学習部14は、ルートノード42Aから子ノード42Bを介して葉ノード42Cに至るまでの各ノードの分割指標と、葉ノード42Cに属する特徴量vと、を決定し、ランダムツリー42を学習する。また、学習部14は、分割指標の組合せを変えて上記の仮割当操作を行うことによって、予め定めた数Tのランダムツリー42、を学習する。
なお、学習部14が学習するランダムツリー42の数Tは、1つであってもよいし、2以上の任意の数であってもよい。学習部14が学習画像30からより多くの数のランダムツリー42を学習するほど、学習装置1は、後述する密度計測装置において高精度に密度を計算可能な、ランダムツリー42を学習することができる。すなわち、学習部14は、複数のランダムツリー42である、ランダムフォレストを学習することが好ましい。
図7は、学習した複数のランダムツリー42(すなわち、ランダムフォレスト)の説明図である。ランダムツリー42〜ランダムツリー42の各々、は、各ノードの分割指標が異なる。このため、例えば、ルートノード42Aに割当てた、ラベル34の付与された全ての特徴量vが同じであっても、ランダムツリー42と、ランダムツリー42と、では、葉ノード42Cに属するラベル付きの特徴量vが異なるものとなる場合がある。なお、図7に示す例では、葉ノード42Cには、ラベル34のみを図示しているが、実際には、各葉ノード42Cには、ラベル34の付与された特徴量vが属している。
図1に戻り、第1予測部15は、学習部14が学習時に分割したクラスタの各々について、代表ラベルを予測する。第1予測部15は、クラスタに属する1または複数の特徴量vに付与されたラベル34から、代表ラベルを予測する。
上述したように、本実施の形態では、クラスタは、ランダムツリー42の末端のノードである葉ノード42Cを意味する。このため、第1予測部15は、葉ノード42Cに属する特徴量vの各々に付与されたラベル34から、各葉ノード42Cの代表ラベルを予測する。
図8は、代表ラベルの予測の説明図である。図8は、1つの葉ノード42Cを例にして説明している。まず、第1予測部15は、葉ノード42Cに属する全ての特徴量vの各々に付与されたラベル34を読取る。図8に示す例では、第1予測部15は、ラベル34C、34D、34E、34G、34Hを読取る。次に、第1予測部15は、これらのラベル34C、34D、34E、34G、34Hの各々に対応する投票ヒストグラム40(40C、40D、40E、40G、40H)の平均である、平均ヒストグラム41を算出する。
次に、第1予測部15は、この葉ノード42Cに属する複数の投票ヒストグラム40(40C、40D、40E、40G、40H)の内、平均ヒストグラム41に近い投票ヒストグラム40を選択する。なお、第1予測部15は、葉ノード42Cに属する複数の投票ヒストグラム40(40C、40D、40E、40G、40H)の内、平均ヒストグラム41に、最も近い投票ヒストグラム40を選択することが好ましい。図8に示す例では、第1予測部15は、平均ヒストグラム41に最も近い投票ヒストグラム40Eを選択する。そして、第1予測部15は、この投票ヒストグラム40Eに対応するラベル34であるラベル34Eを、該葉ノード42Cの代表ラベルとして予測する。
第1予測部15は、学習部14が学習した全てのランダムツリー42における、全ての葉ノード42Cについて、同様な処理を行い、各葉ノード42Cの代表ラベルを予測する。
図9は、代表ラベル予測後の、ランダムツリー42の説明図である。
図9に示すように、第1予測部15が各葉ノード42Cについて代表ラベルを予測することによって、学習部14が学習したランダムフォレストに含まれる全てのランダムツリー42(ランダムツリー42〜42)の各々について、各ランダムツリー42の全ての葉ノード42Cについて、代表ラベルが予測される。
次に、学習装置1が実行する学習処理の手順を説明する。図10は、学習装置1が実行する学習処理の手順を示すフローチャートである。
まず、第1抽出部10が、学習画像30から複数の部分画像を抽出する(ステップS100)。次に、第1計算部11が、第1抽出部10で抽出された複数の第1部分画像32の各々の特徴量を計算する(ステップS101)。
次に、探索部12が、ステップS101で計算された複数の第1部分画像32の各々の特徴量に、ラベルを付与する(ステップS102)。投票部13は、ラベル34からヒストグラム36を算出し、パラメータ空間38に投票することで、投票ヒストグラム40を生成する(ステップS103)。
次に、学習部14が、第1部分画像32の特徴量と、第1部分画像32に含まれる物体の相対位置と、の関係を示す回帰モデルを学習する(ステップS104)。本実施の形態では、上述したように、回帰モデルとしてランダムツリー42を学習する。
次に、第1予測部15が、学習部14が学習時に分割したクラスタ(葉ノード42C)の各々について、代表ラベルを予測する(ステップS105)。
そして、制御部17では、上記学習した回帰モデルとしてのランダムツリー42、及びクラスタ(葉ノード42C)の代表ラベルを、密度計測用の辞書データとして図示を省略するメモリに記憶する。なお、制御部17は、密度計測用の辞書データを、後述する密度計測装置に送信してもよい。そして、本ルーチンを終了する。
次に、密度計測装置2について説明する。
密度計測装置2は、学習装置1で学習した回帰モデル、及び学習装置1で予測した代表ラベルを用いて、入力画像に含まれる物体の密度を計測する装置である。
図11は、本実施の形態の密度計測装置2の機能的構成を示すブロック図である。密度計測装置2は、制御部28を備える。制御部28は、CPU、ROM、及びRAMなどを含んで構成されるコンピュータである。なお、制御部28は、CPU以外の回路等であってもよい。
制御部28は、密度計測装置2全体を制御する。密度計測装置2は、第2抽出部20、第2計算部21、取得部22、第2予測部23、及び密度計算部24を備える。
第2抽出部20、第2計算部21、取得部22、第2予測部23、及び密度計算部24の一部または全ては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
第2抽出部20は、入力画像から、複数の第2部分画像を抽出する。入力画像は、密度計測装置2において物体の密度計測の対象として用いる画像であり、入力画像とは異なる画像である。第2抽出部20は、図示を省略するメモリから入力画像を取得してもよいし、外部装置から入力画像を取得してもよい。
第2部分画像は、学習画像に代えて入力画像を抽出対象の画像として用いる以外は、第1部分画像と同様である。すなわち、第2抽出部20は、第1抽出部10と同様にして、入力画像から第2部分画像を抽出する。
第2計算部21は、第2抽出部20が抽出した複数の第2部分画像の各々の特徴量を計算する。第2計算部21は、第1計算部11と同様にして特徴量を計算する。
取得部22は、密度計測用の辞書データを取得する。取得部22は、学習装置1から密度計測用の辞書データを受信することで取得してもよい。また、取得部22は、学習装置1に設けられた図示を省略するメモリから、密度計測用の辞書データを読取ることで取得してもよい。密度計測用の辞書データは、学習装置1で学習した回帰モデルとしてのランダムツリー42と、葉ノード42Cの各々の代表ラベルと、を含む。
第2予測部23は、取得部22で取得したランダムツリー42の変数に、第2部分画像から計算された特徴量を代入する。これにより、第2予測部23は、第2部分画像の各々に対応する代表ラベルを予測する。
ここで、取得部22で取得したランダムツリー42が1つである場合には、第2予測部23は、1つのランダムツリー42を用いて、第2部分画像毎に1つの代表ラベルを予測する。一方、取得部22で取得したランダムツリー42が複数である場合(すなわち、ランダムフォレストである場合)には、第2予測部23は、第2部分画像毎に、これらの複数のランダムツリー42の各々に対応する複数の代表ラベルを求め、これらの複数の代表ラベルの内の1つを、密度計測に用いる代表ラベルとして予測する。
図12は、第2予測部23が行う代表ラベルの予測の説明図である。取得部22が取得したランダムツリー42及び代表ラベルが、図12に示すランダムツリー42(ランダムツリー42〜42)及び代表ラベルであったとする。
この場合、第2予測部23は、第2部分画像の特徴量を、ランダムフォレストに含まれる各ランダムツリー42(ランダムツリー42〜42)の各々のルートノード42Aに代入する。そして、第2予測部23は、各ランダムツリー42(ランダムツリー42〜42)の各々のノードに決定された分割指標に沿って、ルートノード42Aから子ノード42Bを介して葉ノード42Cに到達するまで、木構造を下る。そして、到達した葉ノード42Cに属する代表ラベルを読取る。
これにより、第2予測部23は、1つの第2部分画像の特徴量に対応する代表ラベルとして、ランダムツリー42(ランダムツリー42〜42)毎に求めた複数の代表ラベルを求める。
例えば、ある第2部分画像の特徴量v1をランダムツリー42の変数としてルートノード42Aに代入したとする。そして、子ノード42B〜42Bの内の子ノード42B、42Bをたどって、葉ノード42C〜42Cの内の42Cに到達したとする。この場合、この特徴量v1の、ランダムツリー42によって決定される代表ラベルはラベル34Cとなる。
また、この特徴量v1をランダムツリー42の変数としてルートノード42Aに代入したとする。そして、子ノード42B〜42Bの内の子ノード42Bをたどって、葉ノード42C〜42Cの内の42Cに到達したとする。この場合、この特徴量v1の、ランダムツリー42によって決定される代表ラベルはラベル34C10となる。
次に、第2予測部23は、全てのランダムツリー42(ランダムツリー42〜42)毎に求めた代表ラベルの内の1つを、密度計測に用いる代表ラベルとして予測する。第2予測部23は、第1予測部15と同様にして、密度計測に用いる代表ラベルを予測する。
すなわち、第2予測部23は、全てのランダムツリー42(ランダムツリー42〜42)毎に求めた代表ラベルに対応する投票ヒストグラム40の、平均ヒストグラムを算出する。そして、第2予測部23は、全てのランダムツリー42(ランダムツリー42〜42)毎に求めた複数の代表ラベルの内、この平均ヒストグラムに最も近い投票ヒストグラム40に対応する代表ラベルを、密度計測に用いる代表ラベルとして予測する。
図11に戻り、密度計算部24は、入力画像に含まれる物体の平均密度を算出する。密度計算部24は、第2予測部23で予測された、第2部分画像の各々に対応する代表ラベルによって示される物体の相対位置に基づいて、第2予測部23の予測を行う。
密度計算部24は、第3計算部25、第4計算部26、及び第5計算部27を備える。なお、密度計算部24は、学習装置1で用いた第1位置を、密度計測用の辞書データから読取ってもよい。この場合、学習装置1は、第1位置を含むように、密度計測用の辞書データを作成すればよい。
第3計算部25は、複数の第2部分画像の各々に対応する代表ラベルによって示される、物体の相対位置に基づいて、複数の第2部分画像の各々における物体の密度分布を計算する。第3計算部25は、学習装置1で用いた第1位置を予め記憶している。なお、この代表ラベルは、上述した、密度計測に用いる代表ラベルである。
例えば、第3計算部25は、正規分布の確率密度関数N()を用いて、第2部分画像における物体の密度分布Di(x)を計算する。
Di(x)=ΣN(x;lj,σ) ・・・式(3)
式(3)中、xは、第2部分画像中の任意の位置を示す。式(3)中、ljは、予測された物体の相対位置を示す。式(3)中、σは、分散を示す。
第4計算部26は、入力画像における複数の第2部分画像の各々に対応する位置に、第2部分画像の密度分布を配置する。密度分布を配置する、とは、入力画像における複数の第2部分画像の各々に対応する位置に、対応する第2部分画像の密度分布を貼り付けていくことを示す。
ここで、入力画像から抽出された複数の第2部分画像は、少なくとも一部分が互いに重なっている場合がある。このため、入力画像に、入力画像から抽出した第2部分画像の密度分布を配置すると、各第2部分画像に対応する密度分布の少なくとも一部が重なった状態となる場合がある。
そこで、第5計算部27は、入力画像における密度分布の重なり頻度に応じて、入力画像を構成する画素毎に物体の密度の第1平均値を算出する。そして、第5計算部27は、入力画像を構成する全ての画素の第1平均値を平均した値を、入力画像に含まれる物体の平均密度として計算する。
例えば、第5計算部27は、下記式(4)を用いて、入力画像に含まれる物体の平均密度を計算する。
D(x)=(ΣDi(x))/C(x) ・・・式(4)
式(4)中、D(x)は、平均密度を示す。式(4)中、xは、入力画像における任意の位置を示す。式(4)中、C(x)は、第2抽出部20が抽出した複数の第2部分画像の内、位置xを含む第2部分画像の数を示す。
次に、密度計測装置2が実行する密度計測処理を説明する。図13は、密度計測処理の手順を示すフローチャートである。
まず、第2抽出部20が、入力画像から、複数の第2部分画像を抽出する(ステップS200)。次に、第2計算部21が、複数の第2部分画像の各々の特徴量を計算する(ステップS201)。
次に、取得部22が、密度計測用の辞書データ(ランダムツリー42、代表ラベル)を取得する(ステップS202)。第2予測部23は、取得部22で取得したランダムツリー42の変数に、第2部分画像から計算された特徴量を代入する。これにより、第2予測部23は、第2部分画像の各々に対応する代表ラベルを予測する(ステップS203)。
次に、第3計算部25が、代表ラベルによって示される、物体の相対位置に基づいて、複数の第2部分画像の各々における物体の密度分布を計算する(ステップS204)。
次に、第4計算部26が、入力画像における複数の第2部分画像の各々に対応する位置に、対応する第2部分画像の密度分布を配置する(ステップS205)。次に、第5計算部27は、入力画像における密度分布の重なり頻度に応じて、入力画像に含まれる物体の平均密度を計算する(ステップS206)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の学習装置1は、探索部12が、学習画像30から抽出した複数の第1部分画像32の各々に含まれる物体を探索する。また、探索部12は、第1部分画像32における予め定められた第1位置と第1部分画像32に含まれる全ての物体の各々との相対位置を表すベクトルをラベルとして、第1部分画像32の特徴量に付与する。学習部14は、このラベルの付与された特徴量を、各ノードに割当てて各ノードの分割指標を定めることで、回帰モデルを学習する。第1予測部15は、回帰モデルの葉ノード42Cの各々について、代表ラベルを予測する。
ラベルは、物体の相対位置を示すベクトルであり、データサイズが小さい。このため、回帰モデルの構成に必要なデータ量の削減を図ることができる。すなわち、本実施の形態の回帰モデルを用いて密度計算を行うことで、密度計測装置2では、低メモリで物体の密度計算を行うことができる。
また、学習装置1は、学習画像から物体を直接検出せずに、回帰モデルを学習する。このため、本実施の形態の学習装置1は、学習画像における物体が小さくて重なる場合であっても、計測精度を落とすことなく、高精度に密度計算を行うことの可能な回帰モデルを学習することができる。
従って、本実施の形態の学習装置1は、密度計測装置2で行う密度計算を、高精度で且つ低メモリで行うためのデータ(回帰モデル)を提供することができる。
また、密度計測装置2は、学習装置1が学習した回帰モデルを用いて、入力画像に含まれる物体の密度計算を行う。また、密度計測装置2は、学習装置1で学習した回帰モデルを用いて物体の密度計算を行う。また、密度計測装置2は、入力画像から物体を直接検出せずに密度計算を行う。このため、密度計測装置2についても同様に、入力画像に含まれる物体が小さくて重なる場合であっても、密度計算の精度を落とすことなく、高精度に密度計算を行うことができる。
<変形例1>
上記実施の形態1では、回帰モデルとして、ランダムフォレストを用いる場合を説明した。しかし、学習装置1が学習する回帰モデルは、ランダムフォレストに限定されない。例えば、学習装置1は、回帰モデルとして、最近傍識別器を用いてもよい。
図14は、最近傍識別器を用いた学習の説明図である。学習部14(図1参照)は、複数の第1部分画像32の各々に対応する、ラベル34の付与された特徴量vを、対応する投票ヒストグラムのばらつきが小さくなるように複数のクラスタに分割することによって、学習モデルを学習する。
具体的には、学習部14は、複数の第1部分画像32の各々に対応する、全ての、ラベル34の付与された特徴量vを、k平均法などのベクトル量子化方法によって、k個のクラスタに分割する。
詳細には、学習部14は、任意のラベル34に対してランダムにクラスタを割りあて、クラスタ毎の平均値を計算する。次に、学習部14は、各ラベル34とクラスタ毎の平均値との距離を求め、各ラベル34を、最も近い平均値をもつクラスタに割り当て直す。この一連の処理で、全てのラベル34のクラスタへの割り当てが変化しなかった場合は、処理を終了する。それ以外の場合は処理を繰り返す。
これにより、ラベル34の付与された特徴量vは、特徴量vの類似した群毎に、クラスタに分割される。
第1予測部15は、クラスタに属する特徴量vに付与されたラベル34の平均値を計算する。そして、第1予測部15は、各クラスタに属する、特徴量vに付与されたラベル34の内、計算した平均値に最も近いラベル34を、代表ラベルとして予測する。
また、密度計測装置2では、学習装置1から、最近傍識別器を回帰モデルとして取得する。この場合、第2予測部23は、第2部分画像から計算した特徴量と、学習装置1で予測された各クラスタの代表ベクトルと、の照合を最近傍識別器によって行い、第2部分画像から計算した特徴量に最も距離の近い代表ベクトルを選択する。そして、第2予測部23は、選択した代表ベクトルの属するクラスタに属する特徴量に付与されたラベル34の集合から、第1予測部15と同様にして、第2部分画像の各々に対応する代表ラベルを予測すればよい。
(実施の形態2)
次に、密度計測システムについて説明する。図15は、密度計測システム3の説明図である。本実施の形態の密度計測システム3は、学習装置1及び密度計測装置2を備える。学習装置1と密度計測装置2は、電気的に接続されている。学習装置1及び密度計測装置2は、実施の形態1と同様である。
このように、本実施の形態の密度計測システム3は、実施の形態1で説明した学習装置1及び密度計測装置2を備える。
従って、本実施の形態の密度計測システム3は、密度計算を高精度で且つ低メモリで行うことができる。
なお、上記実施の形態では、記憶部16が、学習装置1に設けられている場合を説明した。しかし、記憶部16は、学習装置1に通信回線を介して接続された記憶装置として構成してもよい。
図16は、上記実施の形態及び変形例の学習装置1、密度計測装置2、及び密度計測システム3のハードウェア構成の一例を示すブロック図である。図16に示すように、上記実施の形態及び各変形例の学習装置1、密度計測装置2、及び密度計測システム3は、CPU902と、RAM906と、プログラムなどを記憶するROM904と、HDD908と、HDD908とのインタフェースであるI/F910と、画像入力用のインタフェースであるI/F912と、バス922とを、備えており、通常のコンピュータを利用したハードウェア構成となっている。なおCPU902、ROM904、RAM906、I/F910、及びI/F912は、バス922を介して互いに接続されている。
上記実施の形態及び変形例の学習装置1、密度計測装置2、及び密度計測システム3では、CPU902が、ROM904からプログラムをRAM906上に読み出して実行することにより、上記各部がコンピュータ上で実現される。
なお、上記実施の形態の学習装置1及び密度計測装置2の各々で実行される上記学習処理及び密度計測処理を実行するためのプログラムは、HDD908に記憶されていてもよい。また、上記実施の形態の学習装置1及び密度計測装置2の各々で実行される上記学習処理及び密度計測処理を実行するためのプログラムは、ROM904に予め組み込まれて提供されていてもよい。
また、上記実施の形態の学習装置1及び密度計測装置2の各々で実行される上記学習処理及び密度計測処理を実行するためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施の形態の学習装置1及び密度計測装置2の各々で実行される上記学習処理及び密度計測処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施の形態の学習装置1及び密度計測装置2の各々で実行される上記学習処理及び密度計測処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施の形態及び変形例を説明したが、これらの実施の形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば、上記実施の形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
1 学習装置
2 密度計測装置
3 密度計測システム
10 第1抽出部
11 第1計算部
12 探索部
13 投票部
14 学習部
15 第1予測部
20 第2抽出部
21 第2計算部
22 取得部
23 第2予測部
24 密度計算部
25 第3計算部
26 第4計算部
27 第5計算部

Claims (9)

  1. 学習画像から複数の第1部分画像を抽出する第1抽出部と、
    前記第1部分画像の特徴量を計算する第1計算部と、
    前記第1部分画像に含まれる物体を探索し、前記第1部分画像における第1位置と該第1部分画像に含まれる全ての物体の各々との相対位置を表すベクトルを、ラベルとして前記特徴量に付与する探索部と、
    複数の前記第1部分画像の各々について、前記相対位置の分布を表すヒストグラムを算出し、パラメータ空間に投票した投票ヒストグラムを生成する投票部と、
    複数の前記第1部分画像の各々に対応する前記特徴量を、対応する前記投票ヒストグラムのばらつきが小さくなるように複数のクラスタに分割することによって、前記第1部分画像の特徴量と前記第1部分画像に含まれる物体の相対位置との関係を示す回帰モデルを学習する学習部と、
    複数の前記クラスタの各々について、前記クラスタに属する前記特徴量に付与された前記ラベルから、代表ラベルを予測する第1予測部と、
    を備えた学習装置。
  2. 前記回帰モデルは、1または複数のランダムツリーであり、
    前記学習部は、前記投票ヒストグラムのばらつきが小さくなるように、ルートノードから複数の葉ノードに至るまでの各ノードの分割指標と、複数の前記葉ノードの各々に属する前記特徴量と、を決定することによって前記回帰モデルを学習し、
    前記第1予測部は、
    複数の前記葉ノードとしての複数の前記クラスタの各々について、前記クラスタに属する前記特徴量に付与された前記ラベルから、前記代表ラベルを予測する、
    請求項1に記載の学習装置。
  3. 前記第1予測部は、
    複数の前記クラスタの各々について、前記クラスタに属する複数の前記特徴量の各々に付与された前記ラベルに対応する前記投票ヒストグラムの平均ヒストグラムを算出し、
    複数の前記クラスタの各々について、前記クラスタに属する複数の前記特徴量の各々に付与された前記ラベルの内、前記平均ヒストグラムに近い投票ヒストグラムに対応するラベルを前記代表ラベルとして予測する、
    請求項2に記載の学習装置。
  4. 前記回帰モデルは、最近傍識別器である、請求項1に記載の学習装置。
  5. 入力画像から複数の第2部分画像を抽出する第2抽出部と、
    複数の前記第2部分画像の各々の特徴量を計算する第2計算部と、
    請求項1に記載の学習装置から、前記回帰モデル及び前記代表ラベルを取得する取得部と、
    前記回帰モデルの変数に前記第2部分画像の前記特徴量を代入することによって、複数の前記第2部分画像の各々に対応する前記代表ラベルを予測する第2予測部と、
    複数の前記第2部分画像の各々に対応する前記代表ラベルによって示される前記相対位置に基づいて、前記入力画像に含まれる物体の平均密度を算出する密度計算部と、
    を備えた密度計測装置。
  6. 前記密度計算部は、
    複数の前記第2部分画像の各々に対応する前記代表ラベルによって示される前記相対位置に基づいて、複数の前記第2部分画像の各々における物体の密度分布を計算する第3計算部と、
    前記入力画像における複数の前記第2部分画像の各々に対応する位置に、対応する前記第2部分画像の前記密度分布を配置する第4計算部と、
    前記入力画像における前記密度分布の重なり頻度に応じて、前記入力画像を構成する画素毎に物体の密度の第1平均値を算出し、前記入力画像を構成する全ての画素の前記第1平均値の平均の値を、前記入力画像に含まれる物体の平均密度として計算する第5計算部と、
    を有する、
    請求項5に記載の密度計測装置。
  7. 学習画像から複数の第1部分画像を抽出するステップと、
    前記第1部分画像の特徴量を計算するステップと、
    前記第1部分画像に含まれる物体を探索し、前記第1部分画像における第1位置と該第1部分画像に含まれる全ての物体の各々との相対位置を表すベクトルを、ラベルとして前記特徴量に付与するステップと、
    複数の前記第1部分画像の各々について、前記相対位置の分布を表すヒストグラムを算出し、パラメータ空間に投票した投票ヒストグラムを生成するステップと、
    複数の前記第1部分画像の各々に対応する前記特徴量を、対応する前記投票ヒストグラムのばらつきが小さくなるように複数のクラスタに分割することによって、前記第1部分画像の特徴量と前記第1部分画像に含まれる物体の相対位置との関係を示す回帰モデルを学習するステップと、
    複数の前記クラスタの各々について、前記クラスタに属する前記特徴量に付与された前記ラベルから、代表ラベルを予測するステップと、
    を備えた学習方法。
  8. コンピュータに、
    学習画像から複数の第1部分画像を抽出するステップと、
    前記第1部分画像の特徴量を計算するステップと、
    前記第1部分画像に含まれる物体を探索し、前記第1部分画像における第1位置と該第1部分画像に含まれる全ての物体の各々との相対位置を表すベクトルを、ラベルとして前記特徴量に付与するステップと、
    複数の前記第1部分画像の各々について、前記相対位置の分布を表すヒストグラムを算出し、パラメータ空間に投票した投票ヒストグラムを生成するステップと、
    複数の前記第1部分画像の各々に対応する前記特徴量を、対応する前記投票ヒストグラムのばらつきが小さくなるように複数のクラスタに分割することによって、前記第1部分画像の特徴量と前記第1部分画像に含まれる物体の相対位置との関係を示す回帰モデルを学習するステップと、
    複数の前記クラスタの各々について、前記クラスタに属する前記特徴量に付与された前記ラベルから、代表ラベルを予測するステップと、
    を実行させるための学習プログラム。
  9. 学習装置と、前記学習装置に接続された密度計測装置と、を備えた密度計測システムであって、
    前記学習装置は、
    学習画像から複数の第1部分画像を抽出する第1抽出部と、
    前記第1部分画像の特徴量を計算する第1計算部と、
    前記第1部分画像に含まれる物体を探索し、前記第1部分画像における第1位置と該第1部分画像に含まれる全ての物体の各々との相対位置を表すベクトルを、ラベルとして前記特徴量に付与する探索部と、
    複数の前記第1部分画像の各々について、前記相対位置の分布を表すヒストグラムを算出し、パラメータ空間に投票した投票ヒストグラムを生成する投票部と、
    複数の前記第1部分画像の各々に対応する前記特徴量を、対応する前記投票ヒストグラムのばらつきが小さくなるように複数のクラスタに分割することによって、前記第1部分画像の特徴量と前記第1部分画像に含まれる物体の相対位置との関係を示す回帰モデルを学習する学習部と、
    複数の前記クラスタの各々について、前記クラスタに属する前記特徴量に付与された前記ラベルから、代表ラベルを予測する第1予測部と、
    を備え、
    前記密度計測装置は、
    入力画像から複数の第2部分画像を抽出する第2抽出部と、
    複数の前記第2部分画像の各々の特徴量を計算する第2計算部と、
    請求項1に記載の学習装置から、前記回帰モデル及び前記代表ラベルを取得する取得部と、
    前記回帰モデルの変数に前記第2部分画像の前記特徴量を代入することによって、複数の前記第2部分画像の各々に対応する前記代表ラベルを予測する第2予測部と、
    複数の前記第2部分画像の各々に対応する前記代表ラベルによって示される前記相対位置に基づいて、前記入力画像に含まれる物体の平均密度を算出する計算部と、
    を備える、密度計測システム。
JP2014031847A 2014-02-21 2014-02-21 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム Active JP6203077B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014031847A JP6203077B2 (ja) 2014-02-21 2014-02-21 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
US14/616,867 US9563822B2 (en) 2014-02-21 2015-02-09 Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014031847A JP6203077B2 (ja) 2014-02-21 2014-02-21 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム

Publications (2)

Publication Number Publication Date
JP2015158712A JP2015158712A (ja) 2015-09-03
JP6203077B2 true JP6203077B2 (ja) 2017-09-27

Family

ID=53882530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014031847A Active JP6203077B2 (ja) 2014-02-21 2014-02-21 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム

Country Status (2)

Country Link
US (1) US9563822B2 (ja)
JP (1) JP6203077B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2990290B1 (en) * 2014-09-01 2019-11-06 Honda Research Institute Europe GmbH Method and system for post-collision manoeuvre planning and vehicle equipped with such system
JP6426441B2 (ja) 2014-11-13 2018-11-21 株式会社東芝 密度計測装置、密度計測方法、およびプログラム
CN104504410A (zh) * 2015-01-07 2015-04-08 深圳市唯特视科技有限公司 基于三维点云的三维人脸识别装置和方法
US10289884B2 (en) 2015-08-27 2019-05-14 Kabushiki Kaisha Toshiba Image analyzer, image analysis method, computer program product, and image analysis system
JP6806066B2 (ja) * 2015-09-11 2021-01-06 日本電気株式会社 物体計数装置、物体計数方法、物体計数プログラム、および物体計数システム
US9916524B2 (en) * 2016-02-17 2018-03-13 Microsoft Technology Licensing, Llc Determining depth from structured light using trained classifiers
JP6622150B2 (ja) * 2016-06-29 2019-12-18 株式会社東芝 情報処理装置および情報処理方法
JP6633462B2 (ja) * 2016-06-29 2020-01-22 株式会社東芝 情報処理装置および情報処理方法
JP6615800B2 (ja) 2017-01-11 2019-12-04 株式会社東芝 情報処理装置、情報処理方法およびプログラム
US10339471B2 (en) * 2017-01-17 2019-07-02 International Business Machines Corporation Ensemble based labeling
EP3518153A1 (en) * 2018-01-29 2019-07-31 Panasonic Intellectual Property Corporation of America Information processing method and information processing system
EP3518152A1 (en) * 2018-01-29 2019-07-31 Panasonic Intellectual Property Corporation of America Information processing method and information processing system

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE68921840T2 (de) * 1988-10-27 1995-09-07 Canon Kk Bildaufnahme- und Verarbeitungseinrichtung.
JPH0765168A (ja) * 1993-08-31 1995-03-10 Hitachi Ltd 関数近似装置及び方法
US7386170B2 (en) * 2000-06-30 2008-06-10 Texas Instruments Incorporated Image object ranking
JP4240957B2 (ja) * 2002-08-30 2009-03-18 日本電気株式会社 物体追跡装置、物体追跡方法および物体追跡プログラム
JP3734793B2 (ja) 2002-12-09 2006-01-11 三菱電機株式会社 人物検出装置
CN1839410B (zh) * 2003-07-18 2015-05-20 佳能株式会社 图像处理设备、摄像设备、图像处理方法
JP2007065878A (ja) 2005-08-30 2007-03-15 Central Res Inst Of Electric Power Ind 水面または水中における移動体計数方法、計数装置および計数プログラム
JP5210198B2 (ja) * 2009-02-13 2013-06-12 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム
JP5259456B2 (ja) * 2009-03-02 2013-08-07 株式会社東芝 学習装置及び物体検出装置
JP5521881B2 (ja) * 2010-08-12 2014-06-18 富士ゼロックス株式会社 画像識別情報付与プログラム及び画像識別情報付与装置
WO2012046426A1 (ja) * 2010-10-06 2012-04-12 日本電気株式会社 物体検出装置、物体検出方法および物体検出プログラム
JP2012108785A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 人数カウント装置、人数カウント方法及び人数カウントプログラム
US8953888B2 (en) * 2011-02-10 2015-02-10 Microsoft Corporation Detecting and localizing multiple objects in images using probabilistic inference
US20140108401A1 (en) * 2012-10-05 2014-04-17 Opera Solutions, Llc System and Method for Adjusting Distributions of Data Using Mixed Integer Programming
US20140184803A1 (en) * 2012-12-31 2014-07-03 Microsoft Corporation Secure and Private Tracking Across Multiple Cameras
JP6128910B2 (ja) * 2013-03-21 2017-05-17 キヤノン株式会社 学習装置、学習方法及びプログラム
GB2523330A (en) * 2014-02-20 2015-08-26 Nokia Technologies Oy Method, apparatus and computer program product for segmentation of objects in media content
US20150243031A1 (en) * 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining at least one object feature of an object comprised in an image
JP2015204561A (ja) * 2014-04-15 2015-11-16 株式会社デンソー 情報提示システム、及び、提示装置
US9311301B1 (en) * 2014-06-27 2016-04-12 Digital Reasoning Systems, Inc. Systems and methods for large scale global entity resolution
JP6457278B2 (ja) * 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法

Also Published As

Publication number Publication date
US9563822B2 (en) 2017-02-07
JP2015158712A (ja) 2015-09-03
US20150242709A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
JP6203077B2 (ja) 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
CN105960647B (zh) 紧凑人脸表示
US9940548B2 (en) Image recognition method for performing image recognition utilizing convolution filters
US9002101B2 (en) Recognition device, recognition method, and computer program product
JP5916886B2 (ja) 画像特徴の類似性に基づく画像索引作成
Nie et al. Clique-graph matching by preserving global & local structure
US8712154B2 (en) Image processing system and method
EP3069302B1 (en) Memory facilitation using directed acyclic graphs
KR101581112B1 (ko) 계층적 패턴 구조에 기반한 기술자 생성 방법 및 이를 이용한 객체 인식 방법과 장치
JP6188147B2 (ja) 認識システム
JP2013206187A (ja) 情報変換装置、情報検索装置、情報変換方法、情報検索方法、情報変換プログラム、情報検索プログラム
JP2015079505A (ja) 視差深度画像のノイズ識別方法及びノイズ識別装置
JP6426441B2 (ja) 密度計測装置、密度計測方法、およびプログラム
US9690985B2 (en) Apparatus and method for recognizing object using depth image
JP6004015B2 (ja) 学習方法、情報処理装置および学習プログラム
JP2018206252A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
CN107533671B (zh) 模式识别装置、模式识别方法以及记录介质
JP6785181B2 (ja) 物体認識装置、物体認識システム、及び物体認識方法
JP5360143B2 (ja) 走行場面認識モデル生成装置、運転支援装置、及びプログラム
US9378466B2 (en) Data reduction in nearest neighbor classification
JP5370267B2 (ja) 画像処理システム
CN110895679A (zh) 机器视觉图像数据处理方法和装置
JP6453618B2 (ja) 算出装置、方法及びプログラム
KR20160069027A (ko) 감성 기반의 영상 색인 시스템 및 방법
JP6973733B2 (ja) 特許情報処理装置、特許情報処理方法およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R151 Written notification of patent or utility model registration

Ref document number: 6203077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350