JP6448325B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6448325B2
JP6448325B2 JP2014234869A JP2014234869A JP6448325B2 JP 6448325 B2 JP6448325 B2 JP 6448325B2 JP 2014234869 A JP2014234869 A JP 2014234869A JP 2014234869 A JP2014234869 A JP 2014234869A JP 6448325 B2 JP6448325 B2 JP 6448325B2
Authority
JP
Japan
Prior art keywords
learning
image
area
discriminator
scene information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014234869A
Other languages
English (en)
Other versions
JP2016099734A (ja
JP2016099734A5 (ja
Inventor
貴之 猿田
貴之 猿田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014234869A priority Critical patent/JP6448325B2/ja
Priority to US14/940,871 priority patent/US9779329B2/en
Publication of JP2016099734A publication Critical patent/JP2016099734A/ja
Publication of JP2016099734A5 publication Critical patent/JP2016099734A5/ja
Application granted granted Critical
Publication of JP6448325B2 publication Critical patent/JP6448325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
画像認識手法のひとつとして、撮影して得られた画像(以下撮影画像とする)を複数の領域に分割して、分割した領域毎に被写体の分類に関するクラスを識別する手法がある。この手法は、各領域の画像から抽出される特徴量に基づいて、各領域のクラスを識別する。撮影画像を適切に領域分割することは、どのような被写体や撮影状況(シーン)の撮影がなされたのかを認識する際の処理や、被写体に応じた画質の補正等を行う際の処理などの多くの画像処理を容易にする。
ここで、画像を領域分割する手法として、非特許文献1には、色情報、テクスチャ情報に基づいて入力画像をSP(スーパーピクセル)と呼ばれる小領域に分割する技術が開示されている。この非特許文献1に記載の技術は、分割した各小領域のクラスをRecursive−Neural−Networks(RNNs)と呼ばれる識別器を用いて識別する。
また、非特許文献2には、条件付き確率場CRF(Conditional−Random−Field)を用いて、領域分割及びクラス識別を同時に行う技術が開示されている。この非特許文献2に記載の技術は、各画素から抽出される特徴に基づくだけでなく、隣接する画素間のクラス共起まで考慮した上で各画素のクラスを識別する。この技術は、特徴が曖昧なため単体では認識の難しい画素に対して、周辺の画素との関係を考慮して識別する。より具体的にいうと、この技術は、各画素をノードとして、ノードのエネルギー(Unary Potential)及びノード間のエネルギー(Pairwise Potential)を定義して、それらの画像全体の総和を最小化する。そして、エネルギーを最小化する各画素のクラスラベルが、識別結果となる。
一方、機械学習の分野ではバギングと呼ばれる手法が、有効な手法として画像認識タスクに用いられてきた。バギングは、ブートストラップサンプリングを繰り返して生成した判別器を合成して、より判別精度の高い識別器を生成する方法である。これ以外にも多くの識別器(アンサンブル識別器)を大量に生成して、それらの識別器を統合して、より判別精度の高い識別を行う研究がある。また、特許文献1の技術は、アンサンブル識別器を大量に生成して、その中から精度の高い識別器を選択して、統合することで精度の高い識別を実現している。
その他にも、非特許文献3には、撮影画像をSP(スーパーピクセル)と呼ばれる小領域に分割する技術が開示されている。また、非特許文献4には、撮影シーンの認識の際に、Spatial Pyramid Matching Kernelと呼ばれる特徴量を利用する技術が開示されている。また、非特許文献5には、撮影シーンを認識する際に、GIST特徴量と呼ばれる特徴量を利用する技術が開示されている。また、非特許文献6には、学習画像から取得される局所特徴量を利用する技術が開示されている。
特許第4623387号公報
R.Socher,"Parsing Natural Scenes and Natural Language with Recursive Neural Networks",International Conference on Machine Learning 2011. P.Krahenbuhl,"Efficient Inference in Fully Connected CRFs with Gaussian Edge Potentials",Neural Information Processing Systems 2011. P.Felzenszwalb,"Efficient Graph−Based Image Segmentation",International Journal of Computer Vision 2004. S. Lazebnik, C. Schmid and J. Ponce,"Beyond Bags of Features, Spatial Pyramid Matching for Recognizing",Natural Scene Categories", CVPR2006. A.Oliva and A.Torralba,"Modeling the shape of the scene:a holistic representation of the spatial envelope",International Journal of Computer Vision,2001. H.Bay, "Speeded−Up Robust Features (SURF)", Computing Vision and Image Understanding, 2008.
ここで、上述した従来の技術では、予め学習画像を用いて生成された1つの識別器が、撮影画像中の各領域のクラスを識別するようになされている。即ち、学習により生成された一つの識別器は、各領域から抽出された特徴量が入力されて、それら特徴量を用いて各領域のクラスを識別する。
しかしながら、撮影状況(シーン)によっては、本来ならば別のクラスと識別すべきものを類似したクラスとして識別したり、或いは、逆に類似クラスとすべきものを異なるクラスと識別したりすることが起こり得る。例えば、被写体が雲であった場合、昼間に撮影された雲は白く写り、夕日とともに撮影される雲は太陽の照り返しを受けてオレンジ色に写る。このような場合、夕焼け時に撮影された画像内のオレンジ色の雲画像と、例えば昼間に撮影されたオレンジ色のテクスチャフルな壁の画像は、画像の特徴空間上では類似したものとなる。このため、さまざまな学習画像を用いて領域判別器(識別器)を生成しようとして、例えば夕焼け画像とオレンジ色の壁の画像を同時に学習させると、これらを類似したものとして誤学習してしまうことがある。この場合、識別器は、夕焼け画像内の雲画像とオレンジ色の壁画像とを類似したものとして識別してしまい、それらを分離して識別することが困難になる。
そこで本発明は、撮影状況(シーン)が異なるさまざまな画像においても、画像の領域毎に被写体の分類に関するクラスを精度よく識別可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
本発明は、複数の学習画像の一部を選択してなるサブセットを複数作成する作成手段と、前記作成されたサブセットごとに、前記学習画像を分割してなる各領域のクラスを判別するための領域判別器を学習する学習手段と、前記学習された複数の領域判別器を用いて複数の学習評価画像を分割してなる各領域のクラスを判別する学習判別手段と、前記学習判別手段により判別された前記複数の学習評価画像の各領域に対する判別結果と、前記複数の学習評価画像それぞれに対応づけられたシーン情報と、に基づいて統合識別器を学習する識別学習手段と、を有することを特徴とする。
本発明によれば、画像の撮影状況(シーン)が異なるさまざまな画像においても、各画像の領域毎に被写体の分類に関するクラスを精度よく識別することが可能となる。
画像認識装置を有するシステム構成の一例を示す図である。 識別対象画像と認識された領域の一例を示す図である。 識別対象画像と各画素の識別の概念説明に用いる図である。 画像認識装置と学習装置のハードウェア構成の一例を示す図である。 画像認識装置のCPUが実行する処理を機能ブロックとして示す図である。 画像認識装置における認識処理の一例を示すフローチャートである。 領域判別工程の処理例の説明に用いる図である。 領域判別工程の処理と領域判別器の説明に用いる図である。 ヒストグラム特徴量をシーン情報とする例の説明に用いる図である。 測距点の距離値をシーン情報とする例の説明に用いる図である。 画像のブロック毎にシーン情報を得る例の説明に用いる図である。 第1、第2の実施形態の学習装置の機能構成例を示す図である。 第1〜第5の実施形態の学習処理のフローチャートである。 第1の実施形態の学習画像の一例を示す図である。 第1の実施形態のサブセット選択工程のフローチャートである。 第1の実施形態の領域判別選択工程のフローチャートである。 第1の実施形態の学習評価セット判別工程のフローチャートである。 第1の実施形態の統合識別器学習工程のフローチャートである。 第2の実施形態の統合識別器学習工程のフローチャートである。 第3〜5の実施形態の学習装置の機能構成例の図である。 第3の実施形態の領域判別器再学習工程のフローチャートである。 第4の実施形態の領域判別器追加学習工程のフローチャートである。 第5の実施形態の学習画像重要度設定工程のフローチャートである。 第5の実施形態で用いる重要度リストの一例を示す図である。
<第1の実施形態>
図1は、画像処理装置を備えたシステムの概略的な構成例を示す図である。図1のシステムは、カメラ10と、画像処理装置及び情報処理方法を実現する一構成例である画像認識装置20とが、ネットワーク15を介して接続されている。なお、画像認識装置20とカメラ10は、一体に構成されていてもよい。
カメラ10は、画像認識装置20による画像処理の対象となる画像を撮影する。図1は、被写体として木(tree)30a、自動車(car)30b、建物(building)30c、空(sky)30d、道(road)30e等が画角(撮影範囲)内に存在するシーン(撮影状況)30を、カメラ10が撮影する例を示している。画像認識装置20は、シーン30をカメラ10が撮像(撮影)した撮影画像内の各被写体の画像に対応した各領域のクラスを識別する。なお、以下の説明では、画像認識装置20がクラスを識別する際に識別対象とする画像を、特に識別対象画像と呼ぶことにする。図1の場合、識別対象画像は、カメラ10がシーン30を撮影して得られた撮影画像である。また本実施形態において、クラスは、識別対象画像内に写っている被写体等の画像を、それら被写体毎に分類する際のカテゴリー名(クラスカテゴリー名)となっている。クラスの詳細については、図2等を用いて後述する。
図2の(a)は、図1のシーン30がカメラ10により撮影されたことで、画像認識装置20へ入力した識別対象画像100の一例を示している。図2の(a)の場合、識別対象画像100は、シーン30内の各被写体である木の画像100aと自動車の画像100bと建物の画像100cと空の画像100dと道の画像100e等で構成された画像となっている。画像認識装置20は、識別対象画像100が供給されると、その画像100の各画素についてクラスを識別する。なお、この例の場合、クラスは、図2の(b)に示すように例えば「tree(木)」と「car(自動車)」と「building(建物)」と「sky(空)」と「road(道)」等のような各被写体の分類に関するクラスカテゴリー名となる。
図3は、識別対象画像100の各画素のクラスを識別する際の画像処理の概要を示す図である。図3の(a)は識別対象画像100を示しており、左上部分に格子状の線で区切られた各部分はそれぞれが画素に対応している。図3の(b)は、図3の(a)に示した識別対象画像100の左上部分の各画素を拡大して示している。また、図3の(c)は、図3の(b)の各画素について、それぞれにクラスを割り当てた様子を示している。ここで、図3の(a)の左上部分の各画素は、図2の(a)に示した識別対象画像100内の空(sky)の画像100dを構成している。このため、画像認識装置20は、図3の(b)の各画素に対して、図3の(c)に示すように、クラスカテゴリー名として例えば「sky」と名付けたクラスを割り当てる。同様にして、画像認識装置20は、識別対象画像100の全ての画素に対してクラスを割り当てる。これにより、識別対象画像100の各画素は、例えば図2の(b)のように「tree」や「car」、「building」、「sky」、「road」等のような各被写体の分類に関するクラスカテゴリー名で分類される。このように、画像認識装置20は、識別対象画像100の各画素に対してクラスを割り当てて各クラスで画像の領域分けを行うことにより、識別対象画像100の領域分割を実現している。
図4は、画像認識装置20のハードウェア構成の一例を示す図である。この図4の構成において、CPU401は、画像認識装置20全体を制御する。CPU401は、ROM403やHD(ハードディスク)404等に格納されたプログラムを実行することにより、画像認識装置20の後述する機能ブロックに分けられた構成、及び、それら機能ブロックによるフローチャートの処理を実現する。RAM402は、CPU401がプログラムを展開して実行するワークエリアとして機能する記憶領域である。ROM403は、CPU401が実行するプログラム等を格納する記憶領域である。HD404は、CPU401が処理を実行する際に要する各種のプログラムや、閾値に関するデータ等を含む各種のデータを格納する記憶領域である。操作部405は、ユーザによる入力操作を受け付ける。表示部406は、カメラ10が撮影した画像や、識別対象画像100、画像認識装置20をユーザが操作する際の操作画面、その他各種情報設定のための設定画面などの様々な画像を表示する。ネットワークI/F407は、画像認識装置20が図示しない外部の機器と接続するためのインターフェイス部である。
図5の(a)は、第1の実施形態における画像認識装置20のCPU401が実行する処理を、それぞれ機能ブロックとして描いている。なお、図5の(a)には、画像認識装置20内の各機能ブロックの他に、カメラ10に相当する撮影部500も示している。この撮影部500は、識別対象画像100を取得する。図5の(a)に示すように、画像認識装置20のCPU401は、入力部501、領域判別部502、シーン情報取得部504、統合識別部505、記憶部として領域判別器保持部503と統合識別器保持部506の各機能ブロックで表される処理を実行する。なお、領域判別器保持部503と統合識別器保持部506は、不揮発性の記憶装置として画像認識装置20に接続された構成としてもよい。画像認識装置20が有するこれらの各機能ブロックの詳細については、図6等を用いて後述する。
図6は、本実施形態の画像認識装置20の各機能ブロックで実行される処理の概要を示す図である。この図6のフローチャートにおいて、入力工程S110では、入力部501が、撮影部500により撮影された識別対象画像を、入力データとして受信する。次に、領域判別工程S120として、領域判別部502は、領域判別器保持部503に記憶されている複数の領域判別器を用いて、識別対象画像の領域判別を行う。なお、領域判別器についての詳細は後述する。領域判別工程S120により得られた各領域判別結果は、統合識別部505に送られる。次に、シーン情報取得工程S130として、シーン情報取得部504は、識別対象画像のシーン情報を取得する。このシーン情報取得工程S130で取得されたシーン情報は、統合識別部505に送られる。なお、シーン情報の詳細は後述する。次に、統合識別工程S140として、統合識別部505は、複数の領域判別器の領域判別結果とシーン情報を統合して、識別対象画像の各領域のクラスを判別する。
次に、図6に示したフローチャートを参照しつつ、図5の(a)に示した画像認識装置20のCPU401が実行する各処理の、より具体的な流れを説明する。先ず、入力部501は、入力工程S110として、図1で示したようなシーン30を撮影部500が撮影した画像を、識別対象画像100として取得する。なお、識別対象画像は、図示しない外部装置に格納されている画像であってもよい。その場合、入力部501は外部装置から読み出された画像を識別対象画像として取得する。外部装置に格納されている画像は、例えば撮影部500等で予め撮影された画像であってもよいし、ネットワーク等を経由するなどの他の方法で取得されてから格納された画像であってもよい。また、入力部501は、識別対象画像の他に、シーン情報や撮影情報を取得する場合もあるが、それについては後述する。
次に、領域判別部502は、領域判別工程S120として、領域判別器保持部503に記憶されている複数の領域判別器を用いて、識別対象画像の領域判別を行う。先ず、領域判別部502は、例えば、図7の(a)に示す識別対象画像100に対して図7の(b)に示すような各小領域101を設定し、それら各小領域101でクラスを識別する。なお、図7の(c)は、領域判別部502が識別対象画像100の領域判別を行った結果、識別対象画像100について図2の(b)のようにクラスの割り当てが行われた例を示している。ここで、小領域は、識別対象画像100中の1画素以上の領域であって、特徴量が所定値以下の画素で構成される領域となっている。また、本実施形態において、領域判別部502は、例えば非特許文献3に記載されているようなSP(スーパーピクセル)と呼ばれる小領域に、識別対象画像100を分割する。なお、小領域101は、その他の所謂ブロック分割などの手法により分割された領域であってもよい。
このように、領域判別工程S120において、領域判別部502は、図8の(a)に示す識別対象画像100を、図8の(b)に示すように小領域101へ分割し、その小領域101について図8の(c)に示す複数の領域判別器を用いた領域判別を行う。なお、図8の(c)は、複数の領域判別器として、領域判別器102(1),102(2),・・・,102(R)が用いられる例を示している。図8の(c)に示した各領域判別器102(1)〜102(R)での領域判別結果は、統合識別部505へ送信される。ここで、領域判別器は、小領域101から特徴量を抽出し、その特徴量を入力とする識別器である。領域判別器は、例えば非特許文献1に示すようなRecursive−Neural−Networks(RNNs)が用いられてもよい。また、領域判別器は、Support Vector Mashines(SVMs)などの特徴量を入力して、識別結果を出力する識別器であればよい。各領域判別器における判別学習方法については、後に学習時の処理を説明する際に述べる。なお、領域判別器数をRmaxとし、各領域判別器で識別するクラス数をCR(Rは各領域判別器を示すインデックスであり、R=1、2、・・・、Rmaxである)とする。この場合、各小領域に対して領域判別器Rの判別器結果SRは、以下の式(1)で表される。
Figure 0006448325
ここで、式(1)中の各Snは各クラスに対する尤度である。例えば、各領域判別器で識別するクラス数が全て「4」であり、領域判別器の数が「100」である場合は、各小領域で4×100=400の尤度が出力される。なお、本実施形態では、識別対象画像を予め小領域に分割し、その小領域毎に領域判別器によってクラス判別を行う方法について説明したが、これに限定されるものではない。例えば、非特許文献2に示されるような条件付き確率場CRF(Conditional−Random−Field)を用いて、領域分割及びクラス識別を同時に行ってもよい。また、本実施形態において、図7の(b)や図8の(b)に示した各小領域101は、重なり合うことなく識別対象画像100に配置されているが、それぞれ一部が重なり合っていてもよい。その場合の統合方法については後述する。
次に、シーン情報取得部504は、シーン情報取得工程S130として、識別対象画像のシーン情報を取得する。ここで取得されたシーン情報は、次の統合識別工程S140で利用される。その利用方法については、次の統合識別工程S140の説明で述べる。ここで、シーン情報は、非特許文献4に記載されているようなSpatial Pyramid Matching Kernelや、非特許文献5に記載されているようなGIST特徴量を利用すればよい。又は、シーン情報は、画像をブロック状に分割して各ブロックの色分布をヒストグラム化した特徴量などでもよい。その他にも、シーン情報は、画像全体を表す特徴量や、画像の各部分から得られる特徴量を統計量として集計したものであればなんでもよい。
シーン情報として、非特許文献4にあるようなSpatial Pyramid Matching Kernel(以下SPMK特徴量)を利用する場合、そのシーン情報は以下のような手順で用いられる。統合識別部505は、統合識別工程S140として、非特許文献6に記載されているような局所特徴量を学習画像から密に取得しておき、コードブックベクトルを作成しておく。局所特徴量は、その他にも所謂画像パッチやEdgeletなど画像上からある程度の数の特徴量をとれるものならば何でもよい。統合識別部505は、複数枚の学習画像から局所特徴量を取得したのち、kmeansなどのクラスタリング手法でコードブックベクトルを推定する。なお、ここではコードブックベクトル数を「M」とする。
次に、統合識別部505は、各学習画像から得られる局所特徴量を、対応するコードブックベクトルに割り当てる。これにより、各学習画像からビン数が「M」のヒストグラム特徴量(BOW特徴量)が生成される。このM次元のヒストグラム特徴量をシーン情報として利用してもよいが、統合識別部505は、さらにSPMK特徴量に変換する。SPMK特徴量は、図9に示すように、画像39を複数のブロックに分割して、各ブロックに分割された画像上から得られる局所特徴量をコードブックベクトルに割り当ててヒストグラム化される。これにより位置情報が得られ、従来のBOW特徴量に比べてシーン認識精度が向上する。図9の例の場合、統合識別部505は、図9の(b)に示すlevel1で4ブロックに分割し、図9の(c)に示すlevel2で16ブロックに分割し、図9の(a)に示すlevel0と合わせて合計21ブロックからヒストグラム特徴量を生成する。このため、特徴量は、合計21M次元のヒストグラム特徴量になる。なお、本実施形態では、このシーン情報を利用してサブセット選択工程の処理が行われるが、それについては後述する。
また、本実施形態では、SPMK特徴量やGIST特徴量など、シーン認識や画像検索の分野で使われている画像特徴量を用いた説明を行ったが、シーン情報は、カメラで画像を撮影した際に得られる撮影情報が用いられてもよい。なお、撮影情報とは、カメラ10で撮影した際に取得される画像以外の情報のことであり、画像を出力するまでにカメラ10で取得される全ての情報を意味する。例えば、撮影情報は、フォーカスを合わせる際等に取得される距離情報や、シャッタースピード情報、撮影の際のカメラパラメータを決定するための色温度及び測光値に関する情報、それらにより決定されたカメラパラメータ等の情報である。その他にも、撮影情報は、撮影日時情報、GPS情報、カメラ内の姿勢センサーによる天地判定に関する情報等でもよい。例えば、フォーカスを合わせる際等に取得される距離情報は、図10に示すようにして得られる。図10の(a)は画像40の一例を示し、図10の(b)はその画像40の撮影時に被写体距離を得るための測距点42の一配置例を示している。測距点42は、例えば格子状に配置された各測距枠41のそれぞれ中心点となる。ここで、測距点数を「N」とし、各測距点で得られる距離値をPhn(n=1、2、・・・、N)とした場合、シーン情報を表すシーン特徴量Scは、以下の式(2)又はシーン特徴量Scをヒストグラム化したヒストグラム特徴量で表される。

Sc={Ph1、Ph2、・・・、Phn} 式(2)
また本実施形態の場合、前述した全てのシーン情報は、識別対象画像全体から取得されているため、識別対象画像に対して取得されるシーン情報は1つである。その他にも、シーン情報は、例えば図11のように識別対象画像100をブロック分割し、各ブロック103毎に取得してもよい。なお、シーン情報を取得する際の各ブロック103は、それぞれの一部がオーバーラップしていてもよい。
次に、統合識別部505は、統合識別工程S140として、領域判別工程S120で得られた各領域判別結果及びシーン情報取得工程S130で得られたシーン情報を統合して、各小領域のクラスを識別する。具体的には、統合識別部505は、小領域毎に式(3)で表されるように各領域判別器の判別器結果及びその小領域に対応するシーン特徴量を結合した特徴ベクトルFを統合識別器に入力することで最終的にクラスを識別する。また、例えば図11のように各ブロック103に対してシーン情報を取得する場合、統合識別部505は、小領域が所属するブロックのシーン特徴量を結合する。なお、利用する統合識別器における識別学習方法については後述の学習処理で説明する。

F={S1、S2、・・・、SR、Sc} 式(3)
また、統合識別部505は、小領域の一部がそれぞれ重なり合っている場合には、一度小領域毎にクラスを識別した後、各画素が所属している小領域のクラス識別結果を平均化や投票処理することなどにより決定する。また、領域判別工程S120で例えば非特許文献2に記載のような条件付き確率場CRFを用いて画素毎に領域判別を行った場合、統合識別部505は、統合識別工程S140で画素毎に統合を行ってもよいし、小領域毎に統合処理を行ってもよい。その場合、統合識別部505は、小領域毎に領域判別結果を平均化してから統合処理を行えばよい。
次に、本実施形態における領域判別工程S120と統合識別工程S140で利用する領域判別器及び統合識別器の学習方法について説明する。図12の(a)は、本実施形態の学習装置300としてCPU401が実行する各処理を機能ブロックとして示している。なお、学習装置300のハードウェア構成は、図4と同様である。なお、ここでは図5の(a)に示した画像認識装置20とは別に図12の(a)の学習装置300の各機能が構成されているものとしているが、画像認識装置20内に学習装置300の各機能が構成されていてもよい。即ち、図4のCPU401は、ROM403やHD404等に格納されたプログラムを実行することにより、画像認識装置20の機能等だけでなく、学習装置300の機能構成及び学習装置300に係るフローチャートの処理を実現してもよい。また、図12において、図5と同じ働きをする構成には同じ符号を付けている。
図12の(a)に示すように、学習装置300のCPU401は、サブセット選択部301、領域判別器学習部302、学習評価セット判別部303、統合識別器学習部304、記憶部として領域判別器保持部503と統合識別器保持部506の各機能を実行する。学習装置300のCPU401が実行するこれらの各機能の詳細については、図13の(a)等を用いて説明する。
図13の(a)は、図12の(a)に示した学習装置300が実行する学習に関する処理の概要を示している。図13の(a)に示すフローチャートにおいて、サブセット選択部301は、サブセット選択工程T110として、各領域判別器の学習に用いる学習データを、その学習データのシーン情報に基づいて設定する。なお、学習データとしては、例えば、図14の(a)に示すような画像50と、図14の(b)に示すような各画素のクラス名が定義されているグランドトゥルース(GT)51と、各学習画像に対応するシーン情報とが必要となる。サブセット選択部301は、サブセット選択工程T110において、学習用データ保持部310に保持されている学習用データの中から、各領域判別器の学習に用いる学習画像を一枚以上選択する。この選択された学習画像が、サブセットとしてサブセット選択部301から領域判別器学習部302へ送られる。なお、その選択方法については後に詳しく説明する。
次に、領域判別器学習部302は、領域判別器学習工程T120として、サブセット選択工程T110で設定された学習画像のデータを用いて領域判別器を学習する。領域判別器学習部302は、その領域判別結果を領域判別器保持部503に送信する。次に、学習評価セット判別部303は、学習評価セット判別工程T130として、領域判別器学習工程T120で学習された各領域判別器を用いて学習評価セットの領域判別を行う。即ち、学習評価セット判別部303は、領域判別器保持部503に記憶されている領域判別器を用いて、学習評価セットの領域判別を行う。なお、学習評価セットの詳細は後述する。その領域判別結果は統合識別器学習部304に送信される。次に、統合識別器学習部304は、統合識別器学習工程T140として、学習評価セット判別工程T130で領域判別された結果と学習評価セットのシーン情報を統合して、最終的な各領域のクラスを識別する識別器を学習する。即ち、統合識別器学習部304は、学習評価セットに対する複数の領域判別器の出力と学習評価セットのシーン情報に基づいて統合識別器を学習し、その識別結果を統合識別器保持部506に送信する。
次に、図13の(a)に示したフローチャートを参照しながら、学習装置300のCPU401で実行される各処理の、より具体的な流れを説明する。サブセット選択部301は、サブセット選択工程T110として、先に説明したシーン情報に基づいて、各領域判別器の学習に用いる学習画像を選択する。ここでは、シーン情報として先に説明したSPMK特徴量が用いられる例を説明する。
図15は、図13の(a)のサブセット選択工程T110の、より詳細なフローチャートである。なお、図15中の「R」は各領域判別器を示すインデックスであり、1からRmaxの値をとる。また、図15中の「M」は各領域判別器が学習に用いる学習画像数を示しており、ここでは簡単のため全ての領域判別器が学習に用いる画像数は同じであるとして説明する。図15のフローチャートにおいて、サブセット選択部301は、シーン情報取得工程T1101として、学習用データ保持部310から学習画像のシーン情報を取得する。本実施形態の場合、サブセット選択部301は、シーン情報として、全学習用データに対してSPMK特徴量を取得する。この取得されたSPMK特徴量は、学習画像シーン情報として学習用データ保持部310に保持される。次に、サブセット選択部301は、シード画像設定工程T1102として、各領域判別器に対するシード画像を決定する。シード画像は、例えば全学習画像の中からランダムに一枚選択された画像でもよいし、例えばユーザが任意に選択した画像でもよい。次に、サブセット選択部301は、類似学習画像選択工程T1103として、シード画像設定工程T1102で選択したシード画像のシーン情報と類似する学習画像を選択する。なお、本実施形態では各領域判別器が学習に用いる学習画像数を「M」としているが、各領域判別器の学習画像数は違ってもよい。また本実施形態では、M枚の学習画像を選択しているとしているが、サブセット選択部301は、予めしきい値を設定しておいてシーン情報の類似度がしきい値以上の画像を全て、又はその中からランダムに複数枚選択してもよい。
次に、サブセット選択部301は、学習画像リスト出力工程T1104として、類似学習画像選択工程T1103で設定された各領域判別器の学習画像のリストを出力する。本実施形態において、サブセット選択部301は、シード画像設定工程T1102から学習画像リスト出力工程T1104までの処理を、領域判別器数のRmax回繰り返す。なお、シード画像設定工程T1102でシード画像を設定する場合、サブセット選択部301は、今までに設定された学習画像リストを読み込み、なるべく学習画像リストに選択されていない学習画像をシード画像として設定するようにしてもよい。
本実施形態では、シード画像を設定して、そのシード画像とシーン情報が類似している画像を選択することで各領域判別器が学習する学習画像を選択する例を示した。他の例として、シーン情報の類似度に基づいて領域判別器数Rmaxのクラスタをkmeansなどのクラスタリング手法を用いて生成し、各クラスタに所属する学習画像を各領域判別器の学習画像として設定してもよい。その際には学習画像が複数の領域判別器で学習されるようにソフトアサインを許してクラスタリングが行われてもよい。
次に、領域判別器学習部302は、領域判別器学習工程T120として、サブセット選択工程T110で選択された学習画像(サブセット)に基づいて各領域判別器の学習を行う。領域判別器は先に説明したように各画素のクラスを判別できるものであればなんでもよい。本実施形態において、領域判別器は、非特許文献1に記載されている小領域101から特徴量を抽出し、その特徴量を入力とする識別器の1つであるRecursive−Neural−Networks(RNNs)とする。
図16は、領域判別器学習工程T120の、より詳細なフローチャートを示図である。なお、図16中の「R」は各領域判別器を示すインデックスであり、1からRmaxの値をとる。また、図16中の「M」は各領域判別器が学習に用いる学習画像数を示しており、ここでは簡単のため全ての領域判別器が学習に用いる画像数は同じであるとして説明する。この図16のフローチャートにおいて、領域判別器学習部302は、学習画像リスト設定工程T1201として、各領域判別器で学習に用いる学習画像のリストを設定する。次に、領域判別器学習部302は、小領域分割工程T1202として、学習画像リスト設定工程T1201で設定された学習画像リストに基づいて、領域判別器の学習に用いる各学習画像を小領域に分割する。例えば、先の認識処理の領域判別工程S120で説明したように、非特許文献3に示されているようなSP(スーパーピクセル)と呼ばれる小領域に分割する。次に、領域判別器学習部302は、小領域特徴量抽出工程T1203として、小領域分割工程T1202で分割された各小領域の特徴量を抽出する。又は、領域判別器学習部302は、全学習画像の特徴量を予め抽出しておき、学習用データ保持部310から、学習画像リストに応じて特徴量をロードしてもよい。領域判別器学習部302は、各学習画像及びその全小領域に対して、小領域分割工程T1202と小領域特徴量抽出工程T1203の処理を行う。なお、特徴量の例としては、各小領域内の色特徴やテクスチャ特徴の統計量を用いればよい。例えばRGB、HSV、Lab、YCbCr等の色空間の各成分や、Gabor filter、LoGのフィルタ応答等を用いることができる。なお、色特徴は4(色空間)×3(成分)の12次元となる。また、フィルタ応答に関しては、Gabor filter、LoGフィルタの数に対応した次元数となる。この場合、領域毎に特徴づけを行うため、各小領域の内の画素毎に得られる特徴量から統計量が求められる。ここで用いる統計量は、平均、標準偏差、歪度、尖度の4つを用いるとする。歪度は、分布の非対称性の度合いを示し、尖度は分布が平均の近くに密集している度合いを示す統計量である。よって、色特徴は4(色空間)×3(成分)×4(統計量)の48次元となり、テクスチャ特徴の次元数は(フィルタ応答数)×4(統計量)となる。また、この他に小領域の重心座標や小領域の面積なども特徴量としてもよい。
次に、領域判別器学習部302は、クラス数・定義設定工程T1204として、各領域判別器で学習する領域のクラス定義及びクラス数を設定する。クラス数は2以上であればよい。なお、図14の(b)の例は、「sky」、「building」、「tree」、「road」、「body」のクラスが定義されている。この場合、クラス数は、5クラスとしてもよいし、「building」、「tree」、「road」、「body」を合わせて1つのクラスとして、そのクラスと「sky」の2クラスを識別する領域判別器を学習してもよい。次に、領域判別器学習部302は、学習工程T1205として、クラス数・定義設定工程T1204で定義されたクラスを識別する領域判別器を学習する。その学習された領域判別器は、領域判別器保持部503に記憶される。そして、学習画像リスト設定工程T1201から学習工程T1205までの処理は、各領域判別器に対して行われる。
次に、学習評価セット判別部303は、図13の学習評価セット判別工程T130として、領域判別器学習工程T120で学習された領域判別器を用いて学習評価セットに対して領域判別を行う。図17は学習評価セット判別工程T130の、より詳細な流れを示す図である。なお、図17中の「R」は先の図16と同様に、各領域判別器を示すインデックスである。また、図17中の「Im」は学習評価セットとなされる各学習評価画像を示すインデックスである。なお、学習評価セットはすべての領域判別器の評価に対して共通である必要がある。ここでは簡単のため学習評価セットは学習用データの全画像を示すものとして説明する。学習評価セットは、学習用データと別に用意されていてもよいし、学習用データの中からランダムに選択されてもよい。図17に示すフローチャートにおいて、領域判別器学習部302は、領域判別器設定工程T1301として、学習評価を行う領域判別器をロードする。次に、学習評価セット判別部303は、評価用データ設定工程T1302として、学習用データ保持部310から学習評価画像をロードする。以下、学習評価セット判別部303は、前述同様に、小領域分割工程T1303で学習画像を小領域に分割し、特徴量抽出工程T1304で各小領域の特徴量を抽出し、クラス判別工程T1305で領域判別を行う。クラス判別工程T1305で領域判別された結果は、次の統合識別器学習工程T140で利用される。
統合識別器学習部304は、図13の統合識別器学習工程T140として、学習評価セット判別工程T130によって領域判別された結果と学習評価セットのシーン情報を統合して最終的な各領域のクラスを判別する識別器を学習する。図18は、図13の統合識別器学習工程T140の、より詳細なフローチャートを示す図である。なお、図18中の「R」や「Im」は、図17と同様である。図18のフローチャートにおいて、統合識別器学習部304は、領域判別結果取得工程T1401として、各学習評価画像に対応する領域判別結果をロードする。なお、領域判別結果は、各学習評価画像に対して領域判別器数分の結果が存在する。例えば、全ての領域判別器が4クラスの判別結果を出力するとすれば、各小領域に対して4×R=4R次元の出力結果を取得する。次に、統合識別器学習部304は、シーン情報取得工程T1402として、各学習評価画像に対するシーン情報を取得する。ここで、シーン情報は、先の認識処理のシーン情報取得工程S130で説明したSPMK特徴量を用いるとすると、21M次元のシーン情報が取得されることになる。よって、各学習評価画像の各小領域に対して4R+21M次元の情報(特徴量)が得られる。次に、統合識別器学習部304は、学習工程T1403として、領域判別結果取得工程T1401及びシーン情報取得工程T1402で得られた各小領域の特徴量をもとに統合識別器を学習する。なお、各小領域に対するグランドトゥルース(GT)は学習用データ保持部310に記憶されているとする。ここで、学習するクラスは、最終的に出力するクラス定義に応じて学習する必要がある。図14の(b)の例の場合、「sky」、「building」、「tree」、「road」、「body」の5クラスが定義されている。したがって、この場合、統合識別器学習部304は、5クラスに対応するクラス尤度を出力する識別器を学習する必要がある。なお、統合識別器学習部304は、さらに多くのクラスに対応するマルチクラス識別器を学習してもよいし、例えば2クラス識別器を5個学習し、それら5個の識別器のうち最もクラス尤度の高いクラスを領域に割り当ててもよい。なお、本実施形態では、全学習データを用いて統合識別器を学習する例について説明したが、全学習評価画像を用いるのではなく、学習評価画像をランダムに選択してもよいし、学習評価画像内の小領域をランダムに選択してもよい。
以上のように本実施形態によれば、学習装置300は複数の学習画像の中からシーン情報に基づいてサブセットを選択し、そのサブセットを用いて複数の領域判別器を学習する。さらに、学習装置300は、学習評価画像を用いてそれら複数の領域判別器による領域判別を行い、その領域判別結果とシーン情報を統合して領域のクラスを識別する統合識別器を学習する。したがって、画像認識装置20は、複数の領域判別器による領域判別結果とシーン情報を統合して識別することにより、識別対象画像の各領域のクラスを精度よく識別することができるようになる。これにより、画像認識装置20は、高い精度で領域分割と画像認識が可能となる。
<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態の学習装置300は、統合識別器学習工程において、第1の実施形態のようにシーン情報の特徴量をそのまま利用するのではなく、各領域判別器の学習の際に利用した学習画像のシーン情報を保持しておいてそのシーン情報との類似度を用いる。
図12の(b)は、第2の実施形態における学習装置300の機能ブロック構成例を示している。この図12の(b)に示すように、第2の実施形態の学習装置300は、図12の(a)の機能構成に加えて、シーン情報取得部504及びシーン情報保持部507を有している。シーン情報取得部504の詳細な構成については、図13の(b)等を用いて後述する。図12の(b)の他の構成については、図12の(a)と同様であるためそれらの説明は省略する。
図13の(b)は、第2の実施形態における学習装置300がサブセットの選択から統合識別器の学習を行うまでの処理の概要を示している。なお、この図13の(b)のサブセット選択工程T210の処理は、第1の実施形態における学習処理のサブセット選択工程T110の処理と同様であるため説明を省略する。図13の(b)のフローチャートにおいて、シーン情報取得部504は、シーン情報取得工程T220として、各領域判別器に対応するシーン情報を、サブセット選択工程T210で選択された学習画像に基づいて取得する。そして、シーン情報取得部504は、その取得したシーン情報をシーン情報保持部507に記憶しておく。各領域判別器に対応するシーン情報については後で詳しく説明する。なお、図13の(b)の領域判別器学習工程T230は第1の実施形態の工程T120と同様であり、また、図13の(b)の学習評価セット判別工程T240は第1の実施形態の工程T130と同様であるためそれらの説明を省略する。図13の(b)の統合識別器学習工程T250は、第1の実施形態の工程T140とほぼ同様であるが、ここでは学習評価セットのシーン情報と各領域判別器に対応するシーン情報との類似度も用いて統合識別器の学習を行う。学習評価セットのシーン情報はシーン情報取得部504によって得られ、各領域判別器に対応するシーン情報はシーン情報保持部507に記憶されている。図13の(b)のシーン情報取得工程T220及び統合識別器学習工程T250の処理に関しては、第1の実施形態と異なるため、以下に詳しく説明する。
シーン情報取得部504は、シーン情報取得工程T220として、各領域判別器に対応するシーン情報を取得する。シーン情報取得部504は、例えば、各領域判別器を学習するために選択した学習画像全てのシーン情報を取得し、その平均ベクトルを各領域判別器に対応するシーン情報にする。又は、第1の実施形態でのサブセット選択工程T110に関する図15の詳細フローのようにシード画像を選択する方法で学習画像を選択した場合、シーン情報取得部504は、各シード画像のシーン情報を各領域判別器に対応するシーン情報としてもよい。その他、クラスタリングなどを用いて学習画像を選択した場合、シーン情報取得部504は、各クラスタ中心のシーン情報を各領域判別器に対応したシーン情報としてもよい。又は、シーン情報取得部504は、各領域判別器を学習するために選択した学習画像同士のシーン情報の類似度を算出し、他の全ての学習画像との類似度の和が最も小さいものを中心画像として設定して、その中心画像のシーン情報を記憶しておいてもよい。類似度は、第1の実施形態にて説明したSPMK特徴量を利用する場合には、ヒストグラム距離などを用いればよい。その他、類似度は、ベクトル同士の距離を算出できるものであればなんでもよい。
図19は、第2の実施形態における統合識別器学習工程T250の詳細なフローチャートである。なお、図19中に示されている「R」や「Im」は図17、18と同様である。図19のフローチャートにおいて、統合識別器学習部304は、領域判別結果取得工程T2501として、第1の実施形態における図18の工程T1401と同様に、各学習評価画像に対応する領域判別器結果をロードする。ここでは、第1の実施形態と同様に、統合識別器学習部304は、各小領域に対して4×R=4R次元の出力結果を取得するものとする。図19のシーン情報取得工程T2502の処理は、第1の実施形態における図18の工程T1402の処理と同様であり、各学習評価画像に対するシーン情報の取得がなされる。
次に、類似度算出工程T2503の処理に進み、統合識別器学習部304は、シーン情報取得工程T2502で得られた各学習評価画像に対するシーン情報と各領域判別器に対応するシーン情報との類似度を算出する。類似度は、各領域判別器に対応するシーン情報と算出するため、領域判別器数が「R」の場合、R次元の情報(特徴量)となる。よって、類似度としては、各学習評価画像の各小領域に対して4R+R=5R次元の情報(特徴量)が得られる。なお、第2の実施形態の場合、第1の実施形態と比べて、通常SPMK特徴量の次元数は128などと多いため、領域判別器数が少ない場合には統合識別時に利用する情報(特徴量)の次元数を削減することができる。次に、統合識別器学習部304は、学習工程T2504として、シーン情報取得工程T2502及び類似度算出工程T2503で得られた各小領域の特徴量をもとに統合識別器を学習する。学習方法は、第1の実施形態における図18の詳細フロー時の処理と同様である。なお、認識時の処理に関しては第1の実施形態と同様であるため、その説明を省略する。
以上のように第2の実施形態によれば、学習装置300は、シーン情報に基づいて学習用データ保持部310からサブセットを選択し、それを用いて複数の領域判別器を学習する。さらに、学習装置300は、その複数の領域判別器による領域判別結果とシーン情報を統合して領域のクラスを識別する統合識別器を学習する。そしてその際、学習装置300は、学習時に各領域判別器の学習を行った時に利用した学習画像のシーン情報を保持しておいて、そのシーン情報との類似度に基づいて領域のクラスを識別する統合識別器を学習する。したがって、第2の実施形態の画像認識装置20は、複数の領域判別器による領域判別結果とシーン情報の類似度を統合して識別することにより、識別対象画像の各領域のクラスを精度よく識別することができるようになる。これにより、第2の実施形態の画像認識装置20は、高い精度で領域分割と画像認識が可能となる。また、第2の実施形態の画像認識装置20は、第1の実施形態の場合と比べて、シーン情報の類似度を利用するため統合識別器に入力する情報(特徴量)の次元数を減らすことが可能になる。
なお、この第2の実施形態の学習装置300にて領域判別器と識別器の学習がなされ、また、シーン情報が保持されている場合、画像認識装置20は、例えば図5の(b)に示す構成で実現可能である。図5の(b)は、第2の実施形態における画像認識装置20の機能ブロック構成例を示している。即ち、第2の実施形態の画像認識装置20は、図5の(b)に示すように、前述の図5の(b)の各機能構成に加えてシーン情報保持部507を有する。そして、統合識別部505は、シーン情報保持部507に保持されているシーン情報を用いて識別対象画像の各領域のクラスを判別する。なお、図5の(b)でシーン情報保持部507の他の各構成は図5の(a)のものと同じであるため、それらの説明は省略する。
<第3の実施形態>
次に、第3の実施形態について説明する。第3の実施形態の学習装置300は、第1の実施形態の例とは異なり、学習評価セット判別の結果に応じて領域判別器の再学習即ち再領域判別を行う。図20の(a)は、第3の実施形態の学習装置300のCPU401が実行する各処理の一例を機能ブロックとして示している。第3の実施形態における学習装置300は、図12の(a)に示した学習装置300の機能ブロック構成に加えて、領域判別器再学習部305の機能ブロックを実行可能となされている。領域判別器再学習部305の詳細な説明については、図13の(c)等を用いて後述する。図20の(a)の学習装置300において、領域判別器再学習部305の他の構成については、図12の(a)に示した各構成と同様であるためそれらの説明は省略する。
図13の(c)は、第3の実施形態における学習装置300が統合識別器を学習するまでの処理の概要を示している。なお、図13の(c)のフローチャートにおいて、サブセット選択工程T310は第1の実施形態の工程T110と同様であり、領域判別器学習工程T320は第1の実施形態の工程T120と同様であるためそれらの説明を省略する。また、学習評価セット判別工程T330は第1の実施形態の工程T130と同様であるため説明を省略する。図13の(c)において、領域判別器再学習部305は、領域判別器再学習工程T340として、学習評価セット判別工程T330で学習評価セットに対して領域判別を行った結果(再領域判別結果)、再学習を要すると判定された領域判別器の再学習を行う。この領域判別器再学習工程T340の処理に関しては第1の実施形態と異なるため、以下に詳しく説明する。統合識別器学習工程T350の処理は、第1の実施形態の工程T140とほぼ同様であるが、ここでは、領域判別器再学習工程T340で再学習された領域判別器で学習評価セットを再領域判別した結果も用いて統合識別器の学習がなされる。
以下、領域判別器再学習工程T340の処理の詳細について述べる。図21は、領域判別器再学習工程T340の詳細なフローチャートである。図21中の「Im」は各学習評価画像を表すインデックスである。なお、第3の実施形態では領域判別器学習用データと学習評価画像セットは同一であるとする。図21のフローチャートにおいて、領域判別器再学習部305は、最大値取得工程T3401として、各学習評価画像の各領域判別器での領域判別結果の中で最も領域判別精度の高い領域判別結果を取得する。領域判別結果は、各画素の正解率を計算するPixelAccuracyで計算すれば良い。ここで、学習評価画像Imに対する領域判別器Rの領域判別結果の精度をPAIm|Rとすると、最大値取得工程T3401で取得する各学習評価画像に対する領域判別結果の精度PAImは、式(4)で表される。
Figure 0006448325
次に、領域判別器再学習部305は、評価画像設定工程T3402以降で、各学習評価画像に対して最大値取得工程T3401で取得された領域判別結果の精度PAImをチェックする。即ち、領域判別器再学習部305は、最大値判定工程T3403として、評価画像設定工程T3402でセットされた精度PAImが所定値を超えているかをチェックする。この最大値判定工程T3403で所定値を超えていると判定した場合、領域判別器再学習部305は、再学習処理に移行せず、次の学習評価画像の精度PAImをセットする。一方、最大値判定工程T3403で所定値を超えていないと判定した場合、領域判別器再学習部305は、評価画像学習判定工程T3404の処理に移行する。
評価画像学習判定工程T3404へ進むと、領域判別器再学習部305は、学習評価画像Imが領域判別器の学習時に利用されているかどうかをチェックする。なお、領域判別器学習用データと学習評価画像セットが同一でない場合、領域判別器学習部302は、学習用データの中で学習評価画像Imと最もシーン情報が類似している学習画像をチェックする。評価画像学習判定工程T3404で学習評価画像Imがどの領域判別器の学習時にも利用されていないと判定された場合、領域判別器再学習部305は、領域判別器追加工程T3405へ処理を進める。領域判別器追加工程T3405に進むと、領域判別器学習部302は、学習評価画像Imをシーン情報が類似している領域判別器の学習画像に追加して再学習する。なお、領域判別器学習部302は、シーン情報が類似している領域判別器を選択する場合、各領域判別器のシード画像のシーン情報と学習評価画像Imのシーン情報の類似度を求める。一方、評価画像学習判定工程T3404で学習評価画像Imが学習されていたと判定された場合、領域判別器再学習部305は、学習画像再選択工程T3406として、学習されていた領域判別器の学習画像を再選択する。領域判別器再学習部305は、例えば、該当する領域判別器の学習画像のなかで学習評価画像Imとシーン情報が類似していない画像を除いたり、又は学習評価画像Imとシーン情報が類似している他の学習画像を追加したりする。なお、この実施形態では、学習画像の再選択方法について説明したが、領域判別器再学習部305は、領域判別器に利用する特徴量を変更或いは追加したり、クラス数及びクラス定義を変更したりしてもよい。次に、領域判別器追加工程T3405、学習画像再選択工程T3406の処理後、領域判別器再学習部305は、再学習工程T3407へ処理を進める。
領域判別器再学習部305は、再学習工程T3407へ進むと、領域判別器追加工程T3405、学習画像再選択工程T3406で変更された事項を用いて領域判別器の再学習を行う。その後、領域判別器再学習部305は、評価画像領域判別工程T3408として、再学習工程T3407で再学習された領域判別器を用いて、再度学習評価セットの領域判別を行う。この領域判別結果は、次の統合識別器学習工程T350で利用される。この統合識別器学習工程T350での認識時の処理に関しては第1の実施形態と同様であるため、説明を省略する。
以上のように第3の実施形態によれば、学習装置300は、シーン情報に基づいて学習用データ保持部310からサブセットを選択し、それを用いて複数の領域判別器を学習する。また、学習装置300は、学習された複数の領域判別器を評価し、学習評価セットに対して十分な性能が得られなかった場合に、領域判別器の再学習を行う。そして、学習装置300は、その複数の領域判別器による領域判別結果とシーン情報を統合して領域のクラスを識別する統合識別器を学習する。したがって、第3の実施形態の場合の画像認識装置20は複数の領域判別器による領域判別結果とシーン情報を統合して識別することにより、識別対象画像の各領域のクラスを精度よく識別することができるようになる。これにより、第3の実施形態の画像認識装置20は、高い精度で領域分割と画像認識が可能となる。
<第4の実施形態>
次に第4の実施形態の学習装置300について説明する。第4の実施形態の学習装置300は、第1の実施形態と異なり、学習評価セット判別の結果に応じて領域判別器の追加学習を行う。図20の(b)は、第4の実施形態の学習装置300のCPU401が実行する各処理の機能ブロック構成例を示している。第4の実施形態における学習装置300は、図12の(a)に示した機能構成に加えて領域判別器追加学習部306の機能を実行可能となされている。領域判別器追加学習部306の詳細な説明については、図13の(d)等を用いて後述する。その他の構成については、図12と同様であるため説明を省略する。
図13の(d)は、第4の実施形態における学習装置300が統合識別器を学習するまでの処理の概要を示す。なお、図13の(d)のサブセット選択工程T410は第1の実施形態の工程T110と同様であり、領域判別器学習工程T420は第1の実施形態の工程T120と同様であるため説明を省略する。また、学習評価セット判別工程T430は、第1の実施形態の工程T130と同様であるため説明を省略する。第4の実施形態の場合、領域判別器追加学習部306は、図13の(d)の領域判別器追加学習工程T440の処理を行う。領域判別器追加学習部306は、この工程T440において、学習評価セット判別工程T430で学習評価セットに対して領域判別を行った結果、追加学習を要すると判定された領域判別器の追加学習を行う。領域判別器追加学習工程T440の処理に関しては第1の実施形態と異なるため、詳しく説明する。
統合識別器学習工程T450は、第1の実施形態の統合識別器学習工程T140とほぼ同様であるが、学習装置300は、領域判別器追加学習工程T440で再学習された領域判別器で学習評価セットを領域判別した結果も用いて統合識別器を学習する。次に、領域判別器追加学習工程T440の処理の、より具体的な処理について述べる。図22は、領域判別器追加学習工程T440の詳細フローの一例を示した図である。図22において、最大値取得工程T4401から最大値判定工程T4403は、図21に示した第3の実施形態における工程T3401から工程T3403と同様であるため説明を省略する。
図22のフローチャートにおいて、最大値判定工程T4403で所定値を超えていないと判定された場合、領域判別器追加学習部306は、シード画像判定工程T4404へ処理を進める。シード画像判定工程T4404の処理に移行すると、領域判別器追加学習部306は、学習評価画像Imが領域判別器のどれかのシード画像として設定されているかどうかをチェックする。シード画像判定工程T4404で学習評価画像Imがシード画像として設定されていないと判定されると、領域判別器追加学習部306は、学習画像選択工程T4405として、学習評価画像Imを新たなシード画像として設定する。学習画像選択工程T4405の処理に進むと、領域判別器追加学習部306は、シーン情報が類似している学習画像を所定枚数選択する。これにより、領域判別器追加学習部306は、次の再学習工程T4407として、その選択された学習画像を用いて領域判別器を追加学習する。一方、シード画像判定工程T4404で学習評価画像Imがシード画像として設定されていると判定されると、領域判別器追加学習部306は、学習画像再選択工程T4406へ処理を進める。学習画像再選択工程T4406の処理に進むと、領域判別器追加学習部306は、シード画像として設定されている領域判別器の学習画像を再選択する。この再選択方法は、第3の実施形態における学習画像再選択工程T3406と同様であるため説明を省略する。
次に、領域判別器追加工程T3405、学習画像再選択工程T4406の処理後、領域判別器追加学習部306は、再学習工程T4407へ処理を進める。再学習工程T4407から評価画像領域判別工程T4408までの処理は、図21に示した第3の実施形態における再学習工程T3407から評価画像領域判別工程T4408までの処理と同様であるため説明を省略する。統合識別器学習工程T450での認識時の処理に関しては第1の実施形態と同様であるため、説明を省略する。
以上のように、第4の実施形態によれば、学習装置300はシーン情報に基づいて学習用データ保持部310からサブセットを選択し、それを用いて複数の領域判別器を学習する。また学習装置300は、学習された複数の領域判別器を評価し、学習評価セットに対して十分な性能が得られなかった場合に、領域判別器の追加学習を行う。また、学習装置300は、その複数の領域判別器による領域判別結果とシーン情報を統合して領域のクラスを識別する統合識別器を学習する。したがって、第4の実施形態の画像認識装置20は複数の領域判別器による領域判別結果とシーン情報を統合して識別することにより、識別対象画像の各領域のクラスを精度よく識別することができるようになる。これにより、第4の実施形態の画像認識装置20は、高い精度で領域分割と画像認識が可能となる。
<第5の実施形態>
第5の実施形態における学習装置300は、第1の実施形態の例とは異なり、各領域判別器で学習する学習画像を選択するのではなく、各領域判別器で学習する各学習画像の重要度を設定する。そして、学習装置300は、その重要度に基づいて領域判別器を学習する。図20の(c)は、第5の実施形態における学習装置300のCPU401が実行する各処理の機能ブロック構成例を示している。第5の実施形態における学習装置300は、図12に示した機能構成のサブセット選択部301に代えて学習画像重要度設定部307の機能を実行可能となされている。学習画像重要度設定部307の詳細な説明については、図13の(e)のフローチャートを用いて後述する。その他の構成については、図12と同様であるため説明を省略する。図13の(e)は、第5の実施形態における学習装置300が統合識別器を学習するまでの処理の概要を示している。この図13の(e)において、学習画像重要度設定部307は、学習画像重要度設定工程T510として、第1の実施形態における学習処理のサブセット選択工程T110と違い、各領域判別器で学習に用いる学習画像の重要度を設定する。また第5の実施形態において、重要度は、シーン情報に基づいて設定される。重要度の具体的な設定方法に関しては後で説明する。
図13の(e)の領域判別器学習工程T520は第1の実施形態の領域判別器学習工程T120とほぼ同様の処理であるが、学習画像重要度設定部307は、各領域判別器の学習の際に学習画像重要度設定工程T510で設定された重要度を用いて学習を行う。例えば、非特許文献1に示されているようなニューラルネットワークを用いて領域判別器を学習する場合、学習画像重要度設定部307は、各学習画像が対応付けられる入力層と中間層をつなぐ結合の重みを重要度に応じて設定する。また、SupportVectorMashines(SVMs)のような識別モデルを用いる場合、学習画像重要度設定部307は、学習時に経験誤差を算出する際に重要度を重みとして利用する。学習評価セット判別工程T530は第1の実施形態の工程T130と同様であり、統合識別器学習工程T540は第1の実施形態の工程T140と同様であるため説明を省略する。
次に、第5の実施形態における学習画像重要度設定工程T510の処理のより具体的な処理について述べる。図23は、学習画像重要度設定工程T510の詳細なフローチャートである。図23中の「R」は各領域判別器の示すインデックスであり、「Ma」は全学習用データ内の各学習画像のインデックスを表している。なお、シーン情報取得工程T5101とシード画像設定工程T5102は、第1の実施形態のそれぞれ対応した工程T1101と工程T1102と同様であるため説明を省略する。
学習画像重要度設定部307は、類似度算出工程T5103の処理に進むと、各学習画像に対してシード画像とのシーン情報の類似度を算出する。類似度としては、第1の実施形態に説明したSPMK特徴量を利用する場合には、ヒストグラム距離などを用いればよい。その他ベクトル同士の距離を算出できるものであればなんでもよい。次に、学習画像重要度設定部307は、重要度算出工程T5104へ進むと、類似度算出工程T5103で算出した類似度に基づいて各学習画像の重要度を設定する。重要度は、図24に示すように、領域判別器毎にリスト60が作成され、各リスト60には各学習画像に対応する重要度が保持されている。図24の例では、重要度は「0」から「1」の値で正規化されている。重要度の算出方法は類似度を変数として重要度を算出する関数を定義すればよい。第5の実施形態ではヒストグラム距離をもとに重要度を算出する方法について説明する。例えば、「0」から「2」までの値域をもつヒストグラム距離の場合、各学習画像の重要度ωImはヒストグラム距離をdistImとすると、重要度は式(5)のように表される。
Figure 0006448325
学習画像重要度設定部307は、類似度算出工程T5103と重要度算出工程T5104の処理を各学習画像に対して行い、リスト出力工程T5105として、学習画像重要度をリストとして出力する。出力された学習画像重要度は、次の統合識別器学習工程T540で利用される。統合識別器学習工程T540での認識時の処理に関しては第1の実施形態と同様であるため、説明を省略する。
以上のように、第5の実施形態によれば、学習装置300はシーン情報に基づいて各領域判別器で学習する学習データの重要度を設定し、その重要度に基づいて選択した学習データを用いて複数の領域判別器を学習する。また学習装置300は、その複数の領域判別器による領域判別結果とシーン情報を統合して領域のクラスを識別する統合識別器を学習する。したがって、第5の実施形態の画像認識装置20は、複数の領域判別器による領域判別結果とシーン情報を統合して識別することにより、識別対象画像の各領域のクラスを精度よく識別することができるようになる。これにより、第5の実施形態の画像認識装置20は、高い精度で領域分割と画像認識が可能となる。
以上説明したようなことから、各実施形態によれば、画像認識装置20は、画像の領域毎に被写体の分類に関するクラスを精度よく識別することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施の形態について詳述したが、本実施形態は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 カメラ、20 画像認識装置、15 ネットワーク、30 シーン、100 識別対象画像、401 CPU、402 RAM、403 ROM、404 HD、405 操作部、406 表示部、407 ネットワークI/F

Claims (17)

  1. 複数の学習画像の一部を選択してなるサブセットを複数作成する作成手段と、
    前記作成されたサブセットごとに、前記学習画像を分割してなる各領域のクラスを判別するための領域判別器を学習する学習手段と、
    前記学習された複数の領域判別器を用いて複数の学習評価画像を分割してなる各領域のクラスを判別する学習判別手段と、
    前記学習判別手段により判別された前記複数の学習評価画像の各領域に対する判別結果と、前記複数の学習評価画像それぞれに対応づけられたシーン情報と、に基づいて統合識別器を学習する識別学習手段と、
    を有することを特徴とする画像処理装置。
  2. 前記複数の学習画像のそれぞれはシーン情報が対応付けられており、
    前記作成手段は、前記複数の学習画像それぞれのシーン情報に基づいて、複数のサブセットを作成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記作成手段は、前記複数の学習画像からランダムに選択された学習画像のシーン情報に基づいて、前記複数の学習画像から前記選択された学習画像のシーン情報と類似したシーン情報が対応付けられている学習画像を選択してサブセットを作成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記作成手段は、前記複数の学習画像からユーザの指示により選択された学習画像のシーン情報に基づいて、前記複数の学習画像から前記選択された学習画像のシーン情報と類似したシーン情報が対応付けられている学習画像を選択してサブセットを作成することを特徴とする請求項2に記載の画像処理装置。
  5. 前記作成手段は、前記複数の学習画像を前記シーン情報の類似度に基づいてクラスタリングして、クラスタリングによるクラスタに含まれる学習画像を同一のサブセットとすることを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
  6. 前記識別学習手段は、前記複数の学習画像のシーン情報と前記複数の学習評価画像のシーン情報との類似度に基づいて、前記統合識別器を学習することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
  7. 前記複数の学習評価画像は、前記複数の学習画像の一部または全部であることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記学習判別手段による判別結果の精度に応じて、前記複数の領域判別器を再学習する再学習手段を更に有することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記学習判別手段による判別結果に応じて、領域判別器を追加学習する追加学習手段を更に有し、
    前記識別学習手段は、前記追加学習手段によって追加学習された領域判別器の判別結果に基づいて、前記統合識別器を学習することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記複数の学習画像のそれぞれは重要度が対応付けられており、
    前記作成手段は、前記複数の学習画像それぞれの重要度に基づいて、複数のサブセットを作成することを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記学習手段により学習された複数の領域判別器を保持するための保持手段を更に有することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 前記シーン情報は、画像を分割してなる複数のブロックにおける色情報のヒストグラムであることを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13. 前記学習手段は、前記学習画像の各領域から抽出される特徴量と、該各領域に付与された正解データとに基づいて、各領域のクラスを判別するための領域判別器を学習することを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
  14. 前記識別学習手段は、前記判別結果と前記シーン情報とにより構成される特徴量と、前記複数の学習評価画像の各領域付与される正解データとに基づいて、前記統合識別器を学習することを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
  15. 識別対象画像を取得する取得手段と、
    前記識別対象画像のシーン情報を取得するシーン情報取得手段と、
    前記学習手段により学習された複数の領域判別器を用いて、前記識別対象画像を分割してなる各領域のクラスを判別する判別手段と、
    前記学習された統合識別器を用い、前記判別手段により判別された前記複数の識別対象画像の各領域に対する判別結果と、前記取得されたシーン情報と、に基づいて前記識別対象画像の各領域のクラスを識別する統合識別手段と、
    を更に有することを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
  16. 画像処理装置が実行する画像処理方法であって、
    複数の学習画像の一部を選択してなるサブセットを複数作成すステップと、
    前記作成されたサブセットごとに、前記学習画像を分割してなる各領域のクラスを判別するための領域判別器を学習するステップと、
    前記学習された複数の領域判別器を用いて複数の学習評価画像を分割してなる各領域のクラスを判別するステップと、
    前記判別された前記複数の学習評価画像の各領域に対する判別結果と、前記複数の学習評価画像それぞれに対応づけられたシーン情報と、に基づいて統合識別器を学習するステップと、
    を有することを特徴とする画像処理方法。
  17. コンピュータを請求項1から15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2014234869A 2014-11-19 2014-11-19 画像処理装置、画像処理方法及びプログラム Active JP6448325B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014234869A JP6448325B2 (ja) 2014-11-19 2014-11-19 画像処理装置、画像処理方法及びプログラム
US14/940,871 US9779329B2 (en) 2014-11-19 2015-11-13 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014234869A JP6448325B2 (ja) 2014-11-19 2014-11-19 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2016099734A JP2016099734A (ja) 2016-05-30
JP2016099734A5 JP2016099734A5 (ja) 2017-12-07
JP6448325B2 true JP6448325B2 (ja) 2019-01-09

Family

ID=55961996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014234869A Active JP6448325B2 (ja) 2014-11-19 2014-11-19 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9779329B2 (ja)
JP (1) JP6448325B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126614A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same}

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6866095B2 (ja) * 2016-09-26 2021-04-28 キヤノン株式会社 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム
JP6855207B2 (ja) * 2016-10-07 2021-04-07 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6781950B2 (ja) * 2016-10-12 2020-11-11 オムロン株式会社 識別情報付与システム、識別情報付与方法、及びそのプログラム
US11755004B2 (en) 2017-07-13 2023-09-12 Nec Corporation Analysis system, analysis method, and storage medium
US11625597B2 (en) * 2017-11-15 2023-04-11 Canon Medical Systems Corporation Matching network for medical image analysis
CN108596116B (zh) 2018-04-27 2021-11-05 深圳市商汤科技有限公司 测距方法、智能控制方法及装置、电子设备和存储介质
JP7278088B2 (ja) * 2019-01-31 2023-05-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7363383B2 (ja) 2019-11-05 2023-10-18 富士通株式会社 解析装置、解析プログラム及び解析方法
JP6846765B1 (ja) * 2020-03-26 2021-03-24 株式会社 情報システムエンジニアリング 情報処理プログラム
JP2022171150A (ja) * 2021-04-30 2022-11-11 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、及び、プログラム
US11922702B2 (en) * 2021-08-19 2024-03-05 Ford Global Technologies, Llc Enhanced object detection
JP7275233B1 (ja) 2021-11-18 2023-05-17 エヌ・ティ・ティ・コミュニケーションズ株式会社 学習装置、学習方法及び学習プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
US7856123B2 (en) * 2004-06-04 2010-12-21 France Telecom Method for recognising faces by means of a two-dimensional linear discriminant analysis
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
JP2009064162A (ja) * 2007-09-05 2009-03-26 Fuji Heavy Ind Ltd 画像認識システム
JP4772839B2 (ja) * 2008-08-13 2011-09-14 株式会社エヌ・ティ・ティ・ドコモ 画像識別方法および撮像装置
JP4623387B2 (ja) 2008-09-04 2011-02-02 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
JP4720913B2 (ja) * 2009-02-19 2011-07-13 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、及び、プログラム
JP5401695B2 (ja) * 2011-05-23 2014-01-29 株式会社モルフォ 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
JP2013003686A (ja) * 2011-06-13 2013-01-07 Sony Corp 認識装置および方法、プログラム、並びに記録媒体
JP2013125322A (ja) * 2011-12-13 2013-06-24 Olympus Corp 学習装置、プログラム及び学習方法
JP5660078B2 (ja) * 2012-05-31 2015-01-28 カシオ計算機株式会社 多クラス識別器、方法、およびプログラム
JP5742873B2 (ja) * 2013-05-08 2015-07-01 株式会社デンソー 物体識別装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126614A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same}

Also Published As

Publication number Publication date
US20160140422A1 (en) 2016-05-19
JP2016099734A (ja) 2016-05-30
US9779329B2 (en) 2017-10-03

Similar Documents

Publication Publication Date Title
JP6448325B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20220138490A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11710299B2 (en) Method and apparatus for employing specialist belief propagation networks
JP6332937B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9824294B2 (en) Saliency information acquisition device and saliency information acquisition method
US10204283B2 (en) Image recognizing apparatus, image recognizing method, and storage medium
Li et al. A positive and unlabeled learning algorithm for one-class classification of remote-sensing data
US9633282B2 (en) Cross-trained convolutional neural networks using multimodal images
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2017033469A (ja) 画像識別方法、画像識別装置及びプログラム
US9418440B2 (en) Image segmenting apparatus and method
US10929978B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
CN104504366A (zh) 基于光流特征的笑脸识别系统及方法
JP6866095B2 (ja) 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム
US11055584B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium that perform class identification of an input image using a discriminator that has undergone learning to perform class identification at different granularities
US20110235901A1 (en) Method, apparatus, and program for generating classifiers
JP2016099668A (ja) 学習方法、学習装置、画像認識方法、画像認識装置及びプログラム
JP5214679B2 (ja) 学習装置、方法及びプログラム
JP6448212B2 (ja) 認識装置及び認識方法
WO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および記録媒体
Lin Semantic building façade segmentation from airborne oblique images
JP2018205858A (ja) 学習装置、認識装置、学習方法及びプログラム
Vicente Large-scale weakly-supervised shadow detection
JP2011096291A (ja) 特徴抽出装置、対象物検出装置、特徴抽出方法、および対象物検出方法
JP2018060440A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R151 Written notification of patent or utility model registration

Ref document number: 6448325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151