JP2018055195A - 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム - Google Patents

学習装置、画像識別装置、学習方法、画像識別方法及びプログラム Download PDF

Info

Publication number
JP2018055195A
JP2018055195A JP2016187442A JP2016187442A JP2018055195A JP 2018055195 A JP2018055195 A JP 2018055195A JP 2016187442 A JP2016187442 A JP 2016187442A JP 2016187442 A JP2016187442 A JP 2016187442A JP 2018055195 A JP2018055195 A JP 2018055195A
Authority
JP
Japan
Prior art keywords
image
learning
sensor information
identification
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016187442A
Other languages
English (en)
Other versions
JP6866095B2 (ja
Inventor
敬正 角田
Norimasa Kadota
敬正 角田
優和 真継
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016187442A priority Critical patent/JP6866095B2/ja
Priority to US15/683,103 priority patent/US10706326B2/en
Publication of JP2018055195A publication Critical patent/JP2018055195A/ja
Application granted granted Critical
Publication of JP6866095B2 publication Critical patent/JP6866095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】センサ情報と画像とに基づいて、精度よく画像を識別することを目的とする。
【解決手段】画像と、前記画像に対応する、少なくとも1種類以上のセンサ情報とに基づく画像識別に用いる識別器を学習する学習装置であって、画像と、センサ情報とを含む、学習用のデータセットを取得する取得手段と、 前記学習用のデータセットから、少なくとも画像を含み、画像とセンサ情報の組み合わせの異なる、複数のサブセットを作成する作成手段と、複数のサブセットそれぞれに基づいて、複数のサブセットそれぞれに対応した複数の第1の識別器を学習する第1の学習手段とを有する。
【選択図】図2

Description

本発明は、画像及びセンサによる検知結果を用いた画像識別に係る識別器の学習装置、画像識別装置、学習方法、画像識別方法及びプログラムに関する。
従来、画像から対象を識別する画像識別技術において、画像だけでなく、センサによる検知結果を用いる技術が知られている。特許文献1には、画像撮影時のパラメータ(露光時間、感度(ISO)、開口数(F値))を用いて取得した測光値で、画素毎の輝度値を補正し、識別器を用いて、屋内シーンか屋外シーンかの判定と屋外シーンの場合の影領域の識別を行う技術が開示されている。また、非特許文献1には、複数のセンサ情報を内包するものの欠損するデータがあるような不均一なデータセットにおいて、欠損しているセンサデータを推定する転移学習手法が開示されている。
特許第5458905号公報
B.Tan,E.Zhong,E.Xiang,Q.Yang,"Multi−Transfer:Learning with Multiple Views and Multiple Sources",Statistical analysis and Data Mining, 2013
しかしながら、学習データとなるすべての画像に対して共通するセンサ情報が存在しない場合もある。非特許文献1には、一のセンサ情報から他のセンサ情報を推定する技術が開示されている。しかしながら、センサ情報間に相関がない場合にはセンサ情報の推定は困難である。
本発明はこのような問題点に鑑みなされたもので、センサ情報と画像とに基づいて、精度よく画像を識別することを目的とする。
そこで、本発明は、画像と、前記画像に対応する、少なくとも1種類以上のセンサ情報とに基づく画像識別に用いる識別器を学習する学習装置であって、前記画像と、前記センサ情報とを含む、学習用のデータセットを取得する取得手段と、 前記学習用のデータセットから、少なくとも前記画像を含み、前記画像と前記センサ情報の組み合わせの異なる、複数のサブセットを作成する作成手段と、前記複数のサブセットそれぞれに基づいて、複数のサブセットそれぞれに対応した複数の第1の識別器を学習する第1の学習手段とを有することを特徴とする。
本発明によれば、センサ情報と画像とに基づいて、精度よく画像を識別することができる。
画像識別装置のハードウェア構成を示す図である。 学習装置の機能構成を示す図である。 学習データセットに含まれる画像の説明図である。 学習データセットを模式的に示す図である。 学習処理を示すフローチャートである。 サブセットの説明図である。 第2の実施形態に係る画像識別装置の機能構成を示す図である。 第2の実施形態に係る画像識別処理を示すフローチャートである。 分割処理の説明図である。 第2の実施形態に係る学習装置の機能構成を示す図である。 第2の実施形態に係る学習処理を示すフローチャートである。 第2の実施形態に係る画像識別装置の機能構成を示す図である。 第2の実施形態に係る画像識別処理を示すフローチャートである。 累積類似度の算出処理の説明図である。 第3の実施形態に係る学習装置の機能構成を示す図である。 第3の実施形態に係る学習処理を示すフローチャートである。 第3の実施形態に係る画像識別装置の機能構成を示す図である。 第3の実施形態に係る画像識別処理を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態に係る学習装置100のハードウェア構成を示す図である。学習装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、入力部106と、通信部107と、を有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、各種データや各種プログラム等を記憶する。なお、後述する学習装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
表示部105は、各種情報を表示する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、ネットワークを介して外部装置との通信処理を行う。なお、ネットワークとしては、イーサネット(登録商標)が挙げられる。また、他の例としては、通信部107は、無線により外部装置との通信を行ってもよい。
図2は、学習装置100の機能構成を示す図である。学習装置100は、画像と少なくとも1種類以上のセンサ情報とに基づく画像識別に用いられる識別器を学習する。ここで、センサ情報とは、センサにより得られた検知結果を示す情報である。なお、センサ情報に対応するセンサは、対応する画像を撮像する撮像装置と一体に設けられていてもよく、別の装置として設けられていてもよい。また、センサ情報は、画像の撮像タイミングに対応したタイミングにおいて得られたものであり、画像に対応付けられているものとする。ここで、対応するタイミングとは、撮像タイミングと同一のタイミング、撮像タイミングの前後一定期間内のタイミング等、画像とセンサ情報とが関係性を有するようなタイミングである。
学習装置100は、第1学習データ記憶部201と、サブセット作成部202と、K分割部203と、第1学習部204と、サブセット識別器記憶部205と、を有している。学習装置100はまた、検証部206と、信頼度特定部207と、第2学習データ記憶部208と、第2学習部209と、統合識別器記憶部210と、信頼度記憶部211と、を有している。第1学習データ記憶部201は、画像識別に用いる識別器の学習に用いる学習データセットを記憶している。本実施形態においては、学習データセットは、画像単独のデータセットの他、画像とセンサ情報のセットデータを含んでいる。
図3は、学習データセットに含まれる画像の説明図である。図3(a)に示すような画像300に対し、図3(b)に示すように、画素単位でSkyやBuilding等の領域カテゴリが定義されている。なお、領域カテゴリは、管理者等が予め定義しておくこととする。図3(b)のように正解の領域カテゴリが割り当てられたマップをGT(Ground Truth)と呼ぶ。
図4は、学習データセットを模式的に示す図である。本実施形態の学習装置100は、図4に示すカメラBから得られるデータセットを入力として画像識別を行うための識別器を学習するものとする。カメラBは、センサa及びセンサbを搭載しており、カメラBにより得られた撮像画像には、撮像時にセンサaから得られたセンサ情報aと、撮像時にセンサbから得られたセンサ情報bが対応付けられている。すなわち、対象データセットには、カメラBにより得られた撮像画像と、センサ情報aと、センサ情報bが含まれる。
このような対象データセットに対し、対象データセットに含まれる画像と、対象データセットに含まれる少なくとも1つのセンサ情報とを含むデータセットが、学習データセットとして設定される。なお、本実施形態においては、学習データセットは、学習装置100に予め記憶されているものとするが、他の例としては、学習装置100は、後述する学習処理の開始前に外部装置から学習データセットを取得してもよい。
本実施形態においては、図4に示すように、学習データセットには、画像DBから得られた複数の画像を含むデータセットが含まれている。さらに、学習データセットには、カメラAにより得られた複数の画像と、それぞれに対応するセンサ情報aとを含むデータセットが含まれている。ここで、センサ情報aは、カメラAが備えるセンサaにより対応する画像の撮影時に得られた検知結果である。
学習データセットには、さらにカメラBにより得られた複数の画像と、それぞれに対応するセンサ情報aとセンサ情報bとを含むデータセットが含まれている。ここで、センサ情報aは、カメラBが備えるセンサaにより対応する画像の撮影時に得られた検知結果である。また、センサ情報bは、カメラBが備えるセンサbにより対応する画像の撮影時に得られた検知結果である。
学習データセットには、さらにカメラCにより得られた複数の画像と、それぞれに対応するセンサ情報aとセンサ情報cとを含むデータセットが含まれている。ここで、センサ情報aは、カメラCが備えるセンサaにより対応する画像の撮影時に得られた検知結果である。また、センサ情報cは、カメラCが備えるセンサcにより対応する画像の撮影時に得られた検知結果である。
なお、画像と共に記憶されるセンサ情報の種類は特に限定されるものではない。センサ情報は、例えばカメラでの露出制御時に取得される輝度値やAF制御時の距離情報、ガンマ補正や階調数の圧縮等をしていないRAWイメージ等、カメラによる撮像・現像処理に付随する情報であってもよい。また、他の例としては、撮像・現像とは直接関係がない付加的なセンサやデバイスにより得られる情報であってもよい。具体的には、ジャイロセンサ、地磁気センサ(コンパス)、気圧・湿度・気温センサによる検知結果を示す情報が挙げられる。また、センサ情報は、多眼カメラ等による視差マップや奥行マップ、GPSによる位置情報、時刻等であってもよい。
図2に戻り、サブセット作成部202は、第1データ記憶部201に記憶されている学習データから、複数のサブセットを作成する。K分割部203は、各サブセットのデータを、学習データと検証データに分割する。本実施形態においては、K分割部203は、k−分割交差検証を行うため、サブセット内のデータをK個に分割する。そして、学習装置100は、学習と検証をK回行う。
第1学習部204は、サブセットそれぞれに対する識別器を学習する。以下、サブセットそれぞれに対する識別器をサブセット識別器と称する。例えばサブセットの数が3の場合には、3つのサブセット識別器を学習する。第1学習部204は、得られたサブセット識別器をサブセット識別器記憶部205に保存する。
検証部206は、K分割部203の学習により得られたサブセット識別器の、検証データに対する精度(汎化精度)を評価し、汎化精度を第2学習データ記憶部208に保存する。信頼度特定部207は、汎化精度に基づいて、各サブセット識別器の信頼度を決定し、信頼度を第2学習データ記憶部208及び信頼度記憶部211に格納する。このとき、信頼度特定部207は、検証データに対するサブセット識別器による識別結果と、対応する小領域の領域カテゴリGTと、を第2学習データ記憶部208に格納する。
第2学習部209は、k−分割交差検証法でK回評価された各サブセット識別器の識別結果、信頼度及び領域カテゴリGTを用い、各サブセット識別器による識別結果を統合する統合識別器を学習する。第2学習部209は、得られた統合識別器を統合識別器記憶部210に保存する。
図5は、学習装置100による学習処理を示すフローチャートである。本実施形態においては、図4に示す学習データセットを用いた場合を例に説明する。また、本実施形態においては、識別器の学習のためにk−分割交差検証法を用いることとする。S501において、サブセット作成部202は、第1学習データ記憶部201から学習データセットを取得し、学習データセットに基づいて、複数のサブセットを作成する。ここで作成されるサブセットは、いずれも画像を含むものとする。また、サブセット作成部202は、各サブセットに含まれる画像及びセンサ情報の組み合わせが、サブセット毎に異なるような複数のサブセットを作成するものとする。
例えば、図4を参照しつつ説明した学習データセットにおいては、対象データセットが画像と、センサ情報aと、センサ情報bを含む。したがって、サブセット作成部202は、少なくとも画像を含み、センサ情報aとセンサ情報bの組み合わせが異なるデータセットをサブセットとして選択する。すなわち、サブセット作成部202は、画像のみのサブセットと、画像とセンサ情報aのサブセットと、画像とセンサ情報bのサブセットと、画像とセンサ情報aとセンサ情報bのサブセットと、を作成することができる。ただし、このように、対象データセットのセンサ情報から取り得るすべての組み合わせに対応したサブセットを作成する必要はなく、1以上のサブセットを作成すればよい。例えば、データ数の調整、学習効率等の観点で適切な数のデータセットを選択するのが好ましい。対象データセットに、画像識別におけるタスクに有効でないものがある場合、サブセットから、そのデータを除外してもよい。
ここでは、図6に示すように、サブセット作成部202は、上記サブセットのうち、画像のみのサブセットS1と、画像とセンサ情報aのサブセットS2と、画像とセンサ情報aとセンサ情報bのサブセットS3と、を作成するものとして説明を続ける。
S501の処理の後、S502において、K分割部203は、S501において作成された各サブセットに含まれるデータをK個に分割する。識別器の学習のためにk−分割交差検証法を用いるためである。K分割部203は、具体的には、画像に1からKの整数ラベルをランダムに割り当てる。なお、後述する繰り返し処理におけるk番目のステップにおいては、ラベルkのデータが検証データ、k以外のラベルのデータが学習データとして用いられる。
なお、本処理は、画像を1つの単位として交差検証する実施例だが、他の例としては、画像を小領域に分割し、小領域毎に1からKのラベルを割り当て、K分割する方法を用いてもよい。また、他の例としては、撮影時の露出や絞り等のパラメータをいくつか変え、構図や被写体は変えないで撮影した一連の画像を一つの単位とする方法を用いてもよい。すなわち一連の画像群に1からKのラベルを割り当て、K分割する方法である。学習用データセットに、このような、撮影時パラメータだけ変えた画像群が存在する場合、一連の画像群をK分割する方法が有効である。
CPU101は、S502に続く、3つの処理(S503〜S505)を、k−分割交差検証法適用により、K回繰り返す。1からKの各ステップにおいて、CPU101は、K分割処理(S502)において設定した学習データと検証データを、各サブセットに関して用いる。
S503において、第1学習部204は、各サブセットの学習データを用いてサブセット識別器の学習を行う。第1学習部204は、まずサブセット内の画像に対し小領域分割を行い、画像の各小領域から画像特徴量を抽出する。さらに、サブセットにセンサ情報が含まれる場合、第1学習部204は、センサ情報から小領域に対応するセンサ情報特徴量を抽出する。そして、第1学習部204は、小領域に対応する領域カテゴリのGTを教師値として、画像特徴量及びセンサ情報特徴量に基づき、サブセット識別器の学習を行う。なお、画像特徴量は、画像から抽出される特徴量である。センサ情報特徴量は、センサ情報から抽出される特徴量である。
また、小領域は、RGB値や位置が類似した複数の画素で構成される領域である。本実施形態においては、第1学習部204は、以下に示す文献に記載されているようなSP(Super−pixel)と呼ばれる小領域に分割する。

A.Shaji,K.Smith,A.Lucchi,"SLIC Superpixels,R.Achanta",EPFL Technical Report,2010.

なお、小領域は、実施形態に限定されるものではなく、第1学習部204は、矩形形状に分割した碁盤目状の小領域を利用してもよい。
また、各小領域から取得する画像特徴量としては、例えばRGB値統計量、RGB値ヒストグラム、LBP(Local Binary Pattern)等が挙げられる。またセンサ情報特徴量としては、例えば輝度値等が挙げられる。輝度値は、画素毎に換算可能なため、画素毎の値を平均する等して小領域毎の値を容易に取得できる。また、センサ情報特徴量としては、画像1枚に対して1つの値が付与されるジャイロセンサやGPS等の検知結果が挙げられる。これらの値は、1つの画像に対し1つの値が得られる。このように、1つの画像に対して1つの値が対応している場合には、各小領域に対するセンサ情報特徴量をすべて同じ値として与えればよい。また、画像の空間解像度と異なる解像度で取得されるデータ(たとえば距離マップ等)では、小領域内の値の平均や代表点のサンプリングや、補間等の前処理を行い小領域の値を与える等が考えられる。
サブセットS1は、画像のみで構成される。したがって、第1学習部204は、サブセットS1に関しては、サブセットS1内の画像に対し小領域分割を行い、画像の各小領域から画像特徴量を抽出する。そして、第1学習部204は、小領域に対応する領域カテゴリのGTを教師値とし、画像特徴量に基づいて、サブセットS1に対応したサブセット識別器C1を学習する。
また、サブセットS2、S3に関しては、第1学習部204は、画像特徴量の抽出の他、センサ情報から小領域に対応するセンサ情報特徴量を抽出する。そして、第1学習部204は、教師値と、サブセットS2の画像特徴量とセンサ情報特徴量とに基づいて、サブセットS2に対応したサブセット識別器C2を学習する。また、第1学習部204は、教師値と、サブセットS3の画像特徴量とセンサ情報特徴量とに基づいて、サブセットS3に対応したサブセット識別器C3を学習する。このように、第1学習部204は、サブセットが3つ存在する場合に、3つのサブセットそれぞれに対応する3つのサブセット識別器C1、C2、C3を得る。第1学習部204は、得られたサブセット識別器をサブセット識別器記憶部205に格納する。
なお、サブセット識別器は、多クラス識別を行う識別器であればよく、実施形態に限定されるものではない。サブセット識別器の他の例としては、多クラス化したロジスティック回帰やサポートベクターマシンの他、ランダムフォレスト、ニューラルネットワーク等が挙げられる。
次に、S504において、検証部206は、S502において得られた各サブセットの検証データを用いて、S503において得られた各サブセット識別器の検証を行い、検証データに対する識別結果を得る。検証部206はさらに、識別結果から汎化精度を求める。そして、検証部206は、検証データに対する識別結果と、対応する小領域の領域カテゴリGTを第2学習データ記憶部208に格納する。検証部206は、具体的には、S503における処理と同様に、サブセット内の画像を小領域に分割し、画像の各小領域から画像特徴を抽出し、センサ情報が含まれる場合には、センサ情報から小領域に対応するセンサ情報特徴量を抽出する。そして、検証部206は、サブセット識別器記憶部205に格納されている各サブセットに対応したサブセット識別器を用いて、小領域の領域カテゴリを識別する。検証部206は、各サブセット識別器による識別結果と小領域に対応する領域カテゴリのGTとから、サブセット識別器毎の汎化精度を得る。汎化精度とは、検証データに対する各サブセット識別器の正解率である。
なお、検証部206は、識別結果から、汎化精度にかえて、学習データに対する精度である経験精度を用いてもよい。この場合には、検証部206は、S504において、学習データに対し識別を行い、経験精度を取得する。
次に、S505において、信頼度特定部207は、S504において決定された汎化精度に基づいて、サブセット識別器の信頼度を決定する。そして、信頼度特定部207は、信頼度を第2学習データ記憶部208及び信頼度記憶部211に格納する。本実施形態においては、信頼度特定部207は、(式1)により、信頼度Atを算出する。なお、(式1)において、Rtは汎化精度、Tはサブセット数、添え字iは、サブセットのID(t=1,2,・・・T)である。
Figure 2018055195
なお、本実施形態においては、領域判別器の精度を、汎化誤差からのみ取得するがこれに限定されるものではない。前述のとおり、経験精度を併用してもよいし、その他学習データ数、特徴量次元数、サポートベクターマシンではサポートベクトル数等から信頼度を得てもよい。
k−分割交差検証法の適用により、S503〜S505の処理がK回実施され、検証用データに対する領域カテゴリGT、識別結果及び信頼度が第2学習データ記憶部208に格納される。なお、識別結果は、領域カテゴリを指示するバイナリデータでもよいが、サポートベクターマシンにおけるサポートベクトルからのマージンで換算される確率値やロジスティック回帰の出力等、領域カテゴリ毎の尤度を表す連続値としてもよい。その他、各サブセット識別器の検証データそのものを第2学習データ記憶部208に格納し、後段の統合識別器の学習では、検証データを用いてもよい。
S503〜S505の処理がK回実施された後、CPU101は、処理をS506へ進める。S506において、第2学習部209は、統合学習器の学習を行う。統合識別器は、各サブセット識別器による識別結果を統合し、最終的な識別結果を出力する。学習の教師値には、各小領域に対応する領域カテゴリGTを用い、特徴量には、前述の通り、各サブセット識別器の識別結果と信頼度を用いることとする。なお、他の例としては、特徴量として、サブセット識別器の学習において用いた画像特徴量やセンサ情報特徴量を用いてもよい。
本実施形態のようにk−分割交差検証法でK回評価された場合、サブセット識別器の信頼度はK回それぞれ別の値を取ることが多い。ただし、各サブセットを学習データと検証データに2分割だけして、学習と検証を1度だけ行う場合は、信頼度は常に一定となり特徴量とならない。このような場合には、第2学習部209は、サブセット識別器の連続値の尤度に対して信頼度を掛け、それを特徴量とすればよい。
以上のように、学習装置100は、画像識別の対象となるデータセットに含まれる画像とセンサ情報に対し、画像とセンサ情報の組み合わせの異なる複数のサブセットを作成する。そして、学習装置100は、サブセットに対応した複数のサブセット識別器と、これらの識別結果を統合する統合識別器とを学習する。このように、本実施形態に係る学習装置100は、学習データセットのデータを効率良く活用し、識別器を学習することができる。
次に、学習装置100により得られた識別器を用いた画像識別を行う画像識別装置について説明する。本実施形態に係る画像識別装置は、画像識別を行い、意味的領域分割を行うものとする。画像識別装置は、例えば図3(a)に示すような画像に対し、図3(b)に示すように画素単位で領域カテゴリを出力する。図7は、画像識別装置700の機能構成を示す図である。画像識別装置700は、サブセット識別器記憶部701と、信頼度記憶部702と、統合識別器記憶部703と、受付部704と、第1識別部705と、第2識別部706と、を有している。
サブセット識別器記憶部701、信頼度記憶部702及び統合識別器記憶部703には、それぞれ学習装置100により得られたサブセット識別器、各サブセット識別器の信頼度及び統合識別器が予め記憶されている。なお、学習時にk−分割交差検証法を適用する場合、複数のサブセット識別器それぞれに対し通常K個の異なる信頼度が得られるが、信頼度記憶部702には、これらの平均値や中央値が、サブセット識別器の信頼度として記憶されているものとする。なお、サブセット識別器の信頼度は、このように、サブセット識別器に対して得られる複数の信頼度から定まる値であればよく、実施形態に限定されるものではない。
受付部704は、画像識別の対象となる対象画像を含む対象データセットを受け付ける。なお、対象データセットは、外部装置から入力されてもよく、また、画像識別装置700のHDD104等から読み出されてもよい。図4に示す例においては、受付部704は、カメラBから対象データセットを受信する。第1識別部705は、サブセット識別器記憶部701に格納されている複数のサブセット識別器を用いて、対象データセットの対応する特徴量から、複数のサブセット識別器それぞれの識別結果を得る。第2識別部706は、統合識別器記憶部703に格納されている統合識別器を用いて、第1識別部705の識別結果と、信頼度記憶部702に格納されている信頼度と、に基づき、サブセット識別器の識別器を統合し、領域カテゴリの最終的な識別結果を得る。なお、画像識別装置700のハードウェア構成は、図1を参照しつつ説明した学習装置100のハードウェア構成と同様である。
図8は、画像識別装置700による画像識別処理を示すフローチャートである。S801において、受付部704は、対象データセットを受け付ける(受付処理)。本実施形態においては、受付部704は、1フレームの画像と、これに対応したセンサ情報を受け付けることとする。ただし、画像識別処理の対象となる画像が動画であるような場合には、受付部704は、動画及び動画の各フレームに対応した時系列のセンサ情報を受け付けてもよい。この場合には、S802以降の処理においては、1フレーム分の画像とこれに対応したセンサ情報を処理対象として、フレーム単位で画像識別処理を行えばよい。
次に、S802において、第1識別部705は、サブセット識別器記憶部701に格納されている複数のサブセット識別器を用いて、対象データセットに対する識別結果を得る。例えば、第1識別部705は、図9(a)示す対象画像900を図9(b)に示すような小領域901に分割する。そして、第1識別部705は、小領域単位で、サブセットに対応した画像特徴量及びセンサ情報特徴量に基づいて、領域カテゴリを識別する。本実施形態においては、第1識別部705は、サブセット識別器C1に対し、対象データセットに含まれる対象画像の画像特徴量を入力し、識別結果を得る。さらに、第1識別部705は、サブセット識別器C2に対し、対象データセットに含まれる画像の画像特徴量と、センサ情報aのセンサ情報特徴量を入力し、識別結果を得る。さらに、第1識別部705は、サブセット識別器C3に対し、対象データセットに含まれる画像の画像特徴量と、センサ情報aのセンサ情報特徴量と、センサ情報bのセンサ情報特徴量を入力し、識別結果を得る。
なお、識別結果は、統合識別器に合わせ、領域カテゴリを指示するバイナリ値とするか、領域カテゴリ毎の尤度とするかが予め設定されているものとし、本実施形態では、領域カテゴリ毎の尤度とする。領域カテゴリ数を4とした場合、領域判別器C1、C2、C3のカテゴリ毎の尤度L1、L2、L3は、(式2)により得られる。
Figure 2018055195
ここで、
Figure 2018055195
は、t番目のサブセット識別器のi番目のカテゴリの尤度であり、添え字tはサブセットのID、iはカテゴリのIDを表している。
次に、S803において、第2識別部706は、統合識別器記憶部703に格納されている統合識別器を用いて、第1識別部705の識別結果と、信頼度記憶部702に格納されている信頼度と、に基づき、サブセット識別器の識別結果を統合する。これにより、各小領域に対する領域カテゴリの最終的な識別結果が得られる。
サブセット識別器C1、C2、C3の信頼度がそれぞれA1、A2、A3である場合、統合識別器に入力される特徴量fは、(式3)に示すものとなる。
Figure 2018055195
なお、統合識別器に入力される特徴量としては、各サブセット識別器の識別結果と信頼度の他、各サブセット識別器の入力として用いた画像特徴量やセンサ情報特徴量を用いてもよい。その場合、学習装置100において、これに合わせた統合識別器を学習しておき、統合識別器記憶部210には、これに合わせた統合識別器を格納しておくこととする。
以上のように、第1の実施形態に係る画像識別装置700は、対象データセットに含まれる画像とセンサ情報の組み合わせの異なる複数のサブセットそれぞれに対応した複数のサブセット識別器と統合識別器による画像識別を行う。これにより、センサ情報と画像とに基づいて、精度よく画像を識別することができる。
なお、本実施形態においては、学習装置100と画像識別装置700は、それぞれ独立した装置であるものとして説明したが、これらは一体に設けられていてもよい。
(第2の実施形態)
第2の実施形態に係る学習装置及び画像識別装置は、さらに画像の特徴量を用いて、識別器の学習、画像識別を行う。図10は、第2の実施形態に係る学習装置1000の機能構成を示す図である。学習装置1000は、第1の実施形態に係る学習装置1000の機能構成に加えて、特徴抽出部1001と、特徴記憶部1002と、類似度算出部1003と、類似度記憶部1004と、を有している。特徴抽出部1001は、学習データセットに含まれる画像の特徴量であるグローバル特徴を抽出し、抽出したグローバル特徴を特徴記憶部1002に格納する。特徴抽出部1001は、交差検証の検証用画像と各領域識別器の学習に用いた画像それぞれのグローバル特徴の類似度を算出し、類似度記憶部1004に格納する。
ここで、グローバル特徴とは、画像全体から抽出される特徴量である。グローバル特徴としては、BoW特徴が挙げられる。BoW特徴については、以下の文献を参照することができる。

G.Csurka,C.Dance,L.Fan,J.Willamowski,C.Bray,"Visual categorization with bags of keypoints",ECCV SLCV Workshop,2004
また、グローバル特徴としては、Spatial Pyramid Matching Kernelが挙げられる。Spatial Pyramid Matching Kernelについては、以下の文献を参照することができる。

S.Lazebnik,C.Schmid and .Ponce,"Beyond Bags of Features,Spatial Pyramid Matching for Recognizing,Neural Scene Categories",CVPR2006
また、グローバル特徴としては、GIST特徴を参照することができる。GIST特徴については、以下の文献を参照することができる。

A.Oliva and A.Torralba,"Modeling the shape of the scene:a holistic representation of the spatial envelope",International Journal of Computer Vision,2001
また、他の例としては、グローバル特徴としては、画像内のRGB値をヒストグラム化した特徴量やブロック状に分割し各ブロックのRGB値をヒストグラム化した特徴量等であってもよい。
図11は、第2の実施形態に係る学習装置1000による学習処理を示すフローチャートである。図11に示す処理のうち、図5を参照しつつ説明した第1の実施形態に係る各処理と同一の処理には同一の番号を付し、説明を省略する。CPU101は、S502の処理の後、処理をS1101へ進める。S1101において、特徴抽出部1001は、すべての学習画像及び検証画像からグローバル特徴を抽出し、グローバル特徴を特徴記憶部1002に格納する。なお、グローバル特徴を抽出する処理は、S505の処理の前に行われていればよく、その処理タイミングは、実施形態に限定されるものではない。CPU101は、S1101の処理の後、処理をS503へ進める。
また、CPU101は、S505の処理の後、処理をS1102へ進める。S1102において、類似度算出部1003は、特徴記憶部1002に格納されているグローバル特徴に基づいて、K分割交差検証の各ステップにおける検証画像のグローバル特徴と全学習画像のグローバル特徴の間で類似度を算出する。検証画像についてk最近傍画像からサブセット毎に累積類似度を算出する。類似度算出部1003は、さらに、K分割交差検証法で学習画像に分割された画像に対して、再度K分割交差検証法を適用することで、学習用の全画像のサブセット毎の累積類似度を得る。
そして、類似度算出部1003は、サブセットに含まれるすべての学習画像の累積類似度の平均で、検証画像に関する累積類似度を割ることにより、サブセット識別器に乗算すべき重み値を算出する。重み値は、統合識別器の学習に用いられるため、類似度算出部1003は、重み値を第2学習データ記憶部208に格納する。類似度算出部1003はまた、検証画像の累積類似度を類似度記憶部1004に格納する。K分割交差検証法における前ステップが行われることにより、第1学習データ記憶部201の学習データセットに含まれるすべての画像に関し、サブセット毎の累積類似度が得られる。
S503〜S505、S1102の処理がK回実施された後、CPU101は、処理をS1103へ進める。S1103において、第2学習部209は、サブセット識別器の識別結果に対し、S1102において得られた重み値を乗じた値と、サブセット識別器の信頼度を統合識別器の特徴量として用いる。なお、これ以外の処理は、図5のS506の処理と同様である。
なお、他の例としては、第2学習部209は、重みを乗算するのにかえて、累積類似度を新たな特徴次元として、統合識別器の特徴量とすることにより、統合識別器を学習してもよい。
以上のように、学習装置1000は、サブセット内の画像の類似度を加味した識別器を学習することができる。
次に、第2の実施形態に係る画像識別装置について説明する。図12は、第2の実施形態に係る画像識別装置1200の機能構成を示す図である。画像識別装置1200は、第1の実施形態に係る画像識別装置700の機能構成に加えて、特徴記憶部1201と、類似度記憶部1202と、特徴抽出部1203と、類似度算出部1204と、を有している。
特徴記憶部1201には、学習装置1000により得られた、学習データセットに含まれる画像のグローバル特徴が予め記憶されている。類似度記憶部1202には、学習装置1000により得られたサブセット毎の累積類似度の平均値(平均累積類似度)が予め記憶されている。特徴抽出部1203は、対象画像からグローバル特徴を抽出する。類似度算出部1204は、対象画像と、各サブセットの画像の類似度を算出する。
図13は、第2の実施形態に係る画像識別装置1200による画像識別処理を示すフローチャートである。図13に示す処理のうち、図8を参照しつつ説明した、第1の実施形態に係る各処理と同一の処理には同一の番号を付し、説明を省略する。CPU101は、S802の処理の後、処理をS1301へ進める。S1301において、特徴抽出部1203は、対象画像からグローバル特徴を抽出する。次に、S1302において、類似度算出部1204は、対象画像のグローバル特徴と、特徴記憶部1201に記憶されている各サブセットの学習画像のグローバル特徴との類似度を算出する。さらに、類似度算出部1204は、算出した類似度に基づいて、対象画像に対する各サブセット識別器の重み値を算出する。
ここで、まず類似度の算出方法について説明する。グローバル特徴が次元数Dを持つベクトルであり、任意の2つの画像のグローバル特徴がそれぞれx1、x2と表現される場合、両画像間の類似度はカーネル関数Kを用いて、K(x1,x2)と表現される。類似度算出部1204は、(式4)に示す内積により類似度を算出する。なお、<x,y>は、ベクトルxとyの内積を表す。また、他の例としては(式5)に示すガウスカーネルを用いても類似度を算出してもよい。
Figure 2018055195
次に、重み値の算出方法について説明する。類似度算出部1204は、学習データセットの画像と、対象画像の類似度を算出した後、サブセット毎にk最近傍画像を取得する。例えば、図6に示すサブセットS1、S2、S3に対応するサブセット識別器C1、C2、C3が設定され、さらにk=5と設定されているとする。また、図14に示すように、同一画像を含むサブセットが複数存在する。類似度算出部1204は、各サブセットに含まれる画像の対象画像1400に対する類似度を加算することにより累積類似度を算出する。例えば、図14に示す例において、サブセットS1〜S3の累積類似度は、それぞれ(式6)〜(式8)により3.34、3.02、2.8となる。

0.8+0.7+0.65+0.6+0.59=3.34 …(式6)
0.7+0.65+0.6+0.55+0.52=3.02 …(式7)
0.7+0.6+0.52+0.5+0.48=2.8 …(式8)
次に、類似度算出部1204は、上記処理により得られた各サブセットの対象画像に対する累積類似度を類似度記憶部1202に格納されている各サブセットの平均累積類似度で割ることにより、重み値を算出する。例えば、サブセットS1、S2、S3それぞれの平均累積類似度がそれぞれ3.2、3.1、2.5であるとする。この場合、サブセット識別器C1の重み値w1は、(式9)より、1.04となる。同様に、サブセット識別器C1、C3の重み値w2、w3は、それぞれ(式10)、(式11)より、0.97、1.12となる。

1=3.34/3.2=1.04 …(式9)
2=3.02/3.1=0.97 …(式10)
3=2.8/2.5=1.12 …(式11)
図13に戻り、S1302の処理の後、S1303において、第2識別部706は、各サブセット識別器の識別器を統合し、最終的な識別結果を得る。なお、このとき、第2識別部706は、信頼度記憶部702に格納されている信頼度と、統合識別器記憶部703に格納されている統合識別器と、S1302において算出された重み値と、を参照する。例えば、サブセット識別器C1、C2、C3の尤度をそれぞれL1、L2、L3とし、信頼度をそれぞれA1、A2、A3、重み値をそれぞれw1、w2、w3とする。この場合、統合識別器に入力される特徴量fは、(式12)で表される。

f={W11,A1,W22,A2,W33,A3} …(式12)
なお、他の例としては、第2識別部706は、重み値を乗算するのに替えて、S1302において算出した累積類似度を、統合識別器に入力する特徴量としてもよい。この場合、特徴量fは、(式13)で表される。

f={v1,L1,A1,v2,L2,A2,v3,L3,A3} …(式13)

以上のように、画像識別装置1200は、学習データセットに識別対象となる対象画像に類似する画像があった場合に、類似する画像で学習したサブセット識別器による識別結果を優先するような最終的な識別結果を得ることができる。
なお、第2の実施形態に係る学習装置及び画像識別装置のこれ以外の構成及び処理は、第1の実施形態に係る学習装置及び画像識別装置の構成及び処理と同様である。
(第3の実施形態)
第3の実施形態に係る学習装置及び画像識別装置は、特定の1カテゴリの領域を検出するような識別器の学習及び画像識別を行う。図15は、第3の実施形態に係る学習装置1500の機能構成を示す図である。学習装置1500は、第1の実施形態に係る学習装置100の第2学習データ記憶部208、第2学習部209及び統合識別器記憶部210を有さない。また、第1学習部204、検証部206及び信頼度特定部207の処理が異なる。各部の処理については、図16を参照しつつ後述する。
図16は、第3の実施形態に係る学習装置1500による、学習処理を示すフローチャートである。CPU101は、S502の処理の後、処理をS1601へ進める。S1601において、第1学習部204は、小領域の特徴量を抽出する。本処理は、S503における小領域の特徴量を抽出する処理と同様である。第1学習部204は、その後検出すべき特定カテゴリの領域に「+1」、それ以外の領域に「−1」と教師ラベルを与え、サブセット識別器の学習を行う。そして、第1学習部204は、得られたサブセット識別器をサブセット識別器記憶部205に格納する。
次に、S1602において、検証部206は、検証データに対するエラー率を求める。ここで、エラー率は、「+1」と「−1」の2クラスの識別結果に対する汎化誤差である。次に、S1603において、信頼度特定部207は、エラー率に基づいて、サブセット識別器の信頼度を決定し、信頼度を信頼度記憶部211に格納する。信頼度特定部207は、(式14)により、エラー率eから信頼度Rを得る。
Figure 2018055195
なお、他の例としては、汎化誤差に替えて、経験誤差をエラー率として用いることとしてもよい。また、前述の通り、学習データ数、特徴次元数、サポートベクターマシンではサポートベクター数等から信頼度を得てもよい。
図17は、第3の実施形態に係る画像識別装置1700の機能構成を示す図である。画像識別装置1700は、第1の実施形態に係る画像識別装置700の統合識別器記憶部703及び第2識別部706を有さず、統合部1701を有している。また、第1識別部705の処理が異なる。第1識別部705及び統合部1701の処理については、図18を参照しつつ後述する。
図18は、第3の実施形態に係る画像識別装置1700による、画像識別処理を示すフローチャートである。CPU101は、S801の処理の後、処理をS1801へ進める。S1801において、第1識別部705は、対象画像を小領域に分割する。そして、第1識別部705は、特定のカテゴリかそれ以外かを示す「+1」、「−1」の2値で、小領域のカテゴリを識別する。次に、S1802において、統合部1701は、各サブセット識別器による識別結果に対し、信頼度記憶部702に格納されている信頼度を乗じた上で、信頼度の合計を最終的な判別結果として得る。
例えば、3つのサブセット識別器C1、C2、C3に対し、S1801において得られた識別結果がそれぞれL1、L2、L3であるとする。ここで、
Figure 2018055195
とする。また、各サブセット識別器の信頼度がそれぞれA1、A2、A3とする。この場合、最終的な統合結果(識別結果)Iは、(式15)により得られる。ただし、sgnは、符号関数であり、Iが+1であれば、対応する小領域のカテゴリは、特定カテゴリであり、−1であれば、特定カテゴリ以外である。

I=sgn(A11+A22+A33) …(式15)

なお、第3の実施形態に係る学習装置及び画像識別装置のこれ以外の構成及び処理は、他の実施形態に係る学習装置及び画像識別装置の構成及び処理と同様である。
第1の実施形態、第2の実施形態において説明したように、統合識別器を用いる場合には、k−分割交差検証法を用い、後段の統合識別器の学習を行う必要があった。ここで、統合識別器の学習に用いるデータ数は、識別時に用いるカメラと同じセンサ情報を持つ画像の数に依存する。このため、統合識別器の学習用データ数が入力特徴量の次元に対し少な過ぎる場合には、適切な学習を行えない場合がある。これに対し、第3の実施形態においては、統合識別器を用いないこととする。これにより、学習用データが少ない場合においても、適切な識別器の学習及び画像識別を行うことができる。
なお、他の例としては、第3の実施形態の学習装置及び画像識別装置は、統合識別器を用いることにより、同等の処理を行ってもよい。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 学習装置
202 サブセット作成部
204 第1学習部
209 第2学習部
700 画像識別装置
705 第1識別部
706 第2識別部

Claims (18)

  1. 画像と、前記画像に対応する、少なくとも1種類以上のセンサ情報とに基づく画像識別に用いる識別器を学習する学習装置であって、
    前記画像と、前記センサ情報とを含む、学習用のデータセットを取得する取得手段と、
    前記学習用のデータセットから、少なくとも前記画像を含み、前記画像と前記センサ情報の組み合わせの異なる、複数のサブセットを作成する作成手段と、
    前記複数のサブセットそれぞれに基づいて、複数のサブセットそれぞれに対応した複数の第1の識別器を学習する第1の学習手段と
    を有することを特徴とする学習装置。
  2. 前記複数の第1の識別器それぞれの識別結果を統合する第2の識別器を学習する第2の学習手段をさらに有することを特徴とする請求項1に記載の学習装置。
  3. 前記サブセットを、学習データと検証データに分割する分割手段をさらに有し、
    前記第1の学習手段は、前記サブセットそれぞれに含まれる前記学習データを用いて、前記サブセットそれぞれに対応する、複数の第1の識別器を学習することを特徴とする請求項1又は2に記載の学習装置。
  4. 前記サブセットを、学習データと検証データに分割する分割手段と、
    前記複数の第1の識別器それぞれを用いて、対応するサブセットの前記検証データの判別結果から前記複数の第1の識別器それぞれの信頼度を決定する決定手段と
    をさらに有し、
    前記第2の学習手段は、さらに前記信頼度に基づいて、前記第2の識別器を学習することを特徴とする請求項2に記載の学習装置。
  5. 前記サブセットに含まれる画像の特徴量を抽出する抽出手段と、
    サブセット毎の前記特徴量に基づいて、前記複数の第1の識別器それぞれに対する重み値を決定する決定手段と
    をさらに有し、
    前記第2の学習手段は、さらに前記重み値に基づいて、前記第2の識別器を学習することを特徴とする請求項4に記載の学習装置。
  6. 前記作成手段は、前記画像のみを含む第1のサブセットと、前記画像と少なくとも1種類以上のセンサ情報とを含む第2のサブセットと、を作成することを特徴とする請求項1乃至5の何れか1項に記載の学習装置。
  7. 前記センサ情報は、第1のセンサに対応する第1のセンサ情報と、前記第1のセンサと種類の異なる第2のセンサに対応する第2のセンサ情報とを含み、
    前記作成手段は、前記画像と、前記第1のセンサ情報とを含む第1のサブセットと、前記画像と前記第2のセンサ情報とを含む第2のサブセットと、前記画像と、前記第1のセンサ情報と前記第2のセンサ情報とを含む第3のサブセットのうち少なくとも2つのサブセットを作成することを特徴とする請求項1乃至6の何れか1項に記載の学習装置。
  8. 前記センサ情報は、前記画像と共に撮像手段により得られる情報であることを特徴とする請求項1乃至7の何れか1項に記載の学習装置。
  9. 前記センサ情報は、前記画像の撮像手段による撮像タイミングに対応するタイミングにおいてセンサ手段により得られる情報であることを特徴とする請求項1乃至8の何れか1項に記載の学習装置。
  10. 画像と、前記画像に対応する、少なくとも1種類以上のセンサ情報とに基づく画像識別に用いる識別器を学習する学習装置であって、
    前記画像と、前記センサ情報とを含む、学習用のデータセットを取得する取得手段と、
    前記学習用のデータセットから、少なくとも前記画像を含み、前記画像と前記センサ情報の組み合わせの異なる、複数のサブセットを作成する作成手段と、
    前記複数のサブセットに基づいて、前記識別器を学習する学習手段と
    を有することを特徴とする学習装置。
  11. 識別器を用いた画像識別を行う画像識別装置であって、
    前記画像識別の対象となる対象画像と、前記対象画像に対応するセンサ情報とを受け付ける受付手段と、
    少なくとも前記画像を含み、前記画像と、前記センサ情報の組み合わせの異なる複数のサブセットに対応した複数の第1の識別器を用いて、前記対象画像に対する識別結果を得る第1の識別手段と
    を有することを特徴とする画像識別装置。
  12. 前記第1の識別手段による識別結果を統合する第2の識別器を用いて、最終的な識別結果を得る第2の識別手段をさらに有することを特徴とする請求項11に記載の画像識別装置。
  13. 前記第2の識別手段は、さらに複数の第1の識別器それぞれの信頼度に基づいて、前記最終的な識別結果を得ることを特徴とする請求項12に記載の画像識別装置。
  14. 前記第2の識別手段は、さらに前記対象画像の特徴量に基づいて、前記最終的な識別結果を得ることを特徴とする請求項12に記載の画像識別装置。
  15. 画像と、前記画像に対応する、少なくとも1種類以上のセンサ情報とに基づく画像識別に用いる識別器を学習する学習装置が実行する学習方法であって、
    前記画像と、前記センサ情報とを含む、学習用のデータセットを取得する取得ステップと、
    前記学習用のデータセットから、少なくとも前記画像を含み、前記画像と前記センサ情報の組み合わせの異なる、複数のサブセットを作成する作成ステップと、
    前記複数のサブセットそれぞれに基づいて、複数のサブセットそれぞれに対応した複数の第1の識別器を学習する第1の学習ステップと
    を含むことを特徴とする学習方法。
  16. 画像識別装置が実行する画像識別方法であって、
    前記画像識別の対象となる対象画像と、前記対象画像に対応するセンサ情報とを受け付ける受付ステップと、
    少なくとも前記画像を含み、前記画像と、前記センサ情報の組み合わせの異なる複数のサブセットに対応した複数の第1の識別器を用いて、前記対象画像に対する識別結果を得る第1の識別ステップと
    を含むことを特徴とする画像識別方法。
  17. 画像と、前記画像に対応する、少なくとも1種類以上のセンサ情報とに基づく画像識別に用いる識別器を学習する学習装置のコンピュータを、
    前記画像と、前記センサ情報とを含む、学習用のデータセットを取得する取得手段と、
    前記学習用のデータセットから、少なくとも前記画像を含み、前記画像と前記センサ情報の組み合わせの異なる、複数のサブセットを作成する作成手段と、
    前記複数のサブセットそれぞれに基づいて、複数のサブセットそれぞれに対応した複数の第1の識別器を学習する第1の学習手段と
    して機能させるためのプログラム。
  18. コンピュータを、
    画像識別の対象となる対象画像と、前記対象画像に対応するセンサ情報とを受け付ける受付手段と、
    少なくとも前記画像を含み、前記画像と、前記センサ情報の組み合わせの異なる複数のサブセットに対応した複数の第1の識別器を用いて、前記対象画像に対する識別結果を得る第1の識別手段と
    して機能させるためのプログラム。
JP2016187442A 2016-09-26 2016-09-26 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム Active JP6866095B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016187442A JP6866095B2 (ja) 2016-09-26 2016-09-26 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム
US15/683,103 US10706326B2 (en) 2016-09-26 2017-08-22 Learning apparatus, image identification apparatus, learning method, image identification method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016187442A JP6866095B2 (ja) 2016-09-26 2016-09-26 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018055195A true JP2018055195A (ja) 2018-04-05
JP6866095B2 JP6866095B2 (ja) 2021-04-28

Family

ID=61686529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016187442A Active JP6866095B2 (ja) 2016-09-26 2016-09-26 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム

Country Status (2)

Country Link
US (1) US10706326B2 (ja)
JP (1) JP6866095B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025810A (ko) * 2018-08-31 2020-03-10 (주)뉴빌리티 동영상 콘텐츠 인식 방법 및 장치, 그리고 이를 포함하는 영상 처리 시스템
JP2021085833A (ja) * 2019-11-29 2021-06-03 富士通株式会社 類別プログラム、類別装置及び類別方法
JP2022118706A (ja) * 2021-02-02 2022-08-15 ザイメド カンパニー リミテッド 実時間生体イメージ認識方法及び装置
US11935277B2 (en) 2019-03-14 2024-03-19 Nec Corporation Generation method, training data generation device and program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163197B2 (en) * 2016-12-02 2018-12-25 Tata Consultancy Services Limited System and method for layer-wise training of deep neural networks
EP3913548A4 (en) * 2019-01-15 2022-03-09 Sony Group Corporation SERVER AND LEARNING SYSTEM
US11416707B2 (en) * 2019-12-04 2022-08-16 Panasonic Intellectual Property Corporation Of America Information processing method, information processing system, and information processing apparatus
WO2021172633A1 (ko) * 2020-02-28 2021-09-02 (주)뉴빌리티 동영상 콘텐츠 인식 방법 및 장치, 그리고 이를 포함하는 영상 처리 시스템
CN111666957B (zh) * 2020-07-17 2023-04-25 湖南华威金安企业管理有限公司 图像真实性的识别方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026326A (ja) * 2008-09-26 2009-02-05 Sony Corp 集団学習装置及び方法
JP2015082245A (ja) * 2013-10-23 2015-04-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016099734A (ja) * 2014-11-19 2016-05-30 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135287A (ja) * 2003-10-31 2005-05-26 National Agriculture & Bio-Oriented Research Organization 予測装置、予測方法および予測プログラム
US8458520B2 (en) * 2008-12-01 2013-06-04 Electronics And Telecommunications Research Institute Apparatus and method for verifying training data using machine learning
CN101833749B (zh) 2009-03-12 2012-03-28 株式会社理光 检测图像中阴影的装置和方法
WO2016094330A2 (en) * 2014-12-08 2016-06-16 20/20 Genesystems, Inc Methods and machine learning systems for predicting the liklihood or risk of having cancer
US9767380B2 (en) * 2015-04-13 2017-09-19 Varian Medical Systems International Ag. Image comparison tool tolerant to deformable image matching
JP6639113B2 (ja) * 2015-06-05 2020-02-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US10706063B2 (en) * 2015-10-28 2020-07-07 Qomplx, Inc. Automated scalable contextual data collection and extraction system
JP6750854B2 (ja) * 2016-05-25 2020-09-02 キヤノン株式会社 情報処理装置および情報処理方法
JP7043191B2 (ja) * 2017-06-30 2022-03-29 キヤノン株式会社 画像認識装置、学習装置、画像認識方法、学習方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026326A (ja) * 2008-09-26 2009-02-05 Sony Corp 集団学習装置及び方法
JP2015082245A (ja) * 2013-10-23 2015-04-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016099734A (ja) * 2014-11-19 2016-05-30 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025810A (ko) * 2018-08-31 2020-03-10 (주)뉴빌리티 동영상 콘텐츠 인식 방법 및 장치, 그리고 이를 포함하는 영상 처리 시스템
KR102089000B1 (ko) * 2018-08-31 2020-03-13 (주)뉴빌리티 동영상 콘텐츠 인식 방법 및 장치, 그리고 이를 포함하는 영상 처리 시스템
US11935277B2 (en) 2019-03-14 2024-03-19 Nec Corporation Generation method, training data generation device and program
JP2021085833A (ja) * 2019-11-29 2021-06-03 富士通株式会社 類別プログラム、類別装置及び類別方法
JP7401747B2 (ja) 2019-11-29 2023-12-20 富士通株式会社 類別プログラム、類別装置及び類別方法
JP2022118706A (ja) * 2021-02-02 2022-08-15 ザイメド カンパニー リミテッド 実時間生体イメージ認識方法及び装置
JP7297334B2 (ja) 2021-02-02 2023-06-26 ザイメド カンパニー リミテッド 実時間生体イメージ認識方法及び装置

Also Published As

Publication number Publication date
US10706326B2 (en) 2020-07-07
JP6866095B2 (ja) 2021-04-28
US20180089537A1 (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6866095B2 (ja) 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム
US11256955B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN108154082B (zh) 航拍影像自动物体侦测的方法及系统
Grabner et al. On-line boosting-based car detection from aerial images
US9824294B2 (en) Saliency information acquisition device and saliency information acquisition method
JP6332937B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6448325B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP2879080B1 (en) Image processing device and method, and computer readable medium
Hu et al. Automatic recognition of cloud images by using visual saliency features
WO2013088175A1 (en) Image processing method
JP6702716B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
JP2017033197A (ja) 変化領域検出装置、方法、及びプログラム
Hichri et al. Interactive segmentation for change detection in multispectral remote-sensing images
Samadzadegan et al. A multiple classifier system for classification of LIDAR remote sensing data using multi-class SVM
Huerta et al. Combining where and what in change detection for unsupervised foreground learning in surveillance
CN111274964A (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
WO2017129115A1 (en) Orientation-based subject-matching in images
US20200242410A1 (en) System for Training Descriptor with Active Sample Selection
US20220414393A1 (en) Methods and Systems for Generating Composite Image Descriptors
JP6855175B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2016081472A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210407

R151 Written notification of patent or utility model registration

Ref document number: 6866095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151