JP6671028B2 - 学習方法 - Google Patents

学習方法 Download PDF

Info

Publication number
JP6671028B2
JP6671028B2 JP2016034784A JP2016034784A JP6671028B2 JP 6671028 B2 JP6671028 B2 JP 6671028B2 JP 2016034784 A JP2016034784 A JP 2016034784A JP 2016034784 A JP2016034784 A JP 2016034784A JP 6671028 B2 JP6671028 B2 JP 6671028B2
Authority
JP
Japan
Prior art keywords
neural network
coarse
learning
classifier
classes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016034784A
Other languages
English (en)
Other versions
JP2017084320A (ja
Inventor
令子 羽川
令子 羽川
宗太郎 築澤
宗太郎 築澤
育規 石井
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2017084320A publication Critical patent/JP2017084320A/ja
Application granted granted Critical
Publication of JP6671028B2 publication Critical patent/JP6671028B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24317Piecewise classification, i.e. whereby each classification requires several discriminant rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/146Methods for optical code recognition the method including quality enhancement steps
    • G06K7/1482Methods for optical code recognition the method including quality enhancement steps using fuzzy logic or natural solvers, such as neural networks, genetic algorithms and simulated annealing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Toxicology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、学習方法およびプログラムに関し、特にニューラルネットワークで構成され、画像を分類するための分類器の学習方法およびそのプログラムに関する。
近年、画像中のどこに何が写っているかを認識するための技術である画像認識技術を用いて、多様な物体を、高速かつ高精度に認識することが求められている。例えば非特許文献1では、複数の畳み込みニューラルネットワーク分類器(以下、分類器と記載)を利用することで、高精度に画像認識を行うことができる画像認識技術が開示されている。
Z. Yan, V.Jagadeesh, D.DeCoste, W. Di and R.Piramuthu,"HD-CNN: Hierarchical Deep Convolutional Neural Network for Image Classification", Under review as a conference paper at ICLR 2015, URL: http://arxiv.org/pdf/1410.0736v2.pdf , Dec. 2014
しかしながら、上記従来技術は、粗クラス分類器の後に複数の詳細クラス分類器を接続する構成であることから、画像認識の処理速度が遅いという課題がある。また、上記従来技術では、粗クラス分類器で誤った分類された場合には分類結果の正解率が落ちてしまうという課題もある。
本開示は、上記課題を解決するためになされたもので、画像認識の精度および画像認識の処理速度を向上することができる分類器の学習方法およびプログラムを提供することを目的とする。
上記課題を解決するために、本開示の一形態に係る分類器の学習方法は、画像を分類するための分類器の学習方法であって、第1ニューラルネットワークで構成される粗クラス分類器に、それぞれの詳細クラスを示すラベルが付与された複数の画像である画像群を、複数の詳細クラスを包含する複数の粗クラスに分類させて当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる第1ステップと、前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層以外同一で当該最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器に、前記画像群を詳細クラスに分類させて当該詳細クラス毎の共通の特徴である第2特徴を学習させることで、前記分類器の学習を行う第2ステップとを含む。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示によれば、画像認識を高精度に行いつつ画像認識の処理速度を向上することができる分類器の学習方法等を実現できる。
図1は、実施の形態1の学習システムの構成の一例を示すブロック図である。 図2Aは、実施の形態1の学習システムが行う学習処理に用いる粗クラス分類器の構成を説明するための図である。 図2Bは、実施の形態1の学習システムが行う学習処理に用いる詳細クラス分類器の構成を説明するための図である。 図3Aは、図2Aに示す粗クラス分類器を構成する第1ニューラルネットワークの一例を示す図である。 図3Bは、図2Bに示す詳細クラス分類器を構成する第2ニューラルネットワークの一例を示す図である。 図4は、実施の形態1の分類器が認識処理を行う際の構成を説明するための図である。 図5は、実施の形態1における学習処理を示すフローチャートである。 図6Aは、実施の形態1における粗クラス学習の結果の一例を示す図である。 図6Bは、実施の形態1における詳細クラス学習の結果の一例を示す図である。 図7は、図5に示すステップS1の詳細処理の一例を示すフローチャートである。 図8は、図5に示すステップS2の詳細処理の一例を示すフローチャートである。 図9Aは、変形例1における学習システムの構成の一例を示すブロック図である。 図9Bは、図9Aに示す粗クラス作成部の詳細構成の一例を示すブロック図である。 図10Aは、変形例1における粗クラス学習の詳細処理の一例を示すフローチャートである。 図10Bは、図10Aに示すステップS10のおける詳細処理の一例を示すフローチャートである。 図11は、変形例2における第3ニューラルネットワークの一例を示す図である。 図12Aは、変形例2における粗クラス分類器を構成する第1ニューラルネットワークの一例を示す図である。 図12Bは、変形例2における詳細クラス分類器を構成する第2ニューラルネットワークの一例を示す図である。 図13は、実施の形態2における学習システムの構成の一例を示すブロック図である。 図14は、実施の形態2における学習システムが行う学習処理に用いる詳細クラス分類器の構成を説明するための図である。 図15は、実施の形態2における詳細クラス学習の詳細処理の一例を示すフローチャートである。 図16は、従来の分類器の構成および学習方法を説明するための図である。
(発明の基礎となった知見)
画像認識技術は、一般的に、1)画像から特徴量を抽出する抽出処理と、2)特徴量から物体を判別する判別処理の2段階に分かれる。例えば、抽出処理では、画像中の認識対象物体から、輝度の分布や輝度の差分(エッジ)など認識に利用する特徴量を抽出する。また、例えば判別処理では、抽出した特徴量から、BoostingやSVM(Support Vector Machine)などの統計的機械学習手法によって認識対象であるか否かを判別する。
従来、抽出処理に用いる特徴量抽出フィルタは、人の手によって設計されていた。近年、撮影環境の整備やインターネットを介した大量の学習データ収集が現実的になったこと、および、GPU等の大規模計算機環境のインフラが整ったことから、自動で特徴量抽出フィルタの設計を行う方式の検討が進められている。このような手法の1つがDeepLearningと呼ばれている。特に、画像認識の分野では、特徴量抽出フィルタを2次元画像に対する畳み込みフィルタ処理とみなした畳み込みニューラルネットワークが検討されている。この畳み込みニューラルネットワークは、DeepLearning技術の中でも画像認識と相性が良いという特徴がある。
非特許文献1では、Deep Learningを用いた分類器の構成および学習方法が開示されている。以下、図16を用いて、非特許文献1の分類器について説明する。図16は、従来の分類器の構成および学習方法を説明するための図である。
図16に示す分類器は、粗クラス分類器900と、詳細クラス分類器901,902,903とを備える。粗クラス分類器900は、犬や猫といった大まかな分類を行う分類器である。詳細クラス分類器901,902,903は、柴犬やコーギー、三毛猫などの細かな分類を行う分類器である。詳細クラス分類器901,902,903では、ある特定のクラスの分類に強くなるように学習をさせることで、上記のような細かな分類を行うことができるようになる。
このように、図16に示す分類器では、犬や猫といった大まかな分類を行う粗クラス分類器900の後に、柴犬やコーギー、三毛猫などの細かな分類を行う詳細クラス分類器901,902,903が接続される。図16に示す分類器に例えば入力画像としてコーギー(犬)の画像を与えた場合、粗クラス分類器900で犬と判別された後、犬クラスの分類に強い例えば詳細クラス分類器901へ振り分けられ、詳細クラス分類器901でコーギーと判別される。
以上のように、非特許文献1では、大まかな分類を行う分類器の後に、細かな分類を行う分類器を接続する構成を備える。これにより、粗クラス分類器、詳細クラス分類器それぞれが解く問題を簡易化し、それらを組み合わせることで、高精度に画像認識を行うことができ、より高精度に画像を分類することができる。
しかしながら、非特許文献1の分類器は、粗クラス分類器の後に複数の詳細クラス分類器を接続する構成であり、ニューラルネットワークのサイズ(ニューロン数や結合の数)が大きい。そのため、画像認識時にはより多くの計算処理が必要となり、画像認識の処理速度が遅くなるという課題が発生する。また、非特許文献1の分類器では、粗クラス分類器で分類を誤ると、誤った粗クラスの分類に対応する詳細クラス分類器でさらに細かな分類が行われてしまうため、分類結果の正解率が落ちてしまうという課題もある。
このような課題を解決するために、本開示の一形態に係る分類器の学習方法は、画像を分類するための分類器の学習方法であって、第1ニューラルネットワークで構成される粗クラス分類器に、それぞれの詳細クラスを示すラベルが付与された複数の画像である画像群を、複数の詳細クラスを包含する複数の粗クラスに分類させて当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる第1ステップと、前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層以外同一で当該最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器に、前記画像群を詳細クラスに分類させて当該詳細クラス毎の共通の特徴である第2特徴を学習させることで、前記分類器の学習を行う第2ステップとを含む。
これにより、ニューラルネットワーク構造のサイズを維持できるため、従来技術と比べて、画像認識(分類)の処理速度を低下させることなく画像認識(分類)を高精度に行うことができる。
また、例えば、前記第1ステップは、前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスを示すラベルの内容に基づき作成された前記粗クラスの数と同一数のニューロンで設計する第1設計ステップと、設計された前記第1ニューラルネットワークで構成された前記粗クラス分類器に前記画像群を取得させ、前記第1特徴を学習させる第1学習ステップとを含み、前記第2ステップでは、前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスの数と同一数のニューロンに変更することにより、前記第2ニューラルネットワークを設計する第2設計ステップと、設計された前記第2ニューラルネットワークで構成される前記詳細クラス分類器に前記画像群を取得させ、前記第2特徴を学習させることで、前記分類器の学習を行う第2学習ステップと、を含むとしてもよい。
また、例えば、前記第2設計ステップでは、前記第1学習ステップにおいて学習させた前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスの数と同一のニューロンに置き換えることにより、前記第2ニューラルネットワークを設計するとしてもよい。
また、例えば、前記詳細クラス分類器と前記粗クラス分類器とは第3ニューラルネットワークを使用して構成され、前記学習方法では、さらに、前記第1ステップの前に、前記第3ニューラルネットワークの最終層のニューロンを、前記粗クラスの数と前記詳細クラスの数とを加えた数と同一数以上のニューロンで設計する第3設計ステップを含み、前記第1設計ステップでは、前記第3ニューラルネットワークの最終層のニューロンのうち、前記粗クラスの数と同一数のニューロンを使用する前記第3ニューラルネットワークを前記第1ニューラルネットワークとして設計することで、前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスを示すラベルの内容に基づき作成された前記粗クラスの数と同一数のニューロンに設計し、前記第2設計ステップでは、前記第3ニューラルネットワークの最終層のニューロンのうち、前記第1ニューラルネットワークの最終層のニューロンと異なり、かつ、前記詳細クラスの数と同一数のニューロンを使用する前記第3ニューラルネットワークを前記第2ニューラルネットワークとして設計することで、前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスの数と同一数のニューロンに変更して、前記第2ニューラルネットワークとして設計するとしてもよい。
また、例えば、前記第2設計ステップでは、さらに、前記第2ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す前記第2ニューラルネットワークの最終層の重みをランダム値に設定するステップを含むとしてもよい。
また、例えば、前記第2設計ステップでは、さらに、前記第1学習ステップで学習した際に得た前記第1ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す前記第1ニューラルネットワークの最終層の第1重みを、前記複数の粗クラスおよび当該複数の粗クラスに包含される複数の詳細クラスの関係性に基づき案分した値を用いて、前記第2ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す前記第2ニューラルネットワークの最終層の第2重みを設定するステップを含むとしてもよい。
また、例えば、前記学習方法では、さらに、前記第2ステップにおいて前記第2特徴を学習させた前記詳細クラス分類器を前記分類器として保存するステップを含むとしてもよい。
また、例えば、前記第1ステップでは、さらに、前記複数の画像それぞれに付与された前記詳細クラスを示すラベルの内容に基づいて、前記複数の粗クラスを作成するステップを含むとしてもよい。
また、例えば、前記第1ステップでは、さらに、前記複数の画像それぞれの画像の類似度に基づき、前記複数の粗クラスを作成するステップを含むとしてもよい。
また、例えば、前記学習方法は、さらに、第3ニューラルネットワークで構成される第3粗クラス分類器に、前記画像群を、複数の詳細クラスを包含する複数の第3粗クラスに分類させて当該複数の第3粗クラス毎の共通の特徴である第3特徴を学習させる第3ステップを含み、前記第1ステップでは、前記第3ステップにおいて学習させた前記第3ニューラルネットワークの最終層以外同一で当該最終層のみが異なる前記第1ニューラルネットワークで構成される前記詳細クラス分類器に、前記画像群を、前記粗クラスに分類させて当該詳細クラス毎の前記第1特徴を学習させる学習ステップとを含み、前記複数の粗クラスはそれぞれ、複数の第3粗クラスを包含することで、当該複数の第3粗クラスに包含される複数の詳細クラスを包含するとしてもよい。
また、例えば、前記第1ステップおよび前記第2ステップのうちの少なくとも1つは、プロセッサーにより行われてもよい。
以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
以下では、図面を参照しながら、実施の形態1の分類器10の学習方法等の説明を行う。
[学習システム1の構成]
図1は、実施の形態1の学習システム1の構成の一例を示すブロック図である。図2Aは、実施の形態1の学習システム1が行う学習処理に用いる粗クラス分類器10aの構成を説明するための図である。図2Bは、実施の形態1の学習システム1が行う学習処理に用いる詳細クラス分類器10bの構成を説明するための図である。図3Aは、図2Aに示す粗クラス分類器10aを構成する第1ニューラルネットワークの一例を示す図である。図3Bは、図2Bに示す詳細クラス分類器10bを構成する第2ニューラルネットワークの一例を示す図である。
図1に示す学習システム1は、情報取得部2と、分類器設計部3と、分類器学習部4と、保存部5とを備え、画像を分類するための分類器10の学習を行うためのシステムである。
情報取得部2は、予め用意された複数の画像(画像群)のデータセットすなわち詳細クラスを示すラベルが付与された画像群を取得する。また、情報取得部2は、保存部5に保存されている粗クラス分類器10a、すなわち、保存部5に保存されている粗クラス分類器10aを構成する第1ニューラルネットワーク(構造や閾値、重み、結合状態などを示すパラメータ)を取得する。
分類器学習部4は、画像認識におけるcoarse to fineの考え方に基づき、図2Aに示す粗クラス分類器10aの学習処理(粗クラス学習)と、図2Bに示す詳細クラス分類器10bの学習処理(詳細クラス学習)とを行うことにより、分類器10の学習を行う。
より具体的には、分類器学習部4は、分類器設計部3で設計された第1ニューラルネットワークで構成された粗クラス分類器10aにそれぞれの詳細クラスを示すラベルが付与された画像群を取得させる。そして、分類器学習部4は、粗クラス分類器10aに、当該画像群を、複数の詳細クラスを包含する複数の粗クラスに分類させて当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる粗クラス学習を行う。なお、分類器学習部4は、粗クラス学習させた粗クラス分類器10a、すなわち、粗クラス分類器10aを構成する第1ニューラルネットワーク(構造や閾値、重み、結合状態などを示すパラメータ)を保存部5に保存してもよい。
また、分類器学習部4は、分類器設計部3で設計された、粗クラス学習された第1ニューラルネットワークの最終層以外同一で当該最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器10bに当該画像群を取得させる。そして、分類器学習部4は、当該画像群を詳細クラスに分類させて当該詳細クラス毎の共通の特徴である第2特徴を学習させる詳細クラス学習を行う。そして、分類器学習部4は、詳細クラス学習させた詳細クラス分類器10b、すなわち、詳細クラス分類器10bを構成する第2ニューラルネットワーク(構造や閾値、重み、結合状態などを示すパラメータ)を、分類器10として保存部5に保存する。
このように、分類器学習部4は、分類器10を多段階(本実施の形態では2段階)で学習させる。
分類器設計部3は、詳細クラスの数または作成した粗クラスの数を分類器の出力数(ニューロンの数)として決定し、粗クラス分類器10aまたは詳細クラス分類器10bの構成およびパラメータを設計する。
より具体的には、分類器設計部3は、粗クラス分類器10aを構成する第1ニューラルネットワークの最終層のニューロンを、上記の詳細クラスを示すラベルの内容に基づき作成された粗クラスの数と同一数のニューロンに設計する。本実施の形態では、分類器設計部3は、例えば図3Aに示すような入力層と中間層と最終層とからなる第1ニューラルネットワークを設計して、図2Aに示す粗クラス分類器10aとする。ここで、第1ニューラルネットワークの最終層のニューロンは、粗クラスの数と同一数のニューロンに設定される。
また、分類器設計部3は、粗クラス学習させた粗クラス分類器10aの第1ニューラルネットワークの最終層のニューロンを、詳細クラスの数と同一数のニューロンに変更することにより、第2ニューラルネットワークを設計する。分類器設計部3は、例えば、粗クラス学習させた第1ニューラルネットワークの最終層のニューロンを、詳細クラスの数と同一数のニューロンに置き換えることにより、第2ニューラルネットワークを設計する。ここで、分類器設計部3は、第2ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す重みをランダム値に設定してもよい。
本実施の形態では、分類器設計部3は、例えば図3Bに示すような入力層と中間層と最終層とからなる第2ニューラルネットワークを設計し、例えば図2Bに示す詳細クラス分類器10bとする。ここで、第2ニューラルネットワークは、粗クラス学習が行われた第1ニューラルネットワークの最終層以外同一であり、当該最終層のみが異なるように、最終層を置き換えて(入れ替えて)設計される。そして、第2ニューラルネットワークの最終層のニューロンは、詳細クラスの数と同一数のニューロンに設定される。第2ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す重みは、詳細クラス学習時に学習(追学習)されるので、どのような値を設定してもよく例えばランダム値で設定する。
保存部5は、粗クラス学習された分類器10(粗クラス分類器10a)、すなわち、粗クラス分類器10aを構成する第1ニューラルネットワーク(構造や閾値、重み、結合状態などを示すパラメータ)を保存する。また、保存部5は、詳細クラス学習された分類器10(詳細クラス分類器10b)、すなわち、詳細クラス分類器10bを構成する第2ニューラルネットワーク(構造や閾値、重み、結合状態などを示すパラメータ)を、分類器10として保存する。
図4は、実施の形態1の分類器10が認識処理を行う際の構成を説明するための図である。
分類器10は、画像を分類するための分類器であって、分類対象物(入力画像)が入力されたときに、認識処理および分類処理を実行し、その結果(分類結果)を出力する。分類器10は、図4に示すような構成すなわち詳細クラス学習された詳細クラス分類器10bと同一である。
このように、分類器10は、サイズ(ニューロン数や結合の数)の小さいニューラルネットワークで構成される一方で、画像認識におけるcoarse to fineの考え方に基づき学習システム1により多段階学習されるので、画像認識を高精度に行いつつ画像認識(分類)の処理速度を向上することができる。
[学習システム1の学習処理]
次に、以上のように構成された学習システム1の学習処理について、図を用いて説明する。
図5は、実施の形態1における学習処理を示すフローチャートである。図5には、多段階の学習処理の一例として、2段階学習処理が示されている。図6Aは、実施の形態1における粗クラス学習の結果の一例を示す図である。図6Bは、実施の形態1における詳細クラス学習の結果の一例を示す図である。
まず、ステップS1において、学習システム1は、粗クラス分類器10aの学習処理(粗クラス学習)を行う。
より具体的には、学習システム1は、第1ニューラルネットワークで構成される粗クラス分類器10aに、それぞれの詳細クラスを示すラベルが付与された画像群を、複数の詳細クラスを包含する複数の粗クラスに分類させて当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる。例えば図6Aに示すように、学習システム1は、粗クラス分類器10aに、画像データセットである画像群を、dog、bird、machineなどの複数の粗クラスに分類させて(境界線を引かせて)、同じ粗クラスに分類された詳細クラスを示すラベルが付された画像間で共通する特徴(第1特徴)を抽出させる。そして、学習システム1は、粗クラス分類器10aに、抽出した第1特徴を認識するように学習(粗クラス学習)させる。
次に、ステップS2において、学習システム1は、詳細クラス分類器10bの学習処理(詳細クラス学習)を行う。
より具体的には、ステップS1において学習させた第1ニューラルネットワークの最終層以外同一で当該最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器10bに、当該画像群を詳細クラスに分類させて当該詳細クラス毎の共通の特徴である第2特徴を学習させることで、分類器10の学習を行う。学習システム1は、例えば図6Bに示すように、詳細クラス分類器10bに、同一の画像データセットである上記画像群を、ステップS1で分類した(境界線を引いた)dog、bird、machineなどの複数の粗クラスを初期値にする。学習システム1は、corgi、rottweiler、golden retriever、radio、printer、computer、white stork、albatross、ruddy turnstoneなど、さらに詳細クラスに分類させて(境界線を引かせて)、分類された詳細クラス毎の共通の特徴(第2特徴)を抽出させる。そして、学習システム1は、詳細クラス分類器10bに、抽出させた第2特徴を認識するように追学習(詳細クラス学習)させる。
これにより、従来の分類器と比較して、ニューラルネットワーク構造のサイズを小さく維持したままで局所解や過学習を抑制できるので、画像認識(分類)の処理速度を低下させることなく画像認識を高精度に行うことができる。
以下、ステップS1(粗クラス学習)およびステップS2(詳細クラス学習)の詳細処理について説明する。
図7は、図5に示すステップS1の詳細処理の一例を示すフローチャートである。
ステップS1において、まず、学習システム1は、粗クラス分類器10aを構成する第1ニューラルネットワークの最終層のニューロンを、詳細クラスを示すラベルの内容に基づき作成された粗クラスの数と同一数のニューロンに設計する(S11)。つまり、学習システム1は、粗クラス分類器10aを構成する第1ニューラルネットワークを設計する。
次に、学習システム1は、詳細クラスを示すラベルが付与された画像群を外部より取得する(S12)。
次に、学習システム1は、設計された第1ニューラルネットワークで構成された粗クラス分類器10aに当該画像群を取得させ、第1特徴を学習させる(S13)。具体的には、粗クラス分類器10aは、第1特徴を認識するように学習(粗クラス学習)することで、第1特徴を認識するための第1ニューラルネットワークの閾値や、重み、結合状態などを示すパラメータを学習する。
次に、学習システム1は、ステップS13で第1特徴を学習させた粗クラス分類器10a、すなわち、粗クラス分類器10aを構成する第1ニューラルネットワークを保存部5に保存する(S14)。
図8は、図5に示すステップS2の詳細処理の一例を示すフローチャートである。
ステップ2において、まず、学習システム1は、ステップS1において学習させた粗クラス分類器10aを構成する第1ニューラルネットワークの最終層のニューロンを、詳細クラスの数と同一数のニューロンに変更することにより、詳細クラス分類器10bを構成する第2ニューラルネットワークを設計する(S21)。
つまり、学習システム1は、ステップS1で学習させた粗クラス分類器10aを構成する第1ニューラルネットワーク(構造や閾値、重み、結合状態などを示すパラメータ)を最終層以外そのまま利用した第2ニューラルネットワークを詳細クラス分類器10bとして設計する。そして、第2ニューラルネットワークの最終層のニューロンを、詳細クラスの数と同一数になるように変更する。本実施の形態では、学習システム1は、第1ニューラルネットワークの最終層のニューロンを、詳細クラスの数と同一数のニューロンに置き換えることで、第2ニューラルネットワークを設計する。
次に、学習システム1は、詳細クラスを示すラベルが付与された画像群を外部より取得する(S22)。ここで、学習システム1は、ステップS12で取得した画像群と同一の画像群を取得する。
次に、学習システム1は、設計された第2ニューラルネットワークで構成された詳細クラス分類器10bに当該画像群を取得させ、第2特徴を学習させる(S23)。具体的には、詳細クラス分類器10bは、第2特徴を認識するように学習(詳細クラス学習)することで、第2特徴を認識するための第2ニューラルネットワークの閾値や、重み、結合状態などを示すパラメータを学習する。
次に、学習システム1は、ステップS23で第2特徴を学習させた詳細クラス分類器10b、すなわち、詳細クラス分類器10bを構成する第2ニューラルネットワーク(構造や閾値、重み、結合状態などを示すパラメータ)を、分類器10として保存部5に保存する(S14)。
[効果等]
以上のように、本実施の形態1によれば、従来技術と比べ、画像認識の処理速度を低下させることなく、画像認識を高精度に行うことができる分類器の学習方法等を実現できる。具体的には、実施の形態1の学習方法によれば、詳細クラス分類器10bと最終層以外同一のニューラルネットワークで構成される粗クラス分類器10aに行った粗クラス学習の結果を初期値として、詳細クラス分類器10bに詳細クラス学習させる(多段階学習させる)。つまり、粗クラス学習と詳細クラス学習とで、出力数(最終層のニューロンの数)のみが入れ替えられるニューラルネットワークで構成される分類器10(粗クラス分類器10a、詳細クラス分類器10b)が使用される。さらに、詳細クラス学習では、最終層以外の層では粗クラス学習で得たパラメータが設定されたニューラルネットワークで構成される詳細クラス分類器10b)を使用する。このように、分類器10のニューラルネットワークの最終層以外の構造を変えず(サイズを維持したまま)、多段階学習させる。それにより、誤った詳細クラスで分類されるといったことが抑制できるので画像認識の精度を向上できるだけでなく、ニューラルネットワークのサイズも小さくできるので従来と比較して4倍程度に画像認識の処理速度を向上することができる。
なお、実施の形態1では、分類器10を2段階学習させる場合について説明したがそれに限らない。3段階以上の多段階学習をさせてもよい。
例えば、3段階学習させる場合には、学習システム1は、さらに、第3ニューラルネットワークで構成される第3粗クラス分類器に、上記画像群を、複数の詳細クラスを包含する複数の第3粗クラスに分類させて当該複数の第3粗クラス毎の共通の特徴である第3特徴を学習させる。そして、当該第3特徴を学習させた第3ニューラルネットワークの最終層以外同一で当該最終層のみが異なる上述した第1ニューラルネットワークで構成される詳細クラス分類器10bに、上記画像群を、上記粗クラスに分類させて当該詳細クラス毎の第1特徴を学習させる。ここで、上述した複数の粗クラスはそれぞれ、複数の第3粗クラスを包含することで、当該複数の第3粗クラスに包含される複数の詳細クラスを包含すればよい。
このように、上述した粗クラス分類を2段階以上で行うことで、分類器10を3段階以上の多段階学習をさせればよい。詳細クラスを示すラベルが付与された画像群を構成する画像が多数の場合で一段階の粗クラス分類では出力数(最終層のニューロン数)が多くなってしまう場合に特に有効である。
(変形例1)
実施の形態1では、学習システム1は、詳細クラスを示すラベルの内容に基づき作成された粗クラスを用いて、粗クラス分類器10aを設計する場合について説明したがそれに限らない。学習システム1が詳細クラスを示すラベルの内容に基づき粗クラスを作成してもよい。以下、この場合の一例を変形例1として説明する。
[学習システム1Aの構成]
図9Aは、変形例1における学習システム1Aの構成の一例を示すブロック図である。図9Bは、図9Aに示す粗クラス作成部6の詳細構成の一例を示すブロック図である。図1と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図9Aに示す学習システム1Aは、図1に示す学習システム1に対して、粗クラス作成部6が追加されている点で構成が異なる。
粗クラス作成部6は、上記画像群を構成する複数の画像それぞれに付与された詳細クラスを示すラベルの内容に基づいて、複数の粗クラスを作成する。なお、粗クラス作成部6は、上記画像群を構成する複数の画像それぞれの画像の類似度に基づき、複数の粗クラスを作成するとしてもよい。
[粗クラス作成部6の構成]
本変形例では、粗クラス作成部6は、図9Bに示すように、例えば粗クラス作成処理部61と、粗クラスラベル付加部62とを備える。
粗クラス作成処理部61は、例えば教師無しクラスタリングを行うことにより、画像群を構成する複数の画像を、複数の粗クラスに分類して、複数の粗クラスを作成することができる。例えば、粗クラス作成処理部61は、画像群を構成する複数の画像それぞれに付与された詳細クラスを示すラベルの内容または上記画像群を構成する複数の画像それぞれの画像の類似度に基づき、画像群を構成する複数の画像を、複数の粗クラスに分類する。そして、分類した複数の粗クラスを一意に識別できる名称等を作成する。このようにして、粗クラス作成処理部は、上述した複数の粗クラスを作成することができる。
粗クラスラベル付加部62は、画像群を構成する複数の画像であってそれぞれの詳細クラスを示すラベルが付与された複数の画像それぞれに、粗クラス作成処理部61において分類された粗クラスを示すラベルを付与する。
[学習システム1Aの学習処理]
次に、以上のように構成された学習システム1Aの学習処理について、図を用いて説明する。学習システム1Aの2段階学習処理については、図5に示した通りであり、詳細クラス学習(ステップS2)の詳細処理については、図8に示した通りであるので、説明を省略する。以下、実施の形態1とは異なる部分を中心に説明する。
図10Aは、変形例1における粗クラス学習(ステップS1)の詳細処理の一例を示すフローチャートである。図10Bは、図10Aに示すステップS10の詳細処理の一例を示すフローチャートである。図7と同様の要素には同一の符号を付しており、説明を省略する。
図10Aに示す粗クラス学習の詳細処理は、図7に示す粗クラス学習の詳細処理と比較して、ステップS10の処理が追加されている点で異なる。
ステップS10では、学習システム1Aは、粗クラス作成部6に、上記画像群を構成する複数の画像それぞれに付与された詳細クラスを示すラベルの内容に基づいて、複数の粗クラスを作成させる。なお、学習システム1Aは、粗クラス作成部6に、上記画像群を構成する複数の画像それぞれの画像の類似度に基づき、複数の粗クラスを作成させてもよい。
より具体的には、図10Bに示すように、ステップS10において、まず、学習システム1Aは、粗クラス作成処理を行う(S101)。本変形例では、学習システム1Aは、粗クラス作成処理部61に、詳細クラスを示すラベルが付与された画像群を外部より取得させる。そして、学習システム1Aは、粗クラス作成処理部61に、取得させた画像群を構成する複数の画像を、複数の粗クラスに分類させて、複数の粗クラスを作成させる。
次に、学習システム1Aは、粗クラスラベル付加処理を行う(S102)。本変形例では、学習システム1Aは、粗クラスラベル付加部62に、ステップS101にて行った分類結果に基づいて、当該画像群を構成する複数の画像であってそれぞれの詳細クラスを示すラベルが付与された複数の画像それぞれに、ステップS101で分類された粗クラスを示すラベルを付与する。
(変形例2)
実施の形態1では、第1ニューラルネットワークの最終層を入れ替える(置き換える)ことにより、第2ニューラルネットワークの最終層を設計する場合の例について説明したがそれに限らない。同一の第3ニューラルネットワークの最終層を構成するニューロンうち使用するニューロンを第1ニューラルネットワークと第2ニューラルネットワークとで変更するとしてもよい。以下、この場合の例について変形例2として説明する。
[構成]
図11は、変形例2における第3ニューラルネットワークの一例を示す図である。図12Aは、変形例2における粗クラス分類器を構成する第1ニューラルネットワーク10cの一例を示す図である。図12Bは、変形例2における詳細クラス分類器を構成する第2ニューラルネットワーク10dの一例を示す図である。なお、図2Aおよび図2Bと同様の要素には同一の符号を付しており、詳細な説明は省略する。
学習システム1が分類器10の多段階学習を行う際、粗クラス分類器10cを用いて粗クラス学習を行い、詳細クラス分類器10dを用いて詳細クラス学習を行う。
本変形例では、粗クラス分類器10cと詳細クラス分類器10dとは、例えば図11に示す第3ニューラルネットワークを使用して構成される。ここで、第3ニューラルネットワークの最終層のニューロンは、粗クラスの数と詳細クラスの数とを加えた数と同一数以上のニューロンで構成されている。
粗クラス分類器10cを構成する第1ニューラルネットワークは、図12Aに示すように、図11に示す第3ニューラルネットワークの最終層以外と、当該最終層の一部を使用して構成される。具体的には、粗クラス分類器10cを構成する第1ニューラルネットワークは、第3ニューラルネットワークの最終層のニューロンのうち、粗クラスの数と同一数のニューロンを使用する第3ニューラルネットワークで構成される。
詳細クラス分類器10dを構成する第2ニューラルネットワークは、図12Bに示すように、図11に示す第3ニューラルネットワークの最終層以外と、当該最終層の他部を使用して構成される。具体的には、詳細クラス分類器10dを構成する第2ニューラルネットワークは、第3ニューラルネットワークの最終層のニューロンのうち、第1ニューラルネットワークの最終層のニューロンと異なり、かつ、詳細クラスの数と同一数のニューロンを使用する第3ニューラルネットワークで構成される。
[学習システム1の学習処理]
本変形例では、学習システム1は、以上のように構成された粗クラス分類器10cと詳細クラス分類器10dとを用いて例えば図5で説明したような学習処理を行う。
より具体的には、本変形例の学習処理では、さらに、ステップS1の粗クラス分類器10cの学習処理の前に、例えば図11に示す第3ニューラルネットワークの最終層のニューロンを、粗クラスの数と詳細クラスの数とを加えた数と同一数以上のニューロンで設計する。
そのため、変形例の学習システム1は、ステップS1において、第3ニューラルネットワークの最終層のニューロンのうち、粗クラスの数と同一数のニューロンを使用する第3ニューラルネットワークを、粗クラス分類器10cを構成する第1ニューラルネットワークとして設計することで、第1ニューラルネットワークの最終層のニューロンを、詳細クラスを示すラベルの内容に基づき作成された粗クラスの数と同一数のニューロンに設計する。
さらに、変形例の学習システム1は、ステップS2において、第3ニューラルネットワークの最終層のニューロンのうち、第1ニューラルネットワークの最終層のニューロンと異なり、かつ、詳細クラスの数と同一数のニューロンを使用する第3ニューラルネットワークを、詳細クラス分類器10dを構成する第2ニューラルネットワークとして設計することで、ステップS1において学習させた第1ニューラルネットワークの最終層のニューロンを、詳細クラスの数と同一数のニューロンに変更して、第2ニューラルネットワークとして設計する。
(実施の形態2)
実施の形態1では、第2ニューラルネットワークの最終層の重みをランダム値に設定する場合を例に挙げて説明したが、それに限らない。粗クラス学習させた第1ニューラルネットワークの最終層の重みと、詳細クラスおよび粗クラスの関係性とに基づいて、第2ニューラルネットワークの最終層の重みを設定してもよい。以下、この場合について、実施の形態1と異なる部分について説明する。
[学習システム1Bの構成]
図13は、実施の形態2における学習システム1Bの構成の一例を示すブロック図である。図14は、実施の形態2における学習システム1Bが行う学習処理に用いる詳細クラス分類器10eの構成を説明するための図である。図14におけるa、b、k、a1〜al、b1〜bm、k1〜knは正の整数である。なお、図1等と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図13に示す学習システム1Bは、情報取得部2と、分類器設計部3と、分類器学習部4と、保存部5と、重み設定部7とを備える。図13に示す学習システム1Bは、図1に示す学習システム1に対して、重み設定部7を備える点で構成が異なる。
重み設定部7は、粗クラス学習させた粗クラス分類器10aより取得した第1ニューラルネットワークの最終層の重み、および、包含関係など詳細クラスと粗クラスとの関係性に基づいて、新たな最終層の重みすなわち第2ニューラルネットワークの最終層の重みを算出して設定する。より具体的には、重み設定部7は、粗クラス学習されることにより得た粗クラス分類器10aの第1ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す第1ニューラルネットワークの最終層の第1重みを、複数の粗クラスおよび当該複数の粗クラスに包含される複数の詳細クラスの関係性に基づき案分された値を算出する。そして、重み設定部7は、算出した値を用いて、第2ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す第2ニューラルネットワークの最終層の第2重みを設定する。
例えば、図14には、Wa、Wb、・・・、Wkなどの第1重みと、Wa1〜Wal、Wb1〜Wbm、・・・、Wk1〜Wknなどの第2重みとが示されている。また、図14には、第1ニューラルネットワークの最終層のニューロンが出力する複数の粗クラス(粗クラスa、粗クラスb、・・・粗クラスk)と、第2ニューラルネットワークの最終層のニューロンが出力する複数の詳細クラス(詳細クラスa1〜詳細クラスal、詳細クラスb1〜詳細クラスbm、・・・、詳細クラスk1〜詳細クラスKn)と、が示されている。
つまり、重み設定部7は、粗クラス学習で第1ニューラルネットワークが学習されることにより、第1ニューラルネットワークの最終層の第1重みとして、粗クラスa、粗クラスb、・・・、粗クラスkを出力する最終層のニューロンの第1重みWa、Wb、・・・、Wkを取得することができる。そして、詳細クラス分類器10eでは、複数の粗クラス(粗クラスa、粗クラスb、・・・粗クラスk)が複数の粗クラス(粗クラスa、粗クラスb、・・・粗クラスk)に包含される複数の詳細クラス(詳細クラスa1〜詳細クラスal、詳細クラスb1〜詳細クラスbm、・・・、詳細クラスk1〜詳細クラスKnに置き換えられる。その際、重み設定部7は、複数の粗クラス(粗クラスa、粗クラスb、・・・粗クラスk)に包含される複数の詳細クラス(詳細クラスa1〜詳細クラスal、詳細クラスb1〜詳細クラスbm、・・・、詳細クラスk1〜詳細クラスKn)の関係性に基づいて、取得した第1重みWa、Wb、・・・、Wkを、対応する粗クラスが包含する詳細クラスの数(l個、m個、・・・、n個)で案分する値(Wa1〜Wal、Wb1〜Wbm、・・・、Wk1〜Wkn)を、第2重みとして算出する。
[学習システム1Bの学習処理]
次に、以上のように構成された学習システム1Bの学習処理について説明する。学習システム1Bの2段階学習処理については、図5に示した通りであり、粗クラス学習(ステップS1)の詳細処理については、図7に示した通りであるので、説明を省略する。以下では、実施の形態1とは異なる部分を中心に説明する。
図15は、実施の形態2における詳細クラス学習(ステップS2)の詳細処理の一例を示すフローチャートである。なお、図15のステップS32、ステップS34〜ステップS36は、図8で説明したステップS21〜ステップS24と同様のであるので、ここでの説明は省略する。
まず、ステップS31において、学習システム1Bは、重み設定部7に、ステップS10において粗クラス分類器10aに粗クラス学習させた際に得た粗クラス分類器10aを構成する第1ニューラルネットワークの最終層の第1重みを取得させる。
また、ステップS33において、学習システム1Bは、重み設定部7に、取得させた第1重みを、詳細クラスと粗クラスとの関係性に基づき案分した値を用いて、詳細クラス分類器10bを構成する第2ニューラルネットワークの最終層の第2重みを設定する。ここで、詳細クラスと粗クラスとの関係性は、複数の粗クラスおよび当該複数の粗クラスに包含される複数の詳細クラスの関係性であり、上述した例では、粗クラスに包含される複数の詳細クラスの数である。
[効果等]
以上のように、本実施の形態によれば、従来技術に比べ、画像認識の処理速度を低下させることなく、画像認識を高精度に行うことができる分類器の学習方法等を実現できる。
なお、上述したように、実施の形態2の学習方法では、実施の形態1の学習方法に加え、粗クラス分類処理により学習させた際に取得した粗クラス分類器10aの最終層の重みに基づいて、詳細クラス分類処理で用いる詳細クラス分類器10bの最終層の重みを設定する。これにより、分類器10の画像認識の精度および画像認識の処理速度を向上することができる。
以上、実施の形態1、変形例1、変形例2および実施の形態2にて本開示の学習方法について説明したが、各処理が実施される主体や装置に関しては特に限定しない。ローカルに配置された特定の装置内に組み込まれたプロセッサーなど(以下に説明)によって処理されてもよい。またローカルの装置と異なる場所に配置されているクラウドサーバなどによって処理されてもよい。
なお、本開示は、さらに、以下のような場合も含まれる。
(1)上記の装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
(5)また、本開示は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
また、本開示は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(6)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本開示は、画像を分類するための分類器の学習方法およびそのプログラム等に利用でき、特に、画像から、画像中に含まれる物体が何であるかを精度良く認識することができる物体認識方法及びシステムを備えるデジタルカメラ、ムービー、監視カメラ、車載カメラ、ウェアラブルカメラなどの撮像装置に利用することができる。
1、1A、1B 学習システム
2 情報取得部
3 分類器設計部
4 分類器学習部
5 保存部
6 粗クラス作成部
7 重み設定部
10 分類器
10a、10c 粗クラス分類器
10b、10d、10e 詳細クラス分類器
61 粗クラス作成処理部
62 粗クラスラベル付加部

Claims (7)

  1. 画像を分類するための分類器の学習方法であって、
    第1ニューラルネットワークで構成される粗クラス分類器に、それぞれの詳細クラスを示すラベルが付与された複数の画像である画像群を、複数の詳細クラスを包含する複数の粗クラスに分類させて当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる第1ステップと、
    前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層以外同一で当該最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器に、前記画像群を詳細クラスに分類させて当該詳細クラス毎の共通の特徴である第2特徴を学習させることで、前記分類器の学習を行う第2ステップとを含み、
    前記第1ステップは、
    前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスを示すラベルの内容に基づき作成された前記粗クラスの数と同一数のニューロンで設計する第1設計ステップと、
    設計された前記第1ニューラルネットワークで構成された前記粗クラス分類器に前記画像群を取得させ、前記第1特徴を学習させる第1学習ステップとを含み、
    前記第2ステップでは、
    前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスの数と同一数のニューロンに変更することにより、前記第2ニューラルネットワークを設計する第2設計ステップと、
    設計された前記第2ニューラルネットワークで構成される前記詳細クラス分類器に前記画像群を取得させ、前記第2特徴を学習させることで、前記分類器の学習を行う第2学習ステップと、を含み、
    前記詳細クラス分類器と前記粗クラス分類器とは第3ニューラルネットワークを使用して構成され、
    前記学習方法では、
    さらに、前記第1ステップの前に、前記第3ニューラルネットワークの最終層のニューロンを、前記粗クラスの数と前記詳細クラスの数とを加えた数と同一数以上のニューロンで設計する第3設計ステップを含み、
    前記第1設計ステップでは、
    前記第3ニューラルネットワークの最終層のニューロンのうち、前記粗クラスの数と同一数のニューロンを使用する前記第3ニューラルネットワークを前記第1ニューラルネットワークとして設計することで、前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスを示すラベルの内容に基づき作成された前記粗クラスの数と同一数のニューロンに設計し、
    前記第2設計ステップでは、
    前記第3ニューラルネットワークの最終層のニューロンのうち、前記第1ニューラルネットワークの最終層のニューロンと異なり、かつ、前記詳細クラスの数と同一数のニューロンを使用する前記第3ニューラルネットワークを前記第2ニューラルネットワークとして設計することで、前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスの数と同一数のニューロンに変更して、前記第2ニューラルネットワークとして設計する、
    学習方法。
  2. 前記第2設計ステップでは、
    さらに、
    前記第2ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す前記第2ニューラルネットワークの最終層の重みをランダム値に設定するステップを含む、
    請求項に記載の学習方法。
  3. 画像を分類するための分類器の学習方法であって、
    第1ニューラルネットワークで構成される粗クラス分類器に、それぞれの詳細クラスを示すラベルが付与された複数の画像である画像群を、複数の詳細クラスを包含する複数の粗クラスに分類させて当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる第1ステップと、
    前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層以外同一で当該最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器に、前記画像群を詳細クラスに分類させて当該詳細クラス毎の共通の特徴である第2特徴を学習させることで、前記分類器の学習を行う第2ステップとを含み、
    前記第1ステップは、
    前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスを示すラベルの内容に基づき作成された前記粗クラスの数と同一数のニューロンで設計する第1設計ステップと、
    設計された前記第1ニューラルネットワークで構成された前記粗クラス分類器に前記画像群を取得させ、前記第1特徴を学習させる第1学習ステップとを含み、
    前記第2ステップでは、
    前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層のニューロンを、前記詳細クラスの数と同一数のニューロンに変更することにより、前記第2ニューラルネットワークを設計する第2設計ステップと、
    設計された前記第2ニューラルネットワークで構成される前記詳細クラス分類器に前記画像群を取得させ、前記第2特徴を学習させることで、前記分類器の学習を行う第2学習ステップと、を含み、
    前記第2設計ステップでは、
    さらに、
    前記第1学習ステップで学習した際に得た前記第1ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す前記第1ニューラルネットワークの最終層の第1重みを、前記複数の粗クラスおよび当該複数の粗クラスに包含される複数の詳細クラスの関係性に基づき案分した値を用いて、
    前記第2ニューラルネットワークの最終層と当該最終層の1つ前の層との結合効率を示す前記第2ニューラルネットワークの最終層の第2重みを設定するステップを含む、
    学習方法。
  4. 前記学習方法では、
    さらに、前記第2ステップにおいて前記第2特徴を学習させた前記詳細クラス分類器を前記分類器として保存するステップを含む、
    請求項1〜のいずれか1項に記載の学習方法。
  5. 前記第1ステップでは、さらに、
    前記複数の画像それぞれに付与された前記詳細クラスを示すラベルの内容に基づいて、
    前記複数の粗クラスを作成するステップを含む、
    請求項1〜のいずれか1項に記載の学習方法。
  6. 前記第1ステップでは、さらに、
    前記複数の画像それぞれの画像の類似度に基づき、
    前記複数の粗クラスを作成するステップを含む、
    請求項1〜のいずれか1項に記載の学習方法。
  7. 画像を分類するための分類器の学習方法であって、
    第1ニューラルネットワークで構成される粗クラス分類器に、それぞれの詳細クラスを示すラベルが付与された複数の画像である画像群を、複数の詳細クラスを包含する複数の粗クラスに分類させて当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる第1ステップと、
    前記第1ステップにおいて学習させた前記第1ニューラルネットワークの最終層以外同一で当該最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器に、前記画像群を詳細クラスに分類させて当該詳細クラス毎の共通の特徴である第2特徴を学習させることで、前記分類器の学習を行う第2ステップとを含み、
    前記学習方法は、さらに、
    第3ニューラルネットワークで構成される第3粗クラス分類器に、前記画像群を、複数の詳細クラスを包含する複数の第3粗クラスに分類させて当該複数の第3粗クラス毎の共通の特徴である第3特徴を学習させる第3ステップを含み、
    前記第1ステップでは、
    前記第3ステップにおいて学習させた前記第3ニューラルネットワークの最終層以外同一で当該最終層のみが異なる前記第1ニューラルネットワークで構成される前記クラス分類器に、前記画像群を、前記粗クラスに分類させて当該クラス毎の前記第1特徴を学習させる学習ステップとを含み、
    前記複数の粗クラスはそれぞれ、複数の第3粗クラスを包含することで、当該複数の第3粗クラスに包含される複数の詳細クラスを包含する、
    学習方法。
JP2016034784A 2015-03-06 2016-02-25 学習方法 Active JP6671028B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015044838 2015-03-06
JP2015044838 2015-03-06
JP2015214657 2015-10-30
JP2015214657 2015-10-30

Publications (2)

Publication Number Publication Date
JP2017084320A JP2017084320A (ja) 2017-05-18
JP6671028B2 true JP6671028B2 (ja) 2020-03-25

Family

ID=55453033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016034784A Active JP6671028B2 (ja) 2015-03-06 2016-02-25 学習方法

Country Status (4)

Country Link
US (1) US9779354B2 (ja)
EP (1) EP3065090B1 (ja)
JP (1) JP6671028B2 (ja)
CN (1) CN105938558B (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9971958B2 (en) * 2016-06-01 2018-05-15 Mitsubishi Electric Research Laboratories, Inc. Method and system for generating multimodal digital images
JP6633462B2 (ja) * 2016-06-29 2020-01-22 株式会社東芝 情報処理装置および情報処理方法
US10140979B2 (en) * 2016-08-10 2018-11-27 Conduent Business Services, Llc Modeling a class posterior probability of context dependent phonemes in a speech recognition system
KR20180027887A (ko) * 2016-09-07 2018-03-15 삼성전자주식회사 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법
CN110088797B (zh) * 2016-12-19 2023-04-21 株式会社安川电机 工业设备图像识别处理器及控制器
KR20180092778A (ko) 2017-02-10 2018-08-20 한국전자통신연구원 실감정보 제공 장치, 영상분석 서버 및 실감정보 제공 방법
WO2018159666A1 (en) * 2017-03-01 2018-09-07 Omron Corporation Learning apparatus, learning result using apparatus, learning method and learning program
WO2018170028A1 (en) * 2017-03-14 2018-09-20 Tupl, Inc Automated decision making using staged machine learning
JP6725452B2 (ja) * 2017-05-26 2020-07-22 日本電信電話株式会社 分類装置、分類方法および分類プログラム
US10346724B2 (en) * 2017-06-22 2019-07-09 Waymo Llc Rare instance classifiers
EP3660753A4 (en) * 2017-07-25 2021-05-12 The University Of Tokyo LEARNING PROCEDURE, LEARNING PROGRAM, LEARNING DEVICE AND LEARNING SYSTEM
JP6729516B2 (ja) 2017-07-27 2020-07-22 トヨタ自動車株式会社 識別装置
JP7294768B2 (ja) * 2017-08-04 2023-06-20 オムロン株式会社 画像処理システム
GB2570433A (en) * 2017-09-25 2019-07-31 Nissan Motor Mfg Uk Ltd Machine vision system
JP7224757B2 (ja) 2017-10-13 2023-02-20 キヤノン株式会社 診断支援装置、情報処理方法、診断支援システム及びプログラム
US11132605B2 (en) 2017-11-20 2021-09-28 International Business Machines Corporation Cardinal sine as an activation function for universal classifier training data
CN108229543A (zh) * 2017-12-22 2018-06-29 中国科学院深圳先进技术研究院 图像分类模型设计方法及装置
US11829866B1 (en) * 2017-12-27 2023-11-28 Intuit Inc. System and method for hierarchical deep semi-supervised embeddings for dynamic targeted anomaly detection
KR102329592B1 (ko) * 2017-12-30 2021-11-19 미디어 그룹 코 엘티디 재료 인식을 기반으로 하는 음식 준비 방법 및 시스템
US10679330B2 (en) * 2018-01-15 2020-06-09 Tata Consultancy Services Limited Systems and methods for automated inferencing of changes in spatio-temporal images
JP6766839B2 (ja) 2018-03-14 2020-10-14 オムロン株式会社 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置
EP3779805A4 (en) * 2018-03-26 2021-05-05 Panasonic Intellectual Property Management Co., Ltd. TREATMENT PROCESS AND TREATMENT DEVICE USING IT
JP7166784B2 (ja) * 2018-04-26 2022-11-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7048423B2 (ja) 2018-06-07 2022-04-05 大日本印刷株式会社 商品特定装置、プログラム及び学習方法
JP7056406B2 (ja) * 2018-06-22 2022-04-19 日本電信電話株式会社 センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム
CN112384892A (zh) * 2018-07-09 2021-02-19 富士通株式会社 信息处理装置、信息处理方法以及信息处理程序
JP6757378B2 (ja) 2018-08-28 2020-09-16 株式会社モルフォ 画像識別装置、画像識別方法及び画像識別プログラム
JP6986503B2 (ja) * 2018-09-10 2021-12-22 日立Astemo株式会社 電子制御装置、ニューラルネットワーク更新システム
CN109190643A (zh) * 2018-09-14 2019-01-11 华东交通大学 基于卷积神经网络中药识别方法及电子设备
CN109406118B (zh) * 2018-10-15 2020-05-19 华中科技大学 一种基于层次卷积神经网络的机械故障预测方法
US10474713B1 (en) * 2018-10-26 2019-11-12 StradVision, Inc. Learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same
CN109766928B (zh) * 2018-12-21 2020-04-17 创新奇智(重庆)科技有限公司 一种基于图像的物体分类方法、系统和电子设备
US10867210B2 (en) * 2018-12-21 2020-12-15 Waymo Llc Neural networks for coarse- and fine-object classifications
JP6991960B2 (ja) * 2018-12-28 2022-01-13 Kddi株式会社 画像認識装置、画像認識方法及びプログラム
JP7111088B2 (ja) * 2019-01-24 2022-08-02 カシオ計算機株式会社 画像検索装置、学習方法及びプログラム
JP7286333B2 (ja) * 2019-02-06 2023-06-05 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
KR102312657B1 (ko) * 2019-11-18 2021-10-15 아이브스 주식회사 인공지능을 이용한 음원 분류 장치 및 그 방법
US20230081648A1 (en) * 2020-01-15 2023-03-16 Rensselaer Polytechnic Institute Trackerless 2d ultrasound frame to 3d image volume registration
EP4156092A4 (en) * 2020-05-21 2024-04-10 IHI Corporation IMAGE CLASSIFICATION DEVICE, IMAGE CLASSIFICATION METHOD AND IMAGE CLASSIFICATION PROGRAM
CN111680753A (zh) * 2020-06-10 2020-09-18 创新奇智(上海)科技有限公司 一种数据标注方法、装置、电子设备及存储介质
JP7227188B2 (ja) * 2020-07-01 2023-02-21 株式会社モリタ製作所 識別装置、識別システム、識別方法、および識別用プログラム
KR102236615B1 (ko) * 2020-07-31 2021-04-06 주식회사 웨이센 복합 특성 분류와 공통 국소화를 위한 신경망 모델의 학습 방법 및 장치
CN114071106B (zh) * 2020-08-10 2023-07-04 合肥君正科技有限公司 一种低功耗设备冷启动快速白平衡方法
CN112183639B (zh) * 2020-09-30 2022-04-19 四川大学 一种矿物图像识别与分类方法
US20220172024A1 (en) * 2020-11-30 2022-06-02 Oracle International Corporation Information Technology Service Incident Ticket Assignment
US20220254144A1 (en) * 2021-02-05 2022-08-11 Home Depot Product Authority, Llc Product image classification
CN113642679B (zh) * 2021-10-13 2021-12-28 山东凤和凰城市科技有限公司 多种类数据识别方法
KR102635607B1 (ko) * 2021-11-04 2024-02-08 중앙대학교 산학협력단 코스-투-파인 컨볼루션 뉴럴 네트워크 기반 다중 레이블 클래스 분류 방법 및 장치
KR20230105303A (ko) 2022-01-03 2023-07-11 주식회사 에스아이에이 모호한 라벨을 이용한 객체 예측 모델 학습 방법
KR102437285B1 (ko) * 2022-01-03 2022-08-29 주식회사 에스아이에이 모호한 라벨을 이용한 객체 예측 모델 학습 방법

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313532A (en) * 1990-01-23 1994-05-17 Massachusetts Institute Of Technology Recognition of patterns in images
DE4100500A1 (de) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren
US5359699A (en) * 1991-12-02 1994-10-25 General Electric Company Method for using a feed forward neural network to perform classification with highly biased data
JP2722906B2 (ja) * 1991-12-27 1998-03-09 ダイキン工業株式会社 未知数量推定方法およびその装置
US5311600A (en) * 1992-09-29 1994-05-10 The Board Of Trustees Of The Leland Stanford Junior University Method of edge detection in optical images using neural network classifier
US5619619A (en) * 1993-03-11 1997-04-08 Kabushiki Kaisha Toshiba Information recognition system and control system using same
KR0170656B1 (ko) * 1994-08-17 1999-03-30 김광호 필기체문자 인식방법 및 장치
US5835633A (en) * 1995-11-20 1998-11-10 International Business Machines Corporation Concurrent two-stage multi-network optical character recognition system
US6009418A (en) * 1996-05-02 1999-12-28 Cooper; David L. Method and apparatus for neural networking using semantic attractor architecture
US5995651A (en) * 1996-07-11 1999-11-30 Duke University Image content classification methods, systems and computer programs using texture patterns
US6549661B1 (en) * 1996-12-25 2003-04-15 Hitachi, Ltd. Pattern recognition apparatus and pattern recognition method
US6650779B2 (en) * 1999-03-26 2003-11-18 Georgia Tech Research Corp. Method and apparatus for analyzing an image to detect and identify patterns
US7016885B1 (en) * 2001-08-28 2006-03-21 University Of Central Florida Research Foundation, Inc. Self-designing intelligent signal processing system capable of evolutional learning for classification/recognition of one and multidimensional signals
US7752151B2 (en) * 2002-06-05 2010-07-06 Knowmtech, Llc Multilayer training in a physical neural network formed utilizing nanotechnology
KR100442835B1 (ko) * 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치
US7440600B2 (en) * 2003-04-23 2008-10-21 Carestream Health, Inc. System and method for assigning mammographic view and laterality to individual images in groups of digitized mammograms
US7272261B2 (en) * 2004-06-04 2007-09-18 Xerox Corporation Method and system for classifying scanned-media
US7620819B2 (en) * 2004-10-04 2009-11-17 The Penn State Research Foundation System and method for classifying regions of keystroke density with a neural network
CN101916359B (zh) * 2005-01-27 2012-06-20 剑桥研究和仪器设备股份有限公司 把样本的不同区域分类到相应类别的方法和设备
CN101082836A (zh) * 2007-06-29 2007-12-05 华中科技大学 一种整合语音输入和手写输入功能的汉字输入系统
US20090110062A1 (en) * 2007-10-30 2009-04-30 The Hong Kong University Of Science And Technology Optimal heegard-berger coding schemes
US8199999B2 (en) * 2008-06-17 2012-06-12 Cambridge Research & Instrumentation, Inc. Image classifier training
CN101667252B (zh) * 2009-10-15 2011-07-20 哈尔滨工业大学 基于art2a-dwnn的通信信号调制方式的分类识别方法
CN101957920B (zh) * 2010-09-08 2012-07-11 中国人民解放军国防科学技术大学 基于数字视频的车牌查找方法
CN103310227A (zh) * 2012-03-16 2013-09-18 上海联影医疗科技有限公司 基于神经网络的自动窗宽窗位提取方法
CN102855479A (zh) * 2012-07-24 2013-01-02 苏州工业园区七星电子有限公司 一种印刷体汉字识别系统
CN104346622A (zh) * 2013-07-31 2015-02-11 富士通株式会社 卷积神经网络分类器及其分类方法和训练方法
US9129190B1 (en) * 2013-12-04 2015-09-08 Google Inc. Identifying objects in images

Also Published As

Publication number Publication date
US20160260014A1 (en) 2016-09-08
EP3065090B1 (en) 2020-11-04
CN105938558A (zh) 2016-09-14
EP3065090A2 (en) 2016-09-07
US9779354B2 (en) 2017-10-03
EP3065090A3 (en) 2017-01-25
CN105938558B (zh) 2021-02-09
JP2017084320A (ja) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6671028B2 (ja) 学習方法
CN108805170B (zh) 形成用于全监督式学习的数据集
US10438091B2 (en) Method and apparatus for recognizing image content
JP6397986B2 (ja) 画像オブジェクト領域の認識方法及び装置
KR101942219B1 (ko) 컨볼루션 뉴럴 네트워크를 이용한 폐기물 이미지 식별 장치 및 방법
US11886990B2 (en) Classification device, classification method, and computer program product
JP5782037B2 (ja) 排他的分類器による一般物体の画像認識装置及び方法
US11443514B2 (en) Recognizing minutes-long activities in videos
GB2555136A (en) A method for analysing media content
JP2018205920A (ja) 学習プログラム、学習方法および物体検知装置
JP2021184299A (ja) 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム
US11526708B2 (en) Information processing device, information processing method, and recording medium
US20150139546A1 (en) Image segmenting apparatus and method
CN117992765B (zh) 基于动态新兴标记的偏标签学习方法、装置、设备及介质
Cogswell et al. Combining the best of graphical models and convnets for semantic segmentation
CN104899544A (zh) 图像处理装置和图像处理方法
US12073602B2 (en) Automated key frame selection
KR102342967B1 (ko) 문맥 정보를 활용하는 분류기 및 이의 분류 방법
KR20150103443A (ko) 멀티클래스 분류 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP2016018421A (ja) 画像分類装置、ナンバープレート読取装置、ナンバープレート読取システムおよび画像分類方法
US20240135708A1 (en) Permutation invariant convolution (pic) for recognizing long-range activities
CN115049889A (zh) 存储介质和推理方法
CN103150574B (zh) 基于最邻近标签传播算法的图像型垃圾邮件检测方法
CN109325521B (zh) 用于虚拟人物的检测方法及装置
US20240233328A1 (en) Non-transitory computer-readable recording medium, determination method, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200214

R151 Written notification of patent or utility model registration

Ref document number: 6671028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151