JP6612487B1 - 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム - Google Patents

学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム Download PDF

Info

Publication number
JP6612487B1
JP6612487B1 JP2019552308A JP2019552308A JP6612487B1 JP 6612487 B1 JP6612487 B1 JP 6612487B1 JP 2019552308 A JP2019552308 A JP 2019552308A JP 2019552308 A JP2019552308 A JP 2019552308A JP 6612487 B1 JP6612487 B1 JP 6612487B1
Authority
JP
Japan
Prior art keywords
image
images
class
unit
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019552308A
Other languages
English (en)
Other versions
JPWO2020240809A1 (ja
Inventor
コバガプ ビーアスカー ラオ
コバガプ ビーアスカー ラオ
永男 蔡
永男 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP6612487B1 publication Critical patent/JP6612487B1/ja
Publication of JPWO2020240809A1 publication Critical patent/JPWO2020240809A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

学習用の画像を自動的に増やして分類精度を向上させるとともに、画像内に存在する複数のオブジェクトそれぞれを分類するためのモデルを生成することを目的とする。学習装置は、複数の画像をストレージから取得する。学習装置は、複数の画像を用いて、特徴抽出部を訓練する。学習装置は、訓練された特徴抽出部により、複数の画像のうち1以上の画像それぞれの特徴マップを出力させる。学習装置は、1以上の画像それぞれについて、出力された特徴マップを座標推定部に入力して、画像のうち、オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる。学習装置は、1以上の画像それぞれについて、画像から、出力された座標により示される部分の画像を抽出する。学習装置は、抽出された画像を用いて、訓練された特徴抽出部を更に訓練する。

Description

本発明は、機械学習を用いた画像処理方法に関し、特に、畳み込みニューラルネットワークを用いて、画像内に存在するオブジェクトを分類するための学習方法及び分類方法の技術分野に関する。
現在、深層学習に関す研究開発が盛んに行われている。特にコンピュータビジョンの技術分野においては、画像を処理するためのモデルとして、畳み込みニューラルネットワークが一般的に採用されている。このネットワークは、複数の畳み込み層を有し、画像に対する畳み込み演算を繰り返してその画像の特徴マップを生成する。この特徴マップから、画像内に存在するオブジェクトの分類等が行われる(例えば、非特許文献1)。
Sachin Padmanabhan、「画像分類及びキャプショニングのための畳み込みニューラルネットワーク(Convolutional Neural Networks for Image Classification and Captioning)」、[online]、[平成30年7月9日検索]、インターネット<URL: https://web.stanford.edu/class/cs231a/prev_projects_2016/example_paper.pdf>
分類の精度を向上させるためには、学習用に大量の画像が必要となる。しかしながら、大量の画像を予め準備することが困難な場合がある。また、一の画像内に複数のオブジェクトが存在する場合、各オブジェクトを分類することが望まれる。
本発明は以上の点に鑑みてなされたものであり、その課題の一例は、学習用の画像を自動的に増やして分類精度を向上させるとともに、画像内に存在する複数のオブジェクトそれぞれを分類するためのモデルを生成することが可能な学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラムを提供することにある。
上記課題を解決するために、本発明の一の態様は、複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが存在する画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を出力する座標推定部と、を含む、前記1以上のオブジェクトを分類するためのモデルを生成する生成手段と、前記生成されたモデルをモデル記憶手段に記憶させる記憶制御手段と、を備え、前記生成手段は、1以上のオブジェクトがそれぞれ存在する複数の画像を、画像記憶手段から取得する画像取得手段と、前記取得された複数の画像を用いて、前記特徴抽出部を訓練する第1訓練手段と、前記第1訓練手段により訓練された前記特徴抽出部により、前記複数の画像のうち1以上の画像それぞれの特徴マップを出力させる特徴マップ出力制御手段と、前記1以上の画像それぞれについて、前記出力された特徴マップを前記座標推定部に入力して、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる座標出力制御手段と、前記1以上の画像それぞれについて、該画像から、前記出力された座標により示される部分の画像を抽出する抽出手段と、前記抽出された画像を用いて、前記第1訓練手段により訓練された前記特徴抽出部を更に訓練する第2訓練手段と、を含むことを特徴とする学習装置である。
この発明によれば、特徴抽出部による最初の学習に用いられた画像から、1以上のオブジェクトが存在する部分の領域に相当する画像が抽出される。従って、最初の学習に用いられた画像とは、オブジェクトが存在する領域が占める割合や位置が異なる画像を自動的に増やすことができる。それらの画像を用いて、特徴抽出部を更に訓練することで、分類精度を向上させるとともに、画像内に存在する複数のオブジェクトそれぞれを分類するためのモデルを生成することができる。
本発明の別の態様は、前記モデルは、前記特徴マップに基づいて、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力する少なくとも一のクラス推定部を更に含み、前記第1訓練手段は、前記取得された複数の画像を用いて、前記特徴抽出部と、前記少なくとも一のクラス推定部のうち所定の第1クラス推定部と、を訓練し、前記第2訓練手段は、前記取得された複数の画像を用いて、前記特徴抽出部と、前記少なくとも一のクラス推定部のうち所定の第2クラス推定部と、を訓練することを特徴とする学習装置である。
本発明の更に別の態様は、前記第2クラス推定部は、前記少なくとも一のクラス推定部のうち、前記第1クラス推定部とは異なるクラス推定部であることを特徴とする学習装置である。
この発明によれば、特徴抽出部による最初の学習に用いられる第1クラス推定部と、特徴抽出部による2番目の学習に用いられる第2クラス推定部とが異なるので、抽出された画像の傾向が元の画像の傾向と異なる場合に、分類精度を向上させることができる。
本発明の更に別の態様は、前記第2クラス推定部は、前記第1クラス推定部と同一であることを特徴とする学習装置である。
この発明によれば、特徴抽出部による最初の学習に用いられる第1クラス推定部と、特徴抽出部による2番目の学習に用いられる第2クラス推定部とが同一であるので、抽出された画像の傾向が元の画像の傾向と一致又は類似する場合に、分類精度を向上させることができる。
本発明の更に別の態様は、前記座標出力制御手段は、前記座標推定部により、前記複数の画像のうち、複数のオブジェクトが存在する画像について、前記複数のオブジェクトそれぞれが存在する領域の座標をそれぞれ少なくとも一つ出力させることを特徴とする学習装置である。
この発明によれば、各オブジェクトについて画像が抽出されるので、学習用の画像をより増やすことができる。
本発明の更に別の態様は、前記座標出力制御手段は、前記座標推定部により、前記1以上のオブジェクトのうち少なくとも一のオブジェクトについて、異なる複数の領域それぞれの座標を出力させることを特徴とする学習装置である。
この発明によれば、学習用の画像として、一つのオブジェクトについて様々な画像を増やすことができる。
本発明の更に別の態様は、前記学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出し手段と、前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが存在する所与の画像の特徴マップを出力させる特徴マップ出力制御手段と、前記出力された所与の画像の特徴マップに基づいて、前記読み出されたモデルにより、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス情報出力制御手段と、を備えることを特徴とする分類装置である。
この発明によれば、最初に用意された画像に加えて、これらの画像から抽出された画像を用いて訓練された特徴抽出部を含むモデルが用いられるので、画像内に存在する複数のオブジェクトの分類精度を向上させることができる。
本発明の更に別の態様は、コンピュータにより実行される学習方法において、複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが存在する画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を出力する座標推定部と、を含む、前記1以上のオブジェクトを分類するためのモデルを生成する生成ステップと、前記生成されたモデルをモデル記憶手段に記憶させる記憶制御ステップと、を備え、前記生成ステップは、1以上のオブジェクトがそれぞれ存在する複数の画像を、画像記憶手段から取得する画像取得ステップと、前記取得された複数の画像を用いて、前記特徴抽出部を訓練する第1訓練ステップと、前記第1訓練ステップにより訓練された前記特徴抽出部により、前記複数の画像のうち1以上の画像それぞれの特徴マップを出力させる特徴マップ出力制御ステップと、前記1以上の画像それぞれについて、前記出力された特徴マップを前記座標推定部に入力して、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる座標出力制御ステップと、前記1以上の画像それぞれについて、該画像から、前記出力された座標により示される部分の画像を抽出する抽出ステップと、前記抽出された画像を用いて、前記第1訓練ステップにより訓練された前記特徴抽出部を更に訓練する第2訓練ステップと、を含むことを特徴とする。
本発明の更に別の態様は、コンピュータにより実行される分類方法において、前記学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出しステップと、前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが存在する所与の画像の特徴マップを出力させる特徴マップ出力制御ステップと、前記出力された所与の画像の特徴マップに基づいて、前記読み出されたモデルにより、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス情報出力制御ステップと、を含むことを特徴とする。
本発明の更に別の態様は、コンピュータにより実行される学習プログラムにおいて、前記コンピュータを、複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが存在する画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を出力する座標推定部と、を含む、前記1以上のオブジェクトを分類するためのモデルを生成する生成手段と、前記生成されたモデルをモデル記憶手段に記憶させる記憶制御手段と、として機能させ、前記生成手段は、1以上のオブジェクトがそれぞれ存在する複数の画像を、画像記憶手段から取得する画像取得手段と、前記取得された複数の画像を用いて、前記特徴抽出部を訓練する第1訓練手段と、前記第1訓練手段により訓練された前記特徴抽出部により、前記複数の画像のうち1以上の画像それぞれの特徴マップを出力させる特徴マップ出力制御手段と、前記1以上の画像それぞれについて、前記出力された特徴マップを前記座標推定部に入力して、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる座標出力制御手段と、前記1以上の画像それぞれについて、該画像から、前記出力された座標により示される部分の画像を抽出する抽出手段と、前記抽出された画像を用いて、前記第1訓練手段により訓練された前記特徴抽出部を更に訓練する第2訓練手段と、を含むことを特徴とする。
本発明の更に別の態様は、コンピュータを、前記学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出し手段と、前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが存在する所与の画像の特徴マップを出力させる特徴マップ出力制御手段と、前記出力された所与の画像の特徴マップに基づいて、前記読み出されたモデルにより、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス情報出力制御手段と、として機能させることを特徴とする分類プログラムである。
本発明によれば、学習用の画像を自動的に増やして分類精度を向上させるとともに、画像内に存在する複数のオブジェクトそれぞれを分類するためのモデルを生成することができる。
一実施形態に係る画像処理装置1の概要構成の一例を示すブロック図である。 一実施形態に係る画像処理装置1のシステム制御部11及びGPU18の機能ブロックの一例を示す図である。 モデル2の構成例を示す図である。 座標推定部23によるバウンディングボックスの設定例を示す図である。 座標推定部23によるバウンディングボックスの設定例を示す図である。 座標推定部23によるバウンディングボックスの設定例を示す図である。 画像処理装置1のシステム制御部11及びGPU18による学習処理の一例を示すフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。以下に説明する実施形態においては、画像内に存在するオブジェクトのクラスを推定するためのモデルを生成するための学習の実行と、生成されたモデルを用いて、オブジェクトを分類する画像処理装置に対して本発明を適用した場合の実施形態である。なお、学習を実行する装置と、クラスの推定を行う装置とは別々の装置であってもよい。
[1.画像処理装置の構成]
先ず、画像処理装置1の構成について、図1を用いて説明する。図1は、本実施形態に係る画像処理装置1の概要構成の一例を示すブロック図である。図1に示すように、画像処理装置1は、システム制御部11と、システムバス12と、入出力インターフェース13と、記憶部14と、通信部15と、入力部16と、表示部17と、GPU(Graphics Processing Unit)18と、GPUメモリ19(または、ビデオRAM)を備えている。システム制御部11と入出力インターフェース13とは、システムバス12を介して接続されている。画像処理装置1は、例えばサーバ装置であってもよいし、パーソナルコンピュータであってもよい。
システム制御部11は、CPU(Central Processing Unit)11a、ROM(Read Only Memory)11b、RAM(Random Access Memory)11c等により構成されている。
入出力インターフェース13は、記憶部14〜GPUメモリ19とシステム制御部11との間のインターフェース処理を行う。
記憶部14は、例えば、ハードディスクドライブ又はソリッドステートドライブ等により構成されている。この記憶部14には、生成されたモデル2、及びモデル2の生成に用いられる複数の訓練データ等が記憶される。記憶部14には、更にオペレーティングシステム、モデル生成用のプログラム、分類用のプログラム等が記憶されている。訓練データ及び各種プログラムは、例えば、所定のコンピュータからネットワークを介して取得されるようにしてもよいし、光ディスク、メモリカード、磁気テープ等の記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。モデル2を生成する装置と分類を行う装置とが別々の装置である場合、生成されたモデル2の受け渡しは、ネットワークを介して行われてもよいし、記録媒体を介して行われてもよい。
通信部15は、例えばネットワークインターフェースコントローラ等により構成されている。通信部15は、インターネット、LAN(Local Area Network)等の所定のネットワークを介して他のコンピュータと接続し、そのコンピュータとの通信状態を制御する。
入力部16は、オペレータによる操作を受け付け、操作内容に対応する信号をシステム制御部11に出力する。入力部16の例として、キーボード、マウス、タッチパネル等が挙げられる。
表示部17は、例えば、グラフィックコントローラ及びディスプレイ等により構成されている。表示部17は、システム制御部11の制御により、画像、文字等の情報を表示する。ディスプレイのパネルの例として、液晶パネル、有機EL(Light Emitting)パネル等が挙げられる。
GPU18は、システム制御部11からの制御により、機械学習における行列演算等を実行する。GPU18は、複数の演算を並列にパイプライン処理する。GPU18とGPUメモリ19とは接続されている。GPUメモリ19は、GPU18による演算に用いられるデータや演算結果を記憶する。
[2.画像処理装置のシステム制御部の機能概要]
次に、図2乃至図4Bを用いて、システム制御部11及びGPU18の機能概要について説明する。図2は、本実施形態に係る画像処理装置1のシステム制御部11及びGPU18の機能ブロックの一例を示す図である。システム制御部11及びGPU18は、CPU11aが、記憶部14に記憶されているプログラムに含まれる各種コード等を読み出し実行することにより、図2に示すように、画像取得部111、第1訓練部112、座標出力制御部113、画像抽出部114、第2訓練部115、モデル記憶制御部116、モデル読み出し部117、特徴マップ出力制御部118、クラス情報出力制御部119等として機能する。
[2−1.モデルの生成]
図3は、モデル2の構成例を示す図である。画像取得部111〜第2訓練部115は、機械学習によってモデル2を生成する。図3に示すように、モデル2は、特徴抽出部21と、全体画像クラス推定部22と、座標推定部23と、部分画像クラス推定部24と、を含む畳み込みニューラルネットワークである。モデル2のベースとなるネットワークモデルの例として、ResNet、GoogleNet、AlexNet、VGGNetが挙げられる。
特徴抽出部21は、複数の畳み込み層を含む。特徴抽出部21は、モデル2に入力された画像31の特徴マップ32を出力する。画像31内には、1以上のオブジェクトが存在する。画像31内に複数のオブジェクトが存在する場合、各オブジェクトのクラスは互いに同じであってもよいし異なってもよい。特徴抽出部21は、例えばこれらの畳み込み層によって画像31に対する畳み込み演算を繰り返し、モデル2が分類可能なクラスごとに特徴マップ32を出力する。特徴抽出部21は、プーリング層等のレイヤを適宜含んでもよい。
全体画像クラス推定部22は、特徴抽出部21から出力された特徴マップ32に基づいて、画像31内に存在する1以上のオブジェクトのクラスを示すクラス情報を出力する。クラス推定部22は、1以上の全結合層を含む。クラス推定部22は、特徴マップ32を全結合層で変換して、クラスごとにそのクラスのオブジェクトが存在するか否かを示す情報をクラス情報として出力する。全体画像クラス推定部22は、例えばクラスごとに1個の全結合層又は直列に接続された複数の全結合層を含んでもよい。例えば、或るクラスiに対応する特徴マップ32を特徴マップ32−iとし、クラスiに対応する全結合層を全結合層iとする。全結合層iは、特徴マップ32−i内の要素を結合して、各クラスの確率値を出力する。例えば、これらの確率値のうち、クラスiの確率値が所定値以上である場合、画像31にクラスiのオブジェクトが存在すると推定されたことになる。画像31に複数のクラスのオブジェクトが存在する場合、全体画像クラス推定部22は、これらのクラスそれぞれのオブジェクトが存在すると推定することが可能である。学習が終わった後の分類段階においては、例えば各クラスの確率値が0又は1に変換される。例えば、所定値以上の確率値は1に変換され、所定値未満の確率値は0に変換される。
座標推定部23は、特徴抽出部21から出力された特徴マップ32に基づいて、画像31において、1以上のオブジェクトが存在する部分の領域の座標データを出力する。例えば、座標推定部23は、特徴マップ32−iから、クラスiのオブジェクトが存在する領域を特定して、その領域に対応するバウンディングボックスを設定する。特徴マップ32−iを構成する各配列要素は、画像31におけるその要素が対応する座標において、クラスiのオブジェクトが存在する蓋然性を示す値を格納する。そこで、座標推定部23は、特徴マップ32−iから、所定の閾値以上の値を有する要素で構成される領域を、クラスiのオブジェクトが存在する領域として特定してもよい。バウンディングボックスは、例えば矩形の領域である。座標推定部23は、設定したバウンディングボックスごとに、そのバウンディングボックスの座標データと、用いられた特徴マップ32−iに対応するクラスiを出力する。座標データは、例えばバウンディングボックスの中心座標、バウンディングボックスの高さ及び幅を含んでもよい。図4は、座標推定部23によるバウンディングボックスの設定例を示す図である。例えば、或る画像31内には、クラス1のオブジェクトが2個存在する。図4に示すように、特徴マップ32−1において、閾値以上の値を有する要素で構成される領域が2個特定され、これらの領域それぞれに対応するバウンディングボックス41及び42が設定される。
部分画像クラス推定部24は、後述するように、画像31から抽出された画像33について特徴抽出部21から出力された特徴マップ32に基づいて、画像33内に存在する1以上のオブジェクトのクラスを示すクラス情報を出力する。例えば、部分画像クラス推定部24の構造は、全体画像クラス推定部22の構造と同様であってもよい。或いは、画像31から一のオブジェクトのみが存在する画像33のみが抽出される場合、部分画像クラス推定部24は、これに対応した構造であってもよい。全体画像クラス推定部22と部分画像クラス推定部24とは同一であってもよいし、別々のクラス推定部であってもよい。すなわち、モデル2は、特徴マップに基づいてオブジェクトのクラスを推定するクラス推定部を少なくとも一つ含む。
上述したモデル2を生成するため、画像取得部111は、第1訓練データとして、複数の画像31を記憶部14から取得する。画像31は、例えば撮影されて予め用意された画像である。画像取得部111は、画像31それぞれについて、その画像31内に存在しているオブジェクトのクラスを示すラベル(Ground Truth)を記憶部14から更に取得して、画像31に関連付ける。
第1訓練部112は、第1訓練データ取得部111により取得された第1訓練データとしての画像31を用いて、特徴抽出部21を訓練する。第1訓練部112による処理は、例えば画像取得部111により画像31が取得されること応じて自動的に実行される。ここで、第1訓練部112は、特徴抽出部21と、モデル2に含まれる少なくとも一つのクラス推定部のうち、所定の第1のクラス推定部とを訓練する。本実施形態の場合、第1のクラス推定部は、全体画像クラス推定部22である。第1訓練部112は、特徴抽出部21及び全体画像クラス推定部22として、これらの層に対応する演算処理を実行して、各クラスの確率を出力する。具体的に、第1訓練部112は、特徴抽出部21に画像31を入力して、特徴抽出部21から特徴マップ32を出力させる。第1訓練部112は、特徴マップ32を全体画像クラス推定部22に入力して、全体画像クラス推定部22からクラス情報を出力させる。第1訓練部112は、クラス情報とクラスのラベルとを比較して、分類誤差を計算する。第1訓練部112は、分類誤差を用いて、全体画像クラス推定部22が保持する重み及びバイアスのパラメータを更新する。また、第1訓練部112は、全体画像クラス推定部22からの誤差逆伝播により、特徴抽出部21が保持する重み及びバイアスを更新する。
座標出力制御部113は、第1訓練部112により訓練された特徴抽出部21により、複数の画像31のうち1以上の画像それぞれの特徴マップ32を出力させる。座標出力制御部113の処理は、例えば第1訓練部112による訓練の完了に応じて自動的に実行される。座標出力制御部113は、1以上の画像31それぞれについて、特徴抽出部21から出力された特徴マップ32を座標推定部23に入力して、画像31のうち、1以上のオブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる。すなわち、座標出力制御部113は、1以上の画像31それぞれについて、座標推定部23からバウンディングボックスの座標データを少なくとも一つ出力させる。例えば、座標出力制御部113は、バウンディングボックスごとに、座標データとバウンディングボックス内のオブジェクトのクラスとを出力する。座標出力制御部113は、特徴抽出部21から出力された全特徴マップ32のうち、ラベルに示されるクラスに対応する特徴マップ32のみを、座標推定部23に入力すればよい。すなわち、画像31内に存在するオブジェクトに対応する特徴マップ32を用いて、それらのオブジェクトの座標データ及びクラスが出力される。
画像31に複数のオブジェクトが存在する場合、座標出力制御部113は、それら複数のオブジェクトそれぞれが存在する領域の座標を出力させてもよいし、一のオブジェクトのみについて座標を出力させてもよいし、複数のオブジェクトのうち幾つかのオブジェクトについて座標を出力させてもよい。画像31内に同一クラスのオブジェクトが複数存在する場合、そのクラスに対応する特徴マップ32から、閾値以上の値を有する要素で構成される領域が、座標推定部23により複数特定される。画像31内に互いに異なるクラスのオブジェクトが存在する場合、それぞれのクラスに対応する特徴マップ32から、閾値以上の値を有する要素で構成される領域がそれぞれ特定される。
座標出力制御部113は、少なくとも一のオブジェクトについて、異なる複数の領域それぞれの座標を出力してもよい。異なる複数の領域とは、例えば、サイズ、アスペクト比及び中心座標の少なくとも何れか一つが互いに異なる領域である。例えば、座標出力制御部113は、オブジェクトが存在する領域を特定するための閾値を変化させることで、サイズや中心座標を変化させることができる。また、座標出力制御部113は、アスペクト比が異なるボックスを予め複数用意しておき、特定した領域に対してこれらのボックスをそれぞれ適用することで、アスペクト比を変化させることができる。図5Aは、座標推定部23によるバウンディングボックスの設定例を示す図である。図5Aに示すように、或る画像31Aにおいては、オブジェクト51〜53が存在する。例えば、オブジェクト51について、バウンディングボックス61〜64が設定される。
座標出力制御部113は、複数のオブジェクトが存在する画像31について、これら複数のオブジェクトのうち2以上のオブジェクトが存在する部分の領域の座標を少なくとも一つ出力させてもよい。この場合、同一のオブジェクトの組み合わせに対して、一つの領域の画像が出力されてもよいし、異なる複数の領域が出力されてもよい。また、2以上のオブジェクトが存在する部分の領域の座標が出力されるとともに、少なくとも一のオブジェクトについて、その一のオブジェクトのみが存在する領域の座標が出力されてもよい。図5Bは、座標推定部23によるバウンディングボックスの設定例を示す図である。例えば、図5Bに示す例では、画像31Aについて、オブジェクト51〜53を含むバウンディングボックス71(画像31Aの一部)、オブジェクト51及び53を含むバウンディングボックス72、並びにオブジェクト51及び52を含むバウンディングボックス73が設定されている。
画像抽出部114は、座標推定部23から座標が出力された1以上の画像31について、その画像31から、出力された座標により示される部分の画像を、部分画像33として抽出する。画像抽出部114による処理は、例えば座標出力制御部113から座標が出力されるごとに自動的に実行されてもよいし、全ての座標の出力が完了してから自動的に実行されてもよい。画像抽出部114は、座標推定部23から出力された座標データに基づいて、抽出範囲を特定して部分画像33を抽出する。画像抽出部114は、抽出された部分画像33それぞれについて、その部分画像33と座標推定部23から座標が出力されたクラスとを第2訓練データとして記憶部14に記憶させる。これにより、特徴抽出部21による学習用の画像として、画像31とは異なる画像33を得たことになる。すなわち、学習用の画像が自動的に増加する。画像31内に存在するオブジェクトと同一のオブジェクトが部分画像33内に存在していても、そのオブジェクトが画像に対して占める領域の割合及び位置の少なくとも何れか一方が画像31と部分画像33とでは異なる。そのため、画像33を用いて特徴抽出部21を更に強化することができる。
第2訓練部115は、画像抽出部114により抽出された第2訓練データとしての画像33を用いて、第1訓練部112により訓練された特徴抽出部21を更に訓練する。第2訓練部115による処理は、例えば画像抽出部114による全ての部分画像33の抽出が完了したことに応じて自動的に実行される。ここで、第2訓練部115は、特徴抽出部21と、モデル2に含まれる少なくとも一つのクラス推定部のうち、所定の第2のクラス推定部とを訓練する。本実施形態の場合、第2のクラス推定部は、部分画像クラス推定部24である。第2訓練部115は、特徴抽出部21及び部分画像クラス推定部24として、これらの層に対応する演算処理を実行する。具体的な訓練方法は、訓練されるクラス推定部が部分画像クラス推定部24であることを除いて、第1訓練部による訓練と同様であってもよい。この訓練により、特徴抽出部21が更に強化されるので、モデル2による分類精度が向上する。
前述したように、モデル2に含まれる第1のクラス推定部と第2のクラス推定部は異なっていてもよいし、同一であってもよい。例えば画像31の傾向と画像33の傾向に応じて、何れかの構成が採用されてもよい。両者の傾向が互いに異なる場合、第1のクラス推定部と第2のクラス推定部は異なっていてもよい。両者の傾向が互いに一致又は類似する場合、第1のクラス推定部と第2のクラス推定部は同一であってもよい。画像31は、基本的には撮影された画像そのままであり、特段の編集もされていないこと、及び画像31に複数のオブジェクトが存在する可能性が高いことを考慮すると、画像31に対して各オブジェクトそれぞれが占める領域の割合は比較的に小さい傾向にある。画像31から一のオブジェクトのみが存在する部分画像33を抽出することとした場合、画像33に対してそのオブジェクトが占める領域の割合は比較的に大きい傾向にある。このような場合、第1のクラス推定部と第2のクラス推定部とは異なっていてもよい。画像31から2以上のオブジェクトが存在する部分画像33を抽出することとした場合、又は一のオブジェクトに対してバウンディングボックスを大きくした場合、画像33に対してそのオブジェクトが占める領域の割合は比較的に小さい傾向にある。このような場合、第1のクラス推定部と第2のクラス推定部とは同一であってもよい。
モデル記憶制御部116は、第1訓練部112による特徴抽出部21及び全体画像クラス推定部22の訓練と、第2訓練部115による特徴抽出部21及び部分画像クラス推定部24の訓練と、を経てモデル2が生成されると、生成されたモデル2を記憶部14に記憶させる。
[2−2.クラスの分類]
モデル読み出し部117は、記憶部14に記憶されたモデル2を読み出して、RAM14c又はGPUメモリ19にロードする。
特徴マップ出力制御部118、及びクラス情報出力制御部119は、それぞれ特徴抽出部21、及び全体画像クラス推定部22に対応する演算を実行する。特徴マップ出力制御部118は、分類の対象となる1以上のオブジェクトが存在する所与の画像を、読み出されたモデル2に含まれる特徴抽出部21に入力して、特徴抽出部21から所与の画像の特徴マップを出力させる。所与の画像は、例えば記憶部14に記憶されてもよいし、ネットワーク又は記録媒体を介して取得されてもよい。
クラス出力制御部119は、特徴抽出部21から出力された特徴マップを、読み出されたモデル2に含まれる全体画像クラス推定部22に入力して、全体画像クラス推定部22から所与の画像内に存在する1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させる。
[3.画像処理装置の動作]
次に、画像処理装置1の動作について、図6を用いて説明する。図6は、画像処理装置1のシステム制御部11及びGPU18による学習処理の一例を示すフローチャートである。モデル生成用のプログラムに含まれるプログラムコードに従って、システム制御部11及びGPU18は学習処理を実行する。
図6に示すように、訓練データ取得部111は、第1訓練データとして、複数の画像31それぞれについて、画像31と、画像31に対応するクラスのラベルとを、記憶部14から取得する(ステップS1)。
次いで、第1訓練部112は、取得された画像31及びクラスのラベルを用いて、特徴抽出部21及び全体画像クラス推定部22を訓練する(ステップS2)。具体的に、第1訓練部112は、特徴抽出部21から、各画像31について特徴マップ32を出力させる。第1訓練部112は、特徴マップ32を全体画像クラス推定部22に入力して、全体画像クラス推定部22からクラス情報を出力させる。第1訓練部112は、クラス情報と、クラスのラベルとを比較して、分類誤差を計算する。第1訓練部112は、分類誤差に基づいて、全体画像クラス推定部22のパラメータを更新する。更に、第1訓練部112は、全体画像クラス推定部22から特徴抽出部21へ誤差を逆伝播して、特徴抽出部21のパラメータを更新する。第1訓練部112は、例えばエポック数が所定数に達したとき等に訓練を終了させる。
次いで、座標出力制御部113は、第1訓練部112により訓練された特徴抽出部21により、1以上の画像31それぞれの特徴マップ32を出力させる。座標出力制御部113は、特徴マップ32を座標推定部23に入力して、1以上のオブジェクトが存在する部分の領域の座標データ及びクラスを出力させる(ステップS3)。次いで、画像抽出部114は、座標推定部23から出力された座標データに示される部分画像33を画像31から抽出する(ステップS4)。
次いで、第2訓練部115は、抽出された部分画像33及び座標推定部23から出力されたクラスのラベルを用いて、特徴抽出部21及び部分画像クラス推定部24を訓練する(ステップS5)。具体的に、第2訓練部115は、特徴抽出部21から、各部分画像33について特徴マップ32を出力させる。第2訓練部115、特徴マップ32を部分画像クラス推定部24に入力して、部分画像クラス推定部24からクラス情報を出力させる。第2訓練部115は、クラス情報と、クラスのラベルとを比較して、分類誤差を計算する。第2訓練部115は、分類誤差に基づいて、部分画像クラス推定部24のパラメータを更新する。更に、第2訓練部115は、部分画像クラス推定部24から特徴抽出部21へ誤差を逆伝播して、特徴抽出部21のパラメータを更新する。第2訓練部115は、例えばエポック数が所定数に達したとき等に訓練を終了させる。これによって、モデル2が生成される。モデル記憶制御部116は、生成されたモデル2を記憶部14に記憶させて(ステップS6)、学習処理を終了させる。
以上説明したように、本実施形態によれば、画像処理装置1が、複数の畳み込み層を含む特徴抽出部21であって、1以上のオブジェクトが存在する画像の特徴マップを出力する特徴抽出部21と、この特徴マップに基づいて、画像のうち、オブジェクトが存在する部分の領域の座標を出力する座標推定部23と、を含む、1以上のオブジェクトを分類するためのモデル2を生成する。ここで、画像処理装置1が、1以上のオブジェクトがそれぞれ存在する複数の画像を記憶部14から取得する。また、画像処理装置1が、取得された複数の画像を用いて、特徴抽出部21を訓練する。また、画像処理装置1が、訓練された特徴抽出部21により、複数の画像のうち1以上の画像それぞれの特徴マップを出力させる。また、画像処理装置1が、1以上の画像それぞれについて、出力された特徴マップを座標推定部23に入力して、画像のうち、オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる。また、画像処理装置1が、1以上の画像それぞれについて、画像から、出力された座標により示される部分の画像を抽出する。また、画像処理装置1が、抽出された画像を用いて、訓練された特徴抽出部21を更に訓練する。そして、画像処理装置1が、生成されたモデル2を記憶部14に記憶させる。従って、学習用の画像を自動的に増やして分類精度を向上させるとともに、画像内に存在する複数のオブジェクトそれぞれを分類するためのモデル2を生成することができる。
また、モデル2は、特徴マップに基づいて、1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力する少なくとも一のクラス推定部を更に含んでもよい。画像処理装置1は、取得された複数の画像を用いて、特徴抽出部21と、少なくとも一のクラス推定部のうち所定の第1のクラス推定部と、を訓練してもよい。また、画像処理装置1が、取得された複数の画像を用いて、特徴抽出部21と、少なくとも一のクラス推定部のうち所定の第2のクラス推定部と、を訓練してもよい。
ここで、第2のクラス推定部は、少なくとも一のクラス推定部のうち、第1のクラス推定部とは異なるクラス推定部であってもよい。この場合、特徴抽出部21による最初の学習に用いられる第1のクラス推定部と、特徴抽出部21による2番目の学習に用いられる第2のクラス推定部とが異なるので、抽出された画像の傾向が元の画像の傾向と異なる場合に、分類精度を向上させることができる。
また、第2のクラス推定部は、第1のクラス推定部と同一であってもよい。この場合、特徴抽出部21による最初の学習に用いられる第1クラス推定部と、特徴抽出部21による2番目の学習に用いられる第2クラス推定部とが同一であるので、抽出された画像の傾向が元の画像の傾向とが一致又は類似する場合に、分類精度を向上させることができる。
また、画像処理装置1が、座標推定部23により、複数の画像のうち、複数のオブジェクトが存在する画像について、複数のオブジェクトそれぞれが存在する領域の座標をそれぞれ少なくとも一つ出力させてもよい。この場合、各オブジェクトについて画像が抽出されるので、学習用の画像をより増やすことができる。
また、画像処理装置1が、座標推定部23により、1以上のオブジェクトのうち少なくとも一のオブジェクトについて、異なる複数の領域それぞれの座標を出力させてもよい。この場合、学習用の画像として、一つのオブジェクトについて様々な画像を増やすことができる。
また、画像処理装置1が、生成されたモデル2を記憶部14から読み出してもよい。また、画像処理装置1が、読み出されたモデル2に含まれる特徴抽出部21により、1以上のオブジェクトが存在する所与の画像の特徴マップを出力させてもよい。また、画像処理装置1が、出力された所与の画像の特徴マップに基づいて、読み出されたモデル2により、1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させてもよい。この場合、最初に用意された画像に加えて、これらから抽出された画像を用いて訓練された特徴抽出部21を含むモデル2が用いられるので、画像内に存在する複数のオブジェクトの分類精度を向上させることができる。
1 画像処理装置
11 システム制御部
12 システムバス
13 入出力インターフェース
14 記憶部
15 通信部
16 入力部
17 表示部
18 GPU
19 GPUメモリ
111 画像取得部
112 第1訓練部
113 座標出力制御部
114 画像抽出部
115 第2訓練部
116 モデル記憶制御部
117 モデル読み出し部
118 特徴マップ出力制御部
119 クラス情報出力制御部
2 モデル
21 特徴抽出部
22 全体画像クラス推定部
23 座標推定部
24 部分画像クラス推定部

Claims (11)

  1. 複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが存在する画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を出力する座標推定部と、を含む、前記1以上のオブジェクトを分類するためのモデルを生成する生成手段と、
    前記生成されたモデルをモデル記憶手段に記憶させる記憶制御手段と、
    を備え、
    前記生成手段は、
    1以上のオブジェクトがそれぞれ存在する複数の画像を、画像記憶手段から取得する画像取得手段と、
    前記取得された複数の画像を用いて、前記特徴抽出部を訓練する第1訓練手段と、
    前記第1訓練手段により訓練された前記特徴抽出部により、前記複数の画像のうち1以上の画像それぞれの特徴マップを出力させる特徴マップ出力制御手段と、
    前記1以上の画像それぞれについて、前記出力された特徴マップを前記座標推定部に入力して、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる座標出力制御手段と、
    前記1以上の画像それぞれについて、該画像から、前記出力された座標により示される部分の画像を抽出する抽出手段と、
    前記抽出された画像を用いて、前記第1訓練手段により訓練された前記特徴抽出部を更に訓練する第2訓練手段と、
    を含むことを特徴とする学習装置。
  2. 前記モデルは、前記特徴マップに基づいて、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力する少なくとも一のクラス推定部を更に含み、
    前記第1訓練手段は、前記取得された複数の画像を用いて、前記特徴抽出部と、前記少なくとも一のクラス推定部のうち所定の第1クラス推定部と、を訓練し、
    前記第2訓練手段は、前記取得された複数の画像を用いて、前記特徴抽出部と、前記少なくとも一のクラス推定部のうち所定の第2クラス推定部と、を訓練することを特徴とする請求項1に記載の学習装置。
  3. 前記第2クラス推定部は、前記少なくとも一のクラス推定部のうち、前記第1クラス推定部とは異なるクラス推定部であることを特徴とする請求項2に記載の学習装置。
  4. 前記第2クラス推定部は、前記第1クラス推定部と同一であることを特徴とする請求項2に記載の学習装置。
  5. 前記座標出力制御手段は、前記座標推定部により、前記複数の画像のうち、複数のオブジェクトが存在する画像について、前記複数のオブジェクトそれぞれが存在する領域の座標をそれぞれ少なくとも一つ出力させることを特徴とする請求項1乃至4の何れか一項に記載の学習装置。
  6. 前記座標出力制御手段は、前記座標推定部により、前記1以上のオブジェクトのうち少なくとも一のオブジェクトについて、異なる複数の領域それぞれの座標を出力させることを特徴とする請求項1乃至5の何れか一項に記載の学習装置。
  7. 請求項1乃至6の何れか一項に記載の学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出し手段と、
    前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが存在する所与の画像の特徴マップを出力させる特徴マップ出力制御手段と、
    前記出力された所与の画像の特徴マップに基づいて、前記読み出されたモデルにより、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス情報出力制御手段と、
    を備えることを特徴とする分類装置。
  8. コンピュータにより実行される学習方法において、
    複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが存在する画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を出力する座標推定部と、を含む、前記1以上のオブジェクトを分類するためのモデルを生成する生成ステップと、
    前記生成されたモデルをモデル記憶手段に記憶させる記憶制御ステップと、
    を備え、
    前記生成ステップは、
    1以上のオブジェクトがそれぞれ存在する複数の画像を、画像記憶手段から取得する画像取得ステップと、
    前記取得された複数の画像を用いて、前記特徴抽出部を訓練する第1訓練ステップと、
    前記第1訓練ステップにより訓練された前記特徴抽出部により、前記複数の画像のうち1以上の画像それぞれの特徴マップを出力させる特徴マップ出力制御ステップと、
    前記1以上の画像それぞれについて、前記出力された特徴マップを前記座標推定部に入力して、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる座標出力制御ステップと、
    前記1以上の画像それぞれについて、該画像から、前記出力された座標により示される部分の画像を抽出する抽出ステップと、
    前記抽出された画像を用いて、前記第1訓練ステップにより訓練された前記特徴抽出部を更に訓練する第2訓練ステップと、
    を含むことを特徴とする学習方法。
  9. コンピュータにより実行される分類方法において、
    請求項1乃至6の何れか一項に記載の学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出しステップと、
    前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが存在する所与の画像の特徴マップを出力させる特徴マップ出力制御ステップと、
    前記出力された所与の画像の特徴マップに基づいて、前記読み出されたモデルにより、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス情報出力制御ステップと、
    を含むことを特徴とする分類方法。
  10. コンピュータにより実行される学習プログラムにおいて、
    前記コンピュータを、
    複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが存在する画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を出力する座標推定部と、を含む、前記1以上のオブジェクトを分類するためのモデルを生成する生成手段と、
    前記生成されたモデルをモデル記憶手段に記憶させる記憶制御手段と、
    として機能させ、
    前記生成手段は、
    1以上のオブジェクトがそれぞれ存在する複数の画像を、画像記憶手段から取得する画像取得手段と、
    前記取得された複数の画像を用いて、前記特徴抽出部を訓練する第1訓練手段と、
    前記第1訓練手段により訓練された前記特徴抽出部により、前記複数の画像のうち1以上の画像それぞれの特徴マップを出力させる特徴マップ出力制御手段と、
    前記1以上の画像それぞれについて、前記出力された特徴マップを前記座標推定部に入力して、前記画像のうち、前記オブジェクトが存在する部分の領域の座標を少なくとも一つ出力させる座標出力制御手段と、
    前記1以上の画像それぞれについて、該画像から、前記出力された座標により示される部分の画像を抽出する抽出手段と、
    前記抽出された画像を用いて、前記第1訓練手段により訓練された前記特徴抽出部を更に訓練する第2訓練手段と、
    を含むことを特徴とする学習プログラム。
  11. コンピュータを、
    請求項1乃至6の何れか一項に記載の学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出し手段と、
    前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが存在する所与の画像の特徴マップを出力させる特徴マップ出力制御手段と、
    前記出力された所与の画像の特徴マップに基づいて、前記読み出されたモデルにより、前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス情報出力制御手段と、
    として機能させることを特徴とする分類プログラム。
JP2019552308A 2019-05-31 2019-05-31 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム Active JP6612487B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/021679 WO2020240809A1 (ja) 2019-05-31 2019-05-31 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム

Publications (2)

Publication Number Publication Date
JP6612487B1 true JP6612487B1 (ja) 2019-11-27
JPWO2020240809A1 JPWO2020240809A1 (ja) 2021-09-13

Family

ID=68692083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019552308A Active JP6612487B1 (ja) 2019-05-31 2019-05-31 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム

Country Status (3)

Country Link
US (1) US11455502B2 (ja)
JP (1) JP6612487B1 (ja)
WO (1) WO2020240809A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019670A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법
WO2022019390A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법
US20220198216A1 (en) * 2020-12-17 2022-06-23 Fujitsu Limited Computer-readable recording medium storing image output program, image output method, and image output apparatus
WO2023105609A1 (ja) * 2021-12-07 2023-06-15 楽天グループ株式会社 情報処理装置、情報処理方法、プログラム、および学習モデル

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210000013A (ko) * 2019-06-24 2021-01-04 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR20210061839A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
CN113269190B (zh) * 2021-07-21 2021-10-12 中国平安人寿保险股份有限公司 基于人工智能的数据分类方法、装置、计算机设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059207A (ja) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像認識方法
JP2018169672A (ja) * 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 教師画像を生成する方法、コンピュータおよびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3563305A4 (en) * 2016-12-30 2020-08-05 Nokia Technologies Oy ARTIFICIAL NEURAL NETWORK
US11379975B2 (en) * 2017-06-30 2022-07-05 Promaton Holding B.V. Classification and 3D modelling of 3D dento-maxillofacial structures using deep learning methods
JP7026456B2 (ja) * 2017-07-05 2022-02-28 キヤノン株式会社 画像処理装置、学習装置、フォーカス制御装置、露出制御装置、画像処理方法、学習方法、及びプログラム
US20210133474A1 (en) * 2018-05-18 2021-05-06 Nec Corporation Image processing apparatus, system, method, and non-transitory computer readable medium storing program
JP7006782B2 (ja) * 2018-06-01 2022-01-24 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11055574B2 (en) * 2018-11-20 2021-07-06 Xidian University Feature fusion and dense connection-based method for infrared plane object detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059207A (ja) * 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像認識方法
JP2018169672A (ja) * 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 教師画像を生成する方法、コンピュータおよびプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019670A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법
WO2022019390A1 (ko) * 2020-07-23 2022-01-27 주식회사 어반베이스 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법
KR20220012785A (ko) * 2020-07-23 2022-02-04 주식회사 어반베이스 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법
KR20220012787A (ko) * 2020-07-23 2022-02-04 주식회사 어반베이스 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법
KR102430743B1 (ko) * 2020-07-23 2022-08-11 주식회사 어반베이스 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법
KR102485503B1 (ko) * 2020-07-23 2023-01-05 주식회사 어반베이스 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법
JP2023508641A (ja) * 2020-07-23 2023-03-03 株式会社アーバンベース データ増強基盤事物分析モデル学習装置及び方法
JP7336033B2 (ja) 2020-07-23 2023-08-30 株式会社アーバンベース データ増強基盤事物分析モデル学習装置及び方法
US20220198216A1 (en) * 2020-12-17 2022-06-23 Fujitsu Limited Computer-readable recording medium storing image output program, image output method, and image output apparatus
WO2023105609A1 (ja) * 2021-12-07 2023-06-15 楽天グループ株式会社 情報処理装置、情報処理方法、プログラム、および学習モデル
JP7376730B1 (ja) 2021-12-07 2023-11-08 楽天グループ株式会社 情報処理装置、情報処理方法、プログラム、および学習モデル

Also Published As

Publication number Publication date
US11455502B2 (en) 2022-09-27
US20210406615A1 (en) 2021-12-30
WO2020240809A1 (ja) 2020-12-03
JPWO2020240809A1 (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
JP6612487B1 (ja) 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
US11631162B2 (en) Machine learning training method, system, and device
US10846524B2 (en) Table layout determination using a machine learning system
US20200167558A1 (en) Semantic page segmentation of vector graphics documents
JP6612486B1 (ja) 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
US10997464B2 (en) Digital image layout training using wireframe rendering within a generative adversarial network (GAN) system
US20180114097A1 (en) Font Attributes for Font Recognition and Similarity
CN104850388B (zh) 网页绘制方法及装置
CN107025430A (zh) 着重号列表
CN111274981B (zh) 目标检测网络构建方法及装置、目标检测方法
US9934431B2 (en) Producing a flowchart object from an image
CN116610304B (zh) 页面代码生成方法、装置、设备和存储介质
US11361189B2 (en) Image generation method and computing device
US8488183B2 (en) Moving labels in graphical output to avoid overprinting
CN115373658A (zh) 一种基于Web图片的前端代码自动生成方法和装置
KR101768913B1 (ko) 지리 정보 데이터 분할 방법, 분할 장치 및 이를 수행하는 프로그램을 기록하는 기록매체
Lopes et al. EvoDesigner: aiding the exploration of innovative graphic design solutions
JP7365845B2 (ja) 学習装置、学習方法、及びプログラム
US20230154075A1 (en) Vector Object Generation from Raster Objects using Semantic Vectorization
US11189066B1 (en) Systems and methods of learning visual importance for graphic design and data visualization
US20220092260A1 (en) Information output apparatus, question generation apparatus, and non-transitory computer readable medium
KR20230127538A (ko) 데이터 레이블링 시스템 및 방법
KR20240007476A (ko) 인공지능 기반의 사용자 스케치 인식을 통한 인포그래픽 라이브러리 추천 장치 및 방법
Qiu et al. Digital Media Content Analysis and Visualization Expression based on Computer Vision Technology
JP2022129792A (ja) 領域変換装置、領域変換方法及び領域変換システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190920

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191030

R150 Certificate of patent or registration of utility model

Ref document number: 6612487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250