JP6453968B2 - 閾値変更装置 - Google Patents

閾値変更装置 Download PDF

Info

Publication number
JP6453968B2
JP6453968B2 JP2017188820A JP2017188820A JP6453968B2 JP 6453968 B2 JP6453968 B2 JP 6453968B2 JP 2017188820 A JP2017188820 A JP 2017188820A JP 2017188820 A JP2017188820 A JP 2017188820A JP 6453968 B2 JP6453968 B2 JP 6453968B2
Authority
JP
Japan
Prior art keywords
evaluation
label
data
unit
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017188820A
Other languages
English (en)
Other versions
JP2018018537A (ja
Inventor
康浩 黒田
康浩 黒田
平賀 督基
督基 平賀
顕至 大熊
顕至 大熊
理弘 小林
理弘 小林
紘史 小山
紘史 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Morpho Inc
Original Assignee
Morpho Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Morpho Inc filed Critical Morpho Inc
Publication of JP2018018537A publication Critical patent/JP2018018537A/ja
Application granted granted Critical
Publication of JP6453968B2 publication Critical patent/JP6453968B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Description

本開示は、閾値変更装置に関する。
特許文献1には、複数のラベルを用いて認識対象データを分類するニューラルネットワークを、誤差逆伝搬法によって学習する装置が記載されている。このニューラルネットワークは、入力層、複数の中間層(隠れ層)及び出力層を備える。入力層は、複数個の人工ニューロンを備える。中間層のそれぞれは複数個の人工ニューロンを備える。出力層は、ラベルの数と同一の数の人工ニューロンを備える。学習装置は、入力データとラベルの評価とを含む教師データを用いてニューラルネットワークを学習する。
ラベルの評価には、データの内容がラベルに合致することを示す「正評価」、及び、データの内容がラベルに合致しないことを示す「負評価」がある。正評価又は負評価は、「0」「1」などの数値(正解スコア)に関連付けられており、これらの数値は正解値(Ground Truth)ともいう。学習装置は、入力データを入力層で取得し、中間層で演算し、出力層から出力された認識スコアと評価の正解スコアとが近づくように、中間層の演算パラメータを調整する。
ところで、ニューラルネットワークのラベルの付与のやり方(分類の仕方)には、複数のラベルの中から選択された1つのラベルのみが認識対象データに付与されるシングルラベルの分類と、複数のラベルの中から選択された複数のラベルが認識対象データに付与されることを許容するマルチラベルの分類が存在する。シングルラベルの場合、あるラベルが正評価であれば、他のラベルは負評価になる。一方、マルチラベルの場合には、複数のラベルが正評価である場合がある。
マルチラベルの教師データについて、一部のラベルの評価が間違っていたり存在しなかったりする場合もある。非特許文献1〜3には、このような不完全な教師データに対するアプローチとして、別途の学習によってラベルの評価を自動的に推定することが記載されている。
特開2014−229124号公報
E. Come, L. Oukhellou, T. Denoeux, and P. Aknin. Mixture modelestimation with soft labels. International Conference on Soft Methods inProbability and Statistics, 2008 R. Jin and Z., Ghahramani. Learning with multiplelabels. In Advances in Neural Information Processing 2002 C. Leistner, M Godec, S. Schulter, A. Saffari, M. Werlberger and H.Bischof. Improving Classifiers with Unlabeled Weakly-Related Videos. IEEEComputer Society International Conference on Computer Vision and PatternRecognition. 2011
別途の学習によってラベルの評価を自動的に推定する従来のアプローチでは、ラベルを付与する人(アノテータ)の作業負荷が軽減する可能性があるが、必ずしも正しい評価を推定できるとは限らない。このため、本技術分野では、誤った評価に基づいて学習が行われることを回避することが望まれている。
本発明の一側面に係る学習システムは、学習装置及び学習装置用の教師データ作成装置を備える。学習装置は、複数のラベルを用いて認識対象データを分類するニューラルネットワークを、誤差逆伝搬法によって学習する。教師データ作成装置は、学習装置のための教師データを作成する。教師データ作成装置は、入力データ取得部、評価取得部及び教師データ作成部を備える。入力データ取得部は、入力データを取得する。評価取得部は、入力データ取得部により取得された入力データに関して、ラベルごとに、入力データの内容がラベルに合致することを示す正評価、入力データの内容がラベルに合致しないことを示す負評価、及び、学習対象ラベルから除外することを示す無視評価の何れか1つを取得する。教師データ作成部は、入力データ取得部により取得された入力データと評価取得部により取得されたラベルごとの評価とを関連付けることにより、教師データを作成する。学習装置は、教師データ取得部、入力層、中間層、出力層及び誤差逆伝搬部を備える。教師データ取得部は、教師データ作成装置により作成された教師データを取得する。入力層は、教師データ取得部により取得された教師データに含まれる入力データをスコアとして取得する。中間層は、入力層が取得したスコアを、重み係数を用いて演算する。出力層は、中間層が演算したスコアを用いて、ラベルごとの認識スコアを出力する。誤差逆伝搬部は、出力層が出力したラベルごとの認識スコアとラベルごとの評価の正解スコアとを用いて中間層の重み係数を調整する。誤差逆伝搬部は、正評価又は負評価のラベルの認識スコアと正評価又は負評価の正解スコアとが近づくように中間層の重み係数を調整し、かつ、無視評価のラベルの認識スコアが中間層の重み係数の調整に影響を与えないようにする。
この学習システムでは、教師データ作成装置により、正評価、負評価及び無視評価の何れか1つがラベルの評価としてラベルごとに取得されて、教師データが作成される。つまり、この学習システムでは、「正評価」及び「負評価」に加えて「無視評価」という新たな評価を含むことができる教師データを用いて学習することができる。学習装置は、正評価又は負評価のラベルの認識スコアと正評価又は負評価の正解スコアとが近づくように中間層の重み係数を調整し、かつ、無視評価のラベルの認識スコアが中間層の重み係数の調整に影響を与えないようにする。このため、正評価又は負評価のラベルについては認識部の精度向上を図ることができるとともに、無視評価のラベルに関しては認識部の精度に影響を及ぼさないようにすることができる。入力データには必ず正評価又は負評価が付与されていなければならないという従来の枠組みにおいては、不完全なラベルの評価を推定などにより完全なラベルの評価に近づけるというアプローチが採用されていた。これに対して、無視評価という新たな評価を導入することにより、不完全な評価のうち正しく付与された評価のみを用いて学習するという新たなアプローチを採用することができるため、誤った評価に基づいて学習が行われることを回避することができる。
一実施形態においては、誤差逆伝搬部は、無視評価の正解スコアを無視評価のラベルの認識スコアと同じ値に設定してもよいし、無視評価の正解スコアと無視評価のラベルの認識スコアとの差分を0に変更してもよいし、又は、無視評価の正解スコアと無視評価のラベルの認識スコアとの差分の微分値を0に変更してもよい。これにより、無視評価のラベルについても逆伝搬は行われるものの、中間層の重み係数は無調整となる。よって、ニューラルネットワークの構成や誤差逆伝搬部による逆伝搬の数式を変更することなく、無視評価のラベルに関する逆伝搬を無効化することができる。
一実施形態においては、誤差逆伝搬部は、無視評価のラベルに関するニューラルネットワークの接続を遮断してもよい。これにより、逆伝搬そのものを直接的に無効化することができる。
一実施形態においては、教師データ作成部は、評価取得部によって評価が取得できないラベルと無視評価とを関連付けてもよい。これにより、未評価のラベルについて、正評価か負評価を無理に設定することなく学習することができる。
一実施形態においては、教師データ作成装置は、ラベルの評価を指定するユーザ操作を受け付ける受付部を備え、評価取得部は、受付部により受け付けられたユーザ操作によって指定されるラベルの評価を取得してもよい。このように、ユーザが評価を変更又は追加することができる構成とすることで、誤った評価に基づいて学習が行われることを回避することができるだけでなく、正しい評価に基づいて学習を行うことができ、結果として認識部の精度を向上させることができる。
一実施形態においては、受付部は、入力データの一部のラベルの評価を指定するユーザ操作を受け付け、教師データ作成部は、評価取得部により取得された一部のラベルの評価を、入力データ取得部により取得された入力データと関連付けるとともに、入力データの残りのラベルの評価を無視評価にしてもよい。このように構成することで、一部のラベルに対して評価された場合であっても、教師データを作成することができる。
一実施形態においては、教師データ作成部は、評価取得部により取得されたラベルの評価を入力データ取得部により取得された入力データと関連付ける前に、入力データの全てのラベルの評価を無視評価にしてもよい。このように、デフォルト設定として全てのラベルを無視評価としておき、評価を取得できたものについて無視評価から正評価又は負評価へ変更することができる。つまり、アノテータが作業する場合に、無視評価を明示的に指示する手間を省くことができる。
本発明の他の側面に係る学習装置は、複数のラベルを用いて認識対象データを分類するニューラルネットワークを、誤差逆伝搬法によって学習する学習装置である。学習装置は、教師データ取得部、入力層、中間層、出力層及び誤差逆伝搬部を備える。教師データ取得部は、入力データと入力データに予め関連付けられたラベルごとの評価とを含む教師データを取得する。入力データには、入力データの内容がラベルに合致することを示す正評価、入力データの内容がラベルに合致しないことを示す負評価、及び、学習対象ラベルから除外することを示す無視評価の何れか1つがラベルごとに関連付けられている。入力層は、教師データ取得部により取得された教師データに含まれる入力データをスコアとして取得する。中間層は、入力層が取得したスコアを、重み係数を用いて演算する。出力層は、中間層が演算したスコアを用いて、ラベルごとの認識スコアを出力する。誤差逆伝搬部は、出力層が出力したラベルごとの認識スコアとラベルごとの評価の正解スコアとを用いて中間層の重み係数を調整する。誤差逆伝搬部は、正評価又は負評価のラベルの認識スコアと正評価又は負評価の正解スコアとが近づくように中間層の重み係数を調整し、かつ、無視評価のラベルの認識スコアが中間層の重み係数の調整に影響を与えないようにする。
この学習装置では、「正評価」及び「負評価」に加えて「無視評価」という新たな評価を含むことができる教師データを用いて学習することができる。学習装置は、正評価又は負評価のラベルの認識スコアと正評価又は負評価の正解スコアとが近づくように中間層の重み係数を調整し、かつ、無視評価のラベルの認識スコアが中間層の重み係数の調整に影響を与えないようにする。このため、正評価又は負評価のラベルについては認識部の精度向上を図ることができるとともに、無視評価のラベルに関しては認識部の精度に影響を及ぼさないようにすることができる。入力データには必ず正評価又は負評価が付与されていなければならないという従来の枠組みにおいては、不完全なラベルの評価を推定などにより完全なラベルの評価に近づけるというアプローチが採用されていた。これに対して、無視評価という新たな評価を導入することにより、不完全な評価のうち正しく付与された評価のみを用いて学習するという新たなアプローチを採用することができるため、誤った評価に基づいて学習が行われることを回避することができる。
本発明の他の側面に係る教師データ作成装置は、複数のラベルを用いて認識対象データを分類するニューラルネットワークを誤差逆伝搬法によって学習する学習装置のための教師データを作成する教師データ作成装置である。この装置は、入力データ取得部、評価取得部及び教師データ作成部を備える。入力データ取得部は、入力データを取得する。評価取得部は、入力データ取得部により取得された入力データに関して、ラベルごとに、入力データの内容がラベルに合致することを示す正評価、入力データの内容がラベルに合致しないことを示す負評価、及び、学習対象ラベルから除外することを示す無視評価の何れか1つを取得する。教師データ作成部は、入力データ取得部により取得された入力データと評価取得部により取得されたラベルごとの評価とを関連付けることにより、教師データを作成する。
上述したとおり、教師有り学習においては全てのラベルの正解値が必要であるため、教師データの作成にコストがかかる。特にマルチラベルの場合には、シングルラベルの場合のように、あるラベルが正評価であれば他のラベルは負評価になるという関係性がないことから、全てのラベルについて、正評価又は負評価の何れかを付与する必要がある。さらに、教師データの作成は、人(アノテータ)が行うことがある。アノテータは、ラベルについての評価に自信が有る無しにかかわらず、教師データ作成のためにラベルの評価を下す必要がある。このため、誤った評価に基づいて学習が行われる可能性がある。これに対して、この教師データ作成装置では、正評価、負評価及び無視評価の何れかラベルの評価としてラベルごとに取得されて、教師データが作成される。つまり、この教師データ作成装置では、教師データに「正評価」及び「負評価」に加えて「無視評価」という新たな評価を含ませることができる。無視評価という新たな評価を導入することにより、不完全な評価のうち正しく付与された評価のみを用いて学習するという新たなアプローチを採用することができるため、誤った評価に基づいて学習が行われることを回避することができる。
本発明の他の側面に係る学習方法は、複数のラベルを用いて認識対象データを分類するニューラルネットワークを、誤差逆伝搬法によって学習する学習方法である。学習方法は、教師データ取得ステップ、入力データ取得ステップ、演算ステップ、出力ステップ及び誤差逆伝搬ステップを備える。教師データ取得ステップでは、入力データと入力データに予め関連付けられたラベルごとの評価とを含む教師データを取得する。入力ステップでは、入力層が、教師データ取得ステップで取得された教師データに含まれる入力データをスコアとして取得する。演算ステップでは、中間層が、入力ステップで取得されたスコアを、重み係数を用いて演算する。出力ステップでは、出力層が、演算ステップで演算されたスコアを用いて、ラベルごとの認識スコアを出力する。誤差逆伝搬ステップでは、出力ステップで出力されたラベルごとの認識スコアとラベルごとの評価の正解スコアとを用いて中間層の重み係数を調整する。入力データには、入力データの内容がラベルに合致することを示す正評価、入力データの内容がラベルに合致しないことを示す負評価、及び、学習対象ラベルから除外することを示す無視評価の何れか1つがラベルごとに関連付けられている。誤差逆伝搬ステップでは、正評価又は負評価のラベルの認識スコアと正評価又は負評価の正解スコアとが近づくように中間層の重み係数を調整し、かつ、無視評価のラベルの認識スコアが中間層の重み係数の調整に影響を与えないようにする。
この学習方法の効果は、上述した学習装置の効果と同一である。
本発明の他の側面に係る教師データ作成方法は、複数のラベルを用いて認識対象データを分類するニューラルネットワークを誤差逆伝搬法によって学習する学習装置のための教師データを作成する教師データ作成方法である。この方法は、入力データ取得ステップ、評価取得ステップ及び教師データ作成ステップを備える。入力データ取得ステップでは、入力データを取得する。評価取得ステップでは、入力データ取得ステップにより取得された入力データに関して、ラベルごとに、入力データの内容がラベルに合致することを示す正評価、入力データの内容がラベルに合致しないことを示す負評価、及び、学習対象ラベルから除外することを示す無視評価の何れか1つを取得する。教師データ作成ステップでは、入力データ取得ステップで取得された入力データと評価取得ステップで取得されたラベルごとの評価とを関連付けることにより、教師データを作成する。
この教師データ作成方法の効果は、上述した教師データ作成装置の効果と同一である。
本発明の他の側面に係る学習プログラムは、複数のラベルを用いて認識対象データを分類するニューラルネットワークを、誤差逆伝搬法によって学習するようにコンピュータを動作させる学習プログラムである。学習プログラムは、コンピュータを、教師データ取得部、入力層、中間層、出力層及び誤差逆伝搬部として機能させる。教師データ取得部は、入力データと入力データに予め関連付けられたラベルごとの評価とを含む教師データを取得する。入力データには、入力データの内容がラベルに合致することを示す正評価、入力データの内容がラベルに合致しないことを示す負評価、及び、学習対象ラベルから除外することを示す無視評価の何れか1つがラベルごとに関連付けられている。入力層は、教師データ取得部により取得された教師データに含まれる入力データをスコアとして取得する。中間層は、入力層が取得したスコアを、重み係数を用いて演算する。出力層は、中間層が演算したスコアを用いて、ラベルごとの認識スコアを出力する。誤差逆伝搬部は、出力層が出力したラベルごとの認識スコアとラベルごとの評価の正解スコアとを用いて中間層の重み係数を調整する。誤差逆伝搬部は、正評価又は負評価のラベルの認識スコアと正評価又は負評価の正解スコアとが近づくように中間層の重み係数を調整し、かつ、無視評価のラベルの認識スコアが中間層の重み係数の調整に影響を与えないようにする。
この学習プログラムの効果は、上述した学習装置の効果と同一である。
本発明の他の側面に係る教師データ作成プログラムは、複数のラベルを用いて認識対象データを分類するニューラルネットワークを誤差逆伝搬法によって学習する学習装置のための教師データを作成するようにコンピュータを動作させる教師データ作成プログラムである。教師データ作成プログラムは、コンピュータを、入力データ取得部、評価取得部及び教師データ作成部として機能させる。入力データ取得部は、入力データを取得する。評価取得部は、入力データ取得部により取得された入力データに関して、ラベルごとに、入力データの内容がラベルに合致することを示す正評価、入力データの内容がラベルに合致しないことを示す負評価、及び、学習対象ラベルから除外することを示す無視評価の何れか1つを取得する。教師データ作成部は、入力データ取得部により取得された入力データと評価取得部により取得されたラベルごとの評価とを関連付けることにより、教師データを作成する。
この教師データ作成プログラムの効果は、上述した教師データ作成装置の効果と同一である。
本発明の他の側面に係る端末装置は、上述した学習装置と通信可能な端末装置であって、認識対象データを取得する認識対象データ取得部と、学習装置によって学習されたパラメータを用いて、認識対象データの内容を表すラベルを認識対象データに付与する認識部と、認識対象データ取得部により取得された認識対象データに付与するためのプライベートラベルを決定するユーザ操作を受け付ける操作受付部と、操作受付部により受け付けられたユーザ操作に基づいて、プライベートラベルを認識対象データに付与するラベル編集部と、を備える。
この端末装置は、学習装置の学習結果に基づいて付与されるラベル以外のラベル(プライベートラベル)を付与することができる。このため、この端末装置は、ユーザの利便性を向上させることができる。
一実施形態において、端末装置は、ラベル編集部により付与されたプライベートラベルの付与日時の履歴、及び、基準日時に基づいて、プライベートラベルをユーザに提示するラベル提示部を備えてもよい。このように構成することで、この端末装置は、ユーザの行動に応じてユーザに対してプライベートラベルを提示することができる。
一実施形態において、端末装置は、認識対象データの生成時に付与された付随情報に基づいて、プライベートラベルをユーザに提示するラベル提示部を備えてもよい。このように構成することで、この端末装置は、認識対象データの生成時の状況に応じてユーザに対してプライベートラベルを提示することができる。
一実施形態において、端末装置は、操作受付部は、コメントを付して認識対象データを他人と共有するユーザ操作を受け付け、操作受付部により受け付けられたユーザ操作に基づいて、共有される認識対象データを決定する決定部と、決定部により決定された認識対象データに付されたコメントの内容を解析する解析部と、解析部の解析結果に基づいて、プライベートラベルをユーザに提示するラベル提示部を備えてもよい。このように構成することで、この端末装置は、ユーザにより付与されたコメントに応じてユーザに対してプライベートラベルを提示することができる。
一実施形態において、端末装置は、言語サーバと通信可能に構成され、付与されたプライベートラベルのリストを言語サーバへ出力するリスト出力部と、言語サーバから代表ラベルと付与されたプライベートラベルとの関係を取得する関係取得部と、関係取得部により取得された関係に基づいて、プライベートラベルを代表ラベルへ修正することをユーザに推奨する推奨部と、を有し、言語サーバは、端末装置からリストを取得するリスト取得部と、リスト取得部により取得されたリストに基づいて、プライベートラベルをグループに集約する集約部と、集約部により集約されたグループに対して代表ラベルを選択する代表ラベル選択部と、代表ラベル選択部の選択結果に基づいて、代表ラベルと付与されたプライベートラベルとの関係を端末装置へ出力する代表ラベル出力部と、を備えてもよい。このように構成することで、この端末装置は、プライベートラベルを整理することをユーザに促すことができる。
本発明の他の側面に係る閾値変更装置は、端末装置における閾値を変更する装置である。端末装置は、認識対象データを取得し、ニューラルネットワークによって認識対象データの内容が所定ラベルに合致する度合いを示す認識スコアを出力し、認識スコアと認識スコアに対して予め設定された閾値とを用いて認識対象データの内容が所定ラベルに合致するか否かを示す認識結果を出力する。閾値変更装置は、評価データ取得部、端末データ取得部、認識スコア取得部、算出部及び変更部を備える。評価データ取得部は、入力データと、入力データに関連付けられ、入力データの内容が所定ラベルに合致する正評価であるか入力データの内容が所定ラベルに合致しない負評価であるかを示す所定ラベルの正解評価と、を含む評価データを取得する。端末データ取得部は、端末装置に関連付けられたデータの正評価及び負評価の比を取得する。認識スコア取得部は、ニューラルネットワーク(例えば認識用のニューラルネットワーク)又は当該ニューラルネットワークの重み係数と同一の重み係数を有するニューラルネットワーク(例えば学習用のニューラルネットワーク)から、入力データに関する所定ラベルの認識スコアを取得する。算出部は、認識スコア取得部により取得された所定ラベルの認識スコアと、閾値を用いて、正解評価が正評価の入力データが正評価として認識されたデータ数、及び、正解評価が負評価の入力データが正評価として認識されたデータ数を算出し、算出されたデータ数を用いて所定ラベルに関する適合率を算出する。変更部は、算出部により算出された適合率を用いて閾値を変更する。算出部は、正解評価が負評価の入力データが正評価として認識されたデータ数を、評価データの正評価及び負評価の比、及び、端末装置に関連付けられたデータの正評価及び負評価の比を用いて補正し、補正されたデータ数を用いて適合率を算出する。
この閾値変更装置によれば、負評価の入力データを正評価として認識したデータ数が、評価データの正評価及び負評価の比、及び、端末装置に関連付けられたデータの正評価及び負評価の比を用いて補正される。そして、補正後のデータ数を用いて算出された所定ラベルに関する適合率に基づいて、端末装置によって行われる認識の際に用いられる閾値が変更される。このように、所定ラベルに関する適合率を算出する際に、評価データにおける正負のデータの分布と端末装置における正負のデータの分布とを考慮して、負評価の入力データを正評価として認識したデータ数が補正される。このため、例えば、評価データにおける正負のデータの偏りを打ち消した上で端末装置における正負のデータの偏りを、データ数に反映させることができる。よって、評価データにおける正負のデータに偏りが存在し、端末装置における正負のデータの偏りと差異が生じている場合であっても、この装置は、端末装置に合わせた適切な評価を行うことができるので、結果として端末装置に合わせて適切に閾値を変更することができる。
一実施形態において、算出部は、所定ラベルに関する再現率及び適合率を算出してもよい。変更部は、閾値を再現率及び適合率の調和平均が最大となる認識スコアへ変更してもよい。この場合、この装置は、再現率及び補正された適合率を用いて閾値を変更することができる。
一実施形態において、端末データ取得部は、端末装置のニューラルネットワークの認識結果、又は、端末装置のユーザによるアノテーションの結果に基づいて、端末装置に関連付けられたデータの正評価及び負評価の比を取得してもよい。この場合、この装置は、端末装置における正負のデータの偏りを実際のデータに基づいて取得することができる。
一実施形態において、端末データ取得部は、端末装置のユーザの操作又は端末情報に基づいて、端末装置に関連付けられたデータの正評価及び負評価の比を取得してもよい。この場合、この装置は、端末装置における正負のデータの偏りを予測して取得することができる。
本発明の他の側面に係る閾値変更装置は、端末装置における閾値を変更する装置である。端末装置は、認識対象データを取得し、ニューラルネットワークによって認識対象データの内容が所定ラベルに合致する度合いを示す認識スコアを出力し、認識スコアと認識スコアに対して予め設定された閾値とを用いて認識対象データの内容が所定ラベルに合致するか否かを示す認識結果を出力する。閾値変更装置は、端末データ取得部、記憶部及び変更部を備える。端末データ取得部は、端末装置に関連付けられたデータの正評価及び負評価の比を取得する。記憶部は、比と閾値との関係性を記憶する。変更部は、記憶部に記憶された関係性、及び、端末データ取得部により取得された比を用いて閾値を変更する。
この閾値変更装置によれば、予め記憶された比と閾値との関係性と、端末データ取得部により取得された比とを用いて閾値が変更される。このように、予め記憶された比と閾値との関係性を用いることで、閾値変更のための演算負荷を軽減することができる。
本発明の種々の側面によれば、誤った評価に基づいて学習が行われることを回避することができる。
認識部を説明する図である。 認識部におけるニューラルネットワークを説明する図である。 図2に示す人工ニューロンを説明する図である。 実施形態に係る学習システムの機能ブロック図である。 図4に示す装置のハードウェア構成を示すブロック図。 教師データの一例である。 学習用認識部におけるニューラルネットワークを説明する図である。 実施形態に係る教師データ作成方法のフローチャートである。 実施形態に係る学習方法のフローチャートである。 第2実施形態に係る端末装置の機能ブロック図である。 付与ラベル記憶部に記憶されたデータの一例である。 プライベートラベルの付与方法を示すフローチャートである。 第3実施形態に係る端末装置の機能ブロック図である。 プライベートラベルの選択処理を説明する表である。 プライベートラベルの提示方法を示すフローチャートである。 プライベートラベルの他の提示方法を示すフローチャートである。 第4実施形態に係る端末装置の機能ブロック図である。 プライベートラベルの他の提示方法を示すフローチャートである。 第5実施形態に係る学習システム及び端末装置の機能ブロック図である。 プライベートラベルの修正推奨方法を示すフローチャートである。 プライベートラベルの階層化構造を示す図である。 認識スコアの閾値を説明するグラフである。 第6実施形態に係る学習システム及び端末装置の機能ブロック図である。 評価データにおけるデータの偏りを説明する図である。 閾値変更処理を示すフローチャートである。 第7実施形態に係る端末装置の機能ブロック図である。 閾値変更処理を示すフローチャートである。
以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
[第1実施形態]
実施形態に係る学習システム100(図4参照)は、認識対象データの内容を認識する認識部11(図1参照)のパラメータを学習するシステムである。認識対象データとは、コンピュータに認識させる対象となるデータであり、例えば、画像データ、音声データ、テキストデータなどである。認識部11のパラメータは、認識対象データを認識する認識処理に用いられる値である。以下では、一例として、認識対象データが画像データであり、認識する対象が画像の内容(人、動物、物体、風景、室内など)である場合を説明する。
最初に、認識部11を説明する。図1は、認識部11を説明する図である。図1に示すように、認識部11は、端末装置10に備わる。認識部11は、画像データである認識対象データG1を入力し、認識結果を出力する。図1の(A)に示すように、認識対象データG1は、犬が描画された画像の画像データである。認識部11は、画像データ(より詳細には画素値)を入力し、学習済みのパラメータを用いて画像の内容を表すラベルを出力する。ラベルとは、認識対象データの内容を分類するために用いるものであり、システム利用者によって予め設定されたカテゴリを識別する情報である。図1の(A)の場合、認識部11は認識結果として「犬」のラベルを出力する。ラベルは、認識部11によって認識対象データG1に付与される。付与とは、関連付けされることを意味し、例えば関連テーブルなどで認識対象データG1とラベルとの関係性のみが記録されてもよいし、認識対象データG1そのものに組み込まれてもよい。一般的に、認識対象データにラベルを付与することをアノテーションという。認識部11は、画像データを入力してラベルを付与することができるため、画像データを自動的に分類したり、Web上で所望の画像を検索したりすることができる。
システム利用者によって予め設定されたラベルが複数ある場合、その中から最も確からしいラベルを認識対象データに付与するシングルラベル処理と、ある一定の確からしさとなったラベルの全てを認識対象データに付与するマルチラベル処理が存在する。図1の(B)に示すように、認識対象データG2は、人及び花が描画された画像の画像データである。認識部11がシングルラベル処理を行う場合、認識部11によって認識対象データG2に「人」のラベルが付与される。認識部11がマルチラベル処理を行う場合、認識部11によって認識対象データG2に「人」のラベルと「花」のラベルの2つが付与される。本実施形態は、シングルラベル処理及びマルチラベル処理の何れの場合にも採用することができるが、以下では一例として、マルチラベル処理を行う場合を説明する。
次に、認識部11の詳細について説明する。図2は、認識部11におけるニューラルネットワークを説明する図である。認識部11は、ニューラルネットワークを用いて画像データに対応するラベルを認識する。ニューラルネットワークとは、脳神経系をモデルにした情報処理システムである。図2に示すように、認識部11のニューラルネットワークは、いわゆる階層型ニューラルネットワークであり、円で示す多数の人工ニューロンが階層を形成しつつ連結されている。階層型ニューラルネットワークは、入力用の人工ニューロン、処理用の人工ニューロン及び出力用の人工ニューロンを備える。
入力用の人工ニューロンは、認識対象データを取得して処理用の人工ニューロンへ分配する。以下では、ニューラルネットワークでやり取りされる信号そのものをスコアという。スコアは数値である。入力用の人工ニューロンは、並列配置されることで入力層111を形成する。
処理用の人工ニューロンは、入力用の人工ニューロンに接続され、人工ニューロンの機能にしたがって入力を処理し、出力を他のニューロンへ伝える。処理用の人工ニューロンは、並列配置されることで中間層112を形成する。中間層112は、複数の層であってもよい。なお、中間層112を備えた3階層以上のニューラルネットワークをディープニューラルネットワークという。
出力用の人工ニューロンは、外部へ認識スコアを出力する。出力用の人工ニューロンは、ラベルの数と同じ数だけ用意される。つまり、ニューラルネットワークでは、ラベルごとに認識スコアを出力する。図2の例では、「犬」「人」「花」の3つのラベルに合わせて3つの人工ニューロンが用意されている。出力用の人工ニューロンは、「犬」のラベルに対応する認識スコアB1、「人」のラベルに対応する認識スコアB2、「花」のラベルに対応する認識スコアB3を出力する。認識スコアは、認識の確からしさを表すスコアであり、正評価を「1」、負評価を「0」として学習した場合には、ラベルの認識スコアが高いほど画像の内容を示すラベルである確からしさが高くなる。出力用の人工ニューロンは、並列配置されることで出力層113を形成する。
認識部11は、出力層113によって出力された認識スコアを用いて、付与ラベルを決定する。例えば、認識部11は、所定値以上の認識スコアに対応するラベルを認識対象データに付与する。これにより、認識対象データにその内容を示すラベルが自動的に付与される。なお、シングルラベル処理の場合には、認識部11は、最も高い認識スコアに対応するラベルを認識対象データに付与する。
図3は、図2に示す人工ニューロンを説明する図である。図3の(A)に示す人工ニューロンは、x,x,xを入力し、それぞれに対応する重み係数w1,w,wをそれぞれ積算する。人工ニューロンは、積算値(x・w1,x・w,x・w)とバイアス値bとの総和を算出する。この総和を活性化関数に代入して、人工ニューロンの出力とする。
より詳細には、対象の人工ニューロンの出力は、以下の数式となる。
Figure 0006453968

ここで、gは活性化関数であり、例えばシグモイド関数である。
図3の(B)は、N階層(N=3)の人工ニューロンを説明する図である。図3の(B)に示されるように、3階層の場合には、2階層に位置する人工ニューロンの出力h (2)、h (2)、h (2)はそれぞれ以下の数式3〜5となる。ここで、nは対象階層の人工ニューロンの数、w1j (1)は2階層1番目の人工ニューロンにおける1階層j番目の出力に対応する重み係数、b (1)は1階層のバイアス値である。
Figure 0006453968

2j (1)は2階層2番目の人工ニューロンにおける1階層j番目の出力に対応する重み係数、w3j (1)は2階層3番目の人工ニューロンにおける1階層j番目の出力に対応する重み係数、b (1)は1階層2番目のバイアス値、b (1)は1階層3番目のバイアス値である。これにより、3階層の人工ニューロンの出力h (3)は以下の数式6で表される。
Figure 0006453968

なお、バイアス値bは必ずしも必要ではなく、前段の人工ニューロンの出力と重み係数との積算値だけで出力を演算してもよい。
人工ニューロンは上記に限定されるものではなく、一般化したものでもよい。i番目の中間層112の機能に関する一般式は以下の数式7となる。
Figure 0006453968

ここで、x(i)は中間層112への入力ベクトル、w(i) は中間層112の重みパラメータベクトル、b(i) はバイアスベクトル、v(i) は中間層112の出力ベクトルである。画像認識で一般的に使用される中間層112の一例として、全結合層及び畳み込み層がある。図3で表現されている全結合層の出力は、一般的には以下の数式8となる。
Figure 0006453968

ここで、x (i) はi番目の中間層112の出力の第p成分、v (i)は中間層112の出力の第q成分、wp,q (i) は中間層112の重み係数のp,q成分である。また、畳み込み層の出力は以下の数式9となる。
Figure 0006453968

ここで、xp,(r,s) (i) はi番目の中間層112の入力の第pチャンネルの(r,s)成分、vq,(r,s) (i)は中間層112の出力の第qチャンネルの(r,s)成分、wp,q,(r’,s’) (i)は中間層112の畳み込みフィルタに関する重み係数である。r’,s’は、0から畳み込みフィルタの(幅−1)、(高さ−1)の値まで変化する。以上のような中間層112及び活性化関数g(i)の計算を繰り返すことにより、出力層113直前の中間層の出力が以下の数式10となる。
Figure 0006453968
上述した重み係数及びバイアス値は、後述する学習システム100で学習され、認識部11へ配布されたものである。つまり、学習システム100は、認識対象データの特徴量とその内容を示すラベルとを対応させるための重み係数及びバイアス値を学習するシステムである。なお、認識部11がバイアス値bを用いない場合には、学習システム100は、重み係数のみを学習する。
図4は、実施形態に係る学習システム100の機能ブロック図である。学習システム100は、画像データを収集して学習し、端末装置10へ学習した重み係数及びバイアス値を提供する。学習システム100は、画像データを格納したデータベース21、画像データを生成するカメラ22、画像データをダウンロード可能なWebサイト23などに接続されており、学習の入力データとなる画像データを取得することができる。もちろん、学習システム100は、外部記憶媒体を接続して画像データを取得してもよいし、通信を介して画像データを受信してもよく、画像データ取得の態様には限定されない。
最初に、端末装置10、並びに、学習システム100が備える教師データ作成装置30及び学習装置40のハードウェアについて説明する。図5は、図4に示す装置のハードウェア構成を示すブロック図である。図5に示すように、端末装置10は、物理的には、CPU(Central Processing Unit)101、RAM(Random Access Memory)102及びROM(Read Only Memory)103などの主記憶装置、タッチパネルやキーボードなどの入力デバイス104、ディスプレイなどの出力デバイス105、ハードディスクなどの補助記憶装置106などを含む通常のコンピュータシステムとして構成される。端末装置10の各機能は、CPU101が、RAM102、ROM103などのハードウェア上に所定のコンピュータソフトウェアを読み込ませ、CPU101の制御の元で入力デバイス104及び出力デバイス105を動作させるとともに、主記憶装置や補助記憶装置106におけるデータの読み出し及び書き込みを行うことで実現される。
教師データ作成装置30及び学習装置40のハードウェアも端末装置10と同一のハードウェアで構成可能である。すなわち、教師データ作成装置30は、物理的には、CPU301、RAM302及びROM303などの主記憶装置、入力デバイス304、出力デバイス305、補助記憶装置306などを含む通常のコンピュータシステムとして構成される。学習装置40は、物理的には、CPU401、RAM402及びROM403などの主記憶装置、入力デバイス404、出力デバイス405、補助記憶装置406などを含む通常のコンピュータシステムとして構成される。
次に、学習システム100の機能について説明する。図4に示すように、学習システム100は、教師データ作成装置30及び学習装置40を備える。教師データ作成装置30は、学習装置40が学習する際に利用する教師データを作成し、学習装置40へ提供する。教師データとは、処理対象データと認識対象が同一のデータと、当該データに対応するラベルの評価とを含む。教師データ作成装置30は、入力データ取得部31、評価取得部32、受付部33及び教師データ作成部34を備える。
入力データ取得部31は、入力データを取得する。入力データ取得部31は、データベース21、カメラ22、Webサイト23、外付け記憶媒体などから学習の入力データを取得する。入力データとは、学習に用いるデータであり、処理対象データと認識対象が同一のデータである。ここでは入力データは画像データである。入力データは、予め設定された複数のラベルの評価をする対象となるデータである。入力データは、幾つかのラベルの評価が既になされていてもよいし、全くなされていなくてもよい。つまり、入力データには既に何らかのラベルが付与されていてもよい。ここでは、入力データは、付与するか否かの判断がなされていないラベルを少なくとも含む。
評価取得部32は、入力データ取得部31により取得された入力データに関して、ラベルごとに、入力データの内容がラベルに合致することを示す「正評価」、入力データの内容がラベルに合致しないことを示す「負評価」、及び、学習対象ラベルから除外することを示す「無視評価」の何れか1つを取得する。あるラベルの評価が正評価である場合、入力データの内容はラベルが示すカテゴリに属することを意味する。あるラベルの評価が負評価である場合、入力データの内容はラベルが示すカテゴリに属さないことを意味する。あるラベルの評価が無視評価である場合、当該ラベルについては学習対象ラベルから除外することを意味する。このように、評価取得部32は、「正評価」「負評価」だけでなく「無視評価」を取得対象の選択肢に含んでいる。
評価取得部32は、ラベルの評価として、人であるアノテータが判断した内容を取得する。図4に示すように、教師データ作成装置30は、ラベルの評価を指定するユーザ操作を受け付ける受付部33を備える。ユーザ操作とは、アノテータの操作のことである。より具体的な一例としては、ユーザ操作は、あるラベルに対して「正評価」「負評価」及び「無視評価」の何れか1つを選択する操作、又は、あるラベルに対して2つの評価を排除する操作である。受付部33は、ユーザ操作に関する信号を評価取得部32へ取得する。評価取得部32は、受付部33により受け付けられたユーザ操作によって指定されるラベルの評価を取得する。
ユーザ操作には、端末装置10のユーザによる操作が含まれてもよい。例えば、ユーザが実際に認識部11を動作させた後、評価を決定するユーザ操作を行う。端末装置10は、ユーザ操作と入力データとを教師データ作成装置30へ送信する。評価取得部32は、取得したユーザ操作に基づいて入力データのラベルの評価を決定する。このように、認識部11を使用するユーザが、結果をフィードバックすることができるため、再学習を行うことで認識部11の精度が向上する。つまり、このように構成することで、ユーザ介在型のインタラクティブな学習を実現することができ、学習の精度を向上させることができる。
また、評価取得部32は、入力データに既に関連付けられているラベルの評価をそのまま取得してもよい。例えば、ラベル「犬」に関する教師データが存在している場合には、その入力データにはラベル「犬」に関して、既に「正評価」「負評価」及び「無視評価」の何れか1つが関連付けされている。評価取得部32は、ラベルの評価がある場合には、その評価を利用し、未評価のラベルに対して上述したユーザ操作を受け付けて評価を決定するようにしてもよい。このように構成することで、例えば、既存の教師データを用いて新たな教師データを容易に作成することができる。
教師データ作成部34は、入力データ取得部31により取得された入力データと評価取得部32により取得されたラベルごとの評価とを関連付けることにより、教師データを作成する。教師データ作成部34は、入力データとラベルごとの評価とを一つのデータにして教師データとしてしてもよいし、テーブルを用いて入力データとラベルごとの評価とを関連付けてもよい。
図6は、教師データの一例である。図6の(A)に示すように、入力データT1〜TN(Nは自然数)それぞれに複数のラベルが関連付けられている。ここでは入力データT1〜TNにそれぞれ3つのラベルが関連付けられている。例えば、第1ラベルL1は画像の内容が「犬」であることを示すラベルであり、第2ラベルL2は画像の内容が「人」であることを示すラベルであり、第3ラベルL3は画像の内容が「花」であることを示すラベルである。教師データ作成部34は、入力データごとに全てのラベルの評価を関連付けする。例えば、入力データT1は犬の画像であり、人が写っていないとする。この場合、第1ラベルL1の評価である正がテーブルに記憶され、第2ラベルL2の評価である負がテーブルに記憶される。なお、入力データT3に花が写っているか否か不明な場合、花が写っているか否かの判断がなされていない場合(評価取得部32により評価を取得できない場合)などにおいては無視評価とされ、第3ラベルL3の評価である無視がテーブルに記憶される。このように、入力データT1〜TNそれぞれに関して、各ラベルの評価が関連付けられている。なお、正評価を「1」、負評価を「0」など、スコアで表示してもよい。このような入力データの評価を示すスコアを正解スコアという。図6の(B)は、図6の(A)に示すテーブルをスコアで表示したものである。無視評価については、アスタリスクとして入力データに関連付けられる。
また、教師データ作成部34は、評価取得部32により取得されたラベルの評価を入力データ取得部31により取得された入力データと関連付ける前に、入力データの全てのラベルの評価を無視評価にしてもよい。つまり、教師データ作成部34は、デフォルト設定として全てのラベルを無視評価としておき、評価を取得できたものについて無視評価から正評価又は負評価へ変更する。教師データ作成部34は、作成した教師データを学習装置40へ提供する。例えば、教師データ作成部34の出力を記録媒体に記憶し、記憶媒体を学習装置40に読み込ませてもよいし、教師データ作成部34から通信を介して学習装置40へ送信してもよい。
学習装置40は、教師データ取得部41、学習用認識部42及び誤差逆伝搬部43を備えている。教師データ取得部41は、教師データ作成装置30が作成した教師データを取得する。
学習用認識部42は、認識部11と同一の構成を有しており、入力層111、中間層112及び出力層113を備える。入力層111は、教師データ取得部41により取得された教師データに含まれる入力データをスコアとして取得する。中間層112は、入力層111が取得したスコアを、重み係数を用いて演算する。出力層113は、中間層112が演算したスコアを用いて、ラベルごとの認識スコアを出力する。
誤差逆伝搬部43は、出力層113が出力したラベルごとの認識スコアと、ラベルごとの評価の正解スコアとを用いて中間層112の重み係数を調整する。図7は、学習用認識部42におけるニューラルネットワークを説明する図である。図7に示すように、誤差逆伝搬部43は、認識スコアB1〜B3とラベルごとの正解スコアY1〜Y3とが近づくように中間層112の重み係数を調整する。例えば、誤差逆伝搬部43は、認識スコアB1〜B3とラベルごとの正解スコアY1〜Y3との差分を算出する。正解スコアY1〜Y3については、正評価であれば「1」、負評価であれば「0」となる。誤差逆伝搬部43は、認識スコアB1〜B3とラベルごとの正解スコアY1〜Y3との差分が小さくなるように、上述した重み係数w,w,w及びバイアス値bを調整する。なお、「差分が小さくなる」とは、誤差が所定値以下となること、あるいは、調整後の方が調整前に比べて差分が小さくなることをいう。
誤差逆伝搬部43は、差分が最も小さくなる重み係数w,w,w及びバイアス値bを勾配法によって決定する。このような手法は、誤差逆伝搬法とも呼ばれる。誤差逆伝搬部43は、例えば二乗誤差の最小値を勾配法により決定する。誤差逆伝搬部43は、重み係数w,w,w及びバイアス値bの更新、ニューラルネットワークの入力から出力、そして、二乗誤差の算出までを1セットとして繰り返し実行する。二乗誤差の変動が所定値以下となった場合に、繰り返し処理を終了し、当該入力データの学習を終了する。
なお、誤差逆伝搬部43は、認識スコアB1〜B3とラベルごとの正解スコアY1〜Y3との差分を必ずしも用いる必要ない。例えば、正解スコアに対応する尤度を計算してもよい。尤度は大きいほど当該ラベルが正解に近いことを意味する。誤差逆伝搬部43は、尤度が大きくなる方向に重み係数を調整する。
誤差逆伝搬の一般式は、出力層113で算出される誤差関数(二乗誤差、対数尤度関数など)をE(x)とすると以下の数式11となる。
Figure 0006453968

ここで、w (i) は第i層の重み係数のj成分、h (i)は、i番目の中間層112の出力ベクトルの第k成分、g’(i)は活性化関数の微分である。バイアス値bについても同様の手法で計算することができる。
上述した数式11及び重み更新に関するパイパーパラメータεを用いて、各中間層112は以下の数式12のように更新される。
Figure 0006453968

なお、上述した数式11のうち、以下に示す項については、第i層のみからでは算出できないため、第i+1層の値を用いた計算が必要になる。
Figure 0006453968

具体的には、以下の計算となる。
Figure 0006453968

このように出力層に近い側の計算結果から、入力側に誤差を伝播させる形で計算を行うため、誤差逆伝搬と呼ばれる。
ここで、誤差逆伝搬部43は、無視評価のラベルの認識スコアが中間層の重み係数の調整に影響を与えないようにする。「中間層の重み係数の調整に影響を与えない」とは、無視評価のラベルの認識スコアを入力しても入力しなくても重み係数の調整に差がないことを意味する。例えば、誤差逆伝搬部43は、無視評価の正解スコアを無視評価のラベルの認識スコアと同じ値に設定する。これにより、認識スコアと正解スコアとの差分が0となるため、無視評価のラベルに関して、重み係数w,w,w及びバイアス値bが変更されることはない。あるいは、誤差逆伝搬部43は、無視評価の正解スコアと無視評価のラベルの認識スコアとの差分の微分値を0に変更してもよい。つまり、二乗誤差の評価式において無視評価のラベルについては二乗誤差が最小値をとることにする。これにより、認識スコアと正解スコアとの差分が0となるため、無視評価のラベルに関して、重み係数w,w,w及びバイアス値bが変更されることはない。あるいは、別途の層をニューラルネットワークに設け、無視評価のラベルに関するニューラルネットワークの接続を遮断してもよい。これにより、逆伝搬そのものを直接的に無効化することができる。
次に、学習システム100の動作について説明する。最初に、教師データ作成装置30の動作について説明する。図8は、実施形態に係る教師データ作成方法のフローチャートである。図8に示すフローチャートは、一つの教師データを作成する度に実行される。
最初に、教師データ作成装置30の入力データ取得部31は、入力データ取得処理(S10:入力データ取得ステップ)として、入力データを取得する。以下では、入力データ取得部31が入力データT3を取得した場合を例に説明する。次に、教師データ作成装置30の評価取得部32は、評価取得処理(S12:評価取得ステップ)として、入力データ取得処理(S10)で取得された入力データT3に関して、ラベルごとに「正評価」「負評価」及び「無視評価」の何れか1つを取得する。例えば、評価取得部32は、画像の内容が「犬」であることを示す第1ラベルL1の評価として「負評価」、画像の内容が「人」であることを示す第2ラベルL2の評価として「無視評価」、画像の内容が「花」であることを示す第3ラベルL3の評価として「無視評価」を取得する。なお、評価取得部32は、受付部33によって受け付けられたユーザ操作を用いて評価を取得してもよい。
次に、教師データ作成装置30の教師データ作成部34は、教師データ作成処理(S14:教師データ作成ステップ)として、入力データ取得処理(S10)で取得された入力データと評価取得処理(S12)で取得されたラベルごとの評価とを関連付けることにより、教師データを作成する。これにより、図6の(A)に示すように、入力データT3と、「負」「無視」「無視」とが関連付けられ、一つの教師データとなる。S14の処理が終了すると、図8に示す処理を終了する。
次に、学習装置40の動作について説明する。図9は、実施形態に係る学習方法のフローチャートである。図9に示すフローチャートは、一つの教師データを用いた学習の流れを示している。
最初に、学習装置40の教師データ取得部41は、教師データ取得処理(S20:教師データ取得ステップ)として、教師データを取得する。次に、学習装置40の入力層111は、入力処理(S22:入力ステップ)として、教師データに含まれる入力データを取得する。次に、学習装置40の中間層112は、演算処理(S24:演算ステップ)として、人工ニューロンの機能に基づく演算を行う。そして、学習装置40の出力層113は、出力処理(S26:出力ステップ)として、ラベルごとの認識スコアを出力する。次に、学習装置40の誤差逆伝搬部43は、正解スコアの入力処理(S28:正解スコア入力ステップ)として、教師データ取得処理(S20)で取得したラベルごとの正解スコアを入力する。次に、誤差逆伝搬部43は、逆伝搬処理(S30:誤差逆伝搬ステップ)として、S301〜S304までの処理を実行する。
誤差逆伝搬部43は、無視評価判定処理(S301)として、正解スコアの入力処理(S28)で入力した正解スコアに無視評価が含まれているか否かを判定する。例えば、図6の(B)に示す入力データT1が学習対象であるとする。図6の(B)に示すように、入力データT1に対応する第3ラベルL3は、無視評価を示す「アスタリスク」となっている。この場合、誤差逆伝搬部43は、無効化処理(S302)を行う。誤差逆伝搬部43は、無効化処理(S302)として、出力処理(S26)で出力した認識スコアを、無視評価判定処理(S301)で判定した無視評価の正解スコアとする。例えば、入力データT1が学習対象の場合、第3ラベルL3の正解スコアに認識スコアB3を代入する。
無効化処理(S302)が終了した場合、又は、無視評価判定処理(S301)で正解スコアに無視評価が含まれていないと判定された場合、誤差逆伝搬部43は、誤差演算処理(S303)を行う。誤差逆伝搬部43は、誤差演算処理(S303)の一例として、出力処理(S26)で出力した認識スコアと正解スコアとの差分を算出する。そして、誤差逆伝搬部43は、調整処理(S304)として、誤差の評価関数が最小値となるように、重み係数w,w,w及びバイアス値bを調整する。調整処理(S304)が終了すると、図9に示す学習処理が終了する。
次に、教師データ作成装置30として機能させるための教師データ作成プログラム、及び、学習装置40として機能させるための学習プログラムを説明する。教師データ作成プログラムは、メインモジュール、入力データ取得モジュール、評価取得モジュール、受付モジュール及び教師データ作成部モジュールを備えている。メインモジュールは、装置を統括的に制御する部分である。入力データ取得モジュール、評価取得モジュール、受付モジュール及び教師データ作成モジュールを実行させることにより実現される機能は、上述した教師データ作成装置30の入力データ取得部31、評価取得部32、受付部33及び教師データ作成部34の機能とそれぞれ同様である。
学習プログラムは、メインモジュール、教師データ取得モジュール、学習用認識モジュール及び誤差逆伝搬モジュールを備えている。メインモジュールは、装置を統括的に制御する部分である。教師データ取得モジュール、学習用認識モジュール及び誤差逆伝搬モジュールを実行させることにより実現される機能は、上述した学習装置40の教師データ取得部41、学習用認識部42及び誤差逆伝搬部43の機能とそれぞれ同様である。
教師データ作成プログラム及び学習プログラムは、例えば、ROM又は半導体メモリなどの非一時的な記録媒体によって提供される。また、教師データ作成プログラム及び学習プログラムは、ネットワークなどの通信を介して提供されてもよい。
以上、本実施形態に係る学習システム100では、教師データ作成装置30により、正評価、負評価及び無視評価の何れか1つがラベルの評価としてラベルごとに取得されて、教師データが作成される。つまり、この学習システム100では、「正評価」及び「負評価」に加えて「無視評価」という新たな評価を含むことができる教師データを用いて学習することができる。学習装置40は、正評価又は負評価のラベルの認識スコアと正評価又は負評価の正解スコアとが近づくように中間層112の重み係数を調整し、かつ、無視評価のラベルの認識スコアが中間層112の重み係数の調整に影響を与えないようにする。このため、正評価又は負評価のラベルについては認識部11の精度向上を図ることができるとともに、無視評価のラベルに関しては認識部11の精度に影響を及ぼさないようにすることができる。入力データには必ず正評価又は負評価が付与されていなければならないという従来の枠組みにおいては、不完全なラベルの評価を推定などにより完全なラベルの評価に近づけるというアプローチが採用されていた。これに対して、無視評価という新たな評価を導入することにより、不完全な評価のうち正しく付与された評価のみを用いて学習するという新たなアプローチを採用することができるため、誤った評価に基づいて学習が行われることを回避することができる。また、無視評価を用いることで、特定のラベルのみ学習を強化することもできる。
また、本実施形態に係る学習システム100では、無視評価のラベルについても逆伝搬は行われるものの、中間層112の重み係数w,w,w及びバイアス値bは無調整となる。よって、ニューラルネットワークの構成や誤差逆伝搬部43による逆伝搬の数式を変更することなく、無視評価のラベルに関する逆伝搬を無効化することができる。
また、本実施形態に係る学習システム100では、未評価のラベルについて、正評価か負評価を無理に設定することなく学習することができる。
また、本実施形態に係る学習システム100では、ユーザが評価を変更又は追加することができる構成とすることで、誤った評価に基づいて学習が行われることを回避することができるだけでなく、正しい評価に基づいて学習を行うことができ、結果として認識部11の精度を向上させることができる。
また、本実施形態に係る学習システム100では、デフォルト設定として全てのラベルを無視評価としておき、評価を取得できたものについて無視評価から正評価又は負評価へ変更することができる。つまり、アノテータが作業する場合に、無視評価を明示的に指示する手間を省くことができる。
上述したとおり、教師有り学習においては全てのラベルの正解値が必要であるため、教師データの作成にコストがかかる。特にマルチラベルの場合には、シングルラベルの場合のように、あるラベルが正評価であれば他のラベルは負評価になるという関係性がないことから、全てのラベルについて、正評価又は負評価の何れかを付与する必要がある。さらに、教師データの作成は、人(アノテータ)が行うことがある。アノテータは、ラベルについての評価に自信が有る無しにかかわらず、教師データ作成のためにラベルの評価を下す必要がある。このため、誤った評価に基づいて学習が行われる可能性がある。これに対して、本実施形態に係る教師データ作成装置30では、では、正評価、負評価及び無視評価の何れかラベルの評価としてラベルごとに取得されて、教師データが作成される。つまり、この教師データ作成装置30では、教師データに「正評価」及び「負評価」に加えて「無視評価」という新たな評価を含ませることができる。無視評価という新たな評価を導入することにより、不完全な評価のうち正しく付与された評価のみを用いて学習するという新たなアプローチを採用することができるため、誤った評価に基づいて学習が行われることを回避することができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
上述した実施形態では、認識対象データが画像データである場合を一例として説明したが、認識対象データは、音声データや文字データであってもよい。このようなデータを対象とした場合であっても、誤った評価に基づいて学習が行われることを回避することができる。
上述した実施形態では、正評価を「1」、負評価を「0」として学習した場合を一例として説明したが、任意の値を設定することができる。例えば、正評価を「0」、負評価を「1」としてもよく、正評価を「2」、負評価を「1」としてもよい。
上述した実施形態において、教師データ作成装置30及び学習装置40が一つの装置として構成されていてもよい。
上述した実施形態において、教師データに優先的に追加するデータを選定してもよい。例えば、教師データ作成装置30は、無視評価のラベルを持つ複数の画像に対して認識を行い、認識スコアが正評価でも負評価でもない中間値となる入力データについて、優先的にアノテーションの情報を取得し、教師データとする。これにより、認識部11によって難しい(情報量の多い)データを優先することができるので、学習効率が高まり、結果としてアノテーションの効率も高めることができる。
上述した実施形態において、複数のアノテータの評価を平均した評価をラベルの評価としてもよい。このように構成することで、曖昧さの尺度が考慮されるため、誤った評価を減少させて学習することができるので、結果として認識部11の精度を向上させることができる。
上述した実施形態において、ラベルを階層化してもよい。例えば、大分類のラベルを「A」とし、小分類のラベルを「A1」「A2」「A3」とする。学習装置40は、ラベルAに対する重み係数を小分類のラベルの初期値として採用してもよい。この場合、勾配法の収束効率を高めることができるので、学習時間を短縮することができる。
上述した実施形態において、教師データ作成部34は、入力データを加工してもよい。例えば、教師データ作成部34は、正規化処理(画像の場合、一定のサイズにリサイズする処理)などを入力データに施してもよい。あるいは、入力層111が入力データを加工する処理をしてもよい。
上述した実施形態において、端末装置10、教師データ作成装置30及び学習装置40のハードウェア構成は、物理的に一体的に構成されている必要は無く、複数の装置で構成されていてもよい。つまり、複数の装置がネットワークで接続され、仮想的に端末装置10、教師データ作成装置30及び学習装置40を構成していてもよい。
以下では、更に他の実施形態について概説する。
[第2実施形態]
第1実施形態においては、端末装置10は、学習システム100によって学習されたラベルを付与する。第1実施形態におけるラベルは、予め設定された内容を表すラベルであって、端末装置10及び学習システム100で共通である。また、ラベルは、複数の端末装置10間で共通であり得る。つまり、第1実施形態におけるラベルは、ユーザなどにより自由に設定されたラベルではない。第2実施形態では、ユーザが自由にラベルを付与することを許容する。以下では、第1実施形態におけるラベルをパブリックラベルといい、ユーザにより自由に設定されたラベルをプライベートラベルという。また、以下では、第1実施形態において説明した内容については説明を省略する。
図10は、第2実施形態に係る端末装置50の機能ブロック図である。端末装置50は、データ取得部(認識対象データ取得部)51、認識部52、付与ラベル記憶部53、フィードバック部54、操作受付部55及びラベル編集部56を備える。端末装置50のハードウェアは、端末装置10と同一である。
データ取得部51は、認識対象データを取得する。例えば、データ取得部51は、端末装置50に備わる記憶媒体に記憶された画像データを取得する。データ取得部51は、通信を介して画像データを取得してもよい。
認識部52は、上述した実施形態における認識部11と同一である。認識部52は、学習装置40によって学習されたパラメータを用いて、認識対象データの内容を表すパブリックラベルを認識対象データに付与する。ここでは、一例として、認識部52は、付与ラベル記憶部53に認識結果を記憶させる。付与ラベル記憶部53は、認識対象データとパブリックラベルとを関連付けて記憶する。
図11は、付与ラベル記憶部53に記憶されたデータの一例である。図11の(A)に示されるように、付与ラベル記憶部53には、認識対象データとパブリックラベルとが関連付けて記憶されている。一例として、認識対象データは認識対象データIDによって識別可能に構成されている。認識対象データIDは、認識対象データの識別子である。付与ラベル記憶部53には、例えば、認識対象データID「1」とパブリックラベル「花、屋外」とが関連付けて記憶されている。また、付与ラベル記憶部53には、例えば、認識対象データID「2」とパブリックラベル「人物」とが関連付けて記憶されている。また、付与ラベル記憶部53には、例えば、認識対象データID「3」とパブリックラベル「人物、学校、屋内」とが関連付けて記憶されている。また、付与ラベル記憶部53には、例えば、認識対象データID「4」とパブリックラベル「屋内、皿、人物」とが関連付けて記憶されている。
認識部52は、認識対象データに付随した情報である付随情報を付与ラベル記憶部53にさらに記憶させてもよい。付随情報は、例えば認識対象データの生成の状況などを示す情報である。付随情報は、認識対象データの一部として認識対象データに埋め込まれているか、又は、認識対象データとは別のデータとして、認識対象データの識別子と関連付けて管理されている。認識部52は、認識対象データに基づいて付随情報を取得し、付与ラベル記憶部53にさらに記憶させる。
付随情報は、一例として、パブリックラベルの信頼度、データ生成時の位置情報、データ生成日時などである。パブリックラベルの信頼度は、パブリックラベルの確からしさを意味する。パブリックラベルの信頼度は、例えば、認識部52によって認識したときのスコア値である。認識対象データが画像データである場合には、付随情報は、パブリックラベルの信頼度、撮影位置、撮影日時、カメラ情報、顔認識結果などである。撮影位置は、例えば緯度経度の情報であり、具体的な一例としてはGPS情報である。撮影日時とは、日付及び時刻、曜日、季節などである。カメラ情報は、焦点距離、露光時間、絞り、フラッシュの有無などである。顔認識結果は、カメラが有する顔認識機能の認識結果である。
さらに、付与ラベル記憶部53は、認識対象データとラベルとの関係性、及び、プライベートラベルと付与時間との関係性を記憶する。操作受付部55及びラベル編集部56によって、付与ラベル記憶部53に記憶された内容が更新される。更新は、追加、変更、上書き、削除などを含む概念である。
操作受付部55は、データ取得部51により取得された認識対象データに付与するためのプライベートラベルを決定するユーザ操作を受け付ける。ユーザ操作は、端末装置50のユーザによる端末操作である。ユーザ操作は、認識対象データを特定する操作、及び、プライベートラベルを特定する操作を含む。認識対象データを特定する操作は、例えば、ディスプレイ装置などに表示された認識対象データのアイコンの一覧から1のアイコンを選択する操作である。プライベートラベルを特定する操作は、例えば、プライベートラベルのラベル名を入力する操作、ディスプレイ装置などに表示され、過去に入力されたプライベートラベルの一覧から1のラベルを選択する操作などである。
ラベル編集部56は、操作受付部55により受け付けられたユーザ操作に基づいて、プライベートラベルを認識対象データに付与する。ここでは、一例として、ラベル編集部56は、付与ラベル記憶部53に、認識対象データとプライベートラベルとの関係性を記憶させる。例えば、図11の(A)に示される認識対象データIDの「4」には、プライベートラベルが付与されていない。このような状況で、ユーザにより、認識対象データID「4」及びプライベートラベル「中華料理」「友人」を選択するユーザ操作がなされたとする。この場合、図11の(B)に示されるように、認識対象データID「4」とプライベートラベル「中華料理」「友人」とが関連付けて記憶される。このとき、ラベル編集部56は、プライベートラベルが付与された日時も、付与ラベル記憶部53に記憶させてもよい。また、ラベル編集部56は、付与ラベル記憶部53が記憶した情報を、変更してもよい。つまり、ラベル編集部56は、一度付与したプライベートラベルを修正又は削除することもできる。
また、第1実施形態で説明したとおり、ユーザは付与されたパブリックラベルを修正又は削除することができる。操作受付部55は、認識対象データに付与されたパブリックラベルを修正又は削除するユーザ操作を受け付ける。ユーザ操作は、認識対象データを特定する操作、及び、パブリックラベルを修正又は削除する操作を含む。認識対象データを特定する操作は、例えば、ディスプレイ装置などに表示された認識対象データのアイコンの一覧から1のアイコンを選択する操作である。パブリックラベルを修正又は削除する操作は、例えば、パブリックラベルのラベル名を入力する操作、削除ボタンを選択する操作などである。ラベル編集部56は、操作受付部55により受け付けられたユーザ操作に基づいて、パブリックラベルを修正又は削除する。
フィードバック部54は、第1実施形態で説明したとおり、ユーザによってパブリックラベルが修正された場合には、修正内容を教師データ作成装置30へ出力する。具体的には、教師データ作成装置30の受付部33は、ユーザによる端末装置10の操作であるユーザ操作を受け付ける。なお、受付部33は、入力データの一部のラベルの評価を指定するユーザ操作を受け付けてもよい。つまり、ユーザは入力データのラベル全てに対して評価する必要はない。そして、教師データ作成部34は、評価取得部32により取得されたラベルの評価が入力データのラベルの一部に対する評価である場合には、一部のラベルの評価を入力データ取得部31により取得された入力データと関連付けるとともに、入力データの残りのラベルの評価を無視評価にする。このように、ユーザによってパブリックラベルが修正され、修正された評価を再学習させることにより、学習システム100の学習効率が向上する。なお、フィードバック部54は必要に応じて備えればよい。
次に、プライベートラベルの付与方法を説明する。図12は、プライベートラベルの付与方法を示すフローチャートである。図12に示されるフローチャートは、例えば、ユーザによりラベル編集ボタンが選択されたときに実行される。
最初に、端末装置50の操作受付部55は、操作受付処理(S40)として、認識対象データに付与するためのプライベートラベルを決定するユーザ操作を受け付ける。次に、端末装置50のラベル編集部56は、プライベートラベル付与処理(S42)として、S40の処理で受け付けたユーザ操作に基づいて、認識対象データに付与するためのプライベートラベルを決定し、認識対象データに決定されたプライベートラベルを付与する。S42の処理が終了すると、プライベートラベルの付与方法を終了する。
以上、第2実施形態に係る端末装置50は、学習装置40の学習結果に基づいて付与されるパブリックラベル以外のプライベートラベルを付与することができる。プライベートラベルの付与を許容することにより、認識対象データの整理やデータアクセスが容易となる。このため、この端末装置50は、ユーザの利便性を向上させることができる。
[第3実施形態]
第3実施形態に係る端末装置50Aは、第2実施形態に係る端末装置50と比べて、ラベル提示部57Aを備えている点で相違し、その他は同一である。第3実施形態に係る端末装置50Aは、プライベートラベルをユーザに提示することで、ユーザのラベル付与の労力を軽減させる追加機能を有する。なお、第2実施形態においては、付与ラベル記憶部53は、付随情報及びプライベートラベル付与日時を任意で記憶していたが、第3実施形態においては、付与ラベル記憶部53は、付随情報及びプライベートラベル付与日時の少なくとも一方が記憶されている。
図13は、第3実施形態に係る端末装置50Aの機能ブロック図である。端末装置50Aは、データ取得部51、認識部52、付与ラベル記憶部53、フィードバック部54、操作受付部55、ラベル編集部56及びラベル提示部57Aを備える。端末装置50Aのハードウェアは、端末装置10と同一である。
ラベル提示部57Aは、プライベートラベルをユーザに提示する。例えば、ラベル提示部57Aは、ラベル編集部56により付与されたプライベートラベルの付与日時の履歴、及び、基準日時に基づいて、プライベートラベルをユーザに提示する。提示とは、ユーザに報知することである。例えば、提示とは、ディスプレイ装置に文字又はアイコンを表示させることである。あるいは、スピーカなどから音声を出力したり、バイブレーションを動作させたりしてもよい。
ラベル提示部57Aは、例えば、ラベル編集ボタンの操作を操作受付部55が受け付けたタイミングで、プライベートラベルをユーザに提示する。ラベル提示部57Aは、操作受付部55から操作を受け付けたことを示す信号を取得した場合、付与ラベル記憶部53を参照する。図11の(A)又は(B)に示されるように、付与ラベル記憶部53は、ラベル編集部56により付与されたプライベートラベルの付与日時の履歴を記憶している。つまり、ラベル提示部57Aは、付与ラベル記憶部53を参照することにより、プライベートラベルの付与日時の履歴を取得することができる。そして、ラベル提示部57Aは、基準日時を取得する。基準日時とは、プライベートラベルの推定に用いられる日時である。例えば、ラベル提示部57Aは、リアルタイムクロックなどに基づいて現在日時を取得して、基準日時とする。そして、ラベル提示部57Aは、各プライベートラベルの付与日時と基準日時との関係から、ユーザの行動を予測し、プライベートラベルを提示する。
ラベル提示部57Aは、具体的な一例として、過去の所定期間(あるいは所定数)の履歴を参照し、付与日時と基準日時との差分を履歴ごとに算出し、差分の逆数を重みとした重み付け投票を行うことで、プライベートラベルを決定する。図14は、プライベートラベルの選択処理を説明する表である。図14においては、プライベートラベル「A」は、付与日時「19:30」「19:30」「19:42」「19:53」「20:04」と関連付けられている。プライベートラベル「B」は、付与日時「20:51」「20:55」と関連付けられている。なお、図14では、時刻に関する情報を記載しており、日付に関する情報は省略している。ここで、基準日時は「21:02」であるとする。ラベル提示部57Aは、履歴ごとに、付与日時と付与日時との差分を算出する。つまり、ラベル提示部57Aは、図14に示される差分の欄を全て計算する。そして、ラベル提示部57Aは、差分に基づいて重みを算出し、重み付け投票を行う。図14に示される例では、プライベートラベル「A」の得票数が「0.06597」、プライベートラベル「B」の得票数が「0.23377」となる。所定期間の履歴に他のプライベートラベルが含まれる場合には、ラベル提示部57Aは、他のプライベートラベルについても、同一の手法で得票数を算出する。そして、ラベル提示部57Aは、最も投票数の多いプライベートラベルをユーザに提示する。図14に示される例では、ラベル提示部57Aは、プライベートラベル「B」をユーザに提示する。あるいは、ラベル提示部57Aは、投票数の多い順にプライベートラベルを複数提示してもよい。端末装置50Aのその他の構成は、端末装置50と同一である。
次に、プライベートラベルの提示方法を説明する。図15は、プライベートラベルの提示方法を示すフローチャートである。図15に示されるフローチャートは、例えば、ユーザによりラベル編集ボタンが選択されたときに実行される。
最初に、端末装置50Aのラベル提示部57Aは、履歴情報取得処理(S44)として、付与ラベル記憶部53を参照し、履歴情報を取得する。次に、端末装置50Aのラベル提示部57Aは、ラベル提示処理(S46)として、例えば図14を用いて説明された処理を実行し、プライベートラベルを決定する。そして、ラベル提示部57Aは、決定されたプライベートラベルをユーザに提示する。このとき、パブリックラベルを同時に提示してもよい。S46の処理が終了すると、プライベートラベルの提示方法を終了する。
プライベートラベルの提示後は、パブリックラベルと同様に、ユーザによるラベルの正誤の判断がなされる。ラベル編集部56は、ユーザ操作によって正しいラベルを付与したり、正しくないラベルを削除したりする。ラベル提示部57Aは、過去のラベル付け内容を考慮して、つまり、ユーザ操作による修正箇所を含めてプライベートラベルを提示してもよい。
以上、端末装置50Aがプライベートラベルをユーザの行動履歴に基づいて提示する場合を説明したが、端末装置50Aは、プライベートラベルを付随情報に基づいて提示してもよい。この場合、例えば、ラベル提示部57Aは、認識対象データの生成時に付与された付随情報に基づいて、プライベートラベルをユーザに提示する。また、端末装置50Aは、行動履歴及び付随情報の両方を利用してプライベートラベルをユーザに提示してもよい。
ラベル提示部57Aは、操作受付部55から操作を受け付けたことを示す信号を取得した場合、付与ラベル記憶部53を参照する。図11の(A)又は(B)に示されるように、付与ラベル記憶部53は、認識対象データに関連付けられた付随情報を記憶している。つまり、ラベル提示部57Aは、付与ラベル記憶部53を参照することにより、付随情報を取得することができる。そして、ラベル提示部57Aは、付随情報と過去に付与されたプライベートラベルとの関係から、プライベートラベルを提示する。
例えば、付随情報がパブリックラベルの信頼度を含んでいる場合、ラベル提示部57Aは、同一のパブリックラベルが付与された他の認識対象データを特定し、当該他の認識対象データに付与されたプライベートラベルを提示する。例えば、付随情報が撮影位置を含んでいる場合、ラベル提示部57Aは、同一又は近接する撮影位置で撮影された他の認識対象データを特定し、当該他の認識対象データに付与されたプライベートラベルを提示する。例えば、付随情報が撮影日時を含んでいる場合、ラベル提示部57Aは、同一又は同一期間の撮影日時で撮影された他の認識対象データを特定し、当該他の認識対象データに付与されたプライベートラベルをする。例えば、付随情報がカメラ情報を含んでいる場合、ラベル提示部57Aは、同一又は類似するカメラ情報で撮影された他の認識対象データを特定し、当該他の認識対象データに付与されたプライベートラベルを提示する。例えば、付随情報が顔認識結果を含んでいる場合、ラベル提示部57Aは、同一の顔認識結果の他の認識対象データを特定し、当該他の認識対象データに付与されたプライベートラベルを提示する。
ラベル提示部57Aは、認識対象データの付随情報として、複数の種類の情報が存在する場合には、総合的に勘案して、提示されるプライベートラベルを決定する。例えば、ラベル提示部57Aは、提示されるプライベートラベルを重み付け投票により決定すればよい。
あるいは、ラベル提示部57Aは、付随情報と過去に付与されたプライベートラベルとの関係を用いること無く、付随情報と想定状況との予め定められた関係を用いて、提示されるプライベートラベルを決定してもよい。付随情報と想定状況との予め定められた関係は、処理実行前に例えばデータベースなどに予め記憶される。このような関係は、一般則や経験則によって導き出されてもよい。このような付随情報と想定状況との予め定められた関係について、カメラ情報を例に説明する。例えば、カメラ情報である焦点距離が短い場合、静物、ポートレートを撮影した可能性が高い。あるいは、カメラ情報である焦点距離が長い場合、風景を撮影した可能性が高い。あるいは、カメラ情報のアスペクト比が所定値以上の場合、パノラマ撮影した可能性が高い。このように、ラベル提示部57Aは、付随情報と想定状況との予め定められた関係に基づいてプライベートラベルを提示してもよい。
次に、プライベートラベルの提示方法を説明する。図16は、プライベートラベルの提示方法を示すフローチャートである。図16に示されるフローチャートは、例えば、ユーザによりラベル編集ボタンが選択されたときに実行される。
最初に、端末装置50Aのラベル提示部57Aは、付随情報取得処理(S48)として、付与ラベル記憶部53を参照し、付随情報を取得する。次に、端末装置50Aのラベル提示部57Aは、ラベル提示処理(S50)として、付随情報を用いてプライベートラベルを決定する。そして、ラベル提示部57Aは、決定されたプライベートラベルをユーザに提示する。S50の処理が終了すると、プライベートラベルの提示方法を終了する。
以上、第3実施形態に係る端末装置50Aは、ユーザの行動に応じてユーザに対してプライベートラベルを提示することができる。また、第3実施形態に係る端末装置50Aは、認識対象データの生成時の状況に応じてユーザに対してプライベートラベルを提示することができる。このため、ユーザのラベル付与の労力を軽減させることができる。
[第4実施形態]
第4実施形態に係る端末装置50Bは、第2実施形態に係る端末装置50と比べて、操作受付部55B、画像決定部(決定部)59、コメント解析部(解析部)60及びラベル提示部57Bを備えている点で相違し、その他は同一である。第4実施形態に係る端末装置50Bは、ユーザが認識対象データを共有するときに生成されたコメントを用いて、プライベートラベルをユーザに提示することで、ユーザのラベル付与の労力を軽減させる追加機能を有する。
図17は、第4実施形態に係る端末装置50Bの機能ブロック図である。端末装置50Bは、データ取得部51、認識部52、付与ラベル記憶部53、フィードバック部54、操作受付部55B、ラベル編集部56、画像決定部59、コメント解析部60及びラベル提示部57Bを備える。端末装置50Bのハードウェアは、端末装置10と同一である。
操作受付部55Bは、コメントを付して認識対象データを他人と共有するユーザ操作を受け付ける。例えば、操作受付部55Bは、インターネットを介して他人と画像データを共有する際に付されるコメントの操作を受け付ける。つまり、コメントが付された認識対象データとは、データベースでコメントと認識対象データとが関連付けられている必要はなく、同一期間にアップロードされたコメント及び認識対象データであればよい。
画像決定部59は、認識対象データを他人と共有するユーザ操作に基づいて、認識対象データを決定する。続いて、コメント解析部60は、画像決定部59により特定された認識対象データに付されたコメントの内容を解析する。コメント解析部60は、周知の言語機能を用いてコメントの内容を解析する。コメント解析部60は、文章から単語を抽出し、解析結果として出力する。ラベル提示部57Bは、コメント解析部60の解析結果に基づいて、プライベートラベルをユーザに提示する。具体的には、ラベル提示部57Bは、抽出された単語に関係する季節や行事を推定してプライベートラベルをユーザに提示する。あるいは、ラベル提示部57Bは、付与ラベル記憶部53を参照し、抽出された単語に関係する季節や行事と、過去に付与されたプライベートラベルとの関係に基づいて、プライベートラベルをユーザに提示してもよい。端末装置50Bのその他の構成は、端末装置50と同一である。
次に、プライベートラベルの提示方法を説明する。図18は、プライベートラベルの提示方法を示すフローチャートである。図18に示されるフローチャートは、例えば、ユーザによりデータの共有ボタンが選択されたときに実行される。
最初に、端末装置50Bの画像決定部59は、画像決定処理(S52)として、認識対象データを他人と共有するユーザ操作に基づいて、認識対象データを決定する。次に、端末装置50Bのコメント解析部60は、コメント解析処理(S54)として、画像決定処理で特定された認識対象データに付されたコメントの内容を解析する。次に、端末装置50Bのラベル提示部57Bは、ラベル提示処理(S56)として、コメント解析部60の解析結果に基づいて、プライベートラベルをユーザに提示する。S56の処理が終了すると、プライベートラベルの提示方法を終了する。
以上、第4実施形態に係る端末装置50Bは、ユーザにより付与されたコメントに応じてユーザに対してプライベートラベルを提示することができる。このため、簡易な構成で比較的確度の高いラベルを提示することができる。
[第5実施形態]
第5実施形態に係る端末装置50Cは、第2実施形態に係る端末装置50と比べて、リスト出力部62、代表ラベル取得部(関係取得部)63及び修正推奨部64を備えている点で相違し、その他は同一である。第5実施形態に係る端末装置50Cは、プライベートラベルの表記ゆれ、誤記、発散などを指摘することにより、既に付与したプライベートラベルをより整理し易くさせる追加機能を有する。また、第5実施形態に係る学習システム100Aは、第1実施形態に係る学習システムと比べて言語サーバ80を備える点が相違し、その他は同一である。
図19は、第5実施形態に係る学習システム100A及び端末装置50Cの機能ブロック図である。端末装置50Cは、データ取得部51(不図示)、認識部52(不図示)、付与ラベル記憶部53、フィードバック部54(不図示)、操作受付部55(不図示)、ラベル編集部56(不図示)、リスト出力部62、代表ラベル取得部63及び修正推奨部64を備える。端末装置50Cのハードウェアは、端末装置10と同一である。学習システム100Aは、教師データ作成装置30(不図示)、学習装置40(不図示)及び言語サーバ80を備える。言語サーバ80のハードウェアは、端末装置10と同一である。端末装置50Cは、言語サーバ80と通信可能に構成されている。
まず、端末装置50Cの構成の詳細について説明する。リスト出力部62は、付与されたプライベートラベルのリストを言語サーバ80へ出力する。具体的には、リスト出力部62は、付与ラベル記憶部53を参照し、所定範囲(所定数)のプライベートラベルについてリスト化して言語サーバ80へ出力する。このリストは、例えば図11の(A)又は(B)に示されるデータのうち、プライベートラベルのテキスト情報だけでよい。もちろん、リストは、プライベートラベルのテキスト情報以外の情報を含んでもよい。具体的な一例として、リスト出力部62は、プライベートラベルである「サクラ」「サグラ」「花見」「お花見」「ハナミ」を含むリストを出力する。
代表ラベル取得部63は、言語サーバ80から代表ラベルと付与されたプライベートラベルとの関係を取得する。代表ラベルとは、類似するプライベートラベルを集約したラベル、あるいは、表記ゆれや誤記などを訂正したラベルである。具体的な一例として、代表ラベル取得部63は、プライベートラベルの情報「花見」「お花見」「ハナミ」に対して関連付けられた代表ラベル「お花見」を取得する。あるいは、代表ラベル取得部63は、プライベートラベルの情報「サクラ」「サグラ」に対して関連付けられた代表ラベル「サクラ」を取得する。
修正推奨部64は、代表ラベル取得部63により取得された関係に基づいて、プライベートラベルを代表ラベルへ修正することをユーザに推奨する。例えば、修正推奨部64は、付与されたプライベートラベルと代表ラベルとをディスプレイ装置に表示させ、修正すべきことをユーザに促す。なお、推奨の表示は上記に限定されない。また、ディスプレイ装置以外の装置、例えば、スピーカなどを用いて音声情報によってユーザに促してもよい。
次に、言語サーバ80の構成の詳細について説明する。言語サーバ80は、リスト取得部81、集約部82、代表ラベル選択部83、代表ラベル記憶部84及び代表ラベル出力部85を備える。
リスト取得部81は、1又は複数の端末装置50Cからリストを取得する。リストは、上述したとおり、プライベートラベルのテキスト情報を含む。集約部82は、リスト取得部81により取得されたリストに基づいて、プライベートラベルをグループに集約する。集約部82は、意味の類似性、音の類似性などに基づいて、リストのプライベートラベルをグループ化する。具体的な一例として、リストは、プライベートラベルである「サクラ」「サグラ」「花見」「お花見」「ハナミ」を含むとする。この場合、「サクラ」「サグラ」を1つのグループとして集約する。また、「花見」「お花見」「ハナミ」を1つのグループとして集約する。
代表ラベル選択部83は、集約部82により集約されたグループに対して代表ラベルを選択する。代表ラベル選択部83は、類似するプライベートラベルが集約されたグループに対しては、インターネットの検索エンジンなどを用いて最も検索件数が多い言葉を代表ラベルに選択する。代表ラベル選択部83は、表記ゆれや誤記が含まれる場合には、辞書データベースなどを活用して正しいあるいは適切な言葉を代表ラベルに選択する。具体的な一例としては、代表ラベル選択部83は、「サクラ」「サグラ」が集約されたグループについては、誤記を修正した「サクラ」を代表ラベルとして選択する。また、代表ラベル選択部83は、「花見」「お花見」「ハナミ」が集約されたグループについては、検索結果が最も多い「お花見」を代表ラベルとして選択する。
代表ラベル選択部83は、選択した代表ラベルを代表ラベル記憶部84に記憶してもよい。代表ラベル選択部83は、代表ラベル記憶部84を参照し、代表ラベルの選択履歴に基づいて、選択した代表ラベルと過去の代表ラベルとを比較してもよい。このように構成することで、代表ラベル選択部83が選択する代表ラベルを安定化させることができる。
代表ラベル出力部85は、代表ラベル選択部83の選択結果に基づいて、代表ラベルと付与されたプライベートラベルとの関係を端末装置50Cへ出力する。
次に、プライベートラベルの修正推奨方法を説明する。図20は、プライベートラベルの修正推奨方法を示すフローチャートである。図20に示されるフローチャートは、所定のタイミングで実行され得る。
最初に、端末装置50Cのリスト出力部62は、リスト出力処理(S70)として、付与されたプライベートラベルのリストを言語サーバ80へ出力する。次に、言語サーバ80のリスト取得部81は、リスト取得処理(S72)として、リストを取得する。
次に、言語サーバ80の集約部82は、集約処理(S74)として、リスト取得部81により取得されたリストに基づいて、プライベートラベルをグループに集約する。そして、言語サーバ80の代表ラベル選択部83は、代表ラベル選択処理(S76)として、集約部82により集約されたグループに対して代表ラベルを選択する。そして、言語サーバ80の代表ラベル出力部85は、代表ラベル出力処理(S77)として、代表ラベル選択部83の選択結果に基づいて、代表ラベルと付与されたプライベートラベルとの関係を端末装置50Cへ出力する。
次に、端末装置50Cの代表ラベル取得部63は、代表ラベル取得処理(S78)として、言語サーバ80から代表ラベルと付与されたプライベートラベルとの関係を取得する。次に、端末装置50Cの修正推奨部64は、推奨処理(S80)として、代表ラベル取得部63により取得された関係に基づいて、プライベートラベルを代表ラベルへ修正することをユーザに推奨する。S80の処理が終了すると、プライベートラベルの修正推奨方法を終了する。
以上、第5実施形態に係る学習システム100A及び端末装置50Cは、プライベートラベルを整理することをユーザに促すことができる。このため、既に付与したプライベートラベルを整理させることができる。
[第6実施形態]
第6実施形態に係る学習システム100Bは、第1実施形態に係る学習システム100と比べて、閾値設定部44(閾値変更装置の一例)を備える点が相違し、その他は同一である。以下では、学習システム100Bと学習システム100との相違点を中心に説明し、重複する説明は省略する。
第1実施形態に係る学習システム100では、学習装置40により学習された重み係数が端末装置10へ配信される。端末装置10は、配信された重み係数を用いて認識部11を動作させる。認識部11は、配信された重み係数を用いてニューラルネットワークを更新する。そして、認識部11は、認識対象データを取得し、ニューラルネットワークによって認識対象データの内容が所定ラベルに合致する度合いを示す認識スコアを出力する。認識部11は、所定値以上の認識スコアに対応するラベルを認識対象データに付与する。具体的には、認識部11は、認識スコアと認識スコアに対して予め設定された閾値とを用いて認識対象データの内容が所定ラベルに合致するか否かを示す認識結果を出力する。つまり、所定値は、認識スコアを判定するための閾値であり、認識スコアに対して予め設定されている。予め設定されているとは、認識部11が認識処理をする前に閾値が定められていることをいう。なお、第1実施形態において、閾値(所定値)は、予め初期設定時に設定されてもよいし、学習中又は学習終了後において評価データを用いて評価することにより、算出されてもよい。
第6実施形態に係る学習システム100Bにおいては、評価データを用いて閾値が決定される。つまり、閾値は、学習中又は学習終了後において評価データを用いて学習用認識部42又は認識部11を評価することにより、算出される。
評価データは、教師データとは重なりのないデータであって、入力データ及び所定ラベルについての正解評価を含む。正解評価は、入力データに関連付けられ、入力データの内容が所定ラベルに合致する正評価であるか入力データの内容が所定ラベルに合致しない負評価であるかを示す。なお、正解評価には、「正評価」「負評価」だけでなく、「無視評価」が含まれていてもよい。ただし、「無視評価」が付与された評価データは、閾値を決定するために利用されない。
学習システム100Bは、学習中あるいは学習済みのニューラルネットワークに対して評価データを入力させ、出力された認識スコアを用いて学習用認識部42又は認識部11の出力に対する閾値を設定する。図22は、認識スコアの閾値を説明するグラフである。図22の(A),(B)に示されるグラフは、所定のラベルに関して「正評価」又は「負評価」が付与された評価データを、学習用認識部42又は認識部11に認識させた結果である。横軸は認識スコア、縦軸は度数である。認識スコアは、認識の確からしさを表すスコアである。度数は評価データの数である。上述のとおり、学習用認識部42又は認識部11が認識対象データに対して認識スコアを出力する場合には、認識スコアから正評価又は負評価を判断するための閾値tが必要になる。図22の(A)、(B)に示されるように、評価データを用いて評価した結果、正評価のデータの分布と負評価のデータの分布とを得ることができる。学習システム100Bは、一般的な統計学に基づいて、これらの分布を区別する認識スコアを閾値tとして設定する。一般的な統計学を用いて閾値を設定する手法としては、例えば、再現率(recall)と適合率(precision)との調和平均であるF−尺度(f-measure)を用いて設定される。閾値tの設定の詳細については後述する。図22の(A)に示される例では、一般的な統計学を用いて評価スコアに対して閾値tが設定され、図22の(B)に示される例では、一般的な統計学を用いて評価スコアに対して閾値tが設定されている。
上述した閾値tの設定処理を行う学習システム100Bの具体的な機能について説明する。図23は、第6実施形態に係る学習システム及び端末装置の機能ブロック図である。図23に示される学習システム100Bは、学習結果とともに閾値tを端末装置10Bへ配信する。学習システム100Bは、第1実施形態に係る学習システム100と比べて学習装置40Bが相違し、その他は同一である。
学習装置40Bは、第1実施形態に係る学習装置40と比べて、閾値設定部44を備える点が相違し、その他は同一である。閾値設定部44は、評価データ取得部441、端末データ取得部442、認識スコア取得部443、算出部444及び変更部445を備える。
評価データ取得部441は、評価データを取得する。評価データは、例えば、学習装置40Bの記憶部に格納されている。評価データは、所定ラベル(以下ではラベルiを所定ラベルとする)についての正解評価を含む。より具体的には、評価データは、正解ラベルが付与された画像データ(入力データ)の集合(データセット)である。以下では、評価データに含まれるラベルiの正評価のデータの集合をGi+、評価データに含まれるラベルiの負評価のデータの集合をGi−として説明する。また、集合Xに含まれる画像データ数を#(X)として説明する。
端末データ取得部442は、端末装置10Bに関連付けられたデータの、ラベルiに関する正評価及び負評価の比ri,aを取得する。端末装置10Bは、第1実施形態に係る端末装置10と同一である。端末装置10Bに関連付けられたデータとは、端末装置10Bに関係した認識対象データであって、認識済みのデータである。具体的には、端末装置10Bに関連付けられたデータは、端末装置10Bに記憶された認識済みの画像データの集合、又は、外部記録媒体に記憶され、端末装置10Bの端末IDやユーザIDなどと関連付けられた、認識済みの画像データの集合などである。より具体的な一例としては、端末装置10Bに記憶された画像のアルバムなどである。
ラベルiに関する正評価及び負評価の比ri,aとは、認識済みのデータのうち、正評価のデータ数及び負評価のデータ数の比であり、正評価のデータと負評価のデータとの存在比である。以下では、端末装置10Bに関連付けられた認識済みのデータのうち、正評価のデータの集合をG’i+、負評価のデータの集合をG’i−として説明する。つまり、比ri,aは、正評価のデータ数を負評価のデータ数で除した値#(G’i+)/#(G’i−)である。例えば、正評価のデータ数#(G’i+)が10個、負評価のデータ数#(G’i−)が20個の場合、正評価及び負評価の比ri,aは0.5となる。
端末データ取得部442は、種々の手法を用いてラベルiに関する正評価及び負評価の比ri,aを取得することができる。一例として、端末データ取得部442は、端末装置10Bのニューラルネットワークの認識結果に基づいて比ri,aを取得する。例えば、端末装置10Bの認識部11により、アルバムに含まれる画像データが認識されている場合には、端末データ取得部442は、認識部11の認識結果に基づいて比ri,aを取得することができる。あるいは、端末データ取得部442は、端末装置10Bのユーザによるアノテーションの結果に基づいて比ri,aを取得してもよい。具体的には、ユーザ操作によってアルバムに含まれる画像データにラベルが付与されている場合には、端末データ取得部442は、アノテーションの結果に基づいて比ri,aを取得することができる。
あるいは、端末データ取得部442は、端末装置10Bのユーザの操作又は端末情報に基づいて比ri,aを取得することができる。具体的な一例として、端末データ取得部442は、ラベルiに関するユーザ入力(ユーザの操作)に基づいて、比ri,aを推定する。例えば、端末データ取得部442は、ラベルiについての興味の度合いを示す関心度をユーザに問い合わせし、問い合わせに対するユーザ入力に基づいて比ri,aを推定する。あるいは、端末データ取得部442は、ユーザに比ri,aを直接的に問い合わせしてもよい。あるいは、端末データ取得部442は、端末装置10Bの端末情報に基づいて比ri,aを推定してもよい。端末情報とは、端末装置10Bに記憶された情報であり、地域データなどである。例えば、端末データ取得部442は、予め記憶された地域とラベルiとの相関と、取得された地域データとに基づいて、比ri,aを推定する。
認識スコア取得部443は、ニューラルネットワーク(認識部11)又はニューラルネットワークの重み係数と同一の重み係数を有するニューラルネットワーク(学習用認識部42)から、入力データに関する所定ラベルの認識スコアを取得する。学習用認識部42の重み係数と認識部11の重み係数とは同期しているため、認識スコア取得部443は、どちらのニューラルネットワークを用いてもよい。認識スコア取得部443は、評価データ取得部441により取得された評価データを、学習用認識部42又は認識部11に読み込ませることで、入力データに関する所定ラベルの認識スコアを取得する。
算出部444は、認識スコア取得部443により取得された認識スコアを用いて、学習用認識部42又は認識部11を評価する。以下では、算出部444は、学習用認識部42のニューラルネットワークを評価するものとする。例えば、学習用認識部42は、評価データに含まれる各画像データに対応して認識スコアp(ラベルiについての確からしさの度合い(一例として確率))を出力し、予め設定された閾値tと比較することにより、「正評価」(p>=t)又は「負評価」(p<t)の何れかを認識結果として出力する。学習用認識部42は、認識結果と正解評価とを比較することにより評価される。より具体的な一例としては、学習用認識部42は、正解評価が正評価の入力データが正評価として認識されたデータ数(true positive)、正解評価が負評価の入力データが負評価として認識されたデータ数(true negative)、正解評価が正評価の入力データが負評価として認識されたデータ数(false negative)、正解評価が負評価の入力データが正評価として認識されたデータ数(false positive)などを用いて評価される。
算出部444は、少なくとも適合率を用いて評価を行う。適合率とは、学習用認識部42により「正評価」と認識されたデータのうち正解が「正評価」であるデータ数を、「正評価」と認識したデータ数で除して得られた値である。以下では、ラベルiに関して、認識結果が「正評価」であるデータの集合をPi+、認識結果が「負評価」であるデータの集合をPi−とする。この場合、評価に用いたデータ数は#(Pi+)+#(Pi−)と表すことができる。上述したラベルiについての「true positive」「true negative」「false negative」「false positive」のデータ数を、以下のように表現することができる。なお、Gi+は、評価データに含まれるラベルiの正評価のデータの集合、Gi−は、評価データに含まれるラベルiの負評価のデータの集合である。
Figure 0006453968

上記の定義により、適合率は、以下のように表現される。
Figure 0006453968
なお、算出部444は、再現率をさらに用いて評価を行ってもよい。再現率とは、正解が「正評価」であるデータのうち学習用認識部42により「正評価」と認識されたデータ数を、評価データのうち「正評価」のデータ数で除して得られた値である。具体的には、以下のように表現される。
Figure 0006453968
算出部444は、適合率及び再現率を用いる場合、再現率及び適合率の調和平均(f-measure)を算出して、評価値とする。f-measureは、再現率及び適合率の均等に着目した指標である。
Figure 0006453968
上述した評価値は、評価データにおける正評価及び負評価のデータ分布により影響を与えられる。つまり、評価データに正評価及び負評価の比の偏りが存在する場合、算出された評価値は評価データの偏りを反映させた値となる。このため、評価データのデータ分布と、ユーザが実際に使用する環境(端末装置10Bのデータ分布)との差異は、理想的には小さい方が好ましい。このため、算出部444は、上述した差異が小さくなるようにデータ数を補正し、補正したデータ数を用いて適合率を算出する機能を有する。特に、評価データに「無視評価」が含まれている場合には、上述した差異が顕著になるおそれがある。図24は、評価データにおけるデータの偏りを説明する図である。図24の(A)に示される分布は、「正評価」及び「負評価」の真の分布(端末装置10Bにおける分布)である。図24の(B)に示される分布は、ラベルiについて、アノテータが「正評価」のタグ付けを全ての評価データを対象として行い、その後、「負評価」のタグ付けを一部の評価データを対象として行い、残りの評価データについては「無視評価」とした場合の分布である。この場合、本来であれば「負評価」とされるべきデータが「無視評価」のデータになってしまうため、評価データのデータ分布がユーザ環境のデータ分布と大きく乖離するおそれがある。
このため、算出部444は、端末装置10Bにおける比ri,aと同じ存在比率となるように評価データを補正し、評価を行う。理想的なデータによる評価値は、以下のように表現される。なお、上述のとおり、端末装置10Bに関連付けられた認識済みのデータのうち正評価のデータの集合をG’i+、負評価のデータの集合をG’i−としている。また、端末装置10Bに関連付けられた認識済みのデータのうち、認識結果が「正評価」であるデータの集合をP’i+、認識結果が「負評価」であるデータの集合をP’i−とする。
Figure 0006453968
ここで、上述のとおり、「正評価」と「負評価」との比率が変更された場合(ランダムに「負評価」のデータが「無視評価」とされた場合)、適合率に含まれる「false positive」数(具体的には#(G’i−∩ P’i+))が変動する。このため、算出部444は、「false positive」数の変動の影響を小さくする補正をおこなう。具体的には、算出部444は、以下のように補正する。
Figure 0006453968

ここで、ri,testは、評価データにおける「正評価」及び「負評価」の比である。このように、算出部444は、「false positive」数を、評価データにおける「正評価」及び「負評価」の比ri,testと、端末装置10Bにおける「正評価」及び「負評価」の比ri,aとを用いて補正することにより、補正「false positive」数を得る。つまり、算出部444は、以下の式13で適合率を算出する。
Figure 0006453968
変更部445は、算出部444により算出された適合率を用いて閾値tを変更する。例えば、適合率が最も高くなる認識スコアを閾値tとしてもよい。あるいは、変更部445は、閾値tを再現率及び適合率の調和平均が最大となる認識スコアへ変更してもよい。
学習システム100Bの他の構成及び端末装置10Bは、学習システム100及び端末装置10と同一である。上述のとおり、変更された閾値tは、端末装置10Bへ配信される。
次に、学習システム100Bによる閾値変更処理を説明する。図25は、閾値変更処理を示すフローチャートである。図25に示されるフローチャートは、例えば学習中の所定タイミングで実行される。
図25に示されるように、閾値設定部44の評価データ取得部441は、評価データ取得処理(S90)として、評価データを取得する。評価データ取得部441は、例えば、ラベルiに関する「正評価」「負評価」「無視評価」の何れかが正解評価として付与された画像データのデータセットを取得する。
次に、閾値設定部44の端末データ取得部442は、端末データ取得処理(S92)として、端末データを取得する。端末データ取得部442は、例えば、端末装置10Bに関連付けられたデータの、ラベルiに関する正評価及び負評価の比ri,aを取得する。
次に、閾値設定部44の認識スコア取得部443は、認識スコア取得処理(S94)として、認識スコアを取得する。認識スコア取得部443は、評価データ取得処理(S90)にて取得された評価データを、学習用認識部42に読み込ませることで、入力データに関する所定ラベルの認識スコアを取得する。
次に、閾値設定部44の算出部444は、算出処理(S96)として、適合率を算出する。算出部444は、上述した式13を用いて適合率を算出する。具体的には、算出部444は、認識スコア取得処理(S94)にて取得された認識スコアに基づいて「true positive」と「false positive」とを算出する。そして、算出部444は、評価データにおける「正評価」及び「負評価」の比ri,testと、端末データ取得処理(S92)にて取得された比ri,aとに基づいて「false positive」を補正する。そして、算出部444は、「true positive」と補正「false positive」とを用いて、適合率を算出する(式13)。
次に、閾値設定部44の変更部445は、変更処理(S98)として、閾値tを変更する。変更部445は、算出処理(S96)にて算出された適合率を用いて閾値tを変更する。変更処理(S98)が終了すると、図25に示されるフローチャートが終了する。
以上、第6実施形態に係る閾値設定部44によれば、負評価の入力データを正評価として認識したデータ数が、評価データの正評価及び負評価の比ri,test、及び、端末装置10Bに関連付けられたデータの正評価及び負評価の比ri,aを用いて補正される。そして、補正後のデータ数を用いて算出されたラベルiに関する適合率に基づいて、端末装置10Bによって行われる認識の際に用いられる閾値tが変更される。このように、ラベルiに関する適合率を算出する際に、評価データにおける正負のデータの分布と端末装置10Bにおける正負のデータの分布とを考慮して、負評価の入力データを正評価として認識したデータ数が補正される。図22の(C)は、評価データにおける正負のデータの分布が変動した場合を示している。例えば、「負評価」の一部が「無視評価」に変更された場合、「正評価」及び「負評価」のデータ分布が変更され(図中の実線から破線へ変更)、これに伴い、閾値tが第1閾値ti1から第2閾値ti2へ変更されるおそれがある。このため、閾値設定部44は、「false positive」数を補正することで、擬似的に比ri,testと比ri,aとが等しくすることができる。これにより、端末装置10Bに合わせて適切に閾値tを変更することができる。
[第7実施形態]
第7実施形態に係る端末装置10Cは、第6実施形態に係る端末装置10B(あるいは第1実施形態に係る端末装置10)と比べて、閾値設定部44C(閾値変更装置の一例)を備える点が相違し、その他は同一である。以下では、端末装置10Cと端末装置10B(あるいは端末装置10)との相違点を中心に説明し、重複する説明は省略する。
第6実施形態において説明された閾値tの変更処理は、ある程度の数を持った評価データを用いる必要がある。このため、端末装置10Bで処理した場合、時間がかかるおそれがある。第7実施形態に係る端末装置10Cは、端末装置10Cに関連付けられたデータの正評価及び負評価の比ri,aと閾値tとの関係性を予め記憶しておき、端末装置10Cの環境変化に応じて適切に閾値tを変更することを実現する。
図26は、第7実施形態に係る端末装置10Cの機能ブロック図である。図26に示されるように、端末装置10Cは、端末データ取得部446、変更部447及び記憶部448を備える。
端末データ取得部446は、第6実施形態に係る端末データ取得部442と同一の機能を有する。記憶部448は、端末装置10Cに関連付けられたデータの正評価及び負評価の比ri,aと閾値tとの関係性を記憶する。例えば、記憶部448は、比ri,aを変数とする閾値tの関数を記憶する。あるいは、比ri,aが0.1のときの閾値t(0.1)、比ri,aが0.2のときの閾値t(0.2)、比ri,aが0.3のときの閾値t(0.3)など、複数の比ri,aに対する閾値tを離散的に記憶する。
変更部447は、記憶部448に記憶された関係性、及び、端末データ取得部446により取得された比ri,aを用いて閾値tを変更する。例えば、変更部447は、記憶部448に記憶された比ri,aを変数とする閾値tの関数と、端末データ取得部446により取得された比ri,aとを用いて、変更後の閾値tを取得する。あるいは、変更部447は、離散的に記憶部448に記憶された閾値tと端末データ取得部446により取得された比ri,aとを用いて、補間により変更後の閾値tを取得する。例えば、0.1ごとの比ri,aに対する閾値tが記憶部448に記憶されている場合において、端末データ取得部446により取得された比ri,aが0.15の場合には、変更部447は、(t(0.1)+t(0.2))/2を変更後の閾値tとする(線形補間)。変更部447は、現在の閾値を変更後の閾値tに置き換える。端末装置10Cのその他の構成は、端末装置10Bと同一である。
次に、閾値変更処理について説明する。図27は、閾値変更処理を示すフローチャートである。図27に示されるフローチャートは、例えばユーザ操作により閾値変更処理の開始ボタンが選択された場合に実行される。
図27に示されるように、端末装置10Cの端末データ取得部446は、端末データ取得処理(S100)として、端末データを取得する。端末データ取得部446は、例えば、端末装置10Cに関連付けられたデータの、ラベルiに関する正評価及び負評価の比ri,aを取得する。
次に、端末装置10Cの変更部447は、閾値取得処理(S102)として、変更後の閾値tを取得する。変更部447は、例えば、記憶部448に記憶された比ri,aと閾値tとの関係性と、端末データ取得処理(S100)にて取得された比ri,aとに基づいて、変更後の閾値tを取得する。
次に、端末装置10Cの変更部447は、閾値変更処理(S104)として、閾値tを変更する。変更部447は、現在の閾値tを閾値取得処理(S102)にて取得された変更後の閾値tに置き換える。変更処理(S104)が終了すると、図27に示されるフローチャートが終了する。
以上、第7実施形態に係る閾値設定部44Cによれば、予め記憶された比ri,aと閾値tとの関係性と、端末データ取得部446により取得された比ri,aとを用いて閾値tが変更される。このように、予め記憶された比ri,aと閾値tとの関係性を用いることで、閾値変更のための演算負荷を軽減することができる。また、端末装置に関連付けられたデータの正評価及び負評価の比ri,aは、端末装置ごとに異なる。第7実施形態に係る閾値設定部44Cによれば、端末装置10Cの使用環境に応じて最適な閾値tに変更することができる。
なお、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
例えば、プライベートラベルを階層化してもよい。図21は、プライベートラベルの階層化構造を示す図である。図21に示されるように、階層化されたプライベートラベルは、ラベルを分類する「カテゴリ」の項目を有する。図21の例では、ラベル「A」「B」「C」はカテゴリ「人名」、ラベル「D」「E」はカテゴリ「地名」、ラベル「F」はカテゴリ「時間」、ラベル「G」はカテゴリ「その他」に分類されている。このように階層化することによって、例えばユーザは目的のラベルを見つけやすくなり、端末装置は、カテゴリ単位で候補を推定した後にプライベートラベルを選定することにより、効率良くプライベートラベルをユーザに提示することができる。
また、上述した第2実施形態〜第4実施形態にかかる端末装置では、プライベートラベルを出力する例を説明したが、端末装置側でプライベートラベルを自動的に付与してもよい。また、プライベートラベルが所定条件を満たした場合、パブリックラベルへ昇格させる構成としてもよい。例えば、一定数以上のユーザが同一のプライベートラベルを利用している場合には、当該プライベートラベルをパブリックラベルへ変更してもよい。あるいは、同一のパブリックラベルに付与されたプライベートラベルを学習システムが集計し、利用状況に応じて当該プライベートラベルをパブリックラベルに置き換えてもよい。
上述した第6実施形態に係る学習システム100Bは、正評価及び負評価だけでなく無視評価を用いることができる学習システムとして説明したが、必ずしも無視評価を用いる必要はない。つまり、正評価及び負評価だけで判断する従来の学習システムに、第6実施形態で説明された閾値設定部44を適用してもよい。この場合であっても、端末装置に合わせて適切に閾値を変更することができる。
上述した第6実施形態に係る閾値設定部44は、学習装置40Bではなく端末装置10Bに備わっていてもよい。また、図25に示された端末データ取得処理(S92)は、評価データ取得処理(S90)と認識スコア取得処理(S94)との間に実行する場合に限定されず、算出処理(S96)の前に実行されていればよい。
上述した第2実施形態から第7実施形態に係る装置は、その機能をプログラムにより発揮してもよい。第2実施形態から第7実施形態の別の形態は、これら装置の動作に対応する方法、当該装置の機能を有するプログラム、又は当該プログラムを記憶した記憶媒体が含まれる。
10,50,50A,50B,50C,10B,10C…端末装置、11,52…認識部、30…教師データ作成装置、31…入力データ取得部、32…評価取得部、33…受付部、34…教師データ作成部、40,40B…学習装置、41…教師データ取得部、42…学習用認識部、43…誤差逆伝搬部、55,55B…操作受付部、56…ラベル編集部、57A,57B…ラベル提示部、59…画像決定部、60…コメント解析部、62…リスト出力部、63…代表ラベル取得部、64…修正推奨部、80…言語サーバ、81…リスト取得部、82…集約部、83…代表ラベル選択部、84…代表ラベル記憶部、85…代表ラベル出力部、44,44C…閾値設定部、t…閾値、100,100A,100B…学習システム、111…入力層、112…中間層、113…出力層、441…評価データ取得部、442,446…端末データ取得部、443…認識スコア取得部、444…算出部、445,447…変更部。

Claims (4)

  1. 認識対象データを取得し、ニューラルネットワークによって前記認識対象データの内容が所定ラベルに合致する度合いを示す認識スコアを出力し、前記認識スコアと前記認識スコアに対して予め設定された閾値とを用いて前記認識対象データの内容が所定ラベルに合致するか否かを示す認識結果を出力する端末装置における前記閾値を変更する閾値変更装置であって、
    入力データと、前記入力データに関連付けられ、前記入力データの内容が前記所定ラベルに合致する正評価であるか前記入力データの内容が所定ラベルに合致しない負評価であるかを示す前記所定ラベルの正解評価と、を含む評価データを取得する評価データ取得部と、
    前記端末装置に関連付けられたデータの前記正評価及び前記負評価の比を取得する端末データ取得部と、
    前記ニューラルネットワーク又は前記ニューラルネットワークの重み係数と同一の重み係数を有するニューラルネットワークから、前記入力データに関する前記所定ラベルの前記認識スコアを取得する認識スコア取得部と、
    前記認識スコア取得部により取得された前記所定ラベルの前記認識スコアと、前記閾値を用いて、正解評価が正評価の前記入力データが正評価として認識されたデータ数、及び、正解評価が負評価の前記入力データが正評価として認識されたデータ数を算出し、算出されたデータ数を用いて前記所定ラベルに関する適合率を算出する算出部と、
    前記算出部により算出された前記適合率を用いて前記閾値を変更する変更部と、
    を備え、
    前記算出部は、正解評価が負評価の前記入力データが正評価として認識されたデータ数を、前記評価データの正評価及び負評価の比、及び、前記端末装置に関連付けられたデータの正評価及び負評価の比を用いて補正し、補正されたデータ数を用いて前記適合率を算出する、
    閾値変更装置。
  2. 前記算出部は、前記所定ラベルに関する再現率及び前記適合率を算出し、
    前記変更部は、前記閾値を前記再現率及び前記適合率の調和平均が最大となる認識スコアへ変更する請求項1に記載の閾値変更装置。
  3. 前記端末データ取得部は、前記端末装置の前記ニューラルネットワークの認識結果、又は、前記端末装置のユーザによるアノテーションの結果に基づいて、前記端末装置に関連付けられたデータの前記正評価及び前記負評価の比を取得する請求項1又は2に記載の閾値変更装置。
  4. 前記端末データ取得部は、前記端末装置のユーザの操作又は端末情報に基づいて、前記端末装置に関連付けられたデータの前記正評価及び前記負評価の比を取得する請求項1〜3の何れか一項に記載の閾値変更装置。
JP2017188820A 2015-10-30 2017-09-28 閾値変更装置 Active JP6453968B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015215057 2015-10-30
JP2015215057 2015-10-30
JP2016141558 2016-07-19
JP2016141558 2016-07-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017513559A Division JP6271085B2 (ja) 2015-10-30 2016-10-14 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置

Publications (2)

Publication Number Publication Date
JP2018018537A JP2018018537A (ja) 2018-02-01
JP6453968B2 true JP6453968B2 (ja) 2019-01-16

Family

ID=58630045

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017513559A Active JP6271085B2 (ja) 2015-10-30 2016-10-14 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置
JP2017188820A Active JP6453968B2 (ja) 2015-10-30 2017-09-28 閾値変更装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017513559A Active JP6271085B2 (ja) 2015-10-30 2016-10-14 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置

Country Status (6)

Country Link
US (2) US11170262B2 (ja)
EP (1) EP3361423B1 (ja)
JP (2) JP6271085B2 (ja)
KR (1) KR102114564B1 (ja)
CN (1) CN108351986B (ja)
WO (1) WO2017073373A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108351986B (zh) * 2015-10-30 2022-03-29 株式会社摩如富 学习系统及装置和方法、训练数据生成装置及生成方法
KR102570278B1 (ko) * 2017-07-31 2023-08-24 삼성전자주식회사 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법
JP7197971B2 (ja) * 2017-08-31 2022-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN107609084B (zh) * 2017-09-06 2021-01-26 华中师范大学 一种基于群智汇聚收敛的资源关联方法
JP6962123B2 (ja) * 2017-10-04 2021-11-05 株式会社豊田中央研究所 ラベル推定装置及びラベル推定プログラム
JP6916096B2 (ja) * 2017-11-20 2021-08-11 株式会社日立製作所 インスタンス利用促進システム
JP7050470B2 (ja) * 2017-11-21 2022-04-08 千代田化工建設株式会社 検査支援システム、学習装置、及び判定装置
JP6431231B1 (ja) * 2017-12-24 2018-11-28 オリンパス株式会社 撮像システム、学習装置、および撮像装置
JP6924413B2 (ja) * 2017-12-25 2021-08-25 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
CN108268938B (zh) * 2018-01-24 2020-04-21 清华大学 神经网络及其信息处理方法、信息处理系统
JP7040104B2 (ja) * 2018-02-19 2022-03-23 富士通株式会社 学習プログラム、学習方法および学習装置
JPWO2019176806A1 (ja) * 2018-03-16 2021-04-08 富士フイルム株式会社 機械学習装置および方法
JP7025989B2 (ja) * 2018-05-11 2022-02-25 株式会社 日立産業制御ソリューションズ 学習装置、学習方法及び学習プログラム
WO2019230254A1 (ja) * 2018-05-31 2019-12-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP3582142A1 (en) * 2018-06-15 2019-12-18 Université de Liège Image classification using neural networks
CN109348400B (zh) * 2018-09-16 2020-08-04 台州昉创科技有限公司 一种3d音效的主体位姿预判方法
CN112912964A (zh) * 2018-10-19 2021-06-04 豪夫迈·罗氏有限公司 利用卷积神经网络对冻干药物产品的缺陷检测
EP3877885A4 (en) * 2018-11-07 2021-12-08 Element AI Inc. REMOVAL OF SENSITIVE DATA FROM DOCUMENTS FOR USE AS TRAINING KITS
JP7135750B2 (ja) * 2018-11-12 2022-09-13 富士通株式会社 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置
US20220004857A1 (en) * 2018-11-15 2022-01-06 Leapmind Inc. Neural network processing apparatus, neural network processing method, and neural network processing program
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
US11087170B2 (en) * 2018-12-03 2021-08-10 Advanced Micro Devices, Inc. Deliberate conditional poison training for generative models
JP6632773B1 (ja) * 2018-12-14 2020-01-22 三菱電機株式会社 学習識別装置、学習識別方法、及び、学習識別プログラム
JP6989485B2 (ja) * 2018-12-21 2022-01-05 株式会社 日立産業制御ソリューションズ マルチラベルデータ学習支援装置、マルチラベルデータ学習支援方法およびマルチラベルデータ学習支援プログラム
KR102189761B1 (ko) * 2018-12-21 2020-12-11 주식회사 엘지씨엔에스 딥러닝 학습 방법 및 서버
US10579907B1 (en) * 2019-01-31 2020-03-03 StradVision, Inc. Method for automatically evaluating labeling reliability of training images for use in deep learning network to analyze images, and reliability-evaluating device using the same
WO2020178957A1 (ja) 2019-03-04 2020-09-10 日本電気株式会社 画像処理装置、画像処理方法及びプログラム記録媒体
US11373298B2 (en) * 2019-03-28 2022-06-28 Canon Medical Systems Corporation Apparatus and method for training neural networks using small, heterogeneous cohorts of training data
JP2020161086A (ja) * 2019-03-28 2020-10-01 株式会社デンソーテン 制御装置および補正方法
WO2020217371A1 (ja) * 2019-04-25 2020-10-29 オムロン株式会社 学習システム、データ生成装置、データ生成方法、及びデータ生成プログラム
US11804070B2 (en) 2019-05-02 2023-10-31 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection
CN110147852A (zh) * 2019-05-29 2019-08-20 北京达佳互联信息技术有限公司 图像识别的方法、装置、设备及存储介质
KR20200144658A (ko) 2019-06-19 2020-12-30 삼성전자주식회사 분류 장치 및 이의 동작 방법과 트레이닝 방법
JP7200851B2 (ja) * 2019-06-27 2023-01-10 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
US20220269953A1 (en) * 2019-09-02 2022-08-25 Nec Corporation Learning device, prediction system, method, and program
WO2021044671A1 (ja) * 2019-09-03 2021-03-11 富士フイルム株式会社 学習装置、学習装置の作動方法、学習装置の作動プログラム
CN110610169B (zh) * 2019-09-20 2023-12-15 腾讯科技(深圳)有限公司 图片标注方法和装置、存储介质及电子装置
EP4055519A4 (en) * 2019-11-20 2023-01-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. DATA CLEANING DEVICE, DATA CLEANING METHOD AND FACE VERIFICATION METHOD
KR102131347B1 (ko) * 2020-01-29 2020-07-07 주식회사 이글루시큐리티 머신 러닝 학습 데이터 생성 방법 및 그 시스템
JP7421363B2 (ja) * 2020-02-14 2024-01-24 株式会社Screenホールディングス パラメータ更新装置、分類装置、パラメータ更新プログラム、および、パラメータ更新方法
WO2021241173A1 (ja) * 2020-05-27 2021-12-02 コニカミノルタ株式会社 学習装置、学習方法及び学習プログラム、認識装置、認識方法及び認識プログラム並びに学習認識装置
CN113188715A (zh) * 2021-03-17 2021-07-30 重庆大学 基于机器学习的多维力传感器静态校准数据处理方法
US20230206294A1 (en) 2021-12-29 2023-06-29 Rakuten Group, Inc. Information processing apparatus, information processing method, and recording medium

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109733A (ja) * 1999-10-12 2001-04-20 Hitachi Ltd 識別モデルの評価方法及び閾値調整方法
JP2002008000A (ja) * 2000-06-16 2002-01-11 Nippon Telegr & Teleph Corp <Ntt> データ分類学習方法、データ分類方法、データ分類学習装置、データ分類装置、データ分類学習プログラムを記録した記録媒体、データ分類プログラムを記録した記録媒体
JP2004524599A (ja) * 2000-11-02 2004-08-12 サイバーソース コーポレイション 電子商取引における不正取引リスクを評価するための方法及び装置
JP4532915B2 (ja) * 2004-01-29 2010-08-25 キヤノン株式会社 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US7925080B2 (en) 2006-01-13 2011-04-12 New Jersey Institute Of Technology Method for identifying marked images based at least in part on frequency domain coefficient differences
US8352386B2 (en) * 2009-07-02 2013-01-08 International Business Machines Corporation Identifying training documents for a content classifier
US8423568B2 (en) * 2009-09-16 2013-04-16 Microsoft Corporation Query classification using implicit labels
US8774515B2 (en) * 2011-04-20 2014-07-08 Xerox Corporation Learning structured prediction models for interactive image labeling
CN102298606B (zh) 2011-06-01 2013-07-17 清华大学 基于标签图模型随机游走的图像自动标注方法及装置
US9235799B2 (en) 2011-11-26 2016-01-12 Microsoft Technology Licensing, Llc Discriminative pretraining of deep neural networks
CN108073948A (zh) 2012-01-17 2018-05-25 华为技术有限公司 一种照片分类管理方法、服务器、装置及系统
US9536178B2 (en) * 2012-06-15 2017-01-03 Vufind, Inc. System and method for structuring a large scale object recognition engine to maximize recognition accuracy and emulate human visual cortex
US9122950B2 (en) * 2013-03-01 2015-09-01 Impac Medical Systems, Inc. Method and apparatus for learning-enhanced atlas-based auto-segmentation
US8923608B2 (en) * 2013-03-04 2014-12-30 Xerox Corporation Pre-screening training data for classifiers
JP6164639B2 (ja) * 2013-05-23 2017-07-19 国立研究開発法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法、及びコンピュータプログラム
JP5809663B2 (ja) * 2013-06-10 2015-11-11 ヤフー株式会社 分類精度推定装置、分類精度推定方法、およびプログラム
US9489373B2 (en) * 2013-07-12 2016-11-08 Microsoft Technology Licensing, Llc Interactive segment extraction in computer-human interactive learning
US10373047B2 (en) * 2014-02-28 2019-08-06 Educational Testing Service Deep convolutional neural networks for automated scoring of constructed responses
JP6092141B2 (ja) * 2014-03-10 2017-03-08 日本電信電話株式会社 データ解析装置、方法、及びプログラム
US9552549B1 (en) * 2014-07-28 2017-01-24 Google Inc. Ranking approach to train deep neural nets for multilabel image annotation
WO2016070098A2 (en) * 2014-10-31 2016-05-06 Paypal, Inc. Determining categories for weakly labeled images
US9495619B2 (en) * 2014-12-30 2016-11-15 Facebook, Inc. Systems and methods for image object recognition based on location information and object categories
CN107851097B (zh) * 2015-03-31 2021-10-01 株式会社Fronteo 数据分析系统、数据分析方法、数据分析程序及存储介质
CN108351986B (zh) * 2015-10-30 2022-03-29 株式会社摩如富 学习系统及装置和方法、训练数据生成装置及生成方法

Also Published As

Publication number Publication date
CN108351986B (zh) 2022-03-29
KR102114564B1 (ko) 2020-05-22
US20220101059A1 (en) 2022-03-31
WO2017073373A1 (ja) 2017-05-04
JP2018018537A (ja) 2018-02-01
EP3361423A4 (en) 2019-06-12
EP3361423B1 (en) 2022-12-14
CN108351986A (zh) 2018-07-31
US20180307946A1 (en) 2018-10-25
JP6271085B2 (ja) 2018-01-31
US11170262B2 (en) 2021-11-09
JPWO2017073373A1 (ja) 2017-10-26
KR20180079391A (ko) 2018-07-10
EP3361423A1 (en) 2018-08-15

Similar Documents

Publication Publication Date Title
JP6453968B2 (ja) 閾値変更装置
US9965717B2 (en) Learning image representation by distilling from multi-task networks
US11501161B2 (en) Method to explain factors influencing AI predictions with deep neural networks
US8874616B1 (en) Method and apparatus for fusion of multi-modal interaction data
Orphanou et al. Mitigating bias in algorithmic systems—a fish-eye view
KR20200119370A (ko) 인공지능 기반의 유사 디자인 검색 장치
CN111512299A (zh) 用于内容搜索的方法及其电子设备
CN115858919A (zh) 基于项目领域知识和用户评论的学习资源推荐方法及系统
CN108304568B (zh) 一种房地产公众预期大数据处理方法及系统
CN116975743A (zh) 行业信息分类方法、装置、计算机设备和存储介质
US20230229691A1 (en) Methods and systems for prediction of a description and icon for a given field name
US20230018525A1 (en) Artificial Intelligence (AI) Framework to Identify Object-Relational Mapping Issues in Real-Time
CN112069806B (zh) 简历筛选方法、装置、电子设备及存储介质
KR20220097239A (ko) 인공지능에 기반하여 시놉시스 텍스트를 분석하고 시청률을 예측하는 서버
US10025700B1 (en) Data mining technique with n-Pool evolution
US11829735B2 (en) Artificial intelligence (AI) framework to identify object-relational mapping issues in real-time
US11657071B1 (en) Mapping disparate datasets
Cuevas et al. An improved evolutionary algorithm for reducing the number of function evaluations
CN118313446A (zh) 面向冷启动场景的因果元学习多视角图学习方法及设备
CN115934561A (zh) 测试结果分类模型的训练方法、装置和计算机设备
Jutte The Smart Annotation Tool: optimizing semi-automated behavioural annotation using an AutoML framework supported by classification correctness prediction
CN116186434A (zh) 用于生成标签集合的方法、装置、设备和存储介质
Li Reduction Methods for Multi-Label Classification
ÓLAFSDÓTTIR Using machine learning and natural language processing to automatically extract information from software documentation
Mena et al. Collective annotation patterns in learning from crowds

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6453968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350