JP7239853B2 - 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム - Google Patents
学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム Download PDFInfo
- Publication number
- JP7239853B2 JP7239853B2 JP2021132656A JP2021132656A JP7239853B2 JP 7239853 B2 JP7239853 B2 JP 7239853B2 JP 2021132656 A JP2021132656 A JP 2021132656A JP 2021132656 A JP2021132656 A JP 2021132656A JP 7239853 B2 JP7239853 B2 JP 7239853B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- learning data
- image
- unit
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
、及びプログラムに関する。
グによる機械学習が注目されている。ディープラーニングは、多層化したニューラルネッ
トワークを機械学習させる手法であり、大量の学習用データを、教師あり学習させること
で、精度を向上させることができる。例えばこの学習用データを用いれば、画像などのオ
ブジェクトにラベルを付与してオブジェクトを分類することができる。ここで、精度良く
教師あり学習を行うためには、ラベルが付与された学習用データを大量に準備する必要が
ある。例えば、特許文献1では、検証用画像を誤検出した場合に、教師なし画像分類器で
未学習画像データから類似画像を抽出して学習用データとして追加するシステムが開示さ
れている。また、特許文献2では、動画像中の顔領域を追跡することで、学習用データを
増加させる方法が開示されている。
ら分類しようとするオブジェクトに適した学習用データの収集の観点からは、改善の余地
がある。また、特許文献2では、既知のラベルに対する学習用データを増加させることは
できるが、既知のラベルに分類されないオブジェクトに適した学習用データを増加させる
ためには、改善の余地がある。従って、これから分類しようとするオブジェクトに適した
学習用データを適切に収集することが求められている。
ータを適切に収集可能な学習用データ作成装置、学習用モデル作成システム、学習用デー
タ作成方法、及びプログラムを提供することを目的とする。
画像からオブジェクト画像を抽出するオブジェクト抽出部と、学習済みモデルに基づき前
記オブジェクト画像を評価して、前記オブジェクト画像が候補ラベルに分類される可能性
の高さを示す信頼度を算出する分類評価部と、前記信頼度が、第1閾値より小さく、かつ
、前記第1閾値より値が小さい第2閾値以上である場合に、前記候補ラベルとは異なる仮
ラベルを、前記オブジェクト画像に関連付ける分類判定部と、前記仮ラベルと関連付けら
れた前記オブジェクト画像に基づき学習用データを生成する学習用データ生成部と、を備
える。
、前記画像からオブジェクト画像を抽出するオブジェクト抽出ステップと、学習済みモデ
ルに基づき前記オブジェクト画像を評価して、前記オブジェクト画像が候補ラベルに分類
される可能性の高さを示す信頼度を算出する分類評価ステップと、前記信頼度が、第1閾
値より小さく、かつ、前記第1閾値より値が小さい第2閾値以上である場合に、前記候補
ラベルとは異なる仮ラベルを、前記オブジェクト画像に関連付ける分類判定ステップと、
前記仮ラベルと関連付けられた前記オブジェクト画像に基づき学習用データを生成する学
習用データ生成ステップと、を有する。
からオブジェクト画像を抽出するオブジェクト抽出ステップと、学習済みモデルに基づき
前記オブジェクト画像を評価して、前記オブジェクト画像が候補ラベルに分類される可能
性の高さを示す信頼度を算出する分類評価ステップと、前記信頼度が、第1閾値より小さ
く、かつ、前記第1閾値より値が小さい第2閾値以上である場合に、前記候補ラベルとは
異なる仮ラベルを、前記オブジェクト画像に関連付ける分類判定ステップと、前記仮ラベ
ルと関連付けられた前記オブジェクト画像に基づき学習用データを生成する学習用データ
生成ステップと、を有する、をコンピュータに実行させる。
に収集することができる。
施形態により本発明が限定されるものではない。
実施形態に係るオブジェクト分類システム1は、学習済みモデルに基づき、オブジェクト
画像にラベルを付与することで、オブジェクト画像を分類するシステムである。また、オ
ブジェクト分類システム1は、学習用データを生成して、学習済みモデルを更新すること
で、オブジェクト画像の分類精度を高くするものである。すなわち、オブジェクト分類シ
ステム1は、学習用モデル作成システムであるともいえる。
習装置12とを有する。学習用データ生成装置10は、本実施形態では、所定の位置に設
定された端末である。学習用データ生成装置10は、撮像部20と、記憶部22と、通信
部24と、制御部26とを有する。なお、学習用データ生成装置10は、例えばユーザが
入力可能な入力部、及び、情報を出力可能な出力部を備えていてもよい。この場合、入力
部は、撮像部20に撮像させるためのボタンなどの入力装置であってもよいし、マウスや
キーボード、タッチパネルなどであってもよい。出力部は、例えばディスプレイであり、
撮像した画像などが表示可能である。
は、撮像部20は、動画像を撮像するものであるが、静止画像を撮像するものであっても
よい。このように、学習用データ生成装置10は、本実施形態では、撮像部20を有する
撮像装置である。ただし、学習用データ生成装置10は、必ずしも撮像部20を有してい
なくてもよい。この場合、学習用データ生成装置10は、外部装置から、画像を通信など
によって画像を取得すればよい。撮像部20は、画像解像度が(1920x1080)で
フレームレートが30フレーム/秒で撮像を行うが、解像度及びフレームレートなど、撮
像条件はこれに限られない。
画像などを記憶するメモリである。記憶部22は、例えば、RAM(Random Ac
cess Memory)、ROM(Read Only Memory)、及びフラッ
シュメモリ(Flash Memory)などの外部記憶装置を少なくとも1つ含む。
ことでデータの送受信をする。通信部24は、例えばアンテナであり、例えば無線LAN
、Wi-fi(登録商標)、ブルートゥース(登録商標)などの無線通信により学習装置
12とデータの送受信を行う。ただし、通信部24は、学習装置12とケーブルで接続さ
れて、有線通信により情報を送受信するものであってもよい。
Unit)である。制御部26は、画像取得部30と、オブジェクト抽出部32と、学習
済みモデル取得部34と、分類評価部36と、分類判定部38と、ラベル付与部40と、
学習用データ生成部42と、学習用データ送信制御部44とを有する。画像取得部30と
、オブジェクト抽出部32と、学習済みモデル取得部34と、分類評価部36と、分類判
定部38と、ラベル付与部40と、学習用データ生成部42と、学習用データ送信制御部
44とは、記憶部22に記憶されたソフトウェア(プログラム)を読み出すことで、後述
する処理を実行する。
部30は、撮像部20が撮像した画像を取得する。画像取得部30は、取得した画像を記
憶部22に記憶させる。
を抽出する。オブジェクト画像Pは、画像内の一部の領域に含まれる画像であり、分類の
対象となる画像である。例えば、オブジェクト画像Pは、画像内に写っている人の顔画像
である。オブジェクト抽出部32は、1つの画像から、複数のオブジェクト画像Pが抽出
する。すなわち、画像に顔画像が複数存在する場合、オブジェクト抽出部32は、その顔
画像のそれぞれを、オブジェクト画像Pとして抽出する。なお、オブジェクト画像Pは、
分類の対象となる画像であれば、人の顔画像に限られず任意の画像であってよい。オブジ
ェクト画像Pとしては、例えば、動植物、建造物、及び自動車などの各種装置が挙げられ
る。
する。オブジェクト抽出部32は、例えば、Haar-like特徴を用いて顔認識する
もの(Haar-like検出器)であるが、他の方法で顔認識が出来る特徴量検出器で
あってもよい。すなわち、オブジェクト抽出部32は、オブジェクト画像Pを抽出できる
ものであれば、抽出の方法は任意である。オブジェクト抽出部32が抽出したオブジェク
ト画像Pは、記憶部22に記憶される。
ルを取得する。学習済みモデル取得部34は、取得した学習済みモデルを、記憶部22に
記憶させる。本実施形態に係る学習済みモデルは、ディープラーニングによって学習され
た分類器を構成するニューラルネットワークを定義するモデル(ニューラルネットワーク
の構成情報)と、変数とで構成される。学習済みモデルは、同一の入力データが入力され
れば、同一の分類結果が得られるニューラルネットワークを再現できるものである。ディ
ープラーニングは、ディープニューラルネットワークをバックプロパケーション(誤差逆
伝搬法)で学習させる学習方法である。
は、記憶部22から学習済みモデルを読み出し、学習済みモデルを用いて、オブジェクト
画像Pを分類する。さらに言えば、分類評価部36は、学習済みモデルを用いて、オブジ
ェクト画像Pが、候補ラベルに分類される可能性(後述する信頼度)を、複数の候補ラベ
ルのそれぞれについて算出する。分類評価部36は、学習済みモデルに、オブジェクト画
像Pを入力データとして入力する。これにより、学習済みモデルは、オブジェクト画像P
から複数種類の特徴量を抽出して、その特徴量に基づき、複数の候補ラベルのそれぞれに
ついて、オブジェクト画像Pが分類される可能性の高さを算出する。さらに言えば、学習
済みモデルは、複数階層のニューラルネットワークで構成されており、階層ごとに異なる
特徴量を抽出することで、オブジェクト画像Pを分類する。すなわち、学習済みモデルに
おいては、例えば、2つ候補ラベルに分類する場合には、図2に示すように、抽出したオ
ブジェクト画像Pの特徴量が、設定された境界線L以上となるか以下となるかにより、オ
ブジェクト画像Pがどちらの候補ラベルに分類されるかの判定を行う。本実施形態におい
て、学習済みモデルに用いるモデルとしては、例えばCNN(Convolutiona
l Neural Network)が用いられる。CNNでは、中間層に主に複数の畳
み込み層と複数のプーリング層が設置されて、入力データの特徴量を抽出し、最終層に全
結合層が設置されて、入力データを分類する。ただし、学習済みモデルは、オブジェクト
画像Pの特徴量に基づきオブジェクト画像Pを分類するものであれば、分類するモデルや
方法は任意である。ディープラーニングは、Tensor Flowなどのディープラーニングのフ
レームワークを利用して、CPUやGPU等で動作するようにソフトウェアを実装するこ
とができる。
価(解析)して、候補ラベル毎の信頼度を算出する。信頼度とは、オブジェクト画像Pが
候補ラベルに分類される可能性の高さを示す指標、ここでは値である。また、候補ラベル
とは、学習済みモデルに予め設定されているラベルである。それぞれのオブジェクト画像
Pは、互いに異なる種類の顔画像である場合があり、候補ラベルは、そのオブジェクト画
像Pの種類を指すラベルである。従って、分類評価部36は、オブジェクト画像Pがどの
種類の顔画像であるかの確率を、信頼度として算出するといえる。本実施形態では、候補
ラベルは、個人(同一人)毎に設定される。すなわち、1つの候補ラベルは、ある個人の
顔を指し、他の候補ラベルは、他の個人の顔を指す。ただし、候補ラベルは、オブジェク
ト画像Pの種類を示す指標であれば、個人に限られず任意に設定できる。例えば、候補ラ
ベルは、人の年齢、性別、人種などであってもよい。また、候補ラベルは、動植物の種類
、建造物の種類、自動車などの各種装置の種類などであってもよい。
Pの信頼度を、候補ラベル毎に算出して、図3に示す信頼度テーブルを生成する。図3の
例では、候補ラベルとして、候補ラベルF01、F02、F03、F04、F05が設定
されている。本実施形態では、候補ラベルF01、F02、F03、F04、F05が、
それぞれ互いに異なる個人を示しているといえる。図3の例では、信頼度が、候補ラベル
F01から候補ラベルF05の順で、それぞれ、0.05、0.07、0,86、0.0
2、0.00となっている。信頼度は、全ての候補ラベルの信頼度の合計が1となるよう
に設定される。従って、図3の例では、分類評価部36は、オブジェクト画像Pが候補ラ
ベルF01に分類される可能性を、5%とし、候補ラベルF02に分類される可能性を、
7%とし、候補ラベルF03に分類される可能性を、86%とし、候補ラベルF04に分
類される可能性を2%とし、候補ラベルF05に分類される可能性を、0%としている。
、記憶部22に記憶させる。分類評価部36は、それぞれのオブジェクト画像Pについて
、信頼度を算出する。
価部36が算出した信頼度に基づき、オブジェクト画像Pが候補ラベルに分類されるかを
判定する。具体的には、分類判定部38は、複数の候補ラベルのうち、信頼度が最も高い
候補ラベルを抽出し、その候補ラベルにオブジェクト画像Pが分類されるかの判定を行う
。以下、信頼度が最も高い候補ラベルの信頼度を、最大信頼度とする。図3の例では、信
頼度が最も高い候補ラベルが、候補ラベルF03であり、最大信頼度が、候補ラベルF0
3の信頼度である0.86である。
オブジェクト画像Pが、その最大信頼度とされた候補ラベルに分類されると判定する。第
1閾値K1は、分類する数と学習済みモデルにおける学習済み画像の数に基づいて設定す
ることが好ましいが、ここでは、0.85であるとし、それに限られず任意に設定できる
。例えば、分類する数が多い程、第1閾値K1を小さくし、学習済みモデルにおける学習
済み画像の数が増える程、第1閾値K1を大きくするようにするのが好ましい。分類判定
部38は、オブジェクト画像Pがその候補ラベルに分類されるとの判定結果を、ラベル付
与部40に伝達する。ラベル付与部40は、その候補ラベルを、オブジェクト画像Pのラ
ベルとして付与する。すなわち、ラベル付与部40は、その候補ラベルを正式のラベルと
して、オブジェクト画像Pがそのラベルに分類されると決定する。例えば、第1閾値K1
を0.85とした場合、図3のオブジェクト画像P3は、候補ラベルF03に分類される
と判断される。ラベル付与部40は、候補ラベルF03を正式のラベルF03として、オ
ブジェクト画像Pに付与する。すなわち、オブジェクト画像Pは、候補ラベルF03(ラ
ベルF03)という個人の顔画像であると分類される。
像Pがその候補ラベルに分類されないと判断する。さらに、分類判定部38は、最大信頼
度が第1閾値K1より小さい場合、その最大信頼度が、第2閾値K2以上であるかを判定
する。図4に示すように、第2閾値K2は、第1閾値K1より小さい値である。第2閾値
K2は、分類する数と学習済みモデルにおける学習済み画像の数とに基づいて設定するこ
とが好ましいが、ここでは、0.7であるとし、第1閾値K1より小さい値として任意に
設定可能である。なお、未知の新たな個人(分類)の数が多い程、第1閾値K1と第2閾
値K2との間隔を小さくし、学習済みモデルにおける学習済み画像の数が増える程、第1
閾値K1と第2閾値K2との間隔を大きくするようにするのが好ましい。分類判定部38
は、最大信頼度が、第1閾値K1より小さく、かつ、第2閾値K2以上である場合に、仮
ラベルをオブジェクト画像Pに関連付ける。仮ラベルは、それぞれの候補ラベルに対して
設定されるものであるが、候補ラベルとは異なる種類のラベルである。すなわち、分類判
定部38は、最大信頼度が第1閾値K1より小さく第2閾値K2以上である場合、オブジ
ェクト画像Pを、既存の候補ラベルに分類することなく、既存の候補ラベル以外の仮ラベ
ルに関連付ける。言い換えれば、分類判定部38は、オブジェクト画像Pを、候補ラベル
とされていた各個人に分類することなく、それら以外の未知の新たな個人に、仮に関連付
ける。例えば図3の候補ラベルF03の信頼度(最大信頼度)が第1閾値K1より小さく
第2閾値K2以上である場合、オブジェクト画像Pは、候補ラベルF01からF05とは
別の仮ラベルに関連付けられる。
Pに候補ラベルや仮ラベルを関連付けない。すなわち、分類判定部38は、最大信頼度が
第2閾値K2より小さい場合、オブジェクト画像Pを分類しない。さらに、分類判定部3
8は、最大信頼度が第2閾値K2より小さい場合、そのオブジェクト画像Pを、後述する
学習用データに用いない。ただし、分類判定部38は、第2閾値K2を設定しないで第1
閾値K1だけを設定して、そのオブジェクト画像Pを学習用データに用いてもよい。
を、オブジェクト画像P毎に行う。ラベル付与部40は、正式のラベルとしたラベルとオ
ブジェクト画像Pとを関連付けて、記憶部22に記憶させる。図5は、ラベルとオブジェ
クト画像Pとの関連を示す情報であるラベルテーブルの一例である。図5は、オブジェク
ト画像P1からオブジェクト画像P20までが判定された例を示している。図5の例では
、候補ラベルF01を正式のラベルF01としたオブジェクト画像Pが、オブジェクト画
像P1、P2、P10、P12、P13、P16である。また、候補ラベルF02を正式
のラベルF02としたオブジェクト画像Pが、オブジェクト画像P3、P19であり、候
補ラベルF03を正式のラベルF03としたオブジェクト画像Pが、オブジェクト画像P
18である。そして、候補ラベルF04を正式のラベルF04としたオブジェクト画像P
が、オブジェクト画像P4、P9、P17、P20であり、候補ラベルF05を正式のラ
ベルF05としたオブジェクト画像Pは、無い。このように、オブジェクト画像P1から
オブジェクト画像P20のうち、ラベルが付与されていないオブジェクト画像Pがある。
ジェクト画像Pとを関連付けて、記憶部22に記憶させる。ここで、最大信頼度となる候
補ラベルは、オブジェクト画像P毎に異なる場合がある。この場合、分類判定部38は、
最大信頼度となった候補ラベル毎に、仮ラベルを設定する。図6は、仮ラベルとオブジェ
クト画像Pとを関連付けた情報である仮ラベルテーブルの一例である。例えば図6では、
分類判定部38は、候補ラベルF01が最大信頼度となった場合の仮ラベルを仮ラベルF
06とし、候補ラベルF02が最大信頼度となった場合の仮ラベルを、仮ラベルF07と
する。すなわち、分類判定部38は、仮ラベルに関連付けを行う場合に、最大信頼度とな
る候補ラベルが異なる場合には、別の仮ラベル(別の個人)を関連付ける。そして、分類
判定部38は、仮ラベルに関連付けを行う場合に、最大信頼度となる候補ラベルが同じ場
合には、同じ仮ラベルを関連付ける。図6の例では、仮ラベルF06に関連付けられたオ
ブジェクト画像Pが、オブジェクト画像P5、P8、P11、P14、P15であり、仮
ラベルF07に関連付けられたオブジェクト画像Pが、オブジェクト画像P6である。
上になった場合に、それらのオブジェクト画像Pが、その仮ラベルに分類されると判定す
る。そして、分類判定部38は、オブジェクト画像Pがその仮ラベルに分類されるとの判
定結果を、ラベル付与部40に伝達する。ラベル付与部40は、その仮ラベルを、オブジ
ェクト画像Pのラベルとして付与する。すなわち、ラベル付与部40は、その仮ラベルを
正式のラベルとして、オブジェクト画像Pがそのラベルに分類されると決定する。このよ
うに、ラベル付与部40は、仮ラベルに関連付けられたオブジェクト画像Pの数が所定数
以上になった場合に、すでに設定されていた候補ラベルとは別のラベル(仮ラベル)を、
それらのオブジェクト画像Pに付与する。なお、ここでの所定数は、例えば5であるが、
それに限られず任意に設定可能である。
とされると、ラベルテーブル中のラベルの数が増える。図7は、図5に対し、仮ラベルF
06が正式のラベルとして付与された場合のラベルテーブルを示している。図7に示すよ
うに、仮ラベルF06が正式のラベルF06として設定され、そのラベルF06に分類さ
れたオブジェクト画像Pが、オブジェクト画像P5、P8、P11、P14、P15であ
る。仮ラベルF07は、関連付けられたオブジェクト画像Pの数が所定数より小さいため
、正式のラベルとされていない。
みモデルを更新するための学習用データを生成する。学習用データ生成部42は、分類判
定部38において仮ラベルに関連付けられたオブジェクト画像Pの数が、所定数以上とな
った場合に、それらのオブジェクト画像Pと仮ラベルとを、学習用データとする。すなわ
ち、学習用データ生成部42は、仮ラベルに関連付けられたオブジェクト画像Pの数が所
定数以上となることで、仮ラベルに正式のラベルが付与される場合に、その仮ラベルとそ
れぞれのオブジェクト画像Pとを紐付けて、学習用データとする。ここでの学習用データ
とは、教師ありデータを指し、オブジェクト画像Pが、その仮ラベルに分類されるという
情報を有したデータである。図6の例では、オブジェクト画像P5、P8、P11、P1
4、P15が、それぞれ仮ラベルF06と紐付けられ、学習用データとされる。
部42が作成した学習用データを、学習装置12に送信する。学習用データ生成部42は
、学習用データとして利用されたオブジェクト画像Pを、記憶部22が記憶している仮ラ
ベルテーブルから削除する。すなわち、図6の例では、仮ラベルF06に関連付けられて
学習用データとされたオブジェクト画像P5、P8、P11、P14、P15が、削除さ
れる。従って、仮ラベルテーブルには、仮ラベルF07に関連付けられたオブジェクト画
像P6だけが残る。ただし、学習用データ生成部42は、学習用データとするオブジェク
ト画像Pが出てきた場合に仮ラベルテーブル内の全てのオブジェクト画像Pを削除しても
よい。この場合、仮ラベルF07に関連付けられたオブジェクト画像P6も削除される。
この場合、次に分類を始める場合に、学習用データを反映した新しい学習済みモデルを用
いて、より精度の高い分類や仮ラベルの設定ができる。一方、学習用データとして利用さ
れたオブジェクト画像Pだけが削除された場合、他の仮ラベルにはオブジェクト画像Pが
残る。従って、この場合、所定数まで達する数が少なくて済むため、より迅速な学習用デ
ータ生成が可能となる。
ついて説明する。図1に示すように、学習装置12は、学習用データ生成装置10とは異
なる位置に設けられた装置(サーバ)である。学習装置12は、通信部50と、記憶部5
2と、制御部54とを有する。なお、学習装置12は、例えばユーザが入力可能な入力部
、及び、情報を出力可能な出力部を備えていてもよい。この場合、入力部は、マウスやキ
ーボード、タッチパネルなどである。出力部は、例えばディスプレイであり、撮像した画
像などが表示可能である。
0と通信することでデータの送受信をする。通信部50は、例えばアンテナであり、例え
ば無線LAN、Wi-fi、ブルートゥースなどの無線通信により学習用データ生成装置
10とデータの送受信を行う。ただし、通信部50は、学習用データ生成装置10とケー
ブルで接続されて、有線通信により情報を送受信するものであってもよい。
。記憶部52は、例えば、RAM(Random Access Memory)、RO
M(Read Only Memory)、及びフラッシュメモリ(Flash Mem
ory)などの外部記憶装置を少なくとも1つ含む。
Unit)である。制御部54は、学習用データ取得部60と、学習部62と、学習済み
モデル送信制御部64とを有する。学習用データ取得部60と、学習部62と、学習済み
モデル送信制御部64とは、記憶部52に記憶されたソフトウェア(プログラム)を読み
出すことで、後述する処理を実行する。
部24から、学習用データ生成部42が生成した学習用データを取得する。学習用データ
取得部60は、取得した学習用データを、記憶部52に記憶させる。
、予め記憶していた学習済みモデルと学習済みの学習用データとを読み出し、学習用デー
タ取得部60が取得した新たな学習用データとを読み出す。学習部62は、学習済みの学
習用データと新たな学習用データとを教師ありデータとして学習済みモデルに学習させる
ことで、学習済みモデルを更新する。
ータテーブルの一例である。学習済みデータテーブルとは、記憶部52が記憶している教
師ありデータであり、学習済み画像がラベルに紐付けられた情報である。すなわち、学習
済みデータテーブルとは、学習済み画像がどのラベルに分類されるかを示す教師データを
複数含むデータ群である。学習済みモデルは、この学習済みデータテーブルの各データを
教師データとして、学習されて構築される。
ーブルの一例を示している。図8に示す学習済みデータテーブルにおいては、学習済み画
像P101~P200が、ラベルF01に分類され、学習済み画像P201~P300が
、ラベルF02に分類され、学習済み画像P301~P400が、ラベルF03に分類さ
れ、学習済み画像P401~P500が、ラベルF04に分類され、学習済み画像P50
1~P600が、ラベルF05に分類されている。これらの学習済み画像P100~P6
00は、予め抽出された顔画像であり、学習用データ生成装置10が分類することなく、
予めどのラベルに分類するかが設定された画像である。すなわち、学習済みモデルは、予
め学習済み画像P100~P600が教師ありデータとして供給されることで、構築され
ている。
ーブルの一例を示している。図9に示すように、学習部62は、更新前の学習済みデータ
テーブルに、学習用データを追加して、学習済みデータテーブルを更新する。すなわち、
学習部62は、学習用データのオブジェクト画像Pを学習済み画像とし、仮ラベルを新た
なラベルとして、学習済みデータテーブルを更新する。すなわち、学習用データは、オブ
ジェクト画像Pがどの仮ラベルに付与されているかが示された教師ありデータとなる。図
9の例では、学習済みデータテーブルに、学習用データに含まれた新たな学習済み画像(
オブジェクト画像)P5、P8、P11、P14、P15が追加され、それらの学習済み
画像には、新たなラベルF06が紐付けられている。学習部62は、このように新たな学
習用データが追加された学習済みデータテーブルにより、学習済みモデルを更新する。学
習部62は、更新された学習済みモデルを記憶部52に記憶させる。
習済みモデルを、学習用データ生成装置10に送信する。学習用データ生成装置10は、
学習済みモデル取得部34が、この更新された学習済みモデルを読み出し、次のオブジェ
クト画像Pの分類と、学習用データの生成とを行う。
るサーバである。ただし、学習装置12は、学習用データ生成装置10に組み込まれたも
のであってよい。すなわち、オブジェクト分類システム1は、学習装置12を有さず、代
わりに、学習用データ取得部60及び学習部62が、学習用データ生成装置10の制御部
26に組み込まれていてもよい。この場合、学習用データ送信制御部44も不要となる。
また、本実施形態では、学習用データ生成装置10が、分類判定部38で判定を行ってい
たが、学習装置12が分類判定部38を有して判定を行ってもよい。また、学習装置12
が分類評価部36を有して優先度の算出を行ってもよい。
として実現することができるのは勿論のこと、ROMやフラッシュメモリ等に記憶されて
いるファームウェアや、コンピュータ等のソフトウェアによっても実現することができる
。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り
可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサ
ーバと送受信することも、地上波あるいは衛星ディジタル放送のデータ放送として送受信
することも可能である。
いて説明する。図10は、学習用データ生成装置の制御部による処理フローを説明するフ
ローチャートである。図10に示すように、学習用データ生成装置10の制御部26は、
画像取得部30により、撮像部20が撮像した画像を取得し(ステップS10)、オブジ
ェクト抽出部32により、取得した画像からオブジェクト画像Pを1つ抽出する(ステッ
プS12)。
の、候補ラベル毎の信頼度を算出する(ステップS16)。そして、制御部26は、分類
判定部38により、最大信頼度が第1閾値K1以上であるかを判定する(ステップS18
)。最大信頼度とは、それぞれの候補ラベルのうちで信頼度が最も高い候補ラベルの、信
頼度である。最大信頼度が第1閾値K1以上である場合(ステップS18;Yes)、分
類判定部38は、オブジェクト画像Pがその最大信頼度の候補ラベルに分類されると判定
して、ラベル付与部40が、最大信頼度の候補ラベルを、そのオブジェクト画像Pのラベ
ルとして確定する(ステップS20)。最大信頼度の候補ラベルをラベルとして確定した
後は、後述するステップS32に進む。
値K1より小さい場合、分類判定部38は、最大信頼度が第2閾値K2以上であるかを判
定し(ステップS22)、第2閾値K2以上でない場合(ステップS22;No)、すな
わち第2閾値より小さい場合、ステップS32に進む。最大信頼度が第2閾値K2以上で
ある場合(ステップS22;Yes)、分類判定部38は、そのオブジェクト画像Pに仮
ラベルを割り当てる(ステップS24)。そして、分類判定部38は、仮ラベルが割り当
てられたオブジェクト画像Pが所定数以上あるかを判定し(ステップS26)、所定数以
上ない場合(ステップS26;No)、ステップS32に進む。一方、仮ラベルが割り当
てられたオブジェクト画像Pが所定数以上ある場合(ステップS26;Yes)、ラベル
付与部40がその仮ラベルをラベルとして確定し(ステップS28)、学習用データ生成
部42が、その仮ラベルとオブジェクト画像Pとを、学習用データとする(ステップS3
0)。その後、ステップS31に移動し、オブジェクト抽出部32は、その画像に、他の
オブジェクト画像Pがあるかを判断し(ステップS31)、他のオブジェクト画像Pがあ
る場合(ステップS31;Yes)、ステップS12に戻って、他のオブジェクト画像P
を1つ抽出する。他のオブジェクト画像Pが無い場合(ステップS31;No)、ステッ
プS32に移動し、制御部26は、他の画像があるかを判断し(ステップS32)、他の
画像がある場合(ステップS32;Yes)はステップS10に戻り、他の画像が無い場
合(ステップS32;No)は本処理を終了する。その後、制御部26は、学習用データ
送信制御部44により、学習用データを学習装置12に送信し、学習装置12が、学習用
データに基づき学習済みモデルを更新する。制御部26は、更新した学習済みモデルを用
いて、次以降の上記処理を実行する。
画像取得部30と、画像からオブジェクト画像Pを抽出するオブジェクト抽出部32と、
分類評価部36と、分類判定部38と、学習用データ生成部42とを有する。分類評価部
36は、学習済みモデルに基づきオブジェクト画像Pを評価して、オブジェクト画像Pが
候補ラベルに分類される可能性の高さを示す信頼度を算出する。分類判定部38は、信頼
度が、第1閾値K1より小さく、かつ、第1閾値K1より値が小さい第2閾値K2以上で
ある場合に、候補ラベルとは異なる仮ラベルを、オブジェクト画像Pに関連付ける。そし
て、学習用データ生成部42は、仮ラベルと関連付けられた前記オブジェクト画像に基づ
き前記学習用データを生成する。また、分類判定部38は、信頼度に基づき判定を行って
、オブジェクト画像Pが候補ラベルに分類されるかを判定する。学習用データ生成部42
は、分類判定部38の判定結果に基づき、学習済みモデルを更新するための学習用データ
を生成する。分類判定部38は、信頼度が第1閾値K1以上である場合に、候補ラベルに
オブジェクト画像Pが分類されると判定し、信頼度が第1閾値K1より低く、かつ、第2
閾値K2以上である場合に、候補ラベルに対して設定される仮ラベルを、オブジェクト画
像Pに関連付ける。学習用データ生成部42は、仮ラベルと関連付けられたオブジェクト
画像Pの数が所定数以上となった場合に、それぞれのオブジェクト画像Pと仮ラベルとを
、学習用データとする。このような構成とすることにより、仮ラベルを付与して、学習用
データの精度を高くすることができる。また、信頼度が第1閾値K1以上になった場合に
は、その候補ラベルとオブジェクト画像Pを学習用データとしないことで、機械学習の前
提として、予め機械学習において用いられるような画像を除外することができ、機械学習
の効率化を図ることができる。
解が分かっている教師ありデータを用いる場合がある。この場合、教師ありデータの数が
多いほど精度が高くなるため、教師ありデータを適切に収集することが求められている。
それに対し、本実施形態に係る学習用データ生成装置10は、分類しようとするオブジェ
クト画像Pを解析して、仮ラベルを割り当てる。そして、オブジェクト画像Pが仮ラベル
に分類されるとして、それを学習用データ(教師ありデータ)とする。従って、学習用デ
ータ生成装置10は、これから分類しようとしている画像を用いて学習用データを生成す
るため、これから分類しようとするオブジェクトに適した学習用データを適切に生成する
ことができる。
更新前の学習済みモデルでは分類できなかった画像を教師あり学習させることで、更新後
(再学習後)の分類数を増加させることができる。なお、本実施形態では、学習済みモデ
ルを更新しても、仮ラベルなどを付与するための第1閾値K1及び第2閾値K2の値を一
定としていた。ただし、学習用データ生成装置10は、学習済みモデルを更新したら、第
1閾値K1及び第2閾値K2の値を変更してもよい。例えば、学習用データ生成装置10
は、学習済みモデルを更新して候補ラベルの数が所定の数より増えた場合に、第1閾値K
1及び第2閾値K2の値を小さくしてもよい。これにより、分類数が増えた場合にも分類
を好適に行うことができる。
。分類判定部38は、候補ラベル毎に仮ラベルを設定し、オブジェクト画像Pを、信頼度
が最も高い候補ラベルに対して設定された仮ラベルに関連付ける。この学習用データ生成
装置10は、複数の候補ラベルのうちから、信頼度が最も高い候補ラベルに対して設定さ
れた仮ラベルを関連付ける。従って、学習用データ生成装置10によると、分類を適切に
行うことができつつ、仮ラベルを適切に付与して、学習用データの精度を高くすることが
できる。
与部40を有する。ラベル付与部40は、候補ラベルにオブジェクト画像Pが分類される
と判定された場合、候補ラベルを、オブジェクト画像Pのラベルとして付与する。ラベル
付与部40は、仮ラベルと関連付けられたオブジェクト画像Pの数が所定数以上となった
場合に、仮ラベルを、オブジェクト画像のラベルとして付与する。この学習用データ生成
装置10は、信頼度が第1閾値K1以上のものはラベルとして決定し、信頼度がそれより
低い第2閾値K2以上のものは、複数個データが蓄積されてからラベルとして決定するた
め、未知のラベルを設定する際の精度を高くすることができる。
、学習用データ生成装置10と、学習用データ生成部42が作成した学習用データに基づ
き機械学習して、学習済みモデルを更新する学習部62を有する。学習用モデル作成シス
テムは、学習用データ生成装置10が作成した学習用データに基づき、学習済みモデルを
生成する。この学習用モデル作成システムは、学習用データに基づき学習用モデルを更新
するので、これから分類しようとするオブジェクトに適した学習用モデルを構築すること
ができる。
ル作成システムは、高精度の学習用モデルを構築することができる。
有し、学習済みモデルを用いてオブジェクト画像Pを分類する。従って、このオブジェク
ト分類システム1は、オブジェクト画像Pを適切に分類することができる。
本実施形態においては、分類判定部38は、1つの候補ラベルに対し、1つの仮ラベルを
設定していたが、1つの候補ラベルに対して複数の仮ラベルを設定することも可能である
。図11の例は、1つの候補ラベルに対して仮ラベルA、Bを割り当てる例を示している
。図11に示すように、分類判定部38は、最大信頼度が、第1閾値K1より小さく、か
つ、閾値K2A以上である場合に、仮ラベルBをオブジェクト画像Pに関連付ける。閾値
K2Aは、第1閾値K1より小さく第2閾値K2より大きい値である。また、分類判定部
38は、最大信頼度が、閾値K2Aより小さく、かつ、第2閾値K2以上である場合に、
仮ラベルAをオブジェクト画像Pに関連付ける。このように、分類判定部38は、1つの
候補ラベルの最大信頼度が取り得る数値範囲を区分して、数値範囲毎に仮ラベルを設定し
てもよい。
どのように、第1閾値K1の信用度が必ずしも高くないと考えられる場合には、最大信頼
度が、第1閾値K1より小さく、かつ、閾値K2A以上である場合に、オブジェクト画像
Pに仮ラベルを割り当てないようにしてもよい。
も大きい中間閾値(閾値K2A)以上であり、かつ、第1閾値K1より値が小さい場合に
、候補ラベルとは異なる第1の仮ラベル(仮ラベルB)をオブジェクト画像Pに関連付け
る。分類判定部38は、信頼度が、第2閾値K2以上であり、かつ、中間閾値(閾値K2
A)より小さい場合に、第1の仮ラベルとは異なる第2の仮ラベル(仮ラベルA)を、オ
ブジェクト画像Pに関連付ける。このように数値範囲毎に仮ラベルを設定することて、よ
り高精度の分類が可能となる。
本実施形態においては、分類判定部38は、最大信頼度が第1閾値K1より大きい場合に
は、ラベルを付与するが、学習用データには用いなかった。ただし、分類判定部38は、
ラベルを付与するものを学習用データとして用いてもよい。この場合、図12に示すよう
に、分類判定部38は、最大信頼度が、第1閾値K1以上であり、かつ、第3閾値K3よ
り小さい場合に、そのオブジェクト画像Pに、最大信頼度となった候補ラベルを正式のラ
ベルとして付与する。さらに、分類判定部38は、最大信頼度が、第1閾値K1以上であ
り、かつ、第3閾値K3より小さい場合に、そのオブジェクト画像Pと最大信頼度となっ
た候補ラベルとを、学習用データとして用いる。第3閾値K3は、第1閾値K1より値が
大きい。一方、分類判定部38は、最大信頼度が、第3閾値K3以上である場合に、その
オブジェクト画像Pに、最大信頼度となった候補ラベルを正式のラベルとして付与するが
、そのオブジェクト画像Pと候補ラベルとを、学習用データには用いない。
3は、オブジェクト画像P12、P13、P16の最大信頼度となる候補ラベルが候補ラ
ベルF01であり、かつ、最大信頼度が、第1閾値K1以上であって第3閾値K3より小
さい場合の例を示している。この場合、オブジェクト画像P12、P13、P16は、候
補ラベルF01と紐付けられて、学習用データ(教師ありデータ)として、学習済みデー
タテーブルに加えられる。従って、図13に示す学習済みデータテーブルは、図10に示
すものに加え、学習済み画像P12、P13、P16がラベルF01に紐づいているとい
うデータも含むこととなる。従って、学習部62は、この学習済み画像P12、P13、
P16を用いて、さらに分類精度を高い学習済みモデルを構築することができる。
より小さく、第1閾値K1以上である場合に、候補ラベルにオブジェクト画像Pに関連付
ける。そして、学習用データ生成部42は、仮ラベル又は候補ラベルが関連付けられたオ
ブジェクト画像Pに基づき、学習用データを生成する。このように、学習用データ生成部
42は、信頼度が、第1閾値K1より高く、かつ、第1閾値K1より高い第3閾値K3よ
りも低い候補ラベルと、オブジェクト画像Pとを、学習用データとしてもよい。そして、
学習用データ生成部42は、信頼度が第3閾値K3以上である候補ラベルと、オブジェク
ト画像Pとを、学習用データとしなくてもよい。この学習用データ生成装置10は、信頼
度が第3閾値K3以上として十分に高い場合は、新たな学習には不要のデータとして学習
用データとせず、信頼度が十分だが第3閾値K3まで高くない場合には、学習用モデルの
精度向上に適していると判断して、学習用データに用いる。従って、この学習用データ生
成装置10は、適切なデータのみを学習用データとすることで、これから分類しようとす
るオブジェクトに適した学習用データを適切に生成することができる。
じて、第1閾値K1と第2閾値K2との少なくとも一方を変更してもよい。さらに言えば
、分類判定部38は、学習済みモデルに用いられた画像(学習済み画像)の数に応じて、
第1閾値K1と第2閾値K2と閾値K2Aと第3閾値K3との少なくともいずれかを、変
更してもよい。このようにすることで、画像の数の変化に応じて、閾値を適切に変化させ
ることが可能となり、これから分類しようとするオブジェクトに適した学習用データを適
切に生成することができる。
れるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質
的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適
宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で
構成要素の種々の省略、置換又は変更を行うことができる。
10 学習用データ生成装置
12 学習装置
26、54 制御部
30 画像取得部
32 オブジェクト抽出部
34 学習済みモデル取得部
36 分類評価部
38 分類判定部
40 ラベル付与部
42 学習用データ生成部
44 学習用データ送信制御部
60 学習用データ取得部
62 学習部
64 学習済みモデル送信制御部
K1 第1閾値
K2 第2閾値
P オブジェクト画像
Claims (4)
- 学習済みモデルに基づき所定の画像を評価して、前記画像が候補ラベルに分類される可能性の高さを示す信頼度を算出する分類評価部と、
前記信頼度が、第1閾値より小さく、かつ、前記第1閾値より値が小さい第2閾値以上である場合に、前記候補ラベルとは異なる仮ラベルを、前記画像に関連付ける分類判定部と、
前記仮ラベルと関連付けられた前記画像に基づき学習用データを生成する学習用データ生成部と、を備える、
学習用データ生成装置。 - 請求項1に記載の学習用データ生成装置が作成した前記学習用データに基づき、学習済みモデルを生成する、学習用モデル作成システム。
- 学習済みモデルに基づき所定の画像を評価して、前記画像が候補ラベルに分類される可能性の高さを示す信頼度を算出する分類評価ステップと、
前記信頼度が、第1閾値より小さく、かつ、前記第1閾値より値が小さい第2閾値以上である場合に、前記候補ラベルとは異なる仮ラベルを、前記画像に関連付ける分類判定ステップと、
前記仮ラベルと関連付けられた前記画像に基づき学習用データを生成する学習用データ生成ステップと、を有する、
学習用データ生成方法。 - 学習済みモデルに基づき所定の画像を評価して、前記画像が候補ラベルに分類される可能性の高さを示す信頼度を算出する分類評価ステップと、
前記信頼度が、第1閾値より小さく、かつ、前記第1閾値より値が小さい第2閾値以上である場合に、前記候補ラベルとは異なる仮ラベルを、前記画像に関連付ける分類判定ステップと、
前記仮ラベルと関連付けられた前記画像に基づき学習用データを生成する学習用データ生成ステップと、を有する、
をコンピュータに実行させる、プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021132656A JP7239853B2 (ja) | 2018-03-08 | 2021-08-17 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
JP2023029459A JP2023065548A (ja) | 2018-03-08 | 2023-02-28 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042291A JP6933164B2 (ja) | 2018-03-08 | 2018-03-08 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
JP2021132656A JP7239853B2 (ja) | 2018-03-08 | 2021-08-17 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042291A Division JP6933164B2 (ja) | 2018-03-08 | 2018-03-08 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023029459A Division JP2023065548A (ja) | 2018-03-08 | 2023-02-28 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021184299A JP2021184299A (ja) | 2021-12-02 |
JP7239853B2 true JP7239853B2 (ja) | 2023-03-15 |
Family
ID=67847274
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042291A Active JP6933164B2 (ja) | 2018-03-08 | 2018-03-08 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
JP2021132656A Active JP7239853B2 (ja) | 2018-03-08 | 2021-08-17 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
JP2023029459A Pending JP2023065548A (ja) | 2018-03-08 | 2023-02-28 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042291A Active JP6933164B2 (ja) | 2018-03-08 | 2018-03-08 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023029459A Pending JP2023065548A (ja) | 2018-03-08 | 2023-02-28 | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11922317B2 (ja) |
JP (3) | JP6933164B2 (ja) |
CN (1) | CN111868780B (ja) |
WO (1) | WO2019172451A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220044147A1 (en) * | 2018-10-05 | 2022-02-10 | Nec Corporation | Teaching data extending device, teaching data extending method, and program |
KR102349854B1 (ko) * | 2019-12-30 | 2022-01-11 | 엘아이지넥스원 주식회사 | 표적 추적 시스템 및 방법 |
KR20210106814A (ko) * | 2020-02-21 | 2021-08-31 | 삼성전자주식회사 | 뉴럴 네트워크 학습 방법 및 장치 |
JP2022546885A (ja) * | 2020-08-01 | 2022-11-10 | 商▲湯▼国▲際▼私人有限公司 | 目標対象認識方法及び装置 |
JP7531364B2 (ja) | 2020-10-29 | 2024-08-09 | エヌ・ティ・ティ・コムウェア株式会社 | 学習装置、学習方法、およびプログラム |
US20240249827A1 (en) * | 2021-05-26 | 2024-07-25 | Sony Group Corporation | Image processing device, image processing method, and recording medium |
US20220414368A1 (en) * | 2021-06-25 | 2022-12-29 | International Business Machines Corporation | Emotional response evaluation for presented images |
CA3230180A1 (en) * | 2021-09-07 | 2023-03-16 | Hiroshi Sekiya | Defect classification system |
EP4430579A1 (en) * | 2021-11-14 | 2024-09-18 | Bria Artificial Intelligence Ltd | Facilitating generation and usage of visual content |
TWI793865B (zh) | 2021-11-18 | 2023-02-21 | 倍利科技股份有限公司 | Ai自動輔助標記之系統及方法 |
WO2023145164A1 (ja) * | 2022-01-28 | 2023-08-03 | 株式会社Jvcケンウッド | 画像分類装置、画像分類方法、および画像分類プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276775A (ja) | 2007-04-25 | 2008-11-13 | Fujitsu Ltd | 画像検索装置 |
WO2017023551A2 (en) | 2015-08-04 | 2017-02-09 | Qualcomm Incorporated | Detection of unknown classes and initialization of classifiers for unknown classes |
WO2017145960A1 (ja) | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
JP2017167834A (ja) | 2016-03-16 | 2017-09-21 | セコム株式会社 | 学習データ選択装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4591215B2 (ja) * | 2005-06-07 | 2010-12-01 | 株式会社日立製作所 | 顔画像データベース作成方法及び装置 |
JP4623387B2 (ja) * | 2008-09-04 | 2011-02-02 | ソニー株式会社 | 学習装置および方法、認識装置および方法、並びにプログラム |
JP5406705B2 (ja) * | 2009-12-28 | 2014-02-05 | キヤノン株式会社 | データ補正装置及び方法 |
JP2011181016A (ja) * | 2010-03-04 | 2011-09-15 | Fujifilm Corp | 判別器生成装置および方法並びにプログラム |
JP5214762B2 (ja) * | 2011-03-25 | 2013-06-19 | 株式会社東芝 | 認識装置、方法及びプログラム |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
JP2013125322A (ja) * | 2011-12-13 | 2013-06-24 | Olympus Corp | 学習装置、プログラム及び学習方法 |
JP6188400B2 (ja) * | 2013-04-26 | 2017-08-30 | オリンパス株式会社 | 画像処理装置、プログラム及び画像処理方法 |
JP6110281B2 (ja) * | 2013-11-19 | 2017-04-05 | 日本電信電話株式会社 | 移動手段予測モデル生成装置、移動手段予測モデル生成方法及び移動手段予測モデル生成プログラム |
JP6339872B2 (ja) * | 2014-06-24 | 2018-06-06 | オリンパス株式会社 | 画像処理装置、内視鏡システム及び画像処理方法 |
JP2016099668A (ja) * | 2014-11-18 | 2016-05-30 | キヤノン株式会社 | 学習方法、学習装置、画像認識方法、画像認識装置及びプログラム |
WO2016103651A1 (ja) * | 2014-12-22 | 2016-06-30 | 日本電気株式会社 | 情報処理システム、情報処理方法、及び、記録媒体 |
JP6489005B2 (ja) * | 2015-12-18 | 2019-03-27 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理方法、プログラム |
JP6789762B2 (ja) * | 2016-11-02 | 2020-11-25 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11068751B2 (en) * | 2017-03-21 | 2021-07-20 | Nec Corporation | Image processing device, image processing method, and storage medium |
US11176589B2 (en) * | 2018-04-10 | 2021-11-16 | Ebay Inc. | Dynamically generated machine learning models and visualization thereof |
-
2018
- 2018-03-08 JP JP2018042291A patent/JP6933164B2/ja active Active
-
2019
- 2019-03-08 WO PCT/JP2019/009536 patent/WO2019172451A1/ja active Application Filing
- 2019-03-08 CN CN201980017058.8A patent/CN111868780B/zh active Active
-
2020
- 2020-08-25 US US17/001,716 patent/US11922317B2/en active Active
-
2021
- 2021-08-17 JP JP2021132656A patent/JP7239853B2/ja active Active
-
2023
- 2023-02-28 JP JP2023029459A patent/JP2023065548A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276775A (ja) | 2007-04-25 | 2008-11-13 | Fujitsu Ltd | 画像検索装置 |
WO2017023551A2 (en) | 2015-08-04 | 2017-02-09 | Qualcomm Incorporated | Detection of unknown classes and initialization of classifiers for unknown classes |
WO2017145960A1 (ja) | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
JP2017167834A (ja) | 2016-03-16 | 2017-09-21 | セコム株式会社 | 学習データ選択装置 |
Non-Patent Citations (1)
Title |
---|
田中遼平, 外3名,"識別境界付近のデータを選択的に用いる半教師あり学習",電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2017年03月13日,第116巻, 第528号,p.1-6 |
Also Published As
Publication number | Publication date |
---|---|
US11922317B2 (en) | 2024-03-05 |
US20200387756A1 (en) | 2020-12-10 |
CN111868780A (zh) | 2020-10-30 |
CN111868780B (zh) | 2023-07-28 |
JP2019159499A (ja) | 2019-09-19 |
JP2023065548A (ja) | 2023-05-12 |
WO2019172451A1 (ja) | 2019-09-12 |
JP2021184299A (ja) | 2021-12-02 |
JP6933164B2 (ja) | 2021-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7239853B2 (ja) | 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム | |
CN109472248B (zh) | 一种行人重识别方法、系统及电子设备和存储介质 | |
CN109978893A (zh) | 图像语义分割网络的训练方法、装置、设备及存储介质 | |
US9183431B2 (en) | Apparatus and method for providing activity recognition based application service | |
EP4035070B1 (en) | Method and server for facilitating improved training of a supervised machine learning process | |
JP2017111660A (ja) | 映像パターン学習装置、方法、及びプログラム | |
KR101996371B1 (ko) | 영상 캡션 생성 시스템과 방법 및 이를 위한 컴퓨터 프로그램 | |
CN111985333B (zh) | 一种基于图结构信息交互增强的行为检测方法及电子装置 | |
CN113642431A (zh) | 目标检测模型的训练方法及装置、电子设备和存储介质 | |
CN111414946A (zh) | 基于人工智能的医疗影像的噪声数据识别方法和相关装置 | |
US11256945B2 (en) | Automatic extraction of attributes of an object within a set of digital images | |
EP4232340A1 (en) | Rail feature identification system | |
CN113111716A (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN109376736A (zh) | 一种基于深度卷积神经网络的视频小目标检测方法 | |
CN115170926A (zh) | 轻量化目标图像识别方法、装置及存储介质 | |
Lee et al. | Learning in the wild: When, how, and what to learn for on-device dataset adaptation | |
CN114519863A (zh) | 人体重识别方法、人体重识别装置、计算机设备及介质 | |
JP7459949B2 (ja) | 学習装置、学習方法、追跡装置及びプログラム | |
CN111950507B (zh) | 数据处理和模型训练方法、装置、设备及介质 | |
JP2019215728A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Nikpour et al. | Deep reinforcement learning in human activity recognition: A survey | |
CN115713806A (zh) | 基于视频分类的跌倒行为识别方法及电子设备 | |
JP7152357B2 (ja) | 正解データ作成支援システムおよび正解データ作成支援方法 | |
JP7337541B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN113705648B (zh) | 一种数据处理方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7239853 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |