JP7095726B2 - 学習装置、学習方法および学習プログラム - Google Patents
学習装置、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP7095726B2 JP7095726B2 JP2020190451A JP2020190451A JP7095726B2 JP 7095726 B2 JP7095726 B2 JP 7095726B2 JP 2020190451 A JP2020190451 A JP 2020190451A JP 2020190451 A JP2020190451 A JP 2020190451A JP 7095726 B2 JP7095726 B2 JP 7095726B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- layer
- neural network
- learning
- classes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
まず、本発明の実施形態の背景について説明する。
続いて、本発明の実施形態の詳細について説明する。
まず、本発明の実施形態に係るクラス識別システムの構成例について説明する。図4は、本発明の実施形態に係るクラス識別システムの機能構成例を示す図である。図4に示されるように、本発明の実施形態に係るクラス識別システム1は、データ部11、階層構造生成部12、学習部13および推論部14を備える。クラス識別システム1は、同一のコンピュータによって実現されてもよいし、複数のコンピュータに分散されて実現されてもよい。なお、階層構造生成部12および学習部13は、学習装置を構成し得る。また、推論部14は、推論装置を構成し得る。
データ部11は、メモリによって構成され得る。データ部11は、ニューラルネットワーク(第1のニューラルネットワーク)を記憶する。また、データ部11は、ニューラルネットワークの訓練に使用されるデータ(学習用データセット)を記憶する。また、データ部11は、ニューラルネットワークによって識別可能なクラス群(第1のクラス群)を構成するクラスに関する情報を記憶する。また、データ部11は、テストデータの例としてのテスト画像を記憶する。
階層構造生成部12は、ニューラルネットワークによって識別可能なクラス群(以下、「既存クラス」とも言う。)を構成するクラス(以下、「既存クラス」とも言う。)に関する情報がデータ部11から入力されると、既存クラスに関する情報に基づいて、既存クラス同士の上下関係を示す階層構造を生成する。ここで、上下関係は、概念的な上下関係であってよい。また、階層構造が生成されるタイミングは、学習段階であることが主に想定される。しかし、階層構造は、学習段階に先立ってあらかじめ生成されていてもよい。
学習部13は、学習処理(すなわち、学習用データセットに基づくニューラルネットワークの重みパラメータの更新)を行うに先立って、非排他的に識別する学習を行う技術(シグモイド活性)のための置換を、階層構造生成部12から入力されたニューラルネットワークに対して施す。また、学習部13は、学習処理を行うに先立って、非排他的な教師データを学習に用いる技術(ラベルスムージング)のための変換をデータ部11から入力された教師データに対して施す。
図8を参照すると、学習用データセットに含まれる訓練データの例として、訓練画像40が示されている。訓練画像40に写る物体が属するクラスは、「Truck」クラスである。階層構造生成部12から入力されたニューラルネットワークに対して訓練画像40の入力が行われたとすると、訓練画像40に対応してニューラルネットワークの出力層のノードにおいて計算された結果は、ロジット(Logits)C10に示されるようになる。ただし、ロジットC10は、出力層のノードへの入力と重みおよびバイアスとに基づく計算結果であり、活性化関数が適用される前の計算結果である。
図8に戻って説明を続ける。図8を参照すると、教師データの例として、教師データC20が示されている。教師データC20は、正解クラスである「Truck」クラスに対応する要素の値として「1」が設定され、正解クラス以外のクラスである「Car」クラスおよび「Bus」クラスそれぞれに対応する要素の値として「0」が設定されたベクトル(One-hot表現)によって示される。
図8に戻って説明を続ける。学習部13は、変換後の教師データと、置換後のニューラルネットワークから訓練データに対応して出力される出力データと、階層構造生成部12から入力された階層構造60(図7)とに基づいて、層ごとに誤差を算出する。ここでは、学習部13が誤差の例として、交差エントロピー誤差C30を用いる場合を想定する。しかし、学習部13によって用いられる誤差は、交差エントロピー誤差に限定されない。例えば、aを層の番号とした場合、層Laのエントロピー誤差LossLaは、下記の式(1)のように表現され得る。
推論部14は、学習部13から入力される学習済みのニューラルネットワークを取得し、学習済みのニューラルネットワークからテストデータに対応して出力される出力データと、階層構造生成部12によって生成された階層構造60(図7)とに基づいて、テストデータが属するクラスの識別処理を行う。
上記では、非排他的に識別する学習を行う技術を階層的なクラス識別に適用する技術について説明した。特に上記では、非排他的に識別する学習を行う技術の例として、「シグモイド活性」という技術を用いる場合について主に説明した。かかる構成によれば、排他的なクラス識別が適さない場合に過学習が行われてしまう可能性が低減されるため、クラス識別の精度を向上させることが可能である。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
続いて、本発明の実施形態に係るクラス識別システム1のハードウェア構成例について説明する。以下では、本発明の実施形態に係るクラス識別システム1のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、クラス識別システム1のハードウェア構成の一例に過ぎない。したがって、クラス識別システム1のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
11 データ部
12 階層構造生成部
13 学習部
14 推論部
60 階層構造
Claims (6)
- 第1のニューラルネットワークによって識別可能な第1のクラス群を構成するクラスに関する情報に基づいて、前記第1のクラス群を構成するクラス同士が上下関係を有するかを判定し、前記クラス同士が上下関係を有する場合に、前記上下関係を示す第1の階層構造を生成する階層構造生成部と、
訓練データに対応する第1の教師データと前記第1の階層構造とに基づいて、前記第1の教師データのうち正解クラスが属する層と同一の層を特定し、前記正解クラスに対応する要素の値と前記同一の層に属する前記正解クラス以外のクラスに対応する要素の値とを近づける変換を行い、前記第1の階層構造に基づいて、同一のクラスを上位クラスとするクラスの集合である層を特定し、変換後の第1の教師データと、前記第1のニューラルネットワークから前記訓練データに対応して出力される出力データとに基づいて、前記層ごとに誤差を算出し、算出した層ごとの誤差の合計を損失関数として、前記第1のニューラルネットワークの学習処理を行う学習部と、
を備える、学習装置。 - 前記階層構造生成部は、前記クラス同士が上下関係を有さない場合に、第1のクラス群を構成するクラスの上位クラスまたは下位クラスが追加された第2のクラス群を構成するクラス同士の上下関係を示す第2の階層構造を生成するとともに、前記上位クラスまたは下位クラスの追加に基づいて、前記上位クラスまたは下位クラスに対応する要素を前記第1の教師データに追加して第2の教師データを得るとともに、前記第1のニューラルネットワークを第2のニューラルネットワークに変換し、
前記学習部は、前記第2の教師データと前記第2の階層構造とに基づいて、前記第2の教師データのうち正解クラスが属する層と同一の層を特定し、前記正解クラスに対応する要素の値と前記同一の層に属する前記正解クラス以外のクラスに対応する要素の値とを近づける変換を行い、前記第2の階層構造に基づいて、同一のクラスを上位クラスとするクラスの集合である層を特定し、変換後の第2の教師データと、前記第2のニューラルネットワークから前記訓練データに対応して出力される出力データとに基づいて、前記層ごとの誤差を算出し、算出した層ごとの誤差の合計を損失関数として、前記第2のニューラルネットワークの学習処理を行う、
請求項1に記載の学習装置。 - 前記誤差は、交差エントロピー誤差である、
請求項1または2に記載の学習装置。 - 前記層ごとの誤差の合計は、前記層ごとの誤差の重み付け和である、
請求項1~3のいずれか一項に記載の学習装置。 - 第1のニューラルネットワークによって識別可能な第1のクラス群を構成するクラスに関する情報に基づいて、前記第1のクラス群を構成するクラス同士が上下関係を有するかを判定し、前記クラス同士が上下関係を有する場合に、前記上下関係を示す第1の階層構造を生成することと、
訓練データに対応する第1の教師データと前記第1の階層構造とに基づいて、前記第1の教師データのうち正解クラスが属する層と同一の層を特定し、前記正解クラスに対応する要素の値と前記同一の層に属する前記正解クラス以外のクラスに対応する要素の値とを近づける変換を行い、前記第1の階層構造に基づいて、同一のクラスを上位クラスとするクラスの集合である層を特定し、変換後の第1の教師データと、前記第1のニューラルネットワークから前記訓練データに対応して出力される出力データとに基づいて、前記層ごとに誤差を算出し、算出した層ごとの誤差の合計を損失関数として、前記第1のニューラルネットワークの学習処理を行うことと、
を備える、学習方法。 - コンピュータを、
第1のニューラルネットワークによって識別可能な第1のクラス群を構成するクラスに関する情報に基づいて、前記第1のクラス群を構成するクラス同士が上下関係を有するかを判定し、前記クラス同士が上下関係を有する場合に、前記上下関係を示す第1の階層構造を生成する階層構造生成部と、
訓練データに対応する第1の教師データと前記第1の階層構造とに基づいて、前記第1の教師データのうち正解クラスが属する層と同一の層を特定し、前記正解クラスに対応する要素の値と前記同一の層に属する前記正解クラス以外のクラスに対応する要素の値とを近づける変換を行い、前記第1の階層構造に基づいて、同一のクラスを上位クラスとするクラスの集合である層を特定し、変換後の第1の教師データと、前記第1のニューラルネットワークから前記訓練データに対応して出力される出力データとに基づいて、前記層ごとに誤差を算出し、算出した層ごとの誤差の合計を損失関数として、前記第1のニューラルネットワークの学習処理を行う学習部と、
を備える学習装置として機能させる学習プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190451A JP7095726B2 (ja) | 2020-11-16 | 2020-11-16 | 学習装置、学習方法および学習プログラム |
JP2022094069A JP7384238B2 (ja) | 2020-11-16 | 2022-06-10 | 推論装置、推論方法および推論プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020190451A JP7095726B2 (ja) | 2020-11-16 | 2020-11-16 | 学習装置、学習方法および学習プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022094069A Division JP7384238B2 (ja) | 2020-11-16 | 2022-06-10 | 推論装置、推論方法および推論プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022079325A JP2022079325A (ja) | 2022-05-26 |
JP7095726B2 true JP7095726B2 (ja) | 2022-07-05 |
Family
ID=81707577
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020190451A Active JP7095726B2 (ja) | 2020-11-16 | 2020-11-16 | 学習装置、学習方法および学習プログラム |
JP2022094069A Active JP7384238B2 (ja) | 2020-11-16 | 2022-06-10 | 推論装置、推論方法および推論プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022094069A Active JP7384238B2 (ja) | 2020-11-16 | 2022-06-10 | 推論装置、推論方法および推論プログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7095726B2 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019176806A1 (ja) | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | 機械学習装置および方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10963709B2 (en) * | 2019-01-02 | 2021-03-30 | Zoox, Inc. | Hierarchical machine-learning network architecture |
-
2020
- 2020-11-16 JP JP2020190451A patent/JP7095726B2/ja active Active
-
2022
- 2022-06-10 JP JP2022094069A patent/JP7384238B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019176806A1 (ja) | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | 機械学習装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7384238B2 (ja) | 2023-11-21 |
JP2022079325A (ja) | 2022-05-26 |
JP2022111347A (ja) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2019200270B2 (en) | Concept mask: large-scale segmentation from semantic concepts | |
US20210151034A1 (en) | Methods and systems for multimodal content analytics | |
US20230237088A1 (en) | Automatically detecting user-requested objects in digital images | |
US20200134455A1 (en) | Apparatus and method for training deep learning model | |
JP2004054956A (ja) | 顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム | |
CN113361593B (zh) | 生成图像分类模型的方法、路侧设备及云控平台 | |
CN114339450B (zh) | 视频评论生成方法、系统、设备及存储介质 | |
WO2019167784A1 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
Wei et al. | Multi-modal depression estimation based on sub-attentional fusion | |
Patel et al. | An optimized deep learning model for flower classification using nas-fpn and faster r-cnn | |
WO2023168810A1 (zh) | 药物分子的性质预测方法、装置、存储介质及计算机设备 | |
Deshpande et al. | Anomaly detection in surveillance videos using transformer based attention model | |
Hammam et al. | Stacking deep learning for early COVID-19 vision diagnosis | |
JP7095726B2 (ja) | 学習装置、学習方法および学習プログラム | |
JPWO2019215904A1 (ja) | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム | |
JP2022079322A (ja) | 学習装置、学習方法および学習プログラム | |
CN111639591A (zh) | 轨迹预测模型生成方法、装置、可读存储介质及电子设备 | |
CN114818979A (zh) | 一种基于最大化间隔机制的含噪多标记分类方法 | |
JP2011113125A (ja) | 情報処理装置及び情報処理プログラム | |
AU2021251463B2 (en) | Generating performance predictions with uncertainty intervals | |
KR102464851B1 (ko) | 다중 스케일 특징맵을 이용하는 학습 방법 및 영상 분류 방법 | |
WO2022253636A1 (en) | Method for training a classifier and system for classifying blocks | |
CN111488927A (zh) | 分类阈值确定方法、装置、电子设备及存储介质 | |
CN114912502B (zh) | 一种基于表情与语音的双模态深度半监督情感分类方法 | |
JP7365261B2 (ja) | コンピュータシステムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7095726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |