JP7103987B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP7103987B2 JP7103987B2 JP2019054204A JP2019054204A JP7103987B2 JP 7103987 B2 JP7103987 B2 JP 7103987B2 JP 2019054204 A JP2019054204 A JP 2019054204A JP 2019054204 A JP2019054204 A JP 2019054204A JP 7103987 B2 JP7103987 B2 JP 7103987B2
- Authority
- JP
- Japan
- Prior art keywords
- vector data
- space
- data
- feature vector
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明の実施の形態は、汎用的なデータ強化手法であるmixupを、DATのドメイン識別器に適用することにより、学習データを所与とした場合であってもよりドメイン識別器を汎化させることを可能とする。
図2は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は、記憶部2と制御部3とを備える。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってもよい。図2において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
・第1ベクトルデータ群を構成するベクトルデータ : xt
・各ベクトルデータxtに割り当てられたクラスラベル : yt
・第1ベクトル空間の空間ラベル : dt
・第2ベクトルデータ群を構成するベクトルデータ : xs
・各ベクトルデータxtに割り当てられたクラスラベル : ys
・第2ベクトル空間の空間ラベル : ds
・第1ベクトル変換 : Gft
・第2ベクトル変換 : Gfs
・第1特徴ベクトルデータ : zt
・第2特徴ベクトルデータ : zs
・第3特徴ベクトルデータ : zm
・各第3特徴ベクトルデータzmに割り当てられた空間ラベル : dm
・クラス識別器 : Gy
・データ識別器 : Gd
・クラス識別器Gyによる第1特徴ベクトルデータztの識別結果 : Pt
・クラス識別器Gyによる第2特徴ベクトルデータzsの識別結果 : Ps
・データ識別器Gdによる各特徴ベクトルデータの識別結果 : qm
・クラス識別器の損失関数 : Ly
・データ識別器の損失関数 : Ld
図5は、実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
以上説明したように、実施の形態に係る情報処理装置1によれば、学習データが所与であってもドメイン識別器を汎化させるための学習データを生成することができる。
上記では、クラス識別部33はいわゆる2クラス問題を解くための識別器である場合について説明した。しかしながら、クラス識別部33は3以上のクラスを識別する多クラス問題の識別器であってもよい。
上記では、学習ベクトルデータのうち第1特徴ベクトルデータztと第2特徴ベクトルデータzsとを入力として各特徴ベクトルデータに紐付けられたクラスラベルの推定値を出力するようクラス識別器を生成する場合について説明した。しかしながら、第1特徴ベクトルデータztと第2特徴ベクトルデータzsとは、各特徴ベクトルデータに紐付けられた実数値を目的変数として重回帰モデルの学習に用いられてもよい。
2・・・記憶部
3・・・制御部
30・・・ベクトル変換部
300・・・第1ベクトル変換部
301・・・第2ベクトル変換部
31・・・特徴ベクトル混合部
32・・・学習データ生成部
33・・・クラス識別部
34・・・データ識別部
35・・・更新部
Claims (6)
- 第1の次元数の空間である第1ベクトル空間におけるベクトルデータの集合であって各ベクトルデータに前記第1ベクトル空間を示す数値である空間ラベルが紐づけられている第1ベクトルデータ群と、第2の次元数の空間である第2ベクトル空間におけるベクトルデータの集合であって各ベクトルデータに前記第2ベクトル空間を示す数値である空間ラベルが紐づけられている第2ベクトルデータ群とを格納する記憶部と、
前記第1ベクトルデータ群を構成するベクトルデータそれぞれを、第3の次元数のベクトルデータである第1特徴ベクトルデータに変換する第1ベクトル変換部と、
前記第2ベクトルデータ群を構成するベクトルデータそれぞれを、前記第3の次元数のベクトルデータである第2特徴ベクトルデータに変換する第2ベクトル変換部と、
前記第1特徴ベクトルデータ及び前記第2特徴ベクトルデータの組を取得し、前記第1特徴ベクトルデータと前記第2特徴ベクトルデータとを0以上1以下の確率変数で定まる内分比で内分した第3特徴ベクトルデータを生成するとともに、前記内分比で前記第1ベクトル空間を示す空間ラベルと前記第2ベクトル空間を示す空間ラベルとを内分した空間ラベルを前記第3特徴ベクトルデータに紐づける特徴ベクトル混合部と、
前記第1特徴ベクトルデータ、前記第2特徴ベクトルデータ、及び前記第3特徴ベクトルデータを学習ベクトルデータとして前記記憶部に記憶させる学習データ生成部と、
を備える情報処理装置。 - 前記第1ベクトルデータ群を構成する各ベクトルデータは、当該ベクトルデータが属するクラスを示すクラスラベルが割り当てられているとともに、前記第2ベクトルデータ群を構成する各ベクトルデータは、前記第1ベクトルデータ群の各ベクトルデータに割り当てられたクラスラベルのうちいずれかのクラスラベルが割り当てられており、
前記情報処理装置はさらに、
前記第1特徴ベクトルデータと前記第2特徴ベクトルデータとを入力として当該学習ベクトルデータに紐付けられたクラスラベルの推定値を出力するクラス識別部と、
前記第3特徴ベクトルデータを入力として当該学習ベクトルデータに紐付けられた空間ラベルの推定値を出力するデータ識別部と、
前記クラス識別部に前記第1特徴ベクトルデータと前記第2特徴ベクトルデータとを入力したときの推定値を含む第1評価関数の評価値に基づいて前記クラス識別部、前記第1ベクトル変換部、及び前記第2ベクトル変換部を更新するとともに、前記データ識別部に前記第3特徴ベクトルデータを入力したときの推定値を含む第2評価関数の評価値に基づいて前記データ識別部、前記第1ベクトル変換部、及び前記第2ベクトル変換部を更新する更新部をさらに備える、
請求項1に記載の情報処理装置。 - 前記第1評価関数は、前記クラス識別部に前記第1特徴ベクトルデータを入力したときの推定値と、前記第1特徴ベクトルデータに紐付けられているクラスラベルとの差が小さい場合は、大きい場合よりも小さな評価値を出力し、かつ前記クラス識別部に前記第2特徴ベクトルデータを入力したときの推定値と、前記第2特徴ベクトルデータに紐付けられているクラスラベルとの差が小さい場合は、大きい場合よりも小さな評価値を出力するように構成されており、
前記第2評価関数は、前記データ識別部に前記第3特徴ベクトルデータを入力したときの推定値と、前記第3特徴ベクトルデータに紐付けられている空間ラベルとの差が小さい場合は、大きい場合よりも小さな評価値を出力するように構成されている、
請求項2に記載の情報処理装置。 - 前記更新部は、
前記第1評価関数の評価値が小さくなるように前記クラス識別部を更新し、
前記第2評価関数の評価値が小さくなるように前記データ識別部を更新し、
前記第1評価関数の評価値が小さくなり、かつ前記第2評価関数の評価値が大きくなるように、前記第1ベクトル変換部及び前記第2ベクトル変換部を更新する、
請求項3に記載の情報処理装置。 - プロセッサが、
第1の次元数の空間である第1ベクトル空間におけるベクトルデータの集合であって各ベクトルデータに前記第1ベクトル空間を示す数値である空間ラベルが紐づけられている第1ベクトルデータ群と、第2の次元数の空間である第2ベクトル空間におけるベクトルデータの集合であって各ベクトルデータに前記第2ベクトル空間を示す数値である空間ラベルが紐づけられている第2ベクトルデータ群とを記憶部から取得するステップと、
前記第1ベクトルデータ群を構成するベクトルデータそれぞれを、第3の次元数のベクトルデータである第1特徴ベクトルデータに変換するステップと、
前記第2ベクトルデータ群を構成するベクトルデータそれぞれを、前記第3の次元数のベクトルデータである第2特徴ベクトルデータに変換するステップと、
前記第1特徴ベクトルデータ及び前記第2特徴ベクトルデータの組を取得し、前記第1特徴ベクトルデータと前記第2特徴ベクトルデータとを0以上1以下の確率変数で定まる内分比で内分した第3特徴ベクトルデータを生成するステップと、
前記内分比で前記第1ベクトル空間を示す空間ラベルと前記第2ベクトル空間を示す空間ラベルとを内分した空間ラベルを前記第3特徴ベクトルデータに紐づけるステップと、
前記第1特徴ベクトルデータ、前記第2特徴ベクトルデータ、及び前記第3特徴ベクトルデータを学習ベクトルデータとして前記記憶部に記憶させるステップと、
を実行する情報処理方法。 - コンピュータに、
第1の次元数の空間である第1ベクトル空間におけるベクトルデータの集合であって各ベクトルデータに前記第1ベクトル空間を示す数値である空間ラベルが紐づけられている第1ベクトルデータ群と、第2の次元数の空間である第2ベクトル空間におけるベクトルデータの集合であって各ベクトルデータに前記第2ベクトル空間を示す数値である空間ラベルが紐づけられている第2ベクトルデータ群とを記憶部から取得する機能と、
前記第1ベクトルデータ群を構成するベクトルデータそれぞれを、第3の次元数のベクトルデータである第1特徴ベクトルデータに変換する機能と、
前記第2ベクトルデータ群を構成するベクトルデータそれぞれを、前記第3の次元数のベクトルデータである第2特徴ベクトルデータに変換する機能と、
前記第1特徴ベクトルデータ及び前記第2特徴ベクトルデータの組を取得し、前記第1特徴ベクトルデータと前記第2特徴ベクトルデータとを0以上1以下の確率変数で定まる内分比で内分した第3特徴ベクトルデータを生成する機能と、
前記内分比で前記第1ベクトル空間を示す空間ラベルと前記第2ベクトル空間を示す空間ラベルとを内分した空間ラベルを前記第3特徴ベクトルデータに紐づける機能と、
前記第1特徴ベクトルデータ、前記第2特徴ベクトルデータ、及び前記第3特徴ベクトルデータを学習ベクトルデータとして前記記憶部に記憶させる機能と、
を実現させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019054204A JP7103987B2 (ja) | 2019-03-22 | 2019-03-22 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019054204A JP7103987B2 (ja) | 2019-03-22 | 2019-03-22 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154925A JP2020154925A (ja) | 2020-09-24 |
JP7103987B2 true JP7103987B2 (ja) | 2022-07-20 |
Family
ID=72559372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019054204A Active JP7103987B2 (ja) | 2019-03-22 | 2019-03-22 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7103987B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023002575A1 (ja) * | 2021-07-20 | 2023-01-26 | 日本電信電話株式会社 | 生成装置、生成方法、生成プログラム、判定装置、判定方法及び判定プログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028839A (ja) | 2017-08-01 | 2019-02-21 | 国立研究開発法人情報通信研究機構 | 分類器、分類器の学習方法、分類器における分類方法 |
-
2019
- 2019-03-22 JP JP2019054204A patent/JP7103987B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028839A (ja) | 2017-08-01 | 2019-02-21 | 国立研究開発法人情報通信研究機構 | 分類器、分類器の学習方法、分類器における分類方法 |
Non-Patent Citations (2)
Title |
---|
BECKHAM, C., et al.,Adversarial Mixup Resynthesizers,arXiv.org [online],2019年03月07日,[retrieved on 2022-02-18], Retrieved from the Internet: <URL: https://arxiv.org/abs/1903.02709v1> |
GANIN, Y., et al.,Domain-Adversarial Training of Neural Networks,arXiv.org [online],2016年05月26日,[retrieved on 2022-02-18], Retrieved from the Internet: <URL: https://arxiv.org/abs/1505.07818v4> |
Also Published As
Publication number | Publication date |
---|---|
JP2020154925A (ja) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Seshia et al. | Formal specification for deep neural networks | |
US11087177B2 (en) | Prediction-correction approach to zero shot learning | |
Lei et al. | Classification, parameter estimation and state estimation: an engineering approach using MATLAB | |
US10824959B1 (en) | Explainers for machine learning classifiers | |
JP2024500182A (ja) | 説明可能なトランスデューサ・トランスフォーマ | |
CN111492381A (zh) | 神经网络的功能子网络的同时训练 | |
US11379718B2 (en) | Ground truth quality for machine learning models | |
US11334791B2 (en) | Learning to search deep network architectures | |
US11651216B2 (en) | Automatic XAI (autoXAI) with evolutionary NAS techniques and model discovery and refinement | |
US20210133630A1 (en) | Model induction method for explainable a.i. | |
CN110619231B (zh) | 一种基于MapReduce的差分可辨性k原型聚类方法 | |
Chauhan et al. | A brief review of hypernetworks in deep learning | |
CN112036563A (zh) | 使用起源数据的深度学习模型洞察 | |
US11847555B2 (en) | Constraining neural networks for robustness through alternative encoding | |
JP7103987B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20220121924A1 (en) | Configuring a neural network using smoothing splines | |
US20220180172A1 (en) | Adaptive robustness certification against adversarial examples | |
CN116194888A (zh) | 用于成像应用的数据处理管理方法 | |
Martinez et al. | Deep learning evolutionary optimization for regression of rotorcraft vibrational spectra | |
CN112633385A (zh) | 一种模型训练的方法、数据生成的方法以及装置 | |
KR102105951B1 (ko) | 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치 | |
Cheng et al. | Prioritizing corners in OoD detectors via symbolic string manipulation | |
CN116508035A (zh) | 将经训练的人工智能模型转换为可信赖的人工智能模型 | |
KR20210103912A (ko) | 뉴럴 네트워크를 학습시키는 학습 방법 및 장치, 뉴럴 네트워크를 이용한 데이터 처리 방법 및 장치 | |
Tang | Traffic flow prediction using convolutional neural network accelerated by spark distributed cluster |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190329 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7103987 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |