JP7277645B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7277645B2
JP7277645B2 JP2022069215A JP2022069215A JP7277645B2 JP 7277645 B2 JP7277645 B2 JP 7277645B2 JP 2022069215 A JP2022069215 A JP 2022069215A JP 2022069215 A JP2022069215 A JP 2022069215A JP 7277645 B2 JP7277645 B2 JP 7277645B2
Authority
JP
Japan
Prior art keywords
samples
domain
class
pseudo
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022069215A
Other languages
Japanese (ja)
Other versions
JP2022103190A (en
Inventor
ムハマド アクマル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020216626A external-priority patent/JP7062747B1/en
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2022069215A priority Critical patent/JP7277645B2/en
Publication of JP2022103190A publication Critical patent/JP2022103190A/en
Application granted granted Critical
Publication of JP7277645B2 publication Critical patent/JP7277645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関し、特に、学習モデルを機械学習させるための技術に関する。 The present invention relates to an information processing device, an information processing method, and a program, and more particularly to a technique for machine learning a learning model.

教師あり機械学習においては、教師サンプル(標本)と教師ラベルからなる教師データセットを用いて、教師サンプルとラベルとの関係を学習モデルに反映させるように、学習モデルを機械学習させる。このような機械学習により得られた学習済みモデルを、推論フェーズにおいてラベルの付されていない未知のサンプルに適用することで、例えば、画像認識、分類等の所望の処理結果が得られる。 In supervised machine learning, a learning model is subjected to machine learning using a teacher data set consisting of teacher samples (specimens) and teacher labels so that the relationship between the teacher samples and labels is reflected in the learning model. By applying a trained model obtained by such machine learning to unlabeled unknown samples in the inference phase, desired processing results such as image recognition and classification can be obtained.

ある教師データセットを用いて学習させた学習済みモデルを、当該教師データセットとはドメインが異なるデータセットを対象とするタスクにそのまま適用すると、推論の精度が低下してしまう。ここで、ドメインとは、データセットにおけるデータの種類、範囲、分布等をいう。
そこで、対象となるデータセットと同一のドメインであるターゲットドメインのサンプルを用いて、学習済みモデルをさらに機械学習させることで、学習済みモデルをターゲットドメインに適用可能とする技術があり、これは転移学習(Transfer Learning)と称される。
If a trained model trained using a certain teacher data set is applied as it is to a task targeting a data set whose domain is different from that of the teacher data set, the accuracy of inference will be degraded. Here, the domain refers to the type, range, distribution, etc. of data in a data set.
Therefore, there is a technology that makes it possible to apply the trained model to the target domain by further machine learning the trained model using samples of the target domain, which is the same domain as the target dataset. It is called Transfer Learning.

この転移学習の1つに、ドメイン適応(Domain Adaptation)がある。このドメイン適応では、教師データセットのドメインと対象となるデータセットのドメインとでサンプルの分布が異なることを前提とし、適用元である教師データセットのドメイン(ソースドメイン)の分布を、適用先である対象のデータセットのドメイン(ターゲットドメイン)の分布に近づけるように、学習モデルを学習させる。 One of this transfer learning is domain adaptation. In this domain adaptation, it is assumed that the distribution of samples is different between the domain of the training dataset and the domain of the target dataset. A learning model is trained so as to approximate the distribution of a certain target dataset domain (target domain).

特許文献1は、カメラで撮影された車両画像を分類するタスクにおけるドメイン適応化手法を開示する。
具体的には、特許文献1のラベリングシステムにおいては、同じカメラにより取得された画像を表すラベル化特徴ベクトルを対象ドメイン訓練セットとし、他の複数のカメラによりそれぞれ取得された複数のソースドメイン訓練セットとして用いて、ドメイン間のずれが学習されるよう、ブースト分類器を訓練する。これにより、早期に導入されたカメラや他の位置に設置されたカメラで収集された画像を利用して車両画像を分類している。
US Pat. No. 6,200,000 discloses a domain adaptation approach in the task of classifying vehicle images captured by cameras.
Specifically, in the labeling system of US Pat. to train a boosted classifier such that the misalignment between domains is learned. This utilizes images collected by early-introduced cameras and cameras installed in other locations to classify vehicle images.

特開2016-58079号公報JP 2016-58079 A

ところで、ドメイン適応においては、ソースドメインに含まれる教師サンプルにはラベルが付されているが、ターゲットドメインに含まれる対象データのサンプルにはラベルが付されているとは限らない。ターゲットドメインのサンプルにラベルが付されていない場合のドメイン適応は、教師なしドメイン適応とも呼ばれる。
いずれの場合であっても、ドメイン適応において、ターゲットドメインは、ソースドメインに属するサンプルに付されているすべてのラベルに対応するサンプルを含んでいることを想定している。
By the way, in domain adaptation, the teacher samples included in the source domain are labeled, but the target data samples included in the target domain are not necessarily labeled. Domain adaptation when the samples in the target domain are unlabeled is also called unsupervised domain adaptation.
In any case, domain adaptation assumes that the target domain contains samples corresponding to all labels attached to samples belonging to the source domain.

しかしながら、ターゲットドメインのサンプルとして、常にソースドメインのすべてのラベルに対応するサンプルが用意できるとは限らない。このように、ターゲットドメインが、ソースドメインに属するサンプルに付されている一部のラベルに対応するサンプルを欠くと、特許文献1の技術では、ソースドメインをターゲットドメインにドメイン適応させた際に、ソースドメインのサンプル分布をターゲットドメインのサンプル分布に十分に近づけることができない。
したがって、学習済みモデルに対するドメイン適応の精度が低下し、ひいては当該学習済みモデルを用いて推論する各種処理の精度もまた低下してしまうおそれがある。
However, it is not always possible to prepare samples corresponding to all labels of the source domain as samples of the target domain. As described above, if the target domain lacks samples corresponding to some labels attached to samples belonging to the source domain, the technique of Patent Document 1, when the source domain is domain-adapted to the target domain, The sample distribution of the source domain cannot be sufficiently close to the sample distribution of the target domain.
Therefore, there is a risk that the accuracy of domain adaptation to the trained model will decrease, and that the accuracy of various processes for reasoning using the trained model will also decrease.

本発明は上記課題を解決するためになされたものであり、その目的は、ターゲットドメインのサンプルがソースドメインのサンプルに十分対応しない場合であっても、高精度な処理結果を得ることが可能な情報処理装置、情報処理方法およびプログラムを提供することにある。 The present invention has been made to solve the above problems, and its object is to obtain highly accurate processing results even when the samples in the target domain do not sufficiently correspond to the samples in the source domain. An object of the present invention is to provide an information processing device, an information processing method, and a program.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、ソースドメインに含まれる第1のクラスのサンプルおよび第2のクラスのサンプルと、ターゲットドメインに含まれる前記第1のクラスのサンプルとから、それぞれ特徴を抽出する特徴抽出部と、前記特徴抽出部により抽出された前記特徴の特徴空間における前記ターゲットドメインに含まれる前記第1のクラスのサンプルの分布に基づいて、前記ターゲットドメインの前記第2のクラスの疑似サンプルを生成する疑似サンプル生成部と、前記特徴空間において、前記ソースドメインに含まれる前記第1のクラスのサンプルおよび前記第2のクラスのサンプルの分布を、前記ターゲットドメインに含まれる前記第1のクラスのサンプルおよび前記第2のクラスの前記疑似サンプルの分布に近づくよう機械学習によりデータ変換するデータ変換部と、を備える。 In order to solve the above problems, one aspect of the information processing apparatus according to the present invention provides a first class sample and a second class sample included in a source domain, and the first class sample included in a target domain. a feature extracting unit for extracting features from each of the samples of the target based on the distribution of the samples of the first class included in the target domain in the feature space of the features extracted by the feature extracting unit a pseudo sample generation unit that generates pseudo samples of the second class of the domain; a data conversion unit that converts data by machine learning so as to approximate the distribution of the samples of the first class and the pseudo samples of the second class included in the target domain.

前記疑似サンプル生成部は、前記特徴空間における前記ターゲットドメインに含まれる前記第1のクラスのサンプルの分布の第1の信頼度を推定し、推定された前記第1の信頼度の勾配に基づいて、前記疑似サンプルを生成してよい。 The pseudo sample generator estimates a first reliability of a distribution of samples of the first class included in the target domain in the feature space, and based on the estimated gradient of the first reliability , may generate the pseudo-samples.

前記疑似サンプル生成部は、推定された前記第1の信頼度が低い前記特徴空間の領域に、前記疑似サンプルを生成してよい。 The pseudo sample generation unit may generate the pseudo samples in regions of the feature space where the estimated first reliability is low.

前記疑似サンプル生成部は、前記特徴空間における前記ソースドメインに含まれる前記第2のクラスのサンプルの分布の第2の信頼度を推定し、推定された前記第2の信頼度の勾配に基づいて、前記疑似サンプルを生成してよい。 The pseudo sample generator estimates a second confidence of a distribution of samples of the second class included in the source domain in the feature space, and based on the estimated second confidence gradient , may generate the pseudo-samples.

前記疑似サンプル生成部は、前記第1の信頼度と前記第2の信頼度とを結合し、結合された信頼度に基づいて、生成された前記疑似サンプルを、前記特徴空間において前記結合された信頼度がより高い領域に分布させるようリサンプリングしてよい。 The pseudo-sample generation unit combines the first reliability and the second reliability, and generates the generated pseudo-sample based on the combined reliability in the feature space. It may be resampled to distribute it in regions with higher confidence.

前記疑似サンプル生成部は、前記特徴空間における前記ソースドメインに含まれる前記第1のクラスのサンプルの分布と前記第2のクラスのサンプルの分布との間の距離に基づいて、前記疑似サンプルを生成してよい。 The pseudo sample generator generates the pseudo samples based on a distance between a distribution of the first class samples and a distribution of the second class samples included in the source domain in the feature space. You can

サンプルを前記ソースドメインおよび前記ターゲットドメインのいずれかに分類するドメイン分類器をさらに備え、前記疑似サンプル生成部は、前記ドメイン分類器が前記ターゲットドメインに分類されたサンプルに対して、前記ソースドメインに分類されたサンプルより高い重みを付与するよう、前記ドメイン分類器を学習させてよい。 Further comprising a domain classifier for classifying samples into either the source domain or the target domain, the pseudo sample generation unit classifying the samples classified into the target domain by the domain classifier into the source domain The domain classifier may be trained to give higher weight to classified samples.

サンプルを前記第1のクラスおよび前記第2のクラスのいずれかに分類するクラス分類器をさらに備え、前記疑似サンプル生成部は、前記クラス分類器が前記第2のクラスに分類されたサンプルに対して、前記第1のクラスに分類されたサンプルより高い重みを付与するよう、前記クラス分類器を学習させてよい。 A class classifier that classifies samples into either the first class or the second class, wherein the pseudo sample generator causes the class classifier to classify the samples into the second class as , the classifier may be trained to give higher weight to samples classified into the first class.

前記データ変換部は、前記ドメイン分類器および前記クラス分類器の少なくとも1つを、第1の損失関数を用いて算出される、前記特徴空間におけるクロスエントロピー損失がより小さくなるよう機械学習してよい。 The data conversion unit may machine-learn at least one of the domain classifier and the class classifier so that cross-entropy loss in the feature space calculated using a first loss function becomes smaller. .

前記データ変換部は、第2の損失関数を用いて算出される、前記特徴空間における前記ソースドメインと前記ターゲットドメインとの間のWasserstein距離がより小さくなるよう機械学習してよい。 The data transformation unit may perform machine learning so that the Wasserstein distance between the source domain and the target domain in the feature space calculated using a second loss function becomes smaller.

本発明に係る情報処理方法の一態様は、情報処理装置が実行する情報処理方法であって、ソースドメインに含まれる第1のクラスのサンプルおよび第2のクラスのサンプルと、ターゲットドメインに含まれる前記第1のクラスのサンプルとから、それぞれ特徴を抽出するステップと、抽出された前記特徴の特徴空間における前記ターゲットドメインに含まれる前記第1のクラスのサンプルの分布に基づいて、前記ターゲットドメインの前記第2のクラスの疑似サンプルを生成するステップと、前記特徴空間において、前記ソースドメインに含まれる前記第1のクラスのサンプルおよび前記第2のクラスのサンプルの分布を、前記ターゲットドメインに含まれる前記第1のクラスのサンプルおよび前記第2のクラスの前記疑似サンプルの分布に近づくよう機械学習によりデータ変換するステップと、を含む。 One aspect of the information processing method according to the present invention is an information processing method executed by an information processing apparatus, wherein a first class sample and a second class sample included in a source domain and a sample of a second class included in a target domain extracting features from the samples of the first class, respectively; generating the pseudo-samples of the second class; and, in the feature space, the distribution of the first class samples and the second class samples contained in the source domain contained in the target domain. and transforming data by machine learning to approximate the distribution of the samples of the first class and the pseudo-samples of the second class.

本発明に係る情報処理プログラムの一態様は、情報処理をコンピュータに実行させるための情報処理プログラムであって、該プログラムは、前記コンピュータに、ソースドメインに含まれる第1のクラスのサンプルおよび第2のクラスのサンプルと、ターゲットドメインに含まれる前記第1のクラスのサンプルとから、それぞれ特徴を抽出する特徴抽出処理と、前記特徴抽出処理により抽出された前記特徴の特徴空間における前記ターゲットドメインに含まれる前記第1のクラスのサンプルの分布に基づいて、前記ターゲットドメインの前記第2のクラスの疑似サンプルを生成する疑似サンプル生成処理と、前記特徴空間において、前記ソースドメインに含まれる前記第1のクラスのサンプルおよび前記第2のクラスのサンプルの分布を、前記ターゲットドメインに含まれる前記第1のクラスのサンプルおよび前記第2のクラスの前記疑似サンプルの分布に近づくよう機械学習によりデータ変換するデータ変換処理とを含む処理を実行させるためのものである。 One aspect of the information processing program according to the present invention is an information processing program for causing a computer to execute information processing, wherein the program stores, in the computer, first class samples and second class samples included in a source domain. A feature extraction process for extracting features from each of the samples of the class of and the samples of the first class included in the target domain; a pseudo-sample generation process for generating pseudo-samples of the second class of the target domain based on the distribution of the first-class samples contained in the source domain in the feature space; Data for transforming the distribution of the class samples and the second class samples by machine learning so as to approach the distribution of the first class samples and the pseudo samples of the second class included in the target domain. It is for executing processing including conversion processing.

本発明によれば、ターゲットドメインのサンプルがソースドメインのサンプルに十分対応しない場合であっても、高精度な処理結果を得ることができる。
上記した本発明の目的、態様及び効果並びに上記されなかった本発明の目的、態様及び効果は、当業者であれば添付図面及び請求の範囲の記載を参照することにより下記の発明を実施するための形態から理解できるであろう。
According to the present invention, highly accurate processing results can be obtained even if the samples in the target domain do not sufficiently correspond to the samples in the source domain.
The objects, aspects and effects of the present invention described above and the objects, aspects and effects of the present invention not described above can be understood by a person skilled in the art to carry out the following invention by referring to the accompanying drawings and the description of the claims. can be understood from the form of

図1は、本発明の実施形態に係る学習装置の機能構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the functional configuration of a learning device according to an embodiment of the invention. 図2は、本実施形態に係るソースドメインとターゲットドメインのサンプル分布の非対称性(ドメインシフト)を説明する図である。FIG. 2 is a diagram for explaining the asymmetry (domain shift) of the sample distributions of the source domain and the target domain according to this embodiment. 図3は、本実施形態に係る学習装置が実行する疑似サンプル生成処理を経てドメイン適応されたソースドメインとターゲットドメインを説明する図である。FIG. 3 is a diagram for explaining the source domain and the target domain that are domain-adapted through the pseudo-sample generation process executed by the learning apparatus according to this embodiment. 図4は、本実施形態に係る学習装置を、機械学習に実装する場合の学習モデルのモジュール構成および概略処理手順の一例を示す概念図である。FIG. 4 is a conceptual diagram showing an example of a module configuration of a learning model and a schematic processing procedure when the learning device according to the present embodiment is implemented in machine learning. 図5は、本実施形態に係る学習装置の疑似サンプル生成部が実行する疑似サンプル生成処理の詳細処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a detailed processing procedure of the pseudo sample generation process executed by the pseudo sample generation unit of the learning device according to the present embodiment. 図6は、特徴空間上で、ターゲットドメインおよびソースドメインのサンプルからターゲットドメインの疑似サンプルを生成する手順の一例を説明する模式図である。FIG. 6 is a schematic diagram illustrating an example of a procedure for generating pseudo-samples of the target domain from samples of the target domain and the source domain in the feature space. 図7は、特徴空間上で、ターゲットドメインおよびソースドメインのサンプルからターゲットドメインの疑似サンプルを生成する手順の他の一例を説明する模式図である。FIG. 7 is a schematic diagram illustrating another example of the procedure for generating pseudo samples of the target domain from samples of the target domain and the source domain on the feature space. 図8は、本実施形態に係る学習装置のハードウエア構成の一例を示すブロック図である。FIG. 8 is a block diagram showing an example of the hardware configuration of the learning device according to this embodiment.

以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。以下に開示される構成要素のうち、同一機能を有するものには同一の符号を付し、その説明を省略する。なお、以下に開示される実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Embodiments for carrying out the present invention will be described in detail below with reference to the accompanying drawings. Among the constituent elements disclosed below, those having the same functions are denoted by the same reference numerals, and descriptions thereof are omitted. The embodiments disclosed below are examples of means for realizing the present invention, and should be appropriately modified or changed according to the configuration of the device to which the present invention is applied and various conditions. is not limited to the embodiment of Also, not all combinations of features described in the present embodiment are essential for the solution means of the present invention.

本実施形態に係る学習装置は、ソースドメインのサンプルおよびターゲットドメインのサンプルの特徴をそれぞれ抽出し、ソースドメインのサンプルに付与された複数のラベル(クラス)のうちターゲットドメインに十分に含まれていないラベル(クラス)のサンプルを、疑似サンプルとして、特徴空間におけるターゲットドメインの領域に生成し、生成された疑似サンプルでターゲットドメインのサンプルを補完する。
本実施形態に係る学習装置はまた、疑似サンプルが補完されたターゲットドメインに、ソースドメインがドメイン適応するよう機械学習する。
The learning device according to the present embodiment extracts the features of the source domain samples and the target domain samples, respectively, and selects a plurality of labels (classes) assigned to the source domain samples that are not sufficiently included in the target domain. Label (class) samples are generated as pseudo-samples in regions of the target domain in the feature space, and the generated pseudo-samples are complemented to the samples of the target domain.
The learning device according to the present embodiment also performs machine learning so that the source domain is domain-adapted to the target domain complemented with the pseudo samples.

以下では、本実施形態が、例えば、画像を認識および分類する用途に適用される一例を説明するが、本実施形態はこれに限定されず、学習モデルが適用されるべきアプリケーションに応じて、あらゆる種類のデータやドメインに適用可能である。 Below, an example in which the present embodiment is applied to, for example, recognition and classification of images will be described, but the present embodiment is not limited to this, and any Applicable to any kind of data or domain.

<学習装置の機能構成>
図1は、本実施形態に係る学習装置1の機能構成の一例を示すブロック図である。
図1に示す学習装置1は、データ取得部11、特徴抽出部12、疑似サンプル生成部13、データ変換部14、および推論部15を備える。
学習装置1は、PC(Personal Computer)等で構成されるクライアント装置(不図示)とネットワークを介して通信可能に接続してよい。この場合、学習出装置1はサーバに実装され、クライアント装置は、学習装置1が外部と情報の入出力を実行する際のユーザインタフェースを提供してよく、また、学習装置1の各コンポーネント11~15の一部または全部を備えてもよい。
<Functional configuration of learning device>
FIG. 1 is a block diagram showing an example of the functional configuration of a learning device 1 according to this embodiment.
A learning device 1 shown in FIG.
The study device 1 may be communicably connected to a client device (not shown) configured by a PC (Personal Computer) or the like via a network. In this case, the learning output device 1 is mounted on a server, and the client device may provide a user interface when the learning device 1 inputs and outputs information to and from the outside. You may provide a part or all of 15.

データ取得部11は、ソースデータセット2からソースドメインのサンプルを、ターゲットデータセット3からターゲットドメインのサンプルを、それぞれ取得して、取得されたソースドメインのサンプルおよびターゲットドメインのサンプルを特徴抽出部12へ供給する。 The data acquisition unit 11 acquires samples of the source domain from the source data set 2 and samples of the target domain from the target data set 3, respectively. supply to

ソースデータセット2は、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の不揮発性記憶装置で構成され、ドメイン適応元のソースドメインに属するサンプル(標本)を格納する。ソースドメインに属するサンプルを、ソースサンプルという。ソースサンプルは、学習モデルを事前学習させるための教師データであり、各ソースサンプルは、分類上の正解を示すクラスがラベル付けされている。 The source data set 2 is composed of a non-volatile storage device such as a HDD (Hard Disk Drive) or SSD (Solid State Drive), and stores samples (samples) belonging to the source domain of the domain adaptation source. A sample belonging to the source domain is called a source sample. A source sample is teacher data for pre-learning a learning model, and each source sample is labeled with a class indicating correct classification.

ターゲットデータセット3は、ソースデータセット2と同様、HDD、SSD等の不揮発性記憶装置で構成され、ドメイン適応先のターゲットドメインに属するサンプルを格納する。ターゲットドメインに属するサンプルを、ターゲットサンプルという。ターゲットサンプルは、学習モデルを適用すべきタスクが処理対象とするデータと同一のドメインに属するサンプルであり、各ターゲットサンプルは、クラスがラベル付けされていてよいが、必ずしもクラスでラベル付けされていなくてもよい。
なお、ドメインとは、ある1つの確率分布から発生するデータの所属領域をいい、例えば、データの種類、範囲、分布等の属性によりドメインが構成される。
Like the source data set 2, the target data set 3 is composed of a non-volatile storage device such as an HDD or SSD, and stores samples belonging to the target domain to which the domain is applied. A sample belonging to the target domain is called a target sample. A target sample is a sample belonging to the same domain as the data to be processed by the task to which the learning model is to be applied. Each target sample may be labeled with a class, but is not necessarily labeled with a class. may
Note that a domain is an area to which data generated from a certain probability distribution belongs. For example, a domain is configured by attributes such as data type, range, and distribution.

データ取得部11は、ソースデータセット2およびターゲットデータセット3に予め格納されたソースサンプルおよびターゲットサンプルを読み出すことにより、ソースサンプルおよびターゲットサンプルを取得してもよく、あるいは、ソースサンプルおよびターゲットサンプルを記憶する同一のまたは異なる対向装置から通信I/Fを介して受信してもよい。 The data acquisition unit 11 may acquire the source samples and the target samples by reading the source samples and the target samples previously stored in the source data set 2 and the target data set 3, or acquire the source samples and the target samples. It may be received via the communication I/F from the same or different stored device.

データ取得部11はまた、学習装置1においてドメイン適応の機械学習処理を実行するために必要な各種パラメータの入力を受け付ける。データ取得部11は、学習装置1と通信可能に接続されるクライアント装置のユーザインタフェースを介して、各種パラメータの入力を受け付けてよい。 The data acquisition unit 11 also receives input of various parameters necessary for executing domain-adaptive machine learning processing in the learning device 1 . The data acquisition unit 11 may receive input of various parameters via a user interface of a client device communicably connected to the learning device 1 .

特徴抽出部12は、データ取得部11から供給されるソースサンプルから、各ソースサンプルの特徴を抽出する。
特徴抽出部12はまた、データ取得部11から供給されるターゲットサンプルから、各ターゲットサンプルの特徴を抽出する。
特徴抽出部12は、抽出されたソースサンプルの特徴およびターゲットサンプルの特徴を、疑似サンプル生成部13へ供給する。
The feature extraction unit 12 extracts features of each source sample from the source samples supplied from the data acquisition unit 11 .
The feature extraction unit 12 also extracts features of each target sample from the target samples supplied from the data acquisition unit 11 .
The feature extraction unit 12 supplies the extracted features of the source samples and the features of the target samples to the pseudo sample generation unit 13 .

疑似サンプル生成部13は、特徴抽出部12から供給されるソースサンプルの特徴およびターゲットサンプルの特徴に基づいて、ターゲットドメインのターゲットサンプルにおいて、出現していない、または不足しているクラスのターゲットサンプルを、疑似サンプルとして生成する。 Based on the features of the source samples and the features of the target samples supplied from the feature extraction unit 12, the pseudo sample generation unit 13 generates target samples of classes that do not appear or are missing in the target samples of the target domain. , generated as pseudo-samples.

本実施形態では、疑似サンプル生成部13は、特徴抽出部12から供給されるソースサンプルの特徴およびターゲットサンプルの特徴を特徴空間上にマッピングし、特徴空間上のターゲットサンプルの分布の信頼度を推定し、推定された信頼度に基づいて疑似サンプルを生成することで、ターゲットドメインのターゲットサンプルを補完する。疑似サンプル生成部13はさらに、特徴空間上のソースサンプルの分布の信頼度を推定し、推定された信頼度に基づいて疑似サンプルを生成してよい。
疑似サンプル生成部13が実行する疑似サンプル生成処理の詳細は、図5を参照して後述する。
In this embodiment, the pseudo sample generation unit 13 maps the features of the source samples and the features of the target samples supplied from the feature extraction unit 12 onto the feature space, and estimates the reliability of the distribution of the target samples on the feature space. and augment the target domain's target samples by generating pseudo-samples based on the estimated confidence. The pseudo sample generator 13 may further estimate the reliability of the source sample distribution on the feature space and generate pseudo samples based on the estimated reliability.
The details of the pseudo sample generation processing executed by the pseudo sample generation unit 13 will be described later with reference to FIG.

データ変換部14は、特徴抽出部12から供給されるソースドメインのソースサンプルの特徴の分布を、ターゲットドメインのターゲットサンプルの特徴の分布に一致させるようデータ変換を実行する。すなわち、データ変換部14は、ソースサンプルの特徴およびターゲットサンプルの特徴を入力として、学習モデルに学習させるべき教師データを、ソースドメインのデータからターゲットドメインのデータに変換する、ドメイン適応を実行する。 The data transformation unit 14 performs data transformation so that the distribution of the features of the source samples of the source domain supplied from the feature extraction unit 12 matches the distribution of the features of the target samples of the target domain. That is, the data conversion unit 14 receives the features of the source sample and the features of the target sample, and performs domain adaptation to convert teacher data to be learned by the learning model from data of the source domain to data of the target domain.

本実施形態において、データ変換部14は、疑似サンプル生成部13により生成された疑似サンプルでターゲットドメインを補完し、疑似サンプルが補完されたターゲットドメインのターゲットサンプルの特徴を入力として、ソースドメインからターゲットドメインへのドメイン適応を実行する。
データ変換部14は、変換された教師データ(学習データ)を用いて、学習モデルにおけるドメイン適応の関数のパラメータ値を機械学習する。
In the present embodiment, the data conversion unit 14 complements the target domain with the pseudo samples generated by the pseudo sample generation unit 13, inputs the features of the target samples in the target domain in which the pseudo samples are complemented, and converts the source domain to the target. Perform domain adaptation to the domain.
The data conversion unit 14 uses the converted teacher data (learning data) to machine-learn the parameter values of the domain adaptation function in the learning model.

推論部15は、データ変換部14によりドメイン適応が適用された学習済みの学習モデルにより、入力データに対して各種処理結果を出力する。
このように機械学習された学習済みの学習モデルは、ターゲットドメインにおいて、疑似サンプルとして生成されたターゲットサンプルが未出現クラスのターゲットサンプルを補完しているため、各種推論処理における精度の低下が有効に防止される。
The inference unit 15 outputs various processing results for the input data using a learned learning model to which domain adaptation has been applied by the data conversion unit 14 .
In the machine-learned learning model that has been trained in this way, the target samples generated as pseudo samples in the target domain complement the target samples of the non-appearing classes, so the decrease in accuracy in various inference processes is effectively reduced. prevented.

<ドメイン適応と疑似サンプル生成>
図2は、本実施形態に係るソースドメインとターゲットドメインのサンプル分布の非対称性(ドメインシフト)を説明する図である。
図2(a)は、ソースドメインに属するソースサンプルの特徴値P(x)の分布と、ターゲットドメインに属するターゲットサンプルの特徴値P(x)の分布とを示す。図2(a)に示されるように、ターゲットサンプルの特徴値の分布は、ソースサンプルの特徴値の分布と一致しておらず、ソースサンプルの特徴値の分布に対して、正方向に共変量(covariate)シフトしている(P(x)≠P(x))。
<Domain adaptation and pseudo sample generation>
FIG. 2 is a diagram for explaining the asymmetry (domain shift) of the sample distributions of the source domain and the target domain according to this embodiment.
FIG. 2(a) shows the distribution of feature values P s (x) of source samples belonging to the source domain and the distribution of feature values P t (x) of target samples belonging to the target domain. As shown in FIG. 2(a), the distribution of the feature values of the target sample does not match the distribution of the feature values of the source samples, and the distribution of the feature values of the source samples is positively covariate with the distribution of the feature values of the source samples. (covariate) shifted (P s (x)≠P t (x)).

図2(b)は、ソースドメインに属するソースサンプルのクラス別の分布(P(y))と、ターゲットドメインに属するターゲットサンプルのクラス別の分布(P(y))とを示す。図2(b)では、ソースドメインおよびターゲットドメインはいずれも2つのクラス(-1、+1)を持つものとする。
図2(b)に示されるように、ソースドメインにおいては、クラス(-1)にラベル付けされたソースサンプル数とクラス(+1)にラベル付けされたソースサンプル数は、ほぼ同数である。一方、ターゲットドメインにおいては、クラス(-1)にラベル付けされたターゲットサンプル数は、クラス(-1)のソースサンプル数とほぼ同数なのに対して、クラス(+1)にラベル付けされたターゲットサンプル数は、クラス(+1)のソースサンプル数より著しく低く、ターゲットドメインはクラス分布においてもシフトを起こしている(P(y=+1)≠P(y=+1))。
FIG. 2(b) shows the distribution by class of source samples belonging to the source domain (P s (y)) and the distribution by class of target samples belonging to the target domain (P t (y)). In FIG. 2(b), it is assumed that both the source domain and the target domain have two classes (-1, +1).
As shown in FIG. 2(b), in the source domain, the number of source samples labeled with class (-1) and the number of source samples labeled with class (+1) are almost the same. On the other hand, in the target domain, the number of target samples labeled with class (-1) is approximately the same as the number of source samples with class (-1), whereas the number of target samples labeled with class (+1) is significantly lower than the number of source samples for class (+1), and the target domain also undergoes a shift in class distribution (P s (y=+1)≠P t (y=+1)).

非限定的一例として、ソースドメインがイラスト画像、ターゲットドメインが実写画像であり、入力画像を犬画像と猫画像とのいずれかのクラスに分類する学習モデルを得るため、学習モデルにドメイン適応を適用する場合を考える。
ソースドメインのソースサンプルは、犬を描いた犬のイラスト画像(P(y=-1))と、猫を描いた猫のイラスト画像(P(y=+1))との双方を含み、各ソースサンプルは、犬のクラス(-1)と猫のクラス(+1)とのいずれかがラベル付けされている。
一方、ターゲットドメインのターゲットサンプルは、図2(b)に示すように、犬が撮像された犬の実写画像(P(y=-1))がほぼ全てであり、猫が撮像された猫の実写画像(P(y=+1))は全く、あるいはごく僅かしか用意できなかったものとする。
As a non-limiting example, domain adaptation is applied to the learning model to obtain a learning model that classifies the input image into either a dog image or a cat image, with the source domain being an illustration image and the target domain being an actual image. Consider the case of
The source sample of the source domain includes both a dog illustration image (P s (y=−1)) depicting a dog and a cat illustration image (P s (y=+1)) depicting a cat, Each source sample is labeled with either the dog class (-1) or the cat class (+1).
On the other hand, as shown in FIG. 2(b), the target samples of the target domain are almost all actual dog images (P t (y=−1)) in which a dog is imaged, and a cat in which a cat is imaged. It is assumed that no or only a very small amount of the photographed image (P t (y=+1)) was prepared.

実際に学習モデルを使用する推論フェーズ、すなわち入力画像をクラス分類するタスクのフェーズでは、犬の実写画像だけでなく猫の実写画像も入力されることが想定されるため、犬の実写画像と猫の実写画像とを高精度に区別することが要請される。
しかしながら、図2(b)に示すように、ターゲットドメインに猫の実写画像(P(y=+1))が不足しているため、学習モデルにドメイン適応を適用しても、猫の実写画像を犬の実写画像と区別して分類する精度が低下してしまう。
In the inference phase that actually uses the learning model, that is, the phase of the task of classifying the input images, it is assumed that not only real images of dogs but also real images of cats will be input. There is a demand for high-precision discrimination from real-world images.
However, as shown in FIG. 2(b), since the target domain lacks the actual cat image (P t (y=+1)), even if the domain adaptation is applied to the learning model, the actual cat image Therefore, the accuracy of classifying the image by distinguishing it from the actual image of the dog decreases.

本実施形態は、これに対して、学習モデルをドメイン適応させるに際して、ターゲットドメインにおいて不足している猫の実写画像(P(y=+1))を疑似サンプルとして生成し、生成された疑似サンプルでターゲットドメインを補完する。 On the other hand, in the present embodiment, when the learning model is domain-adapted, a real cat image (P t (y=+1)) that is missing in the target domain is generated as a pseudo sample, and the generated pseudo sample Complement the target domain with .

図3は、 本実施形態に係る学習装置1が実行する疑似サンプル生成処理を経てドメイン適応されたソースドメインとターゲットドメインを説明する図である。
図3(a)は、ドメイン適応後のソースドメインに属するソースサンプルの特徴値(P(x))の分布と、ターゲットドメインに属するターゲットサンプルの特徴値(P(x))の分布とを示す。図3(a)に示されるように、ターゲットサンプルの特徴値の分布は、ソースサンプルの特徴値の分布とほぼ一致している(P(x)≒P(x))。
FIG. 3 is a diagram for explaining the source domain and target domain that are domain-adapted through the pseudo-sample generation processing executed by the learning device 1 according to this embodiment.
FIG. 3A shows the distribution of the feature values (P s (x)) of the source samples belonging to the source domain after domain adaptation and the distribution of the feature values (P t (x)) of the target samples belonging to the target domain. indicates As shown in FIG. 3(a), the distribution of the feature values of the target samples approximately matches the distribution of the feature values of the source samples (P s (x)≈P t (x)).

図3(b)は、ソースドメインに属するソースサンプルのクラス(+1)の分布(P(y))と、ターゲットドメインに属するターゲットサンプル群のクラス(+1)の分布(P(y))とを示す。
ドメイン適応に際して、クラス(+1)について生成された疑似サンプルでターゲットドメインが補完されたため、図3(b)に示すように、ソースドメインにおけるクラス(+1)にラベル付けされたソースサンプル数と、ターゲットドメインにおけるクラス(+1)にラベル付けされたターゲットサンプル数とは、ほぼ同数となっている(P(y=+1)≒P(y=+1))。
図3(a)および図3(b)に示されるように、本実施形態によれば、ソースドメインとターゲットドメイン間で発生し得る、特徴値分布のシフトだけでなくクラス間のシフトも解消され得る。
FIG. 3(b) shows the distribution (P s (y)) of class (+1) of source samples belonging to the source domain and the distribution (P t (y)) of class (+1) of target samples belonging to the target domain. and
Since the target domain was interpolated with pseudo-samples generated for class (+1) during domain adaptation, the number of source samples labeled to class (+1) in the source domain and the target The number of target samples labeled with class (+1) in the domain is almost the same (P s (y=+1)≈P t (y=+1)).
As shown in FIGS. 3(a) and 3(b), according to the present embodiment, not only the shift in feature value distribution but also the shift between classes that can occur between the source and target domains is eliminated. obtain.

<機械学習用学習モデルのモジュール構成>
図4は、本実施形態に係る学習装置1を機械学習モデルに実装する場合のモジュール構成および概略処理手順の一例を示す概念図である。
図4を参照して、学習装置1は、特徴抽出モジュール121、122、符号化モジュール141、疑似サンプル生成モジュール13、分類器モジュール142、およびデータ変換モジュール143から構成されてよい。図4に示す各モジュールのうち、符号化モジュール141、疑似サンプル生成モジュール13、分類器モジュール142、およびデータ変換モジュール143が、特徴抽出モジュール121、122の後段としてのドメイン適応モジュール14を構成する。
<Module configuration of learning model for machine learning>
FIG. 4 is a conceptual diagram showing an example of a module configuration and a schematic processing procedure when the learning device 1 according to this embodiment is implemented in a machine learning model.
Referring to FIG. 4 , learning device 1 may be configured from feature extraction modules 121 and 122 , encoding module 141 , pseudo sample generation module 13 , classifier module 142 and data conversion module 143 . Among the modules shown in FIG. 4, the encoding module 141, the pseudo-sample generation module 13, the classifier module 142, and the data conversion module 143 constitute the domain adaptation module 14 following the feature extraction modules 121 and 122. FIG.

図4では、入力画像を認識および分類する学習モデルを学習させる例を説明する。
なお、図4の各特徴抽出モジュール121、122は、学習装置1の特徴抽出部12に、疑似サンプル生成モジュール13は、学習装置1の疑似サンプル生成部13に、符号化モジュール141、分類器モジュール142、およびデータ変換モジュール143を含むドメイン適用モジュール14は、学習装置1のデータ変換部14に、それぞれ対応する。
FIG. 4 illustrates an example of training a learning model that recognizes and classifies an input image.
Note that the feature extraction modules 121 and 122 in FIG. 142 and the domain application module 14 including the data conversion module 143 respectively correspond to the data conversion unit 14 of the learning device 1 .

特徴抽出モジュール121は、ソースドメインのソース画像を入力とし、各ソース画像から特徴を抽出して、ソース画像の特徴を出力する。
特徴抽出モジュール122は、ターゲットドメインのターゲット画像を入力とし、各ターゲット画像から特徴を抽出して、ターゲット画像の特徴を出力する。
なお、学習モデルを学習させる際に、特徴抽出モジュール121、122を並行して実行してもよく、特徴抽出モジュール121、122のいずれかを先に他方を後に順に実行してもよい。
The feature extraction module 121 takes as input the source images of the source domain, extracts features from each source image, and outputs the features of the source images.
The feature extraction module 122 takes as input the target images of the target domain, extracts features from each target image, and outputs the features of the target image.
Note that when the learning model is learned, the feature extraction modules 121 and 122 may be executed in parallel, or one of the feature extraction modules 121 and 122 may be executed first and then the other.

ソース画像およびターゲット画像の画像特徴を抽出する特徴抽出モジュール121、122は、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)により構成されてよい。
特徴抽出モジュール121、122はさらに、ソース画像およびターゲット画像に対してデータ拡張(data augmentation)のアルゴリズムを適用して、画像中の解析対象のオブジェクト(例えば、人間)を画像中央に適切なスケールで位置付けたり、背景を除去したりしてよい。
特徴抽出モジュール121、122はさらに、例えば、Attention Branch Network(ABN)等のアテンション機構を適用して、ソース画像およびターゲット画像から、画像中の注視領域のマップ(attention map)を生成、最適化して、抽出された画像特徴を重み付けしてもよい。
The feature extraction modules 121, 122 for extracting image features of the source image and the target image may be configured by, for example, a Convolutional Neural Network (CNN).
The feature extraction modules 121, 122 further apply algorithms of data augmentation to the source and target images to center the object to be analyzed (e.g., human) in the images at an appropriate scale. It may be positioned or the background may be removed.
The feature extraction modules 121, 122 further apply an attention mechanism, e.g., Attention Branch Network (ABN), to generate and optimize attention maps in the images from the source and target images. , may weight the extracted image features.

ドメイン適応モジュール14の符号化モジュール141は、特徴抽出モジュールが出力したソース画像の特徴およびターゲット画像の特徴を、共通の特徴空間に符号化(エンコーディング)する。
ここで、ソースドメインには、正(positive)クラスの特徴ベクタz と、負(negative)クラスの特徴ベクタz との双方が含まれているものとする(z ,z ∈R)。一方、ターゲットドメインには負クラスの特徴ベクタz のみが含まれているものとする(z ∈R)。すなわち、正クラスは、ターゲットドメインにおいて未出現(未観測)のクラスである。符号化モジュール141に入力されるこれらの特徴ベクタは、d次元の特徴ベクタであるとする。
The encoding module 141 of the domain adaptation module 14 encodes the source image features and the target image features output by the feature extraction module into a common feature space.
Here, it is assumed that the source domain includes both the positive class feature vector z s + and the negative class feature vector z s (z s + , z s - ∈ R d ). On the other hand, it is assumed that the target domain contains only negative class feature vectors z t (z t ∈R d ). That is, the positive class is a class that has not appeared (unobserved) in the target domain. Assume that these feature vectors input to the encoding module 141 are d-dimensional feature vectors.

符号化モジュール141は、ドメイン不変(domain invariant)である特徴空間のパラメータを学習し、例えば、学習可能なマッピング関数Gとしての全結合層(Fully Connected Layer)に実装されてよい。
符号化モジュール141は、符号化された特徴ベクタ^z 、^z 、^z を出力する。これらの符号化特徴ベクタは、m次元(m<d)の特徴ベクタであるとする(^z∈R)。
The encoding module 141 learns the parameters of the feature space that are domain invariant and may be implemented in a Fully Connected Layer as a learnable mapping function G, for example.
Encoding module 141 outputs encoded feature vectors ̂z s , ̂z s + , ̂z t . Let these encoded feature vectors be m-dimensional (m<d) feature vectors (̂zεR m ).

疑似サンプル生成モジュール13は、共通の特徴空間にマッピングされた、符号化された特徴ベクタ^z 、^z 、^z を入力として、ターゲットドメインにおいて未出現である正(positive)クラスの疑似サンプルを生成し、生成された正クラスの疑似サンプルを正クラスの特徴ベクタ^z と見做して、ターゲットドメインのサンプルを補完する。
なお、図4では、疑似サンプル生成モジュール13は、疑似サンプル生成処理を、符号化モジュール141による特徴ベクタの符号化の後に実行しているが、これに替えて、疑似サンプル生成処理を、符号化モジュール141による特徴ベクタの符号化の前に実行してもよい。
疑似サンプル生成モジュールによる疑似サンプル生成処理の詳細は、図5を参照して後述する。
Pseudo-sample generation module 13 takes as input the encoded feature vectors ̂z s , ̂z s + , ̂z t mapped to a common feature space to generate positive ) Generate class pseudo-samples, and consider the generated positive-class pseudo-samples as the positive-class feature vector ̂z t + to impute the samples of the target domain.
In FIG. 4, the pseudo sample generation module 13 executes the pseudo sample generation processing after the encoding module 141 encodes the feature vectors. It may be performed before the encoding of feature vectors by module 141 .
Details of the pseudo sample generation processing by the pseudo sample generation module will be described later with reference to FIG.

S5で、ドメイン適応モジュールの分類器モジュール142(discriminator)は、符号化された特徴ベクタ^zを分類する(^z∈R)。
分類器モジュール142は、入力される符号化特徴ベクタをソースドメインおよびターゲットドメインのいずれかのドメインに分類するドメイン分類器(C_d)と、入力される符号化特徴ベクタを正クラスおよび負クラスのいずれかのクラスに分類するクラス分類器(C_c)とを備えてよい。
At S5, the classifier module 142 (discriminator) of the domain adaptation module classifies the encoded feature vector ̂z (̂zεR m ).
The classifier module 142 includes a domain classifier (C_d) that classifies the input encoded feature vector into either a source domain or a target domain, and a classifier that classifies the input encoded feature vector into either a positive class or a negative class. and a class classifier (C_c) for classifying into one class.

分類器モジュール142は、例えば、学習可能なマッピング関数Cとしての全結合層(Fully Connected Layer)に実装されてよく、RをRにマッピングすることで分類を実行する。上記のドメイン分類器およびクラス分類器において、c=2である。
分類器モジュール142は、例えば、以下の式1で示される損失を最小化するための損失関数Lcを用いて、ドメイン間やクラス間でのバイナリクロスエントロピー(binary cross entropy)損失がより小さくなるよう機械学習することで、分類性能を維持することができる。
The classifier module 142 may be implemented, for example, in a Fully Connected Layer as a learnable mapping function C, which performs classification by mapping Rm to Rc . In the above domain classifier and class classifier, c=2.
The classifier module 142 uses a loss function Lc to minimize the loss shown in Equation 1 below, such that the binary cross entropy loss between domains and classes is smaller. Machine learning can maintain classification performance.

Figure 0007277645000001
(式1)
Figure 0007277645000001
(Formula 1)

ここで、

Figure 0007277645000002
は、i番目のソースサンプルのバイナリラベルを示し、
Figure 0007277645000003
は、指標関数である。なお、分類器モジュールは、上記式1で、バイナリクロスエントロピー損失に替えて、二乗誤差等、他の損失を算出してもよい。 here,
Figure 0007277645000002
denotes the binary label of the i-th source sample, and
Figure 0007277645000003
is the index function. Note that the classifier module may calculate other losses, such as squared error, instead of the binary cross-entropy loss in Equation 1 above.

ドメイン適応モジュール14のデータ変換モジュール143は、ソースドメインとターゲットドメインとの間のデータの不一致(discrepancy)が最小化されるよう、符号化された特徴ベクタ表現^z(^z∈R)を、実数z(z∈R)に変換する。すなわち、データ変換モジュール143は、ドメイン適応を評価するモジュール(domain critic)である。
データ変換モジュール143は、例えば、学習可能な変換関数Fとしての全結合層に実装されてよい。
The data transformation module 143 of the domain adaptation module 14 transforms the encoded feature vector representation ̂z (̂z∈R m ) such that data discrepancy between the source and target domains is minimized. , into a real number z (zεR). That is, the data transformation module 143 is a module (domain critical) that evaluates domain adaptation.
Data transformation module 143 may be implemented in a fully connected layer as a learnable transformation function F, for example.

具体的には、データ変換モジュール143は、符号化されたソースドメインの特徴ベクタ^z 、^z と、符号化されたターゲットドメインの特徴ベクタ^z および疑似サンプルである正クラスの特徴ベクタ^z とを入力として、ソースドメインの符号化特徴ベクタ^z 、^z とターゲットドメインの符号化特徴ベクタ^z 、^z との間の共通の特徴空間における距離を推定し、この距離が最小化するよう機械学習することで、ソースドメインの符号化特徴ベクタをターゲットドメインの符号化特徴ベクタにドメイン適応させる。
この距離は、例えば、距離空間上の確率分布間の距離としてのWasserstein距離であってよいが、データ変換モジュール143は、他の距離を用いてもよい。
データ変換モジュール143は、例えば、以下の式2で示される損失を最小化するための損失関数Lwを用いて、ソースドメインとターゲットドメインとの間でサンプル分布間の距離の損失がより小さくなるよう機械学習を実行することで、ドメイン適応を実行する。
Specifically, the data transformation module 143 converts the encoded source domain feature vectors ̂z s , ̂z s + and the encoded target domain feature vectors ̂z t and pseudo-sample positive Given the class feature vectors ^ z t + and the The coded feature vectors in the source domain are domain-adapted to the coded feature vectors in the target domain by estimating the distance in the common feature space and machine learning to minimize this distance.
This distance may be, for example, the Wasserstein distance as the distance between probability distributions on the metric space, but the data conversion module 143 may use other distances.
The data transformation module 143 uses a loss function Lw to minimize the loss shown in Equation 2 below, for example, so that the distance between the sample distributions between the source domain and the target domain is less lossy. Perform domain adaptation by performing machine learning.

Figure 0007277645000004
(式2)
Figure 0007277645000004
(Formula 2)

ここで、nはソースドメインにおける正クラスおよび負クラスのサンプル数を示し、nはターゲットドメインにおける正クラスおよび負クラスのサンプル数を示す。
本実施形態では、疑似サンプル生成モジュール13により生成された疑似正サンプルの符号化特徴ベクタがターゲットドメインに追加されているため、データ変換モジュール143は、ターゲットドメインに追加された疑似正サンプルの符号化特徴ベクタを用いて、高精度にドメイン適応を実行することができる。
where ns denotes the number of positive and negative class samples in the source domain, and nt denotes the number of positive and negative class samples in the target domain.
In this embodiment, since the encoded feature vector of the pseudo-positive samples generated by the pseudo-sample generation module 13 is added to the target domain, the data conversion module 143 performs the encoding of the pseudo-positive samples added to the target domain. Feature vectors can be used to perform domain adaptation with high accuracy.

なお、学習モデルを機械学習させる際に、分類器モジュール142およびデータ変換モジュール143を並行して実行してもよく、分類器モジュール142およびデータ変換モジュール143のいずれかを先に他方を後に順に実行してもよい。分類器モジュール142による学習およびデータ変換モジュール143による学習は、敵対的学習として実行されてよい。 Note that the classifier module 142 and the data conversion module 143 may be executed in parallel when the learning model is subjected to machine learning. You may Learning by the classifier module 142 and learning by the data transformation module 143 may be performed as adversarial learning.

学習モデルを学習させるドメイン適応モジュール14は、マッピング関数G、マッピング関数C、および変換関数Fの各パラメータが最適化されて、上記損失関数のトータルでの損失が最小化されるよう、機械学習を繰り返していく。これにより、ドメイン不変である共通の特徴空間のパラメータが学習されて、ソースドメインの特徴空間における正サンプル分布および負サンプル分布が、ターゲットドメインの特徴空間における正サンプル分布および負サンプル分布へ高精度にドメイン適応される。
なお、図4に示す学習モデルのモジュール構成は一例であり、本実施形態に係る学習装置1は、他の特徴抽出やドメイン適応の手法を用いてよい。
The domain adaptation module 14 that trains the learning model performs machine learning so that each parameter of the mapping function G, the mapping function C, and the transformation function F is optimized so that the total loss of the loss function is minimized. Repeat. This learns the parameters of a common feature space that is domain-invariant such that positive and negative sample distributions in the feature space of the source domain are translated into positive and negative sample distributions in the feature space of the target domain with high accuracy. Domain adapted.
Note that the module configuration of the learning model shown in FIG. 4 is an example, and the learning device 1 according to the present embodiment may use other feature extraction and domain adaptation methods.

<疑似サンプル生成処理の詳細処理手順>
図5は、本実施形態に係る学習装置1の疑似サンプル生成部13が実行する疑似サンプル生成処理の詳細処理手順の一例を示すフローチャートである。
なお、図5の各ステップは、学習装置1のHDD等の記憶装置に記憶されたプログラムをCPUが読み出し、実行することで実現される。また、図5に示すフローチャートの少なくとも一部をハードウエアにより実現してもよい。ハードウエアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA(Field Programmable Gate Array)上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウエアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
<Detailed processing procedure of pseudo sample generation processing>
FIG. 5 is a flowchart showing an example of a detailed processing procedure of the pseudo sample generation process executed by the pseudo sample generation unit 13 of the learning device 1 according to this embodiment.
Each step in FIG. 5 is implemented by the CPU reading and executing a program stored in a storage device such as an HDD of the learning device 1 . Also, at least part of the flowchart shown in FIG. 5 may be realized by hardware. When implemented by hardware, a dedicated circuit may be automatically generated on an FPGA (Field Programmable Gate Array) from a program for implementing each step by using a predetermined compiler, for example. Also, a Gate Array circuit may be formed in the same manner as the FPGA and implemented as hardware. Alternatively, it may be realized by an ASIC (Application Specific Integrated Circuit).

S51で、学習装置1の疑似サンプル生成部13は、サンプルをソースドメインおよびターゲットドメインのいずれかのドメインに分類するドメイン分類器を事前学習させる。ドメイン分類器は、ターゲットドメインに分類されるサンプルに対して、ソースドメインに分類されるサンプルより高い重みを付与するよう訓練される。
S51では、疑似サンプル生成部13はさらに、サンプルを正(positive)クラスおよび負(negative)クラスのいずれかのクラスに分類するクラス分類器を、事前学習させてよい。クラス分類器は、正クラスに分類されるサンプルに対して、負クラスに分類されるサンプルより高い重みを付与するよう訓練される。
In S51, the pseudo sample generator 13 of the learning device 1 pre-learns a domain classifier that classifies samples into either the source domain or the target domain. The domain classifier is trained to give higher weight to samples classified into the target domain than to samples classified into the source domain.
In S51, the pseudo sample generator 13 may further pre-learn a class classifier that classifies samples into either positive class or negative class. The classifier is trained to give higher weight to samples classified into the positive class than to samples classified into the negative class.

S52で、学習装置1の疑似サンプル生成部13は、特徴空間上のターゲットドメインの負クラスサンプルの分布から、ターゲットドメインの負クラスサンプルの信頼度を推定する。
具体的には、疑似サンプル生成部13は、特徴空間上のターゲットドメインの負クラスサンプルの分布の平均ベクタ(mean vector)および共分散行列(covariance matrix)を推定し、ターゲットドメインの負クラスサンプルの分布に対する負クラスサンプル確率値(probability value)を、ターゲットドメインの負クラスサンプルの信頼度(confidence score)として推定する。ここで、負クラスサンプルの分布は、ガウス(Gaussian)分布(正規分布)と見做すことができる。
In S52, the pseudo sample generator 13 of the learning device 1 estimates the reliability of the negative class samples of the target domain from the distribution of the negative class samples of the target domain on the feature space.
Specifically, the pseudo sample generation unit 13 estimates the mean vector and covariance matrix of the distribution of the negative class samples of the target domain on the feature space, and calculates the distribution of the negative class samples of the target domain. The negative class sample probability value for the distribution is estimated as the confidence score of the negative class sample for the target domain. Here, the distribution of negative class samples can be regarded as a Gaussian distribution (normal distribution).

S53で、学習装置1の疑似サンプル生成部13は、特徴空間上のターゲットドメインの領域に疑似正クラスサンプルを生成する。
S52で推定された、特徴空間上のターゲットドメインの負クラスサンプルの信頼度スコアが、p(D |x)であるとすると、特徴空間上のターゲットドメインの疑似正クラスサンプルの信頼度は、以下の式3として推定できる。
p(D |x)=1-p(D |x) (式3)
In S53, the pseudo-sample generation unit 13 of the learning device 1 generates pseudo-positive class samples in the region of the target domain on the feature space.
Assuming that the reliability score of the negative class sample of the target domain on the feature space estimated in S52 is p(D t |x + ), the reliability of the pseudo positive class sample of the target domain on the feature space is can be estimated as Equation 3 below.
p(D t + |x + )=1−p(D t |x + ) (equation 3)

具体的には、疑似サンプル生成部13は、ターゲットドメインの負クラスサンプルの信頼度の特徴空間上の勾配に基づいて、ターゲットドメインの負クラスサンプルの信頼度が低い領域周囲に均一にターゲットドメインの疑似正クラスサンプルを生成する。 Specifically, the pseudo sample generating unit 13 uniformly distributes the target domain around the region where the reliability of the negative class samples of the target domain is low, based on the gradient on the feature space of the reliability of the negative class samples of the target domain. Generate a pseudo-positive class sample.

疑似サンプル生成部13は、ソースドメインにおける正クラスサンプルおよび負クラスサンプルのクラス間距離の平均および標準偏差に基づき決定されるターゲットドメインの領域に、疑似正クラスサンプルを生成してよい。
すなわち、ソースドメインにおける正クラスサンプルおよび負クラスサンプルのクラス間距離は、ターゲットドメインにおける正クラスサンプルおよび負クラスサンプルのクラス間距離と等しいものと見做すことができる。このため、疑似サンプル生成部13は、ターゲットドメインの負クラスサンプルが分布する領域から上記クラス間距離の分だけ離隔した領域に、ターゲットドメインの疑似正クラスサンプルを生成してよい。
The pseudo-sample generator 13 may generate pseudo-positive class samples in regions of the target domain determined based on the mean and standard deviation of the inter-class distances of the positive class samples and the negative class samples in the source domain.
That is, the inter-class distance of positive class samples and negative class samples in the source domain can be considered equal to the inter-class distance of positive class samples and negative class samples in the target domain. Therefore, the pseudo sample generation unit 13 may generate the pseudo positive class samples of the target domain in a region separated by the interclass distance from the region where the negative class samples of the target domain are distributed.

疑似サンプル生成部13はまた、ソースドメインの正クラスサンプルの数と同数の疑似正クラスサンプルを、ターゲットドメインの領域に生成してよい(N =N )。ドメイン分類器(C_d)は、生成された疑似正クラスサンプルを、ターゲットドメインに分類する。 The pseudo sample generator 13 may also generate the same number of pseudo positive class samples in the region of the target domain as the number of positive class samples in the source domain (N t + =N s + ). A domain classifier (C_d) classifies the generated pseudo-positive class samples into the target domain.

S54で、学習装置1の疑似サンプル生成部13は、特徴空間上のソースドメインの正クラスサンプルの分布の平均ベクタおよび共分散行列を推定し、ソースドメインの正クラスサンプルの分布に対する正クラスサンプル確率値を、ソースドメインの正クラスサンプルの信頼度として推定する。ここで、正クラスサンプルの分布も、ガウス分布(正規分布)と見做すことができる。疑似サンプル生成部13は、S53と同様、ソースドメインの正クラスサンプルの信頼度の特徴空間上の勾配に基づいて、ソースドメインの正クラスサンプルの信頼度が低い領域周囲に均一にターゲットドメインの疑似正クラスサンプルを生成してよい。
クラス(コンテンツ)分類器(C_c)は、ソースドメインの正クラスサンプルの信頼度p(D |x)を用いて、疑似正クラスサンプルの信頼度を更新してよい。
In S54, the pseudo sample generation unit 13 of the learning device 1 estimates the mean vector and covariance matrix of the distribution of the positive class samples of the source domain on the feature space, and the positive class sample probability for the distribution of the positive class samples of the source domain. Estimate the value as the confidence of the positive class samples in the source domain. Here, the distribution of positive class samples can also be regarded as a Gaussian distribution (normal distribution). Similar to S53, the pseudo sample generation unit 13 uniformly generates pseudo samples of the target domain around the region where the reliability of the positive class samples of the source domain is low based on the gradient of the reliability of the positive class samples of the source domain on the feature space. A positive class sample may be generated.
The class (content) classifier (C_c) may use the confidence p(D s + |x + ) of the positive class samples of the source domain to update the confidence of the pseudo-positive class samples.

S55で、学習装置1の疑似サンプル生成部13は、S51で学習させたドメイン分類器およびクラス分類器を用いて、ターゲットドメインの負クラスサンプルの信頼度およびソースドメインの正クラスサンプルの信頼度を結合して、サンプルの重みを更新する。ターゲットドメインの負クラスサンプルの信頼度は、式3に示すように、ターゲットドメインの正クラスサンプルの信頼度に変換される。
ここで、正クラス(y=+1)に分類されたサンプルは、より高い重みを持つ。また、以下の式4に示すように、ソースドメインの正サンプルの分布(D )とターゲットドメインの正サンプルの分布(D )とが条件付き独立であるものと推定される。
p(D ,D |x)=p(D |x)p(D |x) (式4)
In S55, the pseudo sample generation unit 13 of the learning device 1 uses the domain classifier and class classifier trained in S51 to calculate the reliability of the negative class samples of the target domain and the reliability of the positive class samples of the source domain. Combine to update sample weights. The confidence of the negative class samples of the target domain is transformed into the confidence of the positive class samples of the target domain as shown in Equation 3.
Here, samples that fall into the positive class (y=+1) have a higher weight. It is also assumed that the distribution of positive samples in the source domain (D s + ) and the distribution of positive samples in the target domain (D t + ) are conditionally independent, as shown in Equation 4 below.
p(D s + , D t + |x + )=p(D s + |x + )p(D t + |x + ) (Formula 4)

S56で、学習装置1の疑似サンプル生成部13は、S55でより高い重みが付与されたサンプルのパラメータ分布を算出し、特徴空間上でターゲットドメインの疑似正クラスサンプルをリサンプリングする。
具体的には、疑似サンプル生成部13は、信頼度を重みとして、より高い信頼度を持つ疑似正クラスサンプルの領域におけるサンプル数を増大し(up-sample)、より低い信頼度を持つ疑似正クラスサンプルの領域におけるサンプル数を減少させる(down-sample)。
In S56, the pseudo sample generator 13 of the learning device 1 calculates the parameter distribution of the samples given higher weights in S55, and resamples the pseudo positive class samples of the target domain on the feature space.
Specifically, the pseudo-sample generation unit 13 uses the reliability as a weight to increase (up-sample) the number of samples in the area of pseudo-positive class samples with higher reliability, and pseudo-positive class samples with lower reliability. Down-sample the number of samples in the region of class samples.

S57で、学習装置1の疑似サンプル生成部13は、所定の収束条件に到達するまで、S51~S56までの処理を繰り返す。
収束条件としては、例えば、S54~S55の処理をバイパスしてソースドメインの正クラスサンプルの情報を用いない場合には、図5に示す処理を所定回数繰り返したことで収束と見做してよい。
あるいは、ソースドメインの正クラスサンプルの情報を用いる場合には、繰り返しの回数で収束条件を設定してもよいが、例えば、距離の閾値を設定し、ソースドメインの正クラスサンプルと負クラスサンプルの分布の間の距離と、ターゲットドメインの正クラスサンプルと負クラスサンプルの分布の間の距離とが所定の閾値内に収束したことを収束条件として設定してもよい。また、サンプルの分布の間の距離に替えて、サンプルの信頼度の間の距離を用いてもよい。ここで、距離としては、例えば、Jensen-Shannonダイバージェンスを用いることができる。
In S57, the pseudo sample generator 13 of the learning device 1 repeats the processes from S51 to S56 until a predetermined convergence condition is reached.
As a convergence condition, for example, when the processing of S54 to S55 is bypassed and the information of the positive class samples of the source domain is not used, the processing shown in FIG. .
Alternatively, when using the information of the positive class samples of the source domain, the convergence condition may be set by the number of iterations. A convergence condition may be set such that the distance between the distributions and the distance between the distributions of the positive class samples and the negative class samples of the target domain converge within a predetermined threshold. Also, instead of the distance between sample distributions, the distance between sample confidences may be used. Here, Jensen-Shannon divergence, for example, can be used as the distance.

図6は、特徴空間上で、ターゲットドメインおよびソースドメインのサンプルからターゲットドメインの疑似正クラスサンプルを生成する手順の一例を説明する模式図である。
図6(a)を参照して、特徴空間上、左側がソースドメインの領域、右側がターゲットドメインの領域を示す。垂直線61は、ドメイン分類器により画定される特徴空間上のソースドメインとターゲットドメインとの境界を示す。
ソースドメインの領域は、(-)で示される負クラスサンプルの分布と、負クラスサンプルの分布の上方に、(+)で示される正クラスサンプルの分布とを含む。一方、ターゲットドメインの領域は、(-)で示される負クラスサンプルの分布を含むが、正クラスサンプルの分布は出現していない。
FIG. 6 is a schematic diagram illustrating an example of a procedure for generating pseudo-positive class samples of the target domain from samples of the target domain and source domain on the feature space.
Referring to FIG. 6A, in the feature space, the left side shows the region of the source domain and the right side shows the region of the target domain. A vertical line 61 indicates the boundary between the source and target domains on the feature space defined by the domain classifier.
The region of the source domain contains the distribution of the negative class samples denoted by (-) and above the distribution of the negative class samples the distribution of the positive class samples denoted by (+). On the other hand, the region of the target domain contains the distribution of negative class samples indicated by (-), but the distribution of positive class samples does not appear.

図6(b)を参照して、学習装置1の疑似サンプル生成部13は、特徴空間上のターゲットドメインの領域に、疑似正クラスサンプルを生成する。境界61の右側のターゲットドメインの領域において、(-)で示される負クラスサンプルの分布は、ターゲットドメインの負クラスサンプルの信頼度が高い領域であることを示す。
疑似サンプル生成部13は、このターゲットドメインの(-)で示される負クラスサンプルの分布から離れるほど、ターゲットドメインの負クラスサンプルの信頼度が低い領域であり、したがって、ターゲットドメインの疑似正クラスサンプルの信頼度が高い領域であると判断し、ターゲットドメインの(-)で示される負クラスサンプルの分布の周囲に均一に疑似正クラスサンプルの領域63~67を複数生成する(図5のS53)。
Referring to FIG. 6(b), the pseudo-sample generator 13 of the learning device 1 generates pseudo-positive class samples in the region of the target domain on the feature space. In the region of the target domain on the right side of the boundary 61, the distribution of negative class samples indicated by (-) indicates that the confidence of the negative class samples of the target domain is high.
Pseudo-sample generator 13 generates pseudo-positive class samples of the target domain, since the further away from the distribution of the negative class samples indicated by (-) of the target domain, the lower the reliability of the negative class samples of the target domain is. is determined to be an area with high reliability, and a plurality of areas 63 to 67 of pseudo-positive class samples are uniformly generated around the distribution of negative class samples indicated by (-) of the target domain (S53 in FIG. 5). .

図6(c)を参照して、学習装置1の疑似サンプル生成部13は、特徴空間上のターゲットドメインの領域において、疑似正クラスサンプルをリサンプリングする。水平線62は、クラス分類器により画定される正クラスと負クラスとの境界を示す。 Referring to FIG. 6(c), the pseudo-sample generator 13 of the learning device 1 resamples pseudo-positive class samples in the region of the target domain on the feature space. A horizontal line 62 indicates the boundary between the positive and negative classes defined by the classifier.

疑似サンプル生成部13は、図6(b)でターゲットドメインに生成された複数の疑似正クラスサンプルの領域63~67のうち、ソースドメインの(+)で示される正クラスサンプルの分布に対して距離がより近い領域63を、疑似正クラスサンプルの信頼度が高い領域であると判断して、より高い重みを付与する。
一方、複数の疑似正クラスサンプルの領域63~67のうち、ソースドメインの(+)で示される正クラスサンプルの分布に対して距離がより遠い領域64~67は、疑似正クラスサンプルの信頼度が低い領域であると判断して、より低い重みを付与する。また、水平線62の下の疑似正クラスサンプルの領域65~67は、クラス分類器により負クラスの領域であると判断されるため、水平線62の上の疑似正クラスサンプルの領域よりさらに低い重みが付与されてもよく、疑似正クラスサンプルが削除されてもよい。
疑似サンプル生成部13は、最終的に、より高い信頼度が算出された疑似正クラスサンプルの領域63に疑似正クラスサンプルを生成すればよい。
The pseudo sample generating unit 13 generates the positive class sample distribution indicated by (+) in the source domain among the plurality of pseudo positive class sample regions 63 to 67 generated in the target domain in FIG. 6(b). Areas 63 with closer distances are determined to be areas with high confidence of pseudo-positive class samples and are given higher weights.
On the other hand, among the regions 63 to 67 of the plurality of pseudo positive class samples, the regions 64 to 67, which are farther from the distribution of the positive class samples indicated by (+) in the source domain, represent the reliability of the pseudo positive class samples. is considered to be a low region and is given a lower weight. Also, regions 65-67 of pseudo-positive class samples below horizontal line 62 are determined by the classifier to be regions of the negative class, and thus are given a lower weight than regions of pseudo-positive class samples above horizontal line 62. may be added, and the pseudo-positive class samples may be deleted.
The pseudo sample generator 13 may finally generate pseudo positive class samples in the region 63 of pseudo positive class samples for which higher reliability is calculated.

図7は、特徴空間上で、ターゲットドメインおよびソースドメインのサンプルからターゲットドメインの疑似正クラスサンプルを生成する手順の他の一例を説明する模式図である。
図7(a)を参照して、特徴空間上、左側がソースドメインの領域、右側がターゲットドメインの領域を示す。垂直線71は、ドメイン分類器により画定される特徴空間上のソースドメインとターゲットドメインとの境界を示す。
ソースドメインの領域は、(-)で示される負クラスサンプルの分布と、負クラスサンプルの分布の上方に、(+)で示される正クラスサンプルの分布とを含む。一方、ターゲットドメインの領域は、(-)で示される負クラスサンプルの分布を含むが、正クラスサンプルの分布は出現していない。ただし、図6(a)と異なり、ターゲットドメインの(-)で示される負クラスサンプルの分布は、境界71を隔てて、ソースドメインの(-)で示される負クラスサンプルの分布より(+)で示される正クラスサンプルの分布により隣接している。
FIG. 7 is a schematic diagram illustrating another example of the procedure for generating pseudo-positive class samples of the target domain from samples of the target domain and the source domain on the feature space.
Referring to FIG. 7A, in the feature space, the left side shows the region of the source domain and the right side shows the region of the target domain. A vertical line 71 indicates the boundary between the source and target domains on the feature space defined by the domain classifier.
The region of the source domain contains the distribution of the negative class samples denoted by (-) and above the distribution of the negative class samples the distribution of the positive class samples denoted by (+). On the other hand, the region of the target domain contains the distribution of negative class samples indicated by (-), but the distribution of positive class samples does not appear. However, unlike FIG. 6(a), the distribution of the negative class samples indicated by (-) in the target domain is (+) across the boundary 71 from the distribution of the negative class samples indicated by (-) in the source domain. are adjacent by the distribution of the positive class samples denoted by .

図7(b)を参照して、学習装置1の疑似サンプル生成部13は、特徴空間上のターゲットドメインの領域に、疑似正クラスサンプルを生成する。境界71の右側のターゲットドメインの領域において、(-)で示される負クラスサンプルの分布は、ターゲットドメインの負クラスサンプルの信頼度が高い領域であることを示す。
疑似サンプル生成部13は、このターゲットドメインの(-)で示される負クラスサンプルの分布から離れるほど、ターゲットドメインの負クラスサンプルの信頼度が低い領域であり、したがって、ターゲットドメインの疑似正クラスサンプルの信頼度が高い領域であると判断し、ターゲットドメインの(-)で示される負クラスサンプルの分布の周囲に均一に疑似正クラスサンプルの領域73~77を複数生成する(図5のS53)。
Referring to FIG. 7(b), the pseudo-sample generating unit 13 of the learning device 1 generates pseudo-positive class samples in the region of the target domain on the feature space. In the region of the target domain to the right of the boundary 71, the distribution of negative class samples indicated by (-) indicates that the confidence of the negative class samples of the target domain is high.
Pseudo-sample generator 13 generates pseudo-positive class samples of the target domain, since the further away from the distribution of the negative class samples indicated by (-) of the target domain, the lower the reliability of the negative class samples of the target domain is. is determined to be an area with high reliability, and a plurality of areas 73 to 77 of pseudo-positive class samples are uniformly generated around the distribution of the negative class samples indicated by (-) of the target domain (S53 in FIG. 5). .

図7(c)を参照して、学習装置1の疑似サンプル生成部13は、特徴空間上のターゲットドメインの領域において、疑似正クラスサンプルをリサンプリングする。斜線72は、クラス分類器により画定される正クラスと負クラスとの境界を示す。 Referring to FIG. 7(c), the pseudo-sample generator 13 of the learning device 1 resamples pseudo-positive class samples in the region of the target domain on the feature space. A diagonal line 72 indicates the boundary between the positive and negative classes defined by the classifier.

疑似サンプル生成部13は、図7(b)でターゲットドメインに生成された複数の疑似正クラスサンプルの領域73~77のうち、ソースドメインの(+)で示される正クラスサンプルの分布に対して距離がより近い領域73を、疑似正クラスサンプルの信頼度が高い領域であると判断して、より高い重みを付与する。
一方、複数の疑似正クラスサンプルの領域73~77のうち、ソースドメインの(+)で示される正クラスサンプルの分布に対して距離がより遠い領域74~77は、疑似正クラスサンプルの信頼度が低い領域であると判断して、より低い重みを付与する。また、斜線72の下の疑似正クラスサンプルの領域75~77は、クラス分類器により負クラスの領域であると判断されるため、斜線72の上の疑似正クラスサンプルの領域よりさらに低い重みが付与されてもよく、疑似正クラスサンプルが削除されてもよい。
疑似サンプル生成部13は、最終的に、より高い信頼度が算出された疑似正クラスサンプルの領域73に疑似正クラスサンプルを生成すればよい。
The pseudo sample generation unit 13 generates the positive class sample distribution indicated by (+) in the source domain among the plurality of pseudo positive class sample regions 73 to 77 generated in the target domain in FIG. 7(b). Regions 73 with closer distances are determined to be regions with high confidence of pseudo-positive class samples and are given higher weights.
On the other hand, among the regions 73 to 77 of the plurality of pseudo positive class samples, the regions 74 to 77 that are farther from the distribution of the positive class samples indicated by (+) in the source domain are the confidence of the pseudo positive class samples. is considered to be a low region and is given a lower weight. Also, since the regions 75-77 of pseudo-positive class samples below the diagonal line 72 are determined to be negative class regions by the classifier, they are given a lower weight than the region of pseudo-positive class samples above the diagonal line 72. may be added, and the pseudo-positive class samples may be deleted.
The pseudo sample generator 13 may finally generate pseudo positive class samples in the region 73 of pseudo positive class samples for which higher reliability is calculated.

<学習装置のハードウエア構成>
図8は、本実施形態に係る学習装置1のハードウエア構成の非限定的一例を示す図である。
本実施形態に係る学習装置1は、単一または複数の、あらゆるコンピュータ、モバイルデバイス、または他のいかなる処理プラットフォーム上にも実装することができる。
図8を参照して、学習装置1は、単一のコンピュータに実装される例が示されているが、本実施形態に係る学習装置1は、複数のコンピュータを含むコンピュータシステムに実装されてよい。複数のコンピュータは、有線または無線のネットワークにより相互通信可能に接続されてよい。
<Hardware configuration of learning device>
FIG. 8 is a diagram showing a non-limiting example of the hardware configuration of the learning device 1 according to this embodiment.
The learning device 1 according to this embodiment can be implemented on any computer, mobile device or any other processing platform, single or multiple.
With reference to FIG. 8, an example in which the learning device 1 is implemented in a single computer is shown, but the learning device 1 according to this embodiment may be implemented in a computer system including a plurality of computers. . A plurality of computers may be interconnectably connected by a wired or wireless network.

図8に示すように、学習装置1は、CPU81と、ROM82と、RAM83と、HDD84と、入力部85と、表示部86と、通信I/F87と、システムバス88とを備えてよい。学習装置1はまた、外部メモリを備えてよい。
CPU(Central Processing Unit)81は、学習装置1における動作を統括的に制御するものであり、データ伝送路であるシステムバス88を介して、各構成部(82~87)を制御する。
学習装置1はまた、GPU(Graphics Processing Unit)を備えてよい。GPUは、CPU81より高い計算機能を有し、複数または多数のGPUを並列して動作させることにより、特に、本実施形態のような機械学習を使用する画像処理等のアプリケーションに、より高い処理パフォーマンスを提供する。GPUは、通常、プロセッサと共有メモリを含む。それぞれのプロセッサが高速の共有メモリからデータを取得し、共通プログラムを実行することで、同種の計算処理を大量かつ高速に実行する。
As shown in FIG. 8 , the learning device 1 may include a CPU 81 , a ROM 82 , a RAM 83 , an HDD 84 , an input section 85 , a display section 86 , a communication I/F 87 and a system bus 88 . The learning device 1 may also comprise an external memory.
A CPU (Central Processing Unit) 81 comprehensively controls the operation of the learning device 1, and controls each component (82 to 87) via a system bus 88, which is a data transmission line.
The learning device 1 may also include a GPU (Graphics Processing Unit). The GPU has a higher computational capability than the CPU 81, and by operating a plurality of or a large number of GPUs in parallel, particularly for applications such as image processing using machine learning as in the present embodiment, higher processing performance I will provide a. A GPU typically includes a processor and shared memory. Each processor obtains data from a high-speed shared memory and executes a common program to perform a large amount of the same kind of computation at high speed.

ROM(Read Only Memory)82は、CPU81が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、HDD(Hard Disk Drive)84、SSD(Solid State Drive)等の不揮発性メモリや着脱可能な記憶媒体(不図示)等の外部メモリに記憶されていてもよい。
RAM(Random Access Memory)83は、揮発性メモリであり、CPU81の主メモリ、ワークエリア等として機能する。すなわち、CPU81は、処理の実行に際してROM82から必要なプログラム等をRAM83にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
A ROM (Read Only Memory) 82 is a non-volatile memory that stores control programs and the like necessary for the CPU 81 to execute processing. The program may be stored in a non-volatile memory such as a HDD (Hard Disk Drive) 84 or an SSD (Solid State Drive) or an external memory such as a removable storage medium (not shown).
A RAM (Random Access Memory) 83 is a volatile memory and functions as a main memory, a work area, and the like for the CPU 81 . That is, the CPU 81 loads necessary programs and the like from the ROM 82 to the RAM 83 when executing processing, and executes the programs and the like to realize various functional operations.

HDD84は、例えば、CPU81がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、HDD84には、例えば、CPU81がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。
入力部85は、キーボードやマウス等のポインティングデバイスにより構成される。
表示部86は、液晶ディスプレイ(LCD)等のモニターにより構成される。表示部86は、異常シーン検出処理で使用される各種パラメータや、他の装置との通信で使用される通信パラメータ等をパラメータ調整装置1へ指示入力するためのユーザインタフェースであるGUI(Graphical User Interface)を提供してよい。
The HDD 84 stores, for example, various data and information necessary for the CPU 81 to perform processing using programs. The HDD 84 also stores various data, information, and the like obtained by the CPU 81 performing processing using programs and the like, for example.
The input unit 85 is composed of a pointing device such as a keyboard and a mouse.
The display unit 86 is configured by a monitor such as a liquid crystal display (LCD). The display unit 86 is a GUI (Graphical User Interface), which is a user interface for inputting instructions to the parameter adjustment device 1 regarding various parameters used in the abnormal scene detection process, communication parameters used in communication with other devices, and the like. ) may be provided.

通信I/F87は、学習装置1と外部装置との通信を制御するインタフェースである。
通信I/F87は、ネットワークとのインタフェースを提供し、ネットワークを介して、外部装置との通信を実行する。通信I/F87を介して、外部装置との間で各種データや各種パラメータ等が送受信される。本実施形態では、通信I/F87は、イーサネット(登録商標)等の通信規格に準拠する有線LAN(Local Area Network)や専用線を介した通信を実行してよい。ただし、本実施形態で利用可能なネットワークはこれに限定されず、無線ネットワークで構成されてもよい。この無線ネットワークは、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide Band)等の無線PAN(Personal Area Network)を含む。また、Wi-Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。さらに、LTE/3G、4G、5G等の無線WAN(Wide Area Network)を含む。なお、ネットワークは、各機器を相互に通信可能に接続し、通信が可能であればよく、通信の規格、規模、構成は上記に限定されない。
Communication I/F 87 is an interface that controls communication between study device 1 and an external device.
A communication I/F 87 provides an interface with a network and performs communication with an external device via the network. Various data, various parameters, etc. are transmitted/received to/from an external device via the communication I/F 87 . In this embodiment, the communication I/F 87 may perform communication via a wired LAN (Local Area Network) conforming to a communication standard such as Ethernet (registered trademark) or a dedicated line. However, the network that can be used in this embodiment is not limited to this, and may be configured as a wireless network. This wireless network includes a wireless PAN (Personal Area Network) such as Bluetooth (registered trademark), ZigBee (registered trademark), and UWB (Ultra Wide Band). It also includes a wireless LAN (Local Area Network) such as Wi-Fi (Wireless Fidelity) (registered trademark) and a wireless MAN (Metropolitan Area Network) such as WiMAX (registered trademark). Furthermore, wireless WANs (Wide Area Networks) such as LTE/3G, 4G, and 5G are included. It should be noted that the network connects each device so as to be able to communicate with each other, and the communication standard, scale, and configuration are not limited to those described above.

図1に示す学習装置1の各要素のうち少なくとも一部の機能は、CPU81がプログラムを実行することで実現することができる。ただし、図1に示す学習装置1の各要素のうち少なくとも一部の機能が専用のハードウエアとして動作するようにしてもよい。この場合、専用のハードウエアは、CPU81の制御に基づいて動作する。 At least some of the functions of the elements of the learning device 1 shown in FIG. 1 can be realized by the CPU 81 executing a program. However, at least part of the functions of the elements of the learning device 1 shown in FIG. 1 may operate as dedicated hardware. In this case, the dedicated hardware operates under the control of the CPU 81 .

以上説明したように、本実施形態によれば、学習装置は、ソースドメインのサンプルおよびターゲットドメインのサンプルの特徴をそれぞれ抽出し、ソースドメインのサンプルにラベル付けされた複数のクラスのうちターゲットドメインに十分に含まれていないクラスのサンプルを、疑似サンプルとして、特徴空間におけるターゲットドメインの領域に生成し、生成された疑似サンプルでターゲットドメインのサンプルを補完する。
本実施形態に係る学習装置はまた、疑似サンプルが補完されたターゲットドメインに、ソースドメインがドメイン適応するよう機械学習する。
As described above, according to the present embodiment, the learning device extracts the features of the samples of the source domain and the samples of the target domain, respectively, and classifies the classes in the target domain among the plurality of classes labeled with the samples of the source domain. Samples of the under-represented classes are generated as quasi-samples in regions of the target domain in the feature space, and the generated quasi-samples are complemented to the samples of the target domain.
The learning device according to the present embodiment also performs machine learning so that the source domain is domain-adapted to the target domain complemented with the pseudo samples.

したがって、ソースドメインのサンプルがターゲットドメインのサンプルと十分に対応しない場合であっても、高精度な処理結果を得ることができる。
例えば、映像中にごく僅かな頻度でしか出現しない異常シーン(anomaly scene)を検出するタスクにおいても、ターゲットドメインに、フィルタリングすべき異常シーンの疑似サンプルを生成し、生成された疑似サンプルでターゲットドメインを補完することで、ソースドメインおよびターゲットドメインのクラス間の非対称性が解消される。
これにより、ドメイン適応が高精度に実現され、機械学習モデルの可用性向上に資する。
Therefore, highly accurate processing results can be obtained even if the samples of the source domain do not sufficiently correspond to the samples of the target domain.
For example, in the task of detecting an anomalous scene that appears only very infrequently in a video, pseudo samples of the anomalous scene to be filtered are generated in the target domain, and the generated pseudo samples are used to detect the target domain. , the asymmetry between the classes of the source and target domains is resolved.
As a result, domain adaptation can be achieved with high accuracy, contributing to improved availability of machine learning models.

なお、上記において特定の実施形態が説明されているが、当該実施形態は単なる例示であり、本発明の範囲を限定する意図はない。本明細書に記載された装置及び方法は上記した以外の形態において具現化することができる。また、本発明の範囲から離れることなく、上記した実施形態に対して適宜、省略、置換及び変更をなすこともできる。かかる省略、置換及び変更をなした形態は、請求の範囲に記載されたもの及びこれらの均等物の範疇に含まれ、本発明の技術的範囲に属する。 It should be noted that although specific embodiments are described above, the embodiments are merely examples and are not intended to limit the scope of the invention. The apparatus and methods described herein may be embodied in forms other than those described above. Also, appropriate omissions, substitutions, and modifications may be made to the above-described embodiments without departing from the scope of the invention. Forms with such omissions, substitutions and modifications are included in the scope of what is described in the claims and their equivalents, and belong to the technical scope of the present invention.

1…学習装置、2…ソースデータセット、3…ターゲットデータセット、11…データ取得部、12…特徴抽出部、13…疑似サンプル生成部、14…データ変換部、15…推論部、81…CPU、82…ROM、83…RAM、84…HDD、85…入力部、86…表示部、87…通信I/F、88…バス、121…ソース特徴抽出モジュール、122…ターゲット特徴抽出モジュール、141…エンコーダ(符号化モジュール)、142…分類器、143…データ変換モジュール REFERENCE SIGNS LIST 1 learning device 2 source data set 3 target data set 11 data acquisition unit 12 feature extraction unit 13 pseudo sample generation unit 14 data conversion unit 15 inference unit 81 CPU , 82... ROM, 83... RAM, 84... HDD, 85... Input unit, 86... Display unit, 87... Communication I/F, 88... Bus, 121... Source feature extraction module, 122... Target feature extraction module, 141... Encoder (Encoding Module) 142 Classifier 143 Data Conversion Module

Claims (14)

ソースドメインに含まれる第1のクラスのサンプルおよび第2のクラスのサンプルと、ターゲットドメインに含まれる前記第1のクラスのサンプルとから、それぞれ抽出された特徴に基づいて、前記ターゲットドメインの前記第2のクラスの疑似サンプルであって、前記ソースドメインから前記ターゲットドメインへのドメイン適応に用いられる疑似サンプルを生成し、生成された前記疑似サンプルで前記ターゲットドメインを補完する疑似サンプル生成部
を備えることを特徴とする情報処理装置。
the first class of samples of the target domain based on the features extracted from the first class of samples and the second class of samples of the source domain, and the first class of samples of the target domain; a pseudo-sample generator of class 2, which generates pseudo-samples used for domain adaptation from the source domain to the target domain and complements the target domain with the generated pseudo-samples. An information processing device characterized by:
前記疑似サンプル生成部は、抽出された前記特徴の特徴空間におけるサンプルの分布に基づいて、前記疑似サンプルを生成する
ことを特徴とする請求項1に記載の情報処理装置。
2. The information processing apparatus according to claim 1, wherein the pseudo sample generation unit generates the pseudo samples based on distribution of samples in the feature space of the extracted features.
前記疑似サンプル生成部は、前記特徴空間における前記ターゲットドメインに含まれる前記第1のクラスのサンプルの分布に基づいて、前記疑似サンプルを生成する
ことを特徴とする請求項2に記載の情報処理装置。
3. The information processing apparatus according to claim 2, wherein the pseudo sample generator generates the pseudo samples based on a distribution of samples of the first class included in the target domain in the feature space. .
前記疑似サンプル生成部は、前記特徴空間における前記ターゲットドメインに含まれる前記第1のクラスのサンプルの分布の第1の信頼度を推定し、推定された前記第1の信頼度の勾配に基づいて、前記疑似サンプルを生成する
ことを特徴とする請求項2または3に記載の情報処理装置。
The pseudo sample generator estimates a first reliability of a distribution of samples of the first class included in the target domain in the feature space, and based on the estimated gradient of the first reliability , to generate the pseudo samples.
前記疑似サンプル生成部は、推定された前記第1の信頼度が低い前記特徴空間の領域に、前記疑似サンプルを生成する
ことを特徴とする請求項4に記載の情報処理装置。
The information processing apparatus according to claim 4, wherein the pseudo sample generation unit generates the pseudo samples in a region of the feature space where the estimated first reliability is low.
前記疑似サンプル生成部は、前記特徴空間における前記ソースドメインに含まれる前記第2のクラスのサンプルの分布の第2の信頼度を推定し、推定された前記第2の信頼度の勾配に基づいて、前記疑似サンプルを生成する
ことを特徴とする請求項4または5に記載の情報処理装置。
The pseudo sample generator estimates a second confidence of a distribution of samples of the second class included in the source domain in the feature space, and based on the estimated second confidence gradient , to generate the pseudo samples.
前記疑似サンプル生成部は、前記第1の信頼度と前記第2の信頼度とを結合し、結合された信頼度に基づいて、生成された前記疑似サンプルを、前記特徴空間において前記結合された信頼度がより高い領域に分布させるようリサンプリングする
ことを特徴とする請求項6に記載の情報処理装置。
The pseudo-sample generation unit combines the first reliability and the second reliability, and generates the generated pseudo-sample based on the combined reliability in the feature space. 7. The information processing apparatus according to claim 6, wherein resampling is performed so as to distribute in an area with higher reliability.
前記疑似サンプル生成部は、前記特徴空間における前記ソースドメインに含まれる前記第1のクラスのサンプルの分布と前記第2のクラスのサンプルの分布との間の距離に基づいて、前記疑似サンプルを生成する
ことを特徴とする請求項2から7のいずれか1項に記載の情報処理装置。
The pseudo sample generator generates the pseudo samples based on a distance between a distribution of the first class samples and a distribution of the second class samples included in the source domain in the feature space. The information processing apparatus according to any one of claims 2 to 7, characterized by:
サンプルを前記ソースドメインおよび前記ターゲットドメインのいずれかに分類するドメイン分類器をさらに備え、
前記疑似サンプル生成部は、前記ドメイン分類器が前記ターゲットドメインに分類されたサンプルに対して、前記ソースドメインに分類されたサンプルより高い重みを付与するよう、前記ドメイン分類器を学習させる
ことを特徴とする請求項2から8のいずれか1項に記載の情報処理装置。
further comprising a domain classifier that classifies samples into one of the source domain and the target domain;
The pseudo sample generator trains the domain classifier so that the domain classifier gives higher weight to samples classified into the target domain than samples classified into the source domain. The information processing apparatus according to any one of claims 2 to 8.
サンプルを前記第1のクラスおよび前記第2のクラスのいずれかに分類するクラス分類器をさらに備え、
前記疑似サンプル生成部は、前記クラス分類器が前記第2のクラスに分類されたサンプルに対して、前記第1のクラスに分類されたサンプルより高い重みを付与するよう、前記クラス分類器を学習させる
ことを特徴とする請求項9に記載の情報処理装置。
further comprising a classifier that classifies samples into one of the first class and the second class;
The pseudo sample generation unit learns the class classifier so that the class classifier gives higher weight to samples classified into the second class than samples classified into the first class. The information processing apparatus according to claim 9, characterized by:
前記疑似サンプル生成部により生成された前記第2のクラスの前記疑似サンプルが補完された前記ターゲットドメインに、前記ソースドメインがドメイン適応するよう機械学習する機械学習部をさらに備え、
前記機械学習部は、前記ドメイン分類器および前記クラス分類器の少なくとも1つを、第1の損失関数を用いて算出される、前記特徴空間におけるクロスエントロピー損失がより小さくなるよう機械学習する
ことを特徴とする請求項10に記載の情報処理装置。
further comprising a machine learning unit that performs machine learning so that the source domain is domain-adapted to the target domain complemented with the pseudo samples of the second class generated by the pseudo sample generation unit;
The machine learning unit performs machine learning so that at least one of the domain classifier and the class classifier has a smaller cross-entropy loss in the feature space, which is calculated using a first loss function. 11. The information processing apparatus according to claim 10.
前記機械学習部は、第2の損失関数を用いて算出される、前記特徴空間における前記ソースドメインと前記ターゲットドメインとの間のWasserstein距離がより小さくなるよう機械学習する
ことを特徴とする請求項11に記載の情報処理装置。
3. The machine learning unit performs machine learning so that a Wasserstein distance between the source domain and the target domain in the feature space calculated using a second loss function becomes smaller. 12. The information processing device according to 11.
情報処理装置が実行する情報処理方法であって、
ソースドメインに含まれる第1のクラスのサンプルおよび第2のクラスのサンプルと、ターゲットドメインに含まれる前記第1のクラスのサンプルとから、それぞれ抽出された特徴に基づいて、前記ターゲットドメインの前記第2のクラスの疑似サンプルであって、前記ソースドメインから前記ターゲットドメインへのドメイン適応に用いられる疑似サンプルを生成するステップと、
生成された前記疑似サンプルで前記ターゲットドメインを補完するステップと
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing device,
the first class of samples of the target domain based on the features extracted from the first class of samples and the second class of samples of the source domain, and the first class of samples of the target domain; generating pseudo-samples of class 2, which pseudo-samples are used for domain adaptation from said source domain to said target domain;
and complementing the target domain with the generated pseudo-samples.
情報処理をコンピュータに実行させるための情報処理プログラムであって、該プログラムは、前記コンピュータに、
ソースドメインに含まれる第1のクラスのサンプルおよび第2のクラスのサンプルと、ターゲットドメインに含まれる前記第1のクラスのサンプルとから、それぞれ抽出された特徴に基づいて、前記ターゲットドメインの前記第2のクラスの疑似サンプルであって、前記ソースドメインから前記ターゲットドメインへのドメイン適応に用いられる疑似サンプルを生成し、生成された前記疑似サンプルで前記ターゲットドメインを補完する疑似サンプル生成処理
を含む処理を実行させるためのものであることを特徴とする情報処理プログラム。
An information processing program for causing a computer to execute information processing, the program causing the computer to:
the first class of samples of the target domain based on the features extracted from the first class of samples and the second class of samples of the source domain, and the first class of samples of the target domain; pseudo-samples of class 2, said pseudo-sample generating process for generating pseudo-samples used for domain adaptation from said source domain to said target domain, and complementing said target domain with said generated pseudo-samples. An information processing program characterized in that it is for executing
JP2022069215A 2020-12-25 2022-04-20 Information processing device, information processing method and program Active JP7277645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022069215A JP7277645B2 (en) 2020-12-25 2022-04-20 Information processing device, information processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020216626A JP7062747B1 (en) 2020-12-25 2020-12-25 Information processing equipment, information processing methods and programs
JP2022069215A JP7277645B2 (en) 2020-12-25 2022-04-20 Information processing device, information processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020216626A Division JP7062747B1 (en) 2020-12-25 2020-12-25 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2022103190A JP2022103190A (en) 2022-07-07
JP7277645B2 true JP7277645B2 (en) 2023-05-19

Family

ID=87884704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022069215A Active JP7277645B2 (en) 2020-12-25 2022-04-20 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7277645B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224156A (en) 2016-06-15 2017-12-21 キヤノン株式会社 Information processing device, information processing method and program
JP2019074945A (en) 2017-10-17 2019-05-16 株式会社日立製作所 Apparatus and method for online recognition and setting screen used therefor
JP2020071694A (en) 2018-10-31 2020-05-07 株式会社日立製作所 Computer system
JP2020198041A (en) 2019-06-05 2020-12-10 株式会社Preferred Networks Training device, training method, estimation device, and program
WO2022009254A1 (en) 2020-07-06 2022-01-13 日本電気株式会社 Data extension device, learning device, data extension method, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224156A (en) 2016-06-15 2017-12-21 キヤノン株式会社 Information processing device, information processing method and program
JP2019074945A (en) 2017-10-17 2019-05-16 株式会社日立製作所 Apparatus and method for online recognition and setting screen used therefor
JP2020071694A (en) 2018-10-31 2020-05-07 株式会社日立製作所 Computer system
JP2020198041A (en) 2019-06-05 2020-12-10 株式会社Preferred Networks Training device, training method, estimation device, and program
WO2022009254A1 (en) 2020-07-06 2022-01-13 日本電気株式会社 Data extension device, learning device, data extension method, and recording medium

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jeonghyun Hwang et al.,"An Efficient Domain-Adaptation Method using GAN for Fraud Detection",International Journal of Advanced Computer Science and Applications (IJACSA) [online],The Science and Information (SAI) Organization,2020年11月,Vol.11, No.11,pp.94-103,[検索日 2023.04.10], インターネット:<URL: https://thesai.org/Publications/ViewIssue?volume=11&issue=11&code=IJACSA>,ISSN 2156-5570
Minghao Xu et al.,"Adversarial Domain Adaptation with Domain Mixup",Proceedings of the AAAI Conference on Artificial Intelligence [online],Association for the Advancement of Artificial Intelligence,2020年04月03日,Vol. 34, No. 4,pp. 6502-6509,[検索日 2023.04.10], インターネット:<URL: https://ojs.aaai.org/index.php/AAAI/article/view/6123>,DOI:10.1609/aaai.v34i04.6123
紺野 友彦 ほか,「深層学習抽出特徴量から生成した擬似特徴量を用いた不均衡データ多クラス画像分類」,一般社団法人 人工知能学会 第32回全国大会論文集DVD [DVD-ROM] 2018年度 人工知能学会全国大会(第32回),一般社団法人 人工知能学会,2018年06月,セッション識別番号 2A1-04,pp.1-4

Also Published As

Publication number Publication date
JP2022103190A (en) 2022-07-07

Similar Documents

Publication Publication Date Title
Li et al. Enhanced transport distance for unsupervised domain adaptation
JP7062747B1 (en) Information processing equipment, information processing methods and programs
JP7470476B2 (en) Integration of models with different target classes using distillation
Behrmann et al. Unified fully and timestamp supervised temporal action segmentation via sequence to sequence translation
EP3767536A1 (en) Latent code for unsupervised domain adaptation
Zhang et al. Cross-scene joint classification of multisource data with multilevel domain adaption network
US20210034968A1 (en) Neural network learning apparatus for deep learning and method thereof
US11288567B2 (en) Method for training deep neural network (DNN) using auxiliary regression targets
Deng et al. High-performance visual tracking with extreme learning machine framework
US20210326706A1 (en) Generating metadata for trained model
JP2011138484A (en) Method and system for constructing multi-level classification model
Gabourie et al. Learning a domain-invariant embedding for unsupervised domain adaptation using class-conditioned distribution alignment
Qin et al. Multi-instance attention network for few-shot learning
Li et al. Transductive distribution calibration for few-shot learning
Oza et al. Utilizing patch-level category activation patterns for multiple class novelty detection
Duman et al. Distance estimation from a monocular camera using face and body features
Devi et al. A review of image classification and object detection on machine learning and deep learning techniques
Behnaz et al. DEEPPBM: Deep probabilistic background model estimation from video sequences
JP7277645B2 (en) Information processing device, information processing method and program
Tao et al. An efficient and robust cloud-based deep learning with knowledge distillation
Boursinos et al. Improving prediction confidence in learning-enabled autonomous systems
Balasubramaniam et al. Active learning-based optimized training library generation for object-oriented image classification
De Bortoli et al. A fast face recognition CNN obtained by distillation
Wei et al. Task-oriented contrastive learning for unsupervised domain adaptation
JP2022025392A (en) Machine learning device and method for mechanical learning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7277645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150