WO2021059375A1 - 学習装置、学習方法、及び、記録媒体 - Google Patents

学習装置、学習方法、及び、記録媒体 Download PDF

Info

Publication number
WO2021059375A1
WO2021059375A1 PCT/JP2019/037461 JP2019037461W WO2021059375A1 WO 2021059375 A1 WO2021059375 A1 WO 2021059375A1 JP 2019037461 W JP2019037461 W JP 2019037461W WO 2021059375 A1 WO2021059375 A1 WO 2021059375A1
Authority
WO
WIPO (PCT)
Prior art keywords
target domain
common
classification result
extraction unit
feature extraction
Prior art date
Application number
PCT/JP2019/037461
Other languages
English (en)
French (fr)
Inventor
重哲 並木
尚司 谷内田
剛志 柴田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/037461 priority Critical patent/WO2021059375A1/ja
Priority to JP2021548025A priority patent/JP7310904B2/ja
Priority to US17/760,826 priority patent/US20220343631A1/en
Publication of WO2021059375A1 publication Critical patent/WO2021059375A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7796Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

学習装置は、ターゲットドメインデータの固有特徴に基づいてターゲットドメインデータを(N-c)クラスに分類し、ソースドメインデータの固有特徴に基づいてソースドメインデータをNクラスに分類し、ターゲットドメインデータの共通特徴及びソースドメインデータの共通特徴に基づいてターゲットドメインデータ及びソースドメインデータをNクラスに分類する。また、学習装置は、ターゲットドメインデータの共通特徴と、ソースドメインデータの共通特徴との第1の距離を計算し、ターゲットドメインデータの固有特徴と、ソースドメインデータの固有特徴との第2の距離を計算する。そして、学習装置は、第1の距離に基づいて共通特徴抽出部のパラメータを更新し、第2の距離に基づいてターゲットドメイン特徴抽出部及びソースドメイン特徴抽出部のパラメータを更新する。

Description

学習装置、学習方法、及び、記録媒体
 本発明は、画像に含まれる物体を認識する技術に関する。
 ニューラルネットワークを用いて画像に含まれる物体を認識することが行われている。この際、学習用データの不足を補ったり、異なる環境で得られる画像データからの認識精度を向上させたりするための手法として、ドメイン適応と呼ばれる手法が知られている。この手法では、ある環境(ソースドメイン)において得られた学習用データに加えて、別の環境(ターゲットドメイン)において得られた学習用データを用いて物体認識モデルを学習する際、2つのドメインの違いを吸収するような特徴抽出を行うように物体認識モデルを学習する。これにより、異なる環境で得られた画像に対しても認識精度を確保することが可能となる。ドメイン適応の手法を適用した学習方法の例が特許文献1に記載されている。
特開2016-191966号公報
 しかし、新たに認識対象とするクラスの学習用画像データが、特定のドメインにおいてのみ不足するような場合には、そのクラスについてのみ認識精度が低下してしまうという問題が生じる。
 本発明の1つの目的は、認識対象の新たなクラスが出現した場合に、そのクラスについて学習用データの不足を補い、認識精度の低下を防止することにある。
 上記の課題を解決するため、本発明の一つの観点では、学習装置は、
 ターゲットドメインデータの固有特徴を抽出するターゲットドメイン特徴抽出部と、
 前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類するターゲットドメイン特徴識別部と、
 ソースドメインデータの固有特徴を抽出するソースドメイン特徴抽出部と、
 前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類するソースドメイン特徴識別部と、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出する共通特徴抽出部と、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類する共通特徴識別部と、
 前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算する第1の距離計算部と、
 前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算する第2の距離計算部と、
 前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する最適化部と、を備える。
 本発明の他の観点では、学習方法は、
 ターゲットドメイン特徴抽出部により、ターゲットドメインデータの固有特徴を抽出し、
 前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類し、
 ソースドメイン特徴抽出部により、ソースドメインデータの固有特徴を抽出し、
 前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類し、
 共通特徴抽出部により、前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出し、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類し、
 前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算し、
 前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算し、
 前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する。
 本発明のさらに他の観点では、記録媒体は、
 ターゲットドメイン特徴抽出部により、ターゲットドメインデータの固有特徴を抽出し、
 前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類し、
 ソースドメイン特徴抽出部により、ソースドメインデータの固有特徴を抽出し、
 前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類し、
 共通特徴抽出部により、前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出し、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類し、
 前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算し、
 前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算し、
 前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する処理をコンピュータに実行させるプログラムを記録する。
 本発明によれば、認識対象の新たなクラスが出現した場合に、そのクラスについて学習用データの不足を補い、認識精度の低下を防止することが可能となる。
物体認識装置のハードウェア構成を示すブロック図である。 第1実施形態による学習時の基本アルゴリズムを模式的に示す。 第1実施形態による推論時の基本アルゴリズムを模式的に示す。 第1実施形態の実施例による学習時の物体認識装置の機能構成を示す。 第1実施形態による学習処理のフローチャートである。 第1実施形態の実施例による推論時の物体認識装置の機能構成を示す 第1実施形態による推論処理のフローチャートである。 第2実施形態による学習時の基本アルゴリズムを模式的に示す。 第2実施形態による推論時の基本アルゴリズムを模式的に示す。 第2実施形態の実施例による推論時の物体認識装置の機能構成を示す。 第2実施形態による推論処理のフローチャートである。 第3実施形態による推論時の基本アルゴリズムを模式的に示す。 第3実施形態の実施例による推論時の物体認識装置の機能構成を示す。 第3実施形態による推論処理のフローチャートである。 第4実施形態による学習装置の機能構成を示す。
 [前提となる環境]
 以下の実施形態では、ソースドメインでは認識対象とするNクラスの全てについて画像データが用意されているが、ターゲットドメインではNクラスのうちの一部のクラス(c個のクラスとする。)については画像データが用意できていないという環境を想定する。例えば、自動車の車種を認識する車種認識システムでは、ソースドメインとして自動車のCG画像データを使用し、ターゲットドメインとして自動車の実写画像データを使用する。ここで、新たに販売されたc種類の新車の認識を行いたい場合、そのCG画像データはある程度用意することができるが、当初から十分な量の実写画像データを用意することは難しい。このため、ソースドメインでは認識対象とするNクラスの全てについてCG画像データが用意されているが、ターゲットドメインではその新車に相当するcクラスの実写画像データが不足しており、その新車のクラスを除いた(N-c)クラスの実写画像データが用意されている。以下の実施形態は、このような環境において、ターゲットドメインの実写画像データから、c種類の新車を含む車種の認識を行うケースを想定する。
 [第1実施形態]
 次に、本発明の第1実施形態について説明する。
 (ハードウェア構成)
 図1は、物体認識装置のハードウェア構成を示すブロック図である。図示のように、物体認識装置10は、インタフェース(IF)2と、プロセッサ3と、メモリ4と、記録媒体5と、データベース(DB)6と、を備える。
 インタフェース2は、外部装置との通信を行う。具体的に、インタフェース2は、物体認識装置10の学習に用いられる学習用データや、実際の認識対象の画像データを外部から入力したり、認識結果を外部装置へ出力する際に使用される。
 プロセッサ3は、CPU(Central Processing Unit)、又はCPUとGPU(Graphics Processing Uit)などのコンピュータであり、予め用意されたプログラムを実行することにより、物体認識装置10の全体を制御する。メモリ4は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ4は、プロセッサ3により実行される各種のプログラムを記憶する。また、メモリ4は、プロセッサ3による各種の処理の実行中に作業メモリとしても使用される。
 記録媒体5は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、物体認識装置10に対して着脱可能に構成される。記録媒体5は、プロセッサ3が実行する各種のプログラムを記録している。物体認識装置10が学習処理や推論処理(即ち、物体認識処理)を実行する際には、記録媒体5に記録されているプログラムがメモリ4にロードされ、プロセッサ3により実行される。
 データベース6は、物体認識装置10の学習処理において使用される学習用画像データを記憶する。学習用画像データは、正解ラベルを含む。なお、上記に加えて、物体認識装置10は、キーボード、マウスなどの入力機器や、表示装置などを備えていても良い。
 (基本アルゴリズム)
 まず、学習時の基本アルゴリズムについて説明する。図2は、第1実施形態による学習時の基本アルゴリズムを模式的に示す図である。学習時の物体認識装置100aは、物体認識のためのニューラルネットワークにより構成される。学習時の物体認識装置100aには、前述のように(N-c)クラスのターゲットドメイン学習用データXtと、Nクラスのソースドメイン学習用データXsとが入力される。これらの学習用データには、予め正解ラベルが用意されている。
 物体認識装置100aは、大別して、ターゲットドメインネットワーク、共通ネットワーク、及び、ソースドメインネットワークの3つのネットワークを含む。以下、ターゲットドメインネットワークに関連する要素には添え字「t」を用い、共通ネットワークに関連する要素には添え字「c」を用い、ソースドメインネットワークに関連する要素には添え字「s」を用いる。
 物体認識装置100aは、画像データから特徴を抽出する特徴抽出器12t、12c、12sと、クラス分類器14t、14c、14sと、ドメイン識別器16a、16bと、を備える。ターゲットドメイン学習用データXtは特徴抽出器12t、12cに入力され、ソースドメイン学習用データXsは特徴抽出器12c、12sに入力される。特徴抽出器12t、12c、12sは、例えばRes-Netなど、畳み込みにより画像の特徴を抽出するネットワークにより構成される。また、クラス分類器14t、14c、14sは、特徴抽出器12t、12c、12sにより抽出された特徴が入力される全結合層を含む。特徴抽出器12t及びクラス分類器14tはターゲットドメインネットワークを構成し、特徴抽出器12c及びクラス分類器14cは共通ネットワークを構成し、特徴抽出器12s及びクラス分類器14sはソースドメインネットワークを構成する。
 特徴抽出器12tは、ターゲットドメイン学習用データXtからターゲットドメインに固有の特徴(以下、「ターゲットドメイン固有特徴」と呼ぶ。)13tを抽出する。特徴抽出器12cは、ターゲットドメイン学習用データXtとソースドメイン学習用データXsから、ターゲットドメインとソースドメインに共通する特徴(以下、「共通特徴」と呼ぶ。)13cを抽出する。なお、共通特徴13tは、ターゲットドメイン学習用データXtから抽出された共通特徴と、ソースドメイン学習用データXsから抽出された共通特徴を含む。特徴抽出器12sは、ソースドメイン学習用データXsからソースドメインに固有の特徴(以下、「ソースドメイン固有特徴」と呼ぶ。)13sを抽出する。
 クラス分類器14tは、ターゲットドメイン固有特徴13tに基づいて(N-c)クラスの識別結果15tを出力する。出力された(N-c)クラスの識別結果15tと、予め用意された正解ラベルとから損失(Loss)Ltが算出され、これが逆伝搬されてクラス分類器14t及び特徴抽出器12tのパラメータが更新される。こうして、特徴抽出器12t及びクラス分類器14tは、ターゲットドメインにおける識別精度が上がるように学習される。
 クラス分類器14cは、共通特徴13cに基づいてNクラスの識別結果15cを出力する。出力されたNクラスの識別結果15cと、予め用意された正解ラベルとから損失Lcが算出され、これが逆伝搬されてクラス分類器14c及び特徴抽出器12cのパラメータが更新される。こうして、特徴抽出器12c及びクラス分類器14cは、ターゲットドメインとソースドメインにおける識別精度が上がるように学習される。
 また、クラス分類器14sは、ソースドメイン固有特徴13sに基づいてNクラスの識別結果15sを出力する。出力されたNクラスの識別結果15sと、予め用意された正解ラベルとから損失Lsが算出され、これが逆伝搬されてクラス分類器14s及び特徴抽出器12sのパラメータが更新される。こうして、特徴抽出器12s及びクラス分類器14sは、ソースドメインにおける識別精度が上がるように学習される。
 ドメイン識別器16aは、特徴抽出器12cから入力された共通特徴13c、即ち、ターゲットドメイン学習用データXtから抽出された共通特徴と、ソースドメイン学習用データXsから抽出された共通特徴の類似度を算出し、損失Laとして出力する。なお、ここでは、2つの共通特徴の類似度が低いほど、損失Laの値は大きくなる。算出された損失Laは、ドメイン識別器16a及び特徴抽出器12cに逆伝搬される。このとき、損失LaはGRL(Gradient Reversal Layer)18を通じて特徴抽出器12cに逆伝搬される。これにより、特徴抽出器12cは、ターゲットドメインとソースドメインとの違いが分からなくなるように、即ち、ターゲットドメインとソースドメインに共通する特徴を抽出するように学習される。
 ドメイン識別器16bは、特徴抽出器12tから入力されたターゲットドメイン固有特徴13tと、特徴抽出器12sから入力されたソースドメイン固有特徴13sとの類似度を算出し、損失Lbとして出力する。損失Lbは、ドメイン識別器16b及び特徴抽出器12t、12sに逆伝搬される。これにより、特徴抽出器12t、12sは、ターゲットドメインとソースドメインの違いを際立たせるように学習される。
 こうして、ターゲットドメインネットワークはターゲットドメイン学習用データXtから(N-c)クラスの識別を行い、共通ネットワークはターゲットドメイン学習用データXtからNクラスの識別を行うように学習される。ここで、両者の性質を考えると、ターゲットドメインネットワークは、ターゲットドメイン学習用データXtに基づいて学習しているため、(N-c)クラスのターゲットドメインデータに対しては認識精度が高いものとなっている。前述の車種認識システムの例で言えば、ターゲットドメインネットワークは、c種類の新車以外の車両(以下、「既存車」とも呼ぶ。)については十分な実写画像に基づいて学習しており、高精度の認識が可能であるが、新車に関しては実写画像に基づいて学習していないため識別ができない。一方、共通ネットワークは、新車を含むNクラスについて実写画像とCG画像に共通する特徴を利用して学習している。つまり、新車についてもCG画像を用いて学習しているので、ある程度の精度で認識が可能となっている。即ち、実写画像を入力とした場合、既存車についてはターゲットドメインネットワークの方が高精度に認識可能であり、新車については共通ネットワークの方が高精度に認識可能となっている。
 次に、推論時の基本アルゴリズムについて説明する。図3は、第1実施形態による推論時の基本アルゴリズムを模式的に示す図である。推論時の物体認識装置100bは、図2に示す学習時の物体認識装置100aの構成のうち、ターゲットドメインネットワークと共通ネットワークのみを使用する。即ち、推論時の物体認識装置100bは、学習済みの特徴抽出器12t、12cと、学習済みのクラス分類器14t、14cと、統合部20と、を備える。
 推論時には、実際の物体認識の対象となる画像データとして、Nクラスのターゲットドメイン画像データXtが入力される。前述の車種認識システムの例では、新車のcクラスを含むNクラスの実写画像データが入力される。特徴抽出器12t及びクラス分類器14tを有するターゲットドメインネットワークは、入力された画像データから(N-c)クラスの識別結果15tを出力する。特徴抽出器12c及びクラス分類器14cを有する共通ネットワークは、入力された画像データからNクラスの識別結果15cを出力する。統合部20は、(N-c)クラスの識別結果15tと、Nクラスの識別結果15cに基づいて、最終的な認識結果を出力する。なお、統合部20の処理については後に詳しく説明する。
 (実施例)
 次に、第1実施形態による物体認識装置の実施例について説明する。
(1)学習時
 図4は、第1実施形態の実施例による学習時の物体認識装置110aの機能構成を示すブロック図である。物体認識装置110aは、学習画像データベース(以下、「データベース」を「DB」と記す。)31と、学習バッチ生成部32と、ターゲットドメイン特徴抽出部33と、共通特徴抽出部34と、ソースドメイン特徴抽出部35と、ターゲットドメイン特徴識別部36と、共通特徴識別部37と、ドメイン距離計算部38と、ソースドメイン特徴識別部39と、ドメイン距離計算部40と、最適化部41とを備える。
 学習画像DB31は、ターゲットドメインとソースドメインの学習用データを記憶している。各学習用データは、正解ラベルを有している。学習バッチ生成部32は、学習画像DB31から学習用データを取り出し、学習用のミニバッチを生成してターゲットドメイン特徴抽出部33、共通特徴抽出部34及びソースドメイン特徴抽出部35に出力する。
 ターゲットドメイン特徴抽出部33は、図2における特徴抽出器12tに相当し、CNN(Convolutional Neural Network)などによりミニバッチ中のターゲットドメイン学習用データから特徴を抽出し、ターゲットドメイン特徴識別部36に供給する。共通特徴抽出部34は、図2における特徴抽出器12cに相当し、CNNなどによりミニバッチ中のターゲットドメイン学習用データ及びソースドメイン学習用データから特徴を抽出し、共通特徴識別部37に供給する。ソースドメイン特徴抽出部35は、図2における特徴抽出器12sに相当し、CNNなどによりミニバッチ中のソースドメイン学習用データから特徴を抽出し、ソースドメイン特徴識別部39に供給する。
 ターゲットドメイン特徴識別部36は、図2におけるクラス分類器14tに相当し、ターゲットドメイン特徴抽出部33が抽出した特徴に基づいて全結合層でクラス分類を行い、クラス分類結果を最適化部41に供給する。共通特徴識別部37は、図2におけるクラス分類器14cに相当し、共通特徴抽出部34が抽出した特徴に基づいて全結合層でクラス分類を行い、クラス分類結果を最適化部41に供給する。ソースドメイン特徴識別部39は、図2におけるクラス分類器14sに相当し、ソースドメイン特徴抽出部35が抽出した特徴に基づいて全結合層でクラス分類を行い、クラス分類結果を最適化部41に供給する。
 ドメイン距離計算部38は、図2に示すドメイン識別器16aに相当し、共通特徴抽出部34がターゲットドメイン学習用データから抽出した特徴とソースドメイン学習用データから抽出した特徴との距離を計算し、最適化部41に供給する。ドメイン距離計算部40は、図2に示すドメイン識別器16bに相当し、ターゲットドメイン特徴抽出部33がターゲットドメイン学習用データから抽出した特徴と、ソースドメイン特徴抽出部35がソースドメイン学習用データから抽出した特徴との距離を計算し、最適化部41に供給する。
 最適化部41は、ターゲットドメイン特徴識別部36によるクラス分類結果と、予め用意された正解クラスとから損失を計算し、その損失が小さくなるようにターゲットドメイン特徴抽出部33及びターゲットドメイン特徴識別部36のパラメータを更新する。また、最適化部41は、共通特徴識別部37によるクラス分類結果と、予め用意された正解クラスとから損失を計算し、その損失が小さくなるように共通特徴抽出部34及び共通特徴識別部37のパラメータを更新する。また、最適化部41は、ソースドメイン特徴識別部39によるクラス分類結果と、予め用意された正解クラスとから損失を計算し、その損失が小さくなるようにターゲットドメイン特徴抽出部33及びソースドメイン特徴識別部39のパラメータを更新する。
 さらに、最適化部41は、ドメイン距離計算部38が算出した距離が小さくなるように、即ち、ターゲットドメイン学習用データから抽出した特徴と、ソースドメイン学習用データから抽出した特徴が近づくように、共通特徴抽出部34のパラメータを更新する。また、最適化部41は、ドメイン距離計算部40が算出した距離が大きくなるように、即ち、ターゲットドメイン学習用データから抽出した特徴と、ソースドメイン学習用データから抽出した特徴が離れるように、ターゲットドメイン特徴抽出部33及びソースドメイン特徴抽出部35のパラメータをそれぞれ更新する。
 次に、物体認識装置110aによる学習処理について説明する。図5は、物体認識装置110aにより実行される学習処理のフローチャートである。この処理は、図1に示すプロセッサ3が予め用意されたプログラムを実行し、図4に示す各要素として動作することにより実施される。まず、学習バッチ生成部32は、学習画像DB31に記憶されている学習用データからミニバッチを生成する(ステップS10)。
 次に、共通特徴抽出部34はミニバッチ中のターゲットドメイン学習用データ及びソースドメイン学習用データから特徴を抽出し(ステップS11)、ターゲットドメイン特徴抽出部33はミニバッチ中のターゲットドメイン学習用データから特徴を抽出し(ステップS12)、ソースドメイン特徴抽出部35はミニバッチ中のソースドメイン学習用データから特徴を抽出する(ステップS13)。
 次に、共通特徴識別部37はターゲットドメイン学習用データ及びソースドメイン学習用データの特徴に基づいてクラス分類を行い(ステップS14)、ターゲットドメイン特徴識別部36はターゲットドメイン学習用データの特徴に基づいてクラス分類を行い(ステップS15)、ソースドメイン特徴識別部39はソースドメイン学習用データの特徴に基づいてクラス分類を行う(ステップS16)。
 次に、ドメイン距離計算部38は、共通特徴抽出部34が出力したターゲットドメイン学習用データの特徴とソースドメイン学習用データの特徴の距離を計算する(ステップS17)。ドメイン距離計算部40は、ターゲットドメイン特徴抽出部33が出力したターゲットドメイン学習用データの特徴と、ソースドメイン特徴抽出部35が出力したソースドメイン学習用データの特徴の距離を計算する(ステップS18)。そして、最適化部41は、各クラス分類結果と、学習用データの正解ラベルとから損失を計算し、その損失を最適化するように各特徴抽出部33~35及び各特徴識別部36、37、39のパラメータを更新する。さらに、最適化部41は、ドメイン距離計算部38が出力した距離が小さくなり、ドメイン距離計算部40が出力した距離が大きくなるように、各特徴抽出部33~35のパラメータを更新する(ステップS19)。そして、ステップS10で生成されたミニバッチについて処理が終了すると、学習処理は終了する。
(2)推論時
 図6は、第1実施形態の実施例による推論時の物体認識装置110bの機能構成を示すブロック図である。物体認識装置110bは、上述の学習処理により学習済みのターゲットドメイン特徴抽出部33、共通特徴抽出部34、ターゲットドメイン特徴識別部36、共通特徴識別部37に加えて、データ入力部42と、統合部43とを備える。
 データ入力部42は、推論の対象であるターゲットドメインの画像データをターゲットドメイン特徴抽出部33及び共通特徴抽出部34に出力する。ターゲットドメイン特徴抽出部33は、入力された画像データから特徴を抽出し、ターゲットドメイン特徴識別部36に出力する。ターゲットドメイン特徴識別部36は、ターゲットドメイン特徴抽出部33により抽出された特徴に基づいてクラス分類を行い、クラス分類結果を統合部43に出力する。共通特徴抽出部34は、入力された画像データから特徴を抽出し、共通特徴識別部37に出力する。共通特徴識別部37は、共通特徴抽出部34により抽出された特徴に基づいてクラス分類を行い、クラス分類結果を統合部43に出力する。なお、クラス分類結果は、クラス毎にその確信度の値を示すベクトル(「確信度ベクトル」とも言う。)として出力される。
 統合部43は、ターゲットドメイン特徴識別部36及び共通特徴識別部37によるクラス分類結果に基づいて、最終的な認識結果を生成する。ここで、第1実施形態では、ターゲットドメイン特徴識別部36は(N-c)クラスのクラス分類結果を出力し、共通特徴識別部37はNクラスのクラス識別結果を出力する。このように、クラス分類結果の次元が異なると、単純に2つのクラス分類結果を演算することができない。そこで、第1実施形態では、統合部43は以下のような処理を行う。
 前述のように、ターゲットドメインネットワークは、(N-c)クラスについては認識精度が高いが、cクラスについては認識ができない。一方、共通ネットワークは、cクラスを含むNクラス全体についてある程度の精度で認識が可能である。前述の車種認識システムの例で言えば、新車以外の(N-c)クラスについては、ターゲットドメインネットワークと共通ネットワークのいずれも認識可能であるが、ターゲットドメインネットワークの方がより高精度である。一方、新車のcクラスについては、ターゲットドメインネットワークは識別ができないが、共通ネットワークはある程度の精度で識別ができる。そこで、統合部43は、認識対象の画像データが上記の(N-c)クラスとcクラスのいずれに属するかを推測する。
 具体的には、統合部43は、ターゲットドメイン特徴識別部36によるクラス分類結果(以下、「ターゲットドメイン分類結果」と呼ぶ。)と、共通特徴識別部37によるクラス分類結果(以下、「共通分類結果」と呼ぶ。)を比較する。ここで、仮に認識対象の画像データが(N-c)クラスに属する場合、ターゲットドメイン特徴識別部36も共通特徴識別部37もある程度の精度で認識することができるので、2つのクラス分類結果において同一のクラスが最大の確信度を有すると推測される。また、2つのクラス分類結果において、その最大の確信度はいずれも高い値であり、特徴ベクトルを示す距離空間におけるそのクラスの距離は小さいと推測される。一方、仮に認識対象の画像データがcクラスに属する場合、ターゲットドメイン特徴識別部36は基本的によるそのクラスの認識ができないので2つのクラス分類結果において最大の確信度を有するクラスは一致せず、また、共通特徴識別部37によるそのクラスの認識精度は高くなる。そこで、統合部43は、以下のいずれかの方法で、最終的な認識結果を決定する。
 (A)第1の方法
 統合部43は、以下の(a)~(d)のいずれかに該当する場合には、認識対象の画像データが(N-c)クラスに属すると推測し、ターゲットドメイン分類結果を最終的な認識結果とする。
(a)ターゲットドメイン分類結果及び共通分類結果が同一クラスを最大の確信度で出力し、かつ、ターゲットドメイン分類結果及び共通分類結果の最大の確信度が第1の閾値以上である。
(b)ターゲットドメイン分類結果及び共通分類結果が同一クラスを最大の確信度で出力し、かつ、ターゲットドメイン分類結果及び共通分類結果の分布間の距離が第2の閾値以下である。
(c)共通分類結果におけるcクラスの確信度が第3の閾値以下であり、かつ、ターゲットドメイン分類結果及び共通分類結果の最大の確信度が第1の閾値以上である。
(d)共通分類結果におけるcクラスの確信度が第3の閾値以下であり、かつ、ターゲットドメイン分類結果及び共通分類結果の分布間の距離が第2の閾値以下である場合。
 一方、上記の(a)~(d)のいずれにも該当しない場合、統合部43は、認識対象の画像データがcクラスに属すると推測し、共通分類結果を最終的な認識結果とする。
 (B)第2の方法
 別の方法としては、統合部43は、共通分類結果におけるcクラスの確信度が所定の閾値よりも高い場合、認識対象の画像データがcクラスに属すると推測し、共通分類結果を最終的な認識結果とする。それ以外の場合、統合部43は、ターゲットドメイン分類結果を最終的な認識結果とする。
 上記のいずれかの方法により、統合部43は、次元が異なる2つのクラス分類結果から、最終的な認識結果を決定することができる。
 次に、物体認識装置110bによる推論処理(物体認識処理)について説明する。図7は、物体認識装置110bにより実行される推論処理のフローチャートである。この処理は、図1に示すプロセッサ3が予め用意されたプログラムを実行し、図6に示す各要素として動作することにより実施される。まず、ターゲットドメイン特徴抽出部33、共通特徴抽出部34、ターゲットドメイン特徴識別部36及び共通特徴識別部37のパラメータが学習処理により更新された値に設定される(ステップS21)。
 次に、データ入力部42は、認識対象となるターゲットドメインの画像データをターゲットドメイン特徴抽出部33及び共通特徴抽出部34に入力する(ステップS22)。共通特徴抽出部34は、入力された画像データから特徴を抽出し(ステップS23)、共通特徴識別部37は抽出された特徴に基づいてクラス分類を行って統合部43に出力する(ステップS24)。また、ターゲットドメイン特徴抽出部33は入力された画像データから特徴を抽出し(ステップS25)、ターゲットドメイン特徴識別部36は抽出された特徴に基づいてクラス分類を行って統合部43に出力する(ステップS26)。そして、統合部43は、前述した第1又は第2の方法により、2つのクラス分類結果から最終的な認識結果を出力する(ステップS27)。
 [第2実施形態]
 次に、本発明の第2実施形態について説明する。
 (基本アルゴリズム)
 まず、学習時の基本アルゴリズムについて説明する。図8は、第2実施形態による学習時の基本アルゴリズムを模式的に示す図である。学習時の物体認識装置200aは、基本的に図2に示す第1実施形態の物体認識装置100aと同様の構成を有する。但し、第2実施形態に係る物体認識装置200aでは、ドメイン識別器16bが出力したドメイン識別結果17bに基づいて生成された損失Lbが、GRL18xを通じて特徴抽出器12t、12sに逆伝搬される。これにより、特徴抽出器12t、12sは、ターゲットドメインとソースドメインの違いを吸収するように学習される。
 次に、推論時の基本アルゴリズムについて説明する。図9は、第2実施形態による推論時の基本アルゴリズムを模式的に示す図である。推論時の物体認識装置200bは、図8に示す学習時の物体認識装置200aの構成のうち、特徴抽出器12t、12cと、クラス分類器14c、14sを使用する。即ち、推論時の物体認識装置200bは、学習済みの特徴抽出器12t、12cと、学習済みのクラス分類器14c、14sと、統合部20と、を備える。
 推論時には、実際の認識対象となる画像データとして、Nクラスのターゲットドメイン画像データXtが入力される。前述の車種認識システムの例では、新車のcクラスを含むNクラスの実写画像データが入力される。特徴抽出器12tは入力された画像データから特徴13tを抽出し、クラス分類器14sは特徴13tからNクラスの識別結果15sを出力する。特徴抽出器12cは入力された画像データから特徴13cを抽出し、クラス分類器14cは特徴13cからNクラスの識別結果15cを出力する。そして、統合部20は、Nクラスの識別結果15cと、Nクラスの識別結果15sに基づいて、最終的な認識結果を出力する。
 (実施例)
 次に、第2実施形態による物体認識装置の具体的な実施例について説明する。
(1)学習時
 第2実施形態の実施例による学習時の物体認識装置は、基本的に図4に示す第1実施形態の物体認識装置110aと同様の構成を有する。但し、第2実施形態においては、最適化部41は、ドメイン距離計算部40が算出した距離が小さくなるように、即ち、ターゲットドメイン学習用データから抽出した特徴と、ソースドメイン学習用データから抽出した特徴が近づくように、ターゲットドメイン特徴抽出部33及びソースドメイン特徴抽出部35のパラメータをそれぞれ更新する。
 次に、第2実施形態の物体認識装置による学習処理について説明する。第2実施形態の物体認識装置による学習処理は、基本的に図5に示す第1実施形態の学習処理と同様である。但し、第2実施形態では、図5に示すステップS19において、最適化部41は、ドメイン距離計算部40が出力した距離が小さくなるように、ターゲットドメイン特徴抽出部33及びソースドメイン特徴抽出部35のパラメータを更新する。
(2)推論時
 図10は、第2実施形態の実施例による推論時の物体認識装置210bの機能構成を示すブロック図である。物体認識装置210bは、上述の学習処理により学習済のターゲットドメイン特徴抽出部33、共通特徴抽出部34、共通特徴識別部37、ソースドメイン特徴識別部39に加えて、データ入力部42と、統合部43とを備える。
 データ入力部42は、認識対象となるターゲットドメインの画像データをターゲットドメイン特徴抽出部33及び共通特徴抽出部34に出力する。ターゲットドメイン特徴抽出部33は、入力された画像データから特徴を抽出し、ソースドメイン特徴識別部39に出力する。ソースドメイン特徴識別部39は、ターゲットドメイン特徴抽出部33により抽出された特徴に基づいてクラス分類を行い、クラス分類結果を統合部43に出力する。共通特徴抽出部34は、入力された画像データから特徴を抽出し、共通特徴識別部37に出力する。共通特徴識別部37は、共通特徴抽出部34により抽出された特徴に基づいてクラス分類を行い、クラス分類結果を統合部43に出力する。
 統合部43は、共通特徴識別部37及びソースドメイン特徴識別部39によるクラス分類結果に基づいて、最終的な認識結果を生成する。第2実施形態では、共通特徴識別部37とソースドメイン特徴識別部39は、ともにNクラスのクラス分類結果を出力する。クラス分類結果の次元が一致しているため、統合部43は、単純に2つのクラス分類結果を演算すればよい。具体的には、統合部43は、2つのクラス分類結果における確信度をクラス毎に加算し、確信度の和が最大となるクラスを最終的な認識結果とする。
 次に、物体認識装置210bによる推論処理(物体認識処理)について説明する。図11は、物体認識装置210bにより実行される推論処理のフローチャートである。この処理は、図1に示すプロセッサ3が予め用意されたプログラムを実行し、図10に示す各要素として動作することにより実施される。まず、ターゲットドメイン特徴抽出部33、共通特徴抽出部34、共通特徴識別部37、及び、ソースドメイン特徴識別部39のパラメータが学習処理により更新された値に設定される(ステップS31)。
 次に、データ入力部42は、認識対象のターゲットドメインの画像データをターゲットドメイン特徴抽出部33及び共通特徴抽出部34に入力する(ステップS32)。共通特徴抽出部34は入力された画像データから特徴を抽出し(ステップS33)、共通特徴識別部37は抽出された特徴に基づいてクラス分類を行ってクラス分類結果を統合部43に出力する(ステップS34)。また、ターゲットドメイン特徴抽出部33は、入力された画像データから特徴を抽出し(ステップS35)、ソースドメイン特徴識別部39は抽出された特徴に基づいてクラス分類を行ってクラス分類結果を統合部43に出力する(ステップS36)。そして、統合部43は、上述した方法により、2つのクラス分類結果から最終的な認識結果を出力する(ステップS37)。
 [第3実施形態]
 次に、本発明の第3実施形態について説明する。
 (基本アルゴリズム)
 第3実施形態に係る物体認識装置10の学習時の基本アルゴリズムは、図8に示す第2実施形態に係る物体認識装置200aと同様であるので、図示及びその説明を省略する。
 次に、推論時の基本アルゴリズムについて説明する。図12は、第3実施形態による推論時の基本アルゴリズムを模式的に示す図である。推論時の物体認識装置200cは、図8に示す学習時の物体認識装置200aの構成のうち、特徴抽出器12t、12cと、クラス分類器14t、14c、14sを使用する。即ち、推論時の物体認識装置200bは、学習済みの特徴抽出器12t、12cと、学習済みのクラス分類器14t、14c、14sと、統合部20と、を備える。
 推論時には、実際の認識対象となる画像データとして、Nクラスのターゲットドメイン画像データXtが入力される。前述の車種認識システムの例では、新車のcクラスを含むNクラスの実写画像データが入力される。特徴抽出器12tは入力された画像データから特徴13tを抽出し、クラス分類器14t、14sに出力する。クラス分類器14tは抽出された特徴13tから(N-c)クラスの識別結果15tを出力する。クラス分類器14sは、抽出された特徴13tからNクラスの識別結果15sを出力する。また、特徴抽出器12cは入力された画像データから特徴13cを抽出し、クラス分類器14cは特徴13cからNクラスの識別結果15cを出力する。そして、統合部20は、(N-c)クラスの識別結果15tと、Nクラスの識別結果15cと、Nクラスの識別結果15sに基づいて、最終的な認識結果を出力する。
 (実施例)
 次に、第3実施形態による物体認識装置の具体的な実施例について説明する。
(1)学習時
 第3実施形態の実施例による学習時の物体認識装置は、第2実施形態の物体認識装置と同様であるので、図示及び説明を省略する。
(2)推論時
 図13は、第3実施形態の実施例による推論時の物体認識装置210cの機能構成を示すブロック図である。物体認識装置210cは、学習処理により学習済のターゲットドメイン特徴抽出部33、共通特徴抽出部34、ターゲットドメイン特徴識別部36、共通特徴識別部37、ソースドメイン特徴識別部39に加えて、データ入力部42と、統合部43とを備える。
 データ入力部42は、認識対象のターゲットドメインの画像データをターゲットドメイン特徴抽出部33及び共通特徴抽出部34に出力する。ターゲットドメイン特徴抽出部33は、入力された画像データから特徴を抽出し、ターゲットドメイン特徴識別部36及びソースドメイン特徴識別部39に出力する。ターゲットドメイン特徴識別部36及びソースドメイン特徴識別部39は、ターゲットドメイン特徴抽出部33により抽出された特徴に基づいてクラス分類を行い、クラス分類結果を統合部43に出力する。共通特徴抽出部34は、入力された画像データから特徴を抽出し、共通特徴識別部37に出力する。共通特徴識別部37は、共通特徴抽出部34により抽出された特徴に基づいてクラス分類を行い、クラス分類結果を統合部43に出力する。
 統合部43は、ターゲットドメイン特徴識別部36、共通特徴識別部37及びソースドメイン特徴識別部39によるクラス分類結果に基づいて、最終的な認識結果を生成する。第3実施形態では、ターゲットドメイン特徴識別部36は(N-c)クラスのクラス分類結果を出力し、共通特徴識別部37とソースドメイン特徴識別部39はNクラスのクラス分類結果を出力する。そこで、統合部43は、第1実施形態と第2実施形態の手法を組み合わせて最終的な認識結果を決定する。
 具体的には、まず統合部43は、第2実施形態の手法により、共通特徴識別部37によるNクラスの共通分類結果と、ソースドメイン特徴識別部39によるNクラスのクラス分類結果(「ソースドメイン分類結果」と呼ぶ。)から、確信度が最大のクラスを認識結果として決定する。この認識結果は、本発明における「非ターゲットドメイン分類結果」に相当する。次に、統合部43は、この認識結果を第1実施形態における「共通分類結果」として使用して、第1又は第2の方法により、最終的な認識結果を決定する。これにより、(N-c)クラスのターゲットドメイン分類結果と、Nクラスの共通分類結果と、Nクラスのソースドメイン分類結果から、最終的な認識結果を決定することができる。
 次に、物体認識装置210cによる推論処理(物体認識処理)について説明する。図14は、物体認識装置210cにより実行される推論処理のフローチャートである。この処理は、図1に示すプロセッサ3が予め用意されたプログラムを実行し、図13に示す各要素として動作することにより実施される。まず、ターゲットドメイン特徴抽出部33、共通特徴抽出部34、ターゲットドメイン特徴識別部36、共通特徴識別部37、及び、ソースドメイン特徴識別部39のパラメータが学習処理により更新された値に設定される(ステップS41)。
 次に、データ入力部42は、認識対象のターゲットドメインの画像データをターゲットドメイン特徴抽出部33及び共通特徴抽出部34に入力する(ステップS42)。共通特徴抽出部34は入力された画像データから特徴を抽出し(ステップS43)、共通特徴識別部37は抽出された特徴に基づいてクラス分類を行って統合部43に出力する(ステップS44)。また、ターゲットドメイン特徴抽出部33は、入力された画像データから特徴を抽出する(ステップS45)。ターゲットドメイン特徴識別部36は、ターゲットドメイン特徴抽出部33により抽出された特徴に基づいてクラス分類を行って統合部43に出力する(ステップS46)。また、ソースドメイン特徴識別部39は、ターゲットドメイン特徴抽出部33により抽出された特徴に基づいてクラス分類を行って統合部43に出力する(ステップS47)。そして、統合部43は、上述した方法により、3つのクラス分類結果から最終的な認識結果を出力する(ステップS48)。
 [第4実施形態]
 次に、本発明の第4実施形態について説明する。図15は、第4実施形態による学習装置300の機能構成を示すブロック図である。なお、学習装置300は、図1に示すハードウェア構成により実現される。学習装置300は、ターゲットドメイン特徴抽出部301と、共通特徴抽出部302と、ソースドメイン特徴抽出部303と、ターゲットドメイン特徴識別部304と、共通特徴識別部305と、ソースドメイン特徴識別部306と、第1の距離計算部307と、第2の距離計算部308と、最適化部309と、を備える。
 ターゲットドメイン特徴抽出部301は、ターゲットドメインデータの固有特徴を抽出する。ターゲットドメイン特徴識別部304は、ターゲットドメインデータの固有特徴に基づいてターゲットドメインデータを(N-c)クラスに分類する。ソースドメイン特徴抽出部303は、ソースドメインデータの固有特徴を抽出する。ソースドメイン特徴識別部306は、ソースドメインデータの固有特徴に基づいてソースドメインデータをNクラスに分類する。共通特徴抽出部302は、ターゲットドメインデータの共通特徴及びソースドメインデータの共通特徴を抽出する。共通特徴識別部305は、ターゲットドメインデータの共通特徴及びソースドメインデータの共通特徴に基づいて、ターゲットドメインデータ及びソースドメインデータをNクラスに分類する。
 第1の距離計算部307は、ターゲットドメインデータの共通特徴と、ソースドメインデータの共通特徴との第1の距離を計算する。第2の距離計算部308は、ターゲットドメインデータの固有特徴と、ソースドメインデータの固有特徴との第2の距離を計算する。最適化部309は、第1の距離に基づいて共通特徴抽出部302のパラメータを更新し、第2の距離に基づいてターゲットドメイン特徴抽出部301及びソースドメイン特徴抽出部303のパラメータを更新する。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 ターゲットドメインデータの固有特徴を抽出するターゲットドメイン特徴抽出部と、
 前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類するターゲットドメイン特徴識別部と、
 ソースドメインデータの固有特徴を抽出するソースドメイン特徴抽出部と、
 前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類するソースドメイン特徴識別部と、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出する共通特徴抽出部と、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類する共通特徴識別部と、
 前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算する第1の距離計算部と、
 前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算する第2の距離計算部と、
 前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する最適化部と、
 を備える学習装置。
 (付記2)
 前記最適化部は、前記第2の距離が大きくなるように、前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する付記1に記載の学習装置。
 (付記3)
 前記最適化部は、前記第2の距離が小さくなるように、前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する付記1に記載の学習装置。
 (付記4)
 前記最適化部は、前記第1の距離が小さくなるように、前記共通特徴抽出部のパラメータを更新する付記1乃至3のいずれか一項に記載の学習装置。
 (付記5)
 付記1に記載の学習装置により更新されたパラメータが設定されており、入力データの特徴を抽出するターゲットドメイン特徴抽出部及び共通特徴抽出部と、
 前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データを(N-c)クラスに分類してターゲットドメイン分類結果を出力するターゲットドメイン特徴識別部と、
 前記共通特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類して共通分類結果を出力するする共通特徴識別部と、
 前記ターゲットドメイン分類結果及び前記共通分類結果を統合して、最終結果を出力する統合部と、
 を備える推論装置。
 (付記6)
 前記統合部は、
(a)前記ターゲットドメイン分類結果及び前記共通分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の最大の確信度が第1の閾値以上である場合、
(b)前記ターゲットドメイン分類結果及び前記共通分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の分布間の距離が第2の閾値以下である場合、
(c)前記共通分類結果におけるcクラスの確信度が第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の最大の確信度が前記第1の閾値以上である場合、
(d)前記共通分類結果におけるcクラスの確信度が前記第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の分布間の距離が前記第2の閾値以下である場合、
 のいずれかに該当する場合は前記ターゲットドメイン分類結果を前記最終結果として出力し、いずれかに該当しない場合は前記共通分類結果を前記最終結果として出力する付記5に記載の推論装置。
 (付記7)
 前記統合部は、前記共通分類結果におけるcクラスの確信度が第4の閾値以上である場合は前記共通分類結果を前記最終結果として出力し、それ以外の場合は前記ターゲットドメイン分類結果を前記最終結果として出力する付記5に記載の推論装置。
 (付記8)
 付記1に記載の学習装置により更新されたパラメータが設定されており、入力データの特徴を抽出するターゲットドメイン特徴抽出部及び共通特徴抽出部と、
 前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類してソースドメイン分類結果を出力するソースドメイン特徴識別部と、
 前記共通特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類して共通分類結果を出力するする共通特徴識別部と、
 前記ソースドメイン分類結果及び前記共通分類結果を統合して、最終結果を出力する統合部と、
 を備える推論装置。
 (付記9)
 前記統合部は、前記ソースドメイン分類結果と前記共通分類結果の確信度の和をN個のクラス毎に計算し、前記和が最も大きいクラスを前記最終結果として出力する付記8に記載の推論装置。
 (付記10)
 付記1に記載の学習装置により更新されたパラメータが設定されており、入力データの特徴を抽出するターゲットドメイン特徴抽出部及び共通特徴抽出部と、
 前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データを(N-c)クラスに分類してターゲットドメイン分類結果を出力するターゲットメイン特徴識別部と、
 前記共通特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類して共通分類結果を出力するする共通特徴識別部と、
 前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類してソースドメイン分類結果を出力するソースドメイン特徴識別部と、
 前記ターゲットドメイン分類結果、前記共通分類結果及び前記ソースドメイン分類結果を統合して、最終結果を出力する統合部と、
 を備える推論装置。
 (付記11)
 前記統合部は、
 前記ソースドメイン分類結果と前記共通分類結果の確信度の和をN個のクラス毎に計算し、前記和が最も大きいクラスを非ターゲットドメイン分類結果とし、
 さらに、
(a)前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の最大の確信度が第1の閾値以上である場合、
(b)前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の分布間の距離が第2の閾値以下である場合、
(c)前記非ターゲットドメイン分類結果におけるcクラスの確信度が第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の最大の確信度が前記第1の閾値以上である場合、
(d)前記非ターゲットドメイン分類結果におけるcクラスの確信度が前記第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の分布間の距離が前記第2の閾値以下である場合、
 のいずれかに該当する場合は前記ターゲットドメイン分類結果を前記最終結果として出力し、いずれかに該当しない場合は前記非ターゲットドメイン分類結果を前記最終結果として出力する付記10に記載の推論装置。
 (付記12)
 前記統合部は、
 前記ソースドメイン分類結果と前記共通分類結果の確信度の和をN個のクラス毎に計算し、前記和が最も大きいクラスを非ターゲットドメイン分類結果とし、
 前記非ターゲットドメイン分類結果におけるn個のクラスの確信度が第4の閾値以上である場合は前記非ターゲットドメイン分類結果を前記最終結果として出力し、それ以外の場合は前記ターゲットドメイン分類結果を前記最終結果として出力する付記10に記載の推論装置。
 (付記13)
 ターゲットドメイン特徴抽出部により、ターゲットドメインデータの固有特徴を抽出し、
 前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類し、
 ソースドメイン特徴抽出部により、ソースドメインデータの固有特徴を抽出し、
 前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類し、
 共通特徴抽出部により、前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出し、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類し、
 前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算し、
 前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算し、
 前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する学習方法。
 (付記14)
 ターゲットドメイン特徴抽出部により、ターゲットドメインデータの固有特徴を抽出し、
 前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類し、
 ソースドメイン特徴抽出部により、ソースドメインデータの固有特徴を抽出し、
 前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類し、
 共通特徴抽出部により、前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出し、
 前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類し、
 前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算し、
 前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算し、
 前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する処理をコンピュータに実行させるプログラムを記録した記録媒体。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 10 物体認識装置
 33 ターゲットドメイン特徴抽出部
 34 共通特徴抽出部
 35 ソースドメイン特徴抽出部
 36 ターゲットドメイン特徴識別部
 37 共通特徴識別部
 38、40 ドメイン距離計算部
 39 ソースドメイン特徴識別部
 41 最適化部
 43 統合部
 110a、300 学習装置
 110b、210b、210c 推論装置

Claims (14)

  1.  ターゲットドメインデータの固有特徴を抽出するターゲットドメイン特徴抽出部と、
     前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類するターゲットドメイン特徴識別部と、
     ソースドメインデータの固有特徴を抽出するソースドメイン特徴抽出部と、
     前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類するソースドメイン特徴識別部と、
     前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出する共通特徴抽出部と、
     前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類する共通特徴識別部と、
     前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算する第1の距離計算部と、
     前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算する第2の距離計算部と、
     前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する最適化部と、
     を備える学習装置。
  2.  前記最適化部は、前記第2の距離が大きくなるように、前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する請求項1に記載の学習装置。
  3.  前記最適化部は、前記第2の距離が小さくなるように、前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する請求項1に記載の学習装置。
  4.  前記最適化部は、前記第1の距離が小さくなるように、前記共通特徴抽出部のパラメータを更新する請求項1乃至3のいずれか一項に記載の学習装置。
  5.  請求項1に記載の学習装置により更新されたパラメータが設定されており、入力データの特徴を抽出するターゲットドメイン特徴抽出部及び共通特徴抽出部と、
     前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データを(N-c)クラスに分類してターゲットドメイン分類結果を出力するターゲットドメイン特徴識別部と、
     前記共通特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類して共通分類結果を出力するする共通特徴識別部と、
     前記ターゲットドメイン分類結果及び前記共通分類結果を統合して、最終結果を出力する統合部と、
     を備える推論装置。
  6.  前記統合部は、
    (a)前記ターゲットドメイン分類結果及び前記共通分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の最大の確信度が第1の閾値以上である場合、
    (b)前記ターゲットドメイン分類結果及び前記共通分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の分布間の距離が第2の閾値以下である場合、
    (c)前記共通分類結果におけるcクラスの確信度が第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の最大の確信度が前記第1の閾値以上である場合、
    (d)前記共通分類結果におけるcクラスの確信度が前記第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記共通分類結果の分布間の距離が前記第2の閾値以下である場合、
     のいずれかに該当する場合は前記ターゲットドメイン分類結果を前記最終結果として出力し、いずれかに該当しない場合は前記共通分類結果を前記最終結果として出力する請求項5に記載の推論装置。
  7.  前記統合部は、前記共通分類結果におけるcクラスの確信度が第4の閾値以上である場合は前記共通分類結果を前記最終結果として出力し、それ以外の場合は前記ターゲットドメイン分類結果を前記最終結果として出力する請求項5に記載の推論装置。
  8.  請求項1に記載の学習装置により更新されたパラメータが設定されており、入力データの特徴を抽出するターゲットドメイン特徴抽出部及び共通特徴抽出部と、
     前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類してソースドメイン分類結果を出力するソースドメイン特徴識別部と、
     前記共通特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類して共通分類結果を出力するする共通特徴識別部と、
     前記ソースドメイン分類結果及び前記共通分類結果を統合して、最終結果を出力する統合部と、
     を備える推論装置。
  9.  前記統合部は、前記ソースドメイン分類結果と前記共通分類結果の確信度の和をN個のクラス毎に計算し、前記和が最も大きいクラスを前記最終結果として出力する請求項8に記載の推論装置。
  10.  請求項1に記載の学習装置により更新されたパラメータが設定されており、入力データの特徴を抽出するターゲットドメイン特徴抽出部及び共通特徴抽出部と、
     前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データを(N-c)クラスに分類してターゲットドメイン分類結果を出力するターゲットメイン特徴識別部と、
     前記共通特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類して共通分類結果を出力するする共通特徴識別部と、
     前記ターゲットドメイン特徴抽出部が抽出した特徴に基づいて前記入力データをNクラスに分類してソースドメイン分類結果を出力するソースドメイン特徴識別部と、
     前記ターゲットドメイン分類結果、前記共通分類結果及び前記ソースドメイン分類結果を統合して、最終結果を出力する統合部と、
     を備える推論装置。
  11.  前記統合部は、
     前記ソースドメイン分類結果と前記共通分類結果の確信度の和をN個のクラス毎に計算し、前記和が最も大きいクラスを非ターゲットドメイン分類結果とし、
     さらに、
    (a)前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の最大の確信度が第1の閾値以上である場合、
    (b)前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果が同一クラスを最大の確信度で出力し、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の分布間の距離が第2の閾値以下である場合、
    (c)前記非ターゲットドメイン分類結果におけるcクラスの確信度が第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の最大の確信度が前記第1の閾値以上である場合、
    (d)前記非ターゲットドメイン分類結果におけるcクラスの確信度が前記第3の閾値以下であり、かつ、前記ターゲットドメイン分類結果及び前記非ターゲットドメイン分類結果の分布間の距離が前記第2の閾値以下である場合、
     のいずれかに該当する場合は前記ターゲットドメイン分類結果を前記最終結果として出力し、いずれかに該当しない場合は前記非ターゲットドメイン分類結果を前記最終結果として出力する請求項10に記載の推論装置。
  12.  前記統合部は、
     前記ソースドメイン分類結果と前記共通分類結果の確信度の和をN個のクラス毎に計算し、前記和が最も大きいクラスを非ターゲットドメイン分類結果とし、
     前記非ターゲットドメイン分類結果におけるn個のクラスの確信度が第4の閾値以上である場合は前記非ターゲットドメイン分類結果を前記最終結果として出力し、それ以外の場合は前記ターゲットドメイン分類結果を前記最終結果として出力する請求項10に記載の推論装置。
  13.  ターゲットドメイン特徴抽出部により、ターゲットドメインデータの固有特徴を抽出し、
     前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類し、
     ソースドメイン特徴抽出部により、ソースドメインデータの固有特徴を抽出し、
     前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類し、
     共通特徴抽出部により、前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出し、
     前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類し、
     前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算し、
     前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算し、
     前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する学習方法。
  14.  ターゲットドメイン特徴抽出部により、ターゲットドメインデータの固有特徴を抽出し、
     前記ターゲットドメインデータの固有特徴に基づいて前記ターゲットドメインデータを(N-c)クラスに分類し、
     ソースドメイン特徴抽出部により、ソースドメインデータの固有特徴を抽出し、
     前記ソースドメインデータの固有特徴に基づいて前記ソースドメインデータをNクラスに分類し、
     共通特徴抽出部により、前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴を抽出し、
     前記ターゲットドメインデータの共通特徴及び前記ソースドメインデータの共通特徴に基づいて前記ターゲットドメインデータ及び前記ソースドメインデータをNクラスに分類し、
     前記ターゲットドメインデータの共通特徴と、前記ソースドメインデータの共通特徴との第1の距離を計算し、
     前記ターゲットドメインデータの固有特徴と、前記ソースドメインデータの固有特徴との第2の距離を計算し、
     前記第1の距離に基づいて前記共通特徴抽出部のパラメータを更新し、前記第2の距離に基づいて前記ターゲットドメイン特徴抽出部及び前記ソースドメイン特徴抽出部のパラメータを更新する処理をコンピュータに実行させるプログラムを記録した記録媒体。
PCT/JP2019/037461 2019-09-25 2019-09-25 学習装置、学習方法、及び、記録媒体 WO2021059375A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/037461 WO2021059375A1 (ja) 2019-09-25 2019-09-25 学習装置、学習方法、及び、記録媒体
JP2021548025A JP7310904B2 (ja) 2019-09-25 2019-09-25 学習装置、学習方法、及び、プログラム
US17/760,826 US20220343631A1 (en) 2019-09-25 2019-09-25 Learning apparatus, learning method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/037461 WO2021059375A1 (ja) 2019-09-25 2019-09-25 学習装置、学習方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2021059375A1 true WO2021059375A1 (ja) 2021-04-01

Family

ID=75164846

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/037461 WO2021059375A1 (ja) 2019-09-25 2019-09-25 学習装置、学習方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US20220343631A1 (ja)
JP (1) JP7310904B2 (ja)
WO (1) WO2021059375A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220108134A1 (en) * 2020-10-01 2022-04-07 Nvidia Corporation Unsupervised domain adaptation with neural networks
JP7463996B2 (ja) * 2021-03-26 2024-04-09 横河電機株式会社 装置、方法およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010272053A (ja) * 2009-05-25 2010-12-02 Victor Co Of Japan Ltd データ分類器作成装置、データ分類装置、データ分類器作成方法、データ分類方法、データ分類器作成プログラム、データ分類プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010272053A (ja) * 2009-05-25 2010-12-02 Victor Co Of Japan Ltd データ分類器作成装置、データ分類装置、データ分類器作成方法、データ分類方法、データ分類器作成プログラム、データ分類プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BOUSMALIS, K. ET AL.: "Domain separation networks", DOMAIN SEPARATION NETWORKS, vol. 1, 22 August 2016 (2016-08-22), pages 1 - 15, XP055716221, Retrieved from the Internet <URL:https://arxiv.org/pdf/1608.06019.pdf> [retrieved on 20191126] *
LUO, Z. L. ET AL., LABEL EFFICIENT LEARNING OF TRANSFERABLE REPRESENTATIONS ACROSS DOMAINS AND TASKS, vol. 1, 30 November 2017 (2017-11-30), pages 1 - 15, XP080843685, Retrieved from the Internet <URL:https://arxiv.org/pdf/1712.00123.pdf> [retrieved on 20191126] *

Also Published As

Publication number Publication date
JP7310904B2 (ja) 2023-07-19
JPWO2021059375A1 (ja) 2021-04-01
US20220343631A1 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
US11651205B2 (en) Method for training a generative adversarial network (GAN), generative adversarial network, computer program, machine-readable memory medium, and device
KR102306658B1 (ko) 이종 도메인 데이터 간의 변환을 수행하는 gan의 학습 방법 및 장치
WO2021059375A1 (ja) 学習装置、学習方法、及び、記録媒体
Kultur et al. Ensemble of neural networks with associative memory (ENNA) for estimating software development costs
CN111192294A (zh) 一种基于目标检测的目标跟踪方法及系统
JP7172677B2 (ja) 学習方法、学習プログラムおよび学習装置
KR102414823B1 (ko) 금융 서비스를 위한 금융 세그먼트 분화 방법 및 이러한 방법을 수행하는 장치
JP3896868B2 (ja) パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置
Eggensperger et al. Surrogate Benchmarks for Hyperparameter Optimization.
Gepperth et al. Incremental learning with self-organizing maps
Iglesias et al. Modelling evolving user behaviours
WO2022009254A1 (ja) データ拡張装置、学習装置、データ拡張方法、及び、記録媒体
WO2021059527A1 (ja) 学習装置、学習方法、及び、記録媒体
JP2021081930A (ja) 学習装置、情報分類装置、及びプログラム
CN111523345B (zh) 人脸实时跟踪系统及方法
WO2021090473A1 (ja) 物体検知装置、学習方法、及び、記録媒体
Wang et al. Supervised and semi-supervised online boosting tree for industrial machine vision application
Tavares et al. Expert knowledge integration in the data mining process with application to cardiovascular risk assessment
US20240070468A1 (en) Learning device, learning method, and learning program
WO2020183706A1 (ja) 学習画像の教師データ修正方法、教師データ修正装置及びプログラム
JPH0695880A (ja) 事例ベース推論装置
JP7412632B2 (ja) 再学習システム及び再学習方法
Sia et al. Clustering large dynamic datasets using exemplar points
KR102645760B1 (ko) Gan 기반 인공지능 고품질 이미지 압축 시스템
CN116306574B (zh) 应用于智慧风控任务分析的大数据挖掘方法及服务器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19947205

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021548025

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19947205

Country of ref document: EP

Kind code of ref document: A1