JP7184801B2 - 学習装置、学習方法、および学習プログラム - Google Patents

学習装置、学習方法、および学習プログラム Download PDF

Info

Publication number
JP7184801B2
JP7184801B2 JP2019559490A JP2019559490A JP7184801B2 JP 7184801 B2 JP7184801 B2 JP 7184801B2 JP 2019559490 A JP2019559490 A JP 2019559490A JP 2019559490 A JP2019559490 A JP 2019559490A JP 7184801 B2 JP7184801 B2 JP 7184801B2
Authority
JP
Japan
Prior art keywords
data
parameter
classification
learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019559490A
Other languages
English (en)
Other versions
JPWO2019116494A1 (ja
Inventor
和俊 鷺
貴裕 戸泉
裕三 仙田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019116494A1 publication Critical patent/JPWO2019116494A1/ja
Application granted granted Critical
Publication of JP7184801B2 publication Critical patent/JP7184801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示は、コンピュータが行う学習の技術に関する。
データにおいて示された対象の分類を行う、分類器を構築する上で、対象の特徴を良く表す変数を用いることが、分類の精度の向上につながる。入力されたデータから対象の特徴を良く表す変数を導出する方法として、オートエンコーダ(自己符号化器)を使う方法が、良く知られている。
典型的なオートエンコーダは、入力層、中間層、および出力層からなる。典型的なオートエンコーダは、入力層に入力されるデータと出力層により出力されるデータとの比較に基づき、符号化(すなわち、入力層のデータから中間層のデータへの変換)に用いられる重みおよびバイアスと、復号(すなわち、中間層のデータから出力層のデータへの変換)に用いられる重みおよびバイアスと、を最適な値へと決定する。
オートエンコーダによる学習の結果決定された重みとバイアスとを用いた符号化によって中間層において出力されるデータは、対象の特徴を良く表す情報とみなすことができる。この中間層において出力されるデータは、一般的には、「特徴量ベクトル」、「特徴ベクトル」、または単に「特徴量」や「特徴」と呼ばれる。本開示では、中間層において出力されるデータを、「潜在変数の値の組」または「潜在変数ベクトル」とも呼ぶ。
特許文献1は、本願発明に関連する技術を記載する文献である。特許文献1は、画像における対象の大きさ、回転角度、および位置等を、識別を行うために適した状態に変換する(別の言葉では、正規化する)画像処理装置を開示している。正規化するための変換の大きさは、画像が粗視化された後のデータを非線形変換によって空間Fに写像した時のベクトル(写像ベクトル)と、学習サンプルの特徴を表す基底ベクトルを含む部分空間との関係に基づいて決まる係数によって決められる。この技術にオートエンコーダを用いる場合、オートエンコーダの出力層の出力が上記の非線形変換による写像に相当し、中間層の出力が写像ベクトルの部分空間への射影に相当する、ということが、特許文献1には記載されている。
特開2004-62719号公報
一般的なオートエンコーダにより最適化されたニューラルネットワークにより導出される特徴量ベクトルは、必ずしも、異なる態様をとる同一の対象に対し、互いに関連するようには表されない。そのため、例えば、一般的なオートエンコーダにより最適化されたニューラルネットワークにより導出される特徴量ベクトルを用いて、画像に写る椅子を椅子に分類するための分類器を、図1Aで示される向きで撮影された椅子の画像ばかりを学習用データとして使用した学習により生成したとする。そのような場合、生成した分類器は、図1Bで示される向きや、図1Cで示されるアングルで撮影された椅子を、椅子と識別できないことがある。これは、同一の対象であっても、互いに異なる態様(上記の例では、向きやアングル)で記録されたデータからは、互いに無関係な特徴量ベクトルが導出され得るからである。
様々な態様をとりうる対象物を正しく識別するためには、一般的には、分類器の学習において様々な態様を網羅した学習用データを用いる必要がある。しかし、様々な態様を網羅した学習用データを用意することは、必ずしも容易ではない。
特許文献1に記載の技術は、画像を正規化することにより様々な態様をとりうる対象に対する識別の性能を向上させる技術である。しかし、この正規化を行うための関数は、様々な態様で対象が写る画像を学習用データとした学習によって導出される必要がある。なお、対象の識別を行うパターン識別部100は、正規化された画像を識別の対象とするので、学習用データに含まれていない態様をとっている対象を正しく識別する保証はない。
本発明は、対象が記録されたデータのサンプルが少ない場合でも、様々な態様の対象を識別することが可能な識別器を生成できる、学習装置を提供することを、目的の1つとする。
本発明の一態様に係る学習装置は、異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録されたデータから導出された、第1の特徴量を取得する取得手段と、前記第1の特徴量に対し、前記変換パラメータの値を用いた変換を行うことで、第2の特徴量を生成する変換手段と、特徴量を入力として分類を行うよう構成された分類手段が、前記第2の特徴量を入力とした場合に前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、パラメータ更新手段と、を備える。
本発明の一態様に係る学習方法は、異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録されたデータから導出された、第1の特徴量を取得し、前記第1の特徴量に対し、前記変換パラメータの値を用いた変換を行うことで、第2の特徴量を生成し、特徴量を入力として分類を行うよう構成された分類手段が、前記第2の特徴量を入力とした場合に前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する。
本発明の一態様に係る記憶媒体は、異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録されたデータから導出された、第1の特徴量を取得する取得処理と、
前記第1の特徴量に対し、前記変換パラメータの値を用いた変換を行うことで、第2の特徴量を生成する変換処理と、特徴量を入力として分類を行うよう構成された分類手段が、前記第2の特徴量を入力とした場合に前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、パラメータ更新処理と、をコンピュータに実行させるプログラムを記憶する。上記記憶媒体は、例えば、コンピュータ読み取り可能な、非一時的な記憶媒体である。
本発明によれば、対象が記録されたデータのサンプルが少ない場合でも、様々な態様の対象を識別することが可能な識別器を生成できる。
対象が記録されたデータの例を示す図である。 別の態様の対象が記録されたデータの例を示す図である。 別の態様の対象が記録されたデータの別の例を示す図である。 本発明の第1の実施形態に係る学習装置の構成を示すブロック図である。 変数変換に用いられる行列の例を示す図である。 第1の実施形態に係る変数導出の学習について説明するための概念図である。 変数導出の学習に係る処理の流れを示すフローチャートである。 識別処理に係る処理の流れを示すフローチャートである。 本発明の第2の実施形態に係る学習装置の構成を示すブロック図である。 所望の機能を持つエンコーダを作成する学習装置の例の構成を示すブロック図である。 本発明の一実施形態に係る学習装置の構成を示すブロック図である。 本発明の一実施形態に係る学習装置による学習方法の処理の流れを示すブロック図である。 本発明の各実施形態の各部を構成するハードウェアの例を示すブロック図である。
以下、図面を参照しながら、本発明の実施形態を詳細に説明する。
<<第1の実施形態>>
まず、本発明の第1の実施形態について説明する。図2は、第1の実施形態に係る学習装置31の構成を示すブロック図である。
学習装置31は、変数導出の学習と、分類の学習と、の2つの学習を行う。本開示では、変数導出の学習に関わる部を変数導出部110と呼び、分類の学習を行う部を分類学習部310と呼ぶ。
以下、まず、変数導出部110の構成と動作について説明する。
[変数導出部110]
<構成>
変数導出部110は、データ取得部111と、エンコーダ112と、変換部113と、デコーダ114と、パラメータ更新部115と、パラメータ記憶部119と、を含む。
データ取得部111と、エンコーダ112と、変換部113と、デコーダ114と、パラメータ更新部115と、は、例えば、プログラムを実行する1つまたは複数のCPU(Central Processing Unit)により実現される。
パラメータ記憶部119は、例えば、メモリである。パラメータ記憶部119は、ハードディスク等の補助記憶装置でもよい。別の実施形態では、パラメータ記憶部119は学習装置31の外部にあり、有線または無線により学習装置31と通信可能であるように構成されていてもよい。パラメータ記憶部119は、エンコーダ112が行う変換において用いられるパラメータと、デコーダ114が行う変換において用いられるパラメータと、を記憶する。
なお、変数導出部110は、パラメータ記憶部119とは別に、データを一時的又は非一時的に記憶する記憶装置を備えていてもよい。
===データ取得部111===
データ取得部111は、変数導出部110が使用するデータを取得する。変数導出部110が使用するデータは、入力データ、正解データ、および、入力データと正解データとの関係を示す差異情報である。
入力データは、変数導出部110による学習の対象が記録されたデータである。理解を容易にするため、本実施形態の説明では、入力データの一例として、光学画像を想定する。光学画像以外の入力データの例は、「補足」の項目で説明する。
入力データが光学画像である場合、入力データは、対象(例えば、物体および人物等)が写った画像である。入力データは、例えば、画像の各画素の画素値を成分とするベクトルである。縦28画素、横28画素のグレースケールの画像を入力データとする場合、入力データの成分の数は、28×28=784である。
画像のサイズはどのようなサイズでもよい。画素値は、0から255の整数値でも、0か1かのバイナリの値でも、浮動小数点数でもよい。色の種類は1つでも、2つ以上でもよい。色の種類が複数種類である場合は、その種類の数に比例して、入力データの成分数は増加する。入力データの例として、RGB画像、マルチスペクトルの画像、ハイパースペクトルの画像等が挙げられる。
データ取得部111は、入力データを、例えば、学習装置31の内部または外部にある記憶装置から受け取ることにより、取得する。学習装置31が、カメラ等、入力データを取得可能なデバイスを含み、データ取得部111はそのデバイスから入力データを受け取ってもよい。
正解データは、変数導出の学習、具体的には、後述するパラメータ更新部115によるパラメータの値の更新において、使用されるデータである。
正解データは、入力データにより示される対象が記録されたデータである。少なくとも一つの正解データは、入力データにより示される対象が、入力データにおける態様とは異なる態様で記録された、データである。入力データおよび正解データが画像である場合、態様は「写り方」または「見え方」と言い換えられてもよい。画像における態様の例としては、向き、アングル、姿勢、大きさ、歪み方、色合い、鮮明さ、等が挙げられる。入力データと正解データとの間で異なり得る態様は、予め定義される。つまり、変数導出部110は、少なくとも1つの特定の態様が異なる、入力データと正解データとのセットを扱う。なお、学習装置31は、入力データを、正解データの一つとして扱ってもよい。
データ取得部111は、正解データを、例えば、学習装置31の内部または外部にある記憶装置から受け取ることにより、取得する。学習装置31が、カメラ等、正解データを取得可能なデバイスを含み、データ取得部111はそのデバイスから正解データを受け取ってもよい。
あるいは、データ取得部111は、入力データを加工することにより、正解データを生成してもよい。例えば、対象の回転角度を変化される加工や、色合いまたは鮮明さを変化させる既知の技術を用いれば、データ取得部111は、入力データの加工により正解データを生成可能である。
差異情報は、入力データと正解データとの関係を示す情報である。具体的には、差異情報は、入力データにより示される対象の態様と、正解データにより示される対象の態様と、の間の差異を示す。差異情報は、例えば、差異があるかないか、または差異がどの程度あるか、を示す、パラメータで表されてもよい。
簡単な例として、入力データが、椅子が写る画像であり、正解データが、その椅子が入力データにおける向きとは異なる向きで撮影された画像であるとする。入力データおよび正解データのセットの例は、図1Aの画像と図1Bの画像とのセット、または図1Aの画像と図1Cの画像とのセット等である。図1Aの画像と図1Bの画像との関係を示す差異情報の例は、回転の角度を示す値(「+60(度)」等)である。図1Aの画像と図1Cの画像との関係を示す差異情報の例は、方位角の変化を示す値(「-20(度)」等)である。
入力データが光学画像である場合は、差異情報が示す差異の例には、例えば、入力データと比較しての、画像の表示面に垂直な方向を軸とした回転の角度、アングル(撮像を行うデバイスに対する対象の向き)の違い、明度の上がり具合(または下がり具合)、コントラストの違い、ノイズ(雨および霧等の存在、もしくは解像度の低さに由来するノイズ)の多さの違い、および、障害物または付属物または装飾物の有無の違い、等が含まれる。対象が髪および旗等、風になびく物である場合は、風の強さを示す情報が差異情報であってもよい。また、以上に挙げた例と強い関係のあるパラメータが、差異情報として採用されてもよい。入力データと正解データとが別々に取得される場合は、採用される差異情報が示す対象となる態様は、入力データの加工によって変化を表現できる態様である必要はない。
差異情報は、定量的なパラメータであってもよいし、複数の段階を持つパラメータでもよい。一例として、差異情報が雨の強さを示すパラメータである場合、「降っていない」、「弱い」、「やや強い」、「強い」の4種類の値で表されてもよい。差異情報は、二つの値(たとえば「有」と「無」)のみをとるパラメータでもよい。
データ取得部111は、差異情報を、例えば、学習装置31の内部または外部にある記憶装置から受け取ることにより、取得する。データ取得部111は、入力データと正解データの関係を把握している、人、または装置から、差異情報の入力を受け付け、入力された差異情報を取得してもよい。データ取得部111は、差異情報を、入力データと正解データとの比較により差異を特定することで、取得してもよい。
===エンコーダ112===
エンコーダ112は、入力データから、潜在変数の値の組を導出する。エンコーダ112は、例えば、ニューラルネットワークを使用して、入力データをニューラルネットワークの入力層に入力し、出力としてn個の値を導出する。nは、ニューラルネットワークの出力層のユニット数である。このn個の値の組を、本開示では潜在変数の値の組、または潜在変数ベクトルと呼ぶ。本実施形態では「ベクトル」という語を用いるが、潜在変数ベクトルは、複数の値の1次元的な配列に限られない。出力する値の数は1個であってもよい。あるいは、潜在変数ベクトルは2次元以上の配列であってもよい。潜在変数ベクトルは、配列の形式以外の形式で学習装置31において保持されてもよい。なお、ニューラルネットワークにより潜在変数ベクトルを導出することは、符号化(エンコード)とも呼ばれる。
エンコーダ112が使用するニューラルネットワークの構造は自由に設計され得る。例えば、層の数、各層の成分数、成分間の接続の仕方に、制限はない。一例として、エンコーダ112は、成分数が784である入力層と、成分数が512である中間層と、成分数が144である出力層と、から成る、畳み込みニューラルネットワークを使用してもよい。エンコーダ112が出力する値の個数(すなわち、潜在変数ベクトルの成分の数)は、典型的には、入力データにおける成分の数よりも少なくなるように構成される。ただし、エンコーダ112が出力する値の個数は、入力データにおける成分の数と同じか多くなるように構成されてもよい。
また、エンコーダ112が使用するニューラルネットワークで使われる活性化関数はどのような活性化関数でもよい。活性化関数の例としては、恒等関数、シグモイド関数、ReLU(Rectified Linear Unit)関数、双曲線正接関数、等が挙げられる。
エンコーダ112は、使用するニューラルネットワークにおけるパラメータ(典型的には、重みおよびバイアス)を、パラメータ記憶部119から読み出して、入力データの符号化を行う。
===変換部113===
変換部113は、エンコーダ112により出力された潜在変数ベクトルを、別の潜在変数ベクトルへと変換する。変換部113が潜在変数ベクトルを変換することを、本開示では変数変換と称す。
変換部113は、変換関数を用いて、潜在変数ベクトルを変換する。変換部113は、上述の差異情報に応じて異なる変換関数を用いる。
例えば、変換部113は、差異情報に応じて異なり得る値をとる変換パラメータを用いた変換関数を用いる。変換部113は、差異情報に応じて変換パラメータを決定した後、決定した変換パラメータを用いた変換関数を用いて、潜在変数ベクトルを変換すればよい。
変換関数の例として、潜在変数ベクトルの成分の配置を変更する関数が挙げられる。例えば、変換関数は、潜在変数ベクトルの成分の配置をシフトする関数である。シフトする量が、変換パラメータによって決められてもよい。なお、成分数がnであるベクトルの成分の配置をk個シフトする操作とは、ベクトルの1番目からn-k番目の成分をk+1番目からn番目に移動させ、n-k番目からn番目にあった成分を1番目からk番目までに移動させる操作である。
具体的な例として、変換関数は、成分数が144である潜在変数ベクトルの成分の配置を、変換パラメータpの値に基づいてシフトする、関数であるとする。データ取得部111により取得される差異情報は、回転角度θであり、θは0以上360未満の整数のうち5の倍数の値をとるとする。このような場合、変換パラメータpとして、θを5で除した値が定義されてもよい。そうすると、pは0から71の範囲の整数値を取りうるパラメータである。そして、pの2倍の値が、潜在変数ベクトルの成分の配置をシフトさせる量に相当するよう、変換関数が定義されてよい。例えば、40度の回転に相当する変換パラメータpの値は8であり、潜在変数ベクトルの成分の配置を16個シフトすることに対応する。
潜在変数ベクトルの成分の配置をシフトする変換関数は、例えば、シフトを表す変換行列の乗算として表現できる。潜在変数ベクトルをZ0、潜在変数ベクトルの成分数をn、変換パラメータの値をk、シフトを表す変換行列をSとすると、Sはn×nの行列であり、上記変換関数は次の式で表される。
F(k,Z)=S・Z
行列Sは、図3に示される行列である。すなわち、行列Sは、1≦i≦n-krであるiについて、第i行、第kr+i列の数値が1であり、1≦j≦krであるjについて、第(n-kr+j)行、第j列の数値が1であり、それ以外の数値が0である行列である。ただし、krは、kがとりうる値の個数をN(k)としたとき、k×n/N(k)で求められる値である。
変換部113による変換により、成分数がnである、新たな潜在変数ベクトルが生成される。
変数変換のための関数や行列の作り方は、上記に限られない。例えば、変換部113は、上記の行列Sの代わりに、行列Sにガウシアンフィルタを適用することで生成される行列を用いてもよい。
変数変換の種類は、上記に説明されたシフト操作に制限されない。例えば、変数変換は、差異情報が示す差異の大きさに応じて減算量が大きくなる、成分値の減算処理でもよい。差異情報が示す差異の大きさに応じた回数実行される、平滑化処理でもよい。変数変換は、所定の成分に対する演算であり、演算の内容または演算を受ける成分の数が、差異情報が示す差異の大きさに依存してもよい。
変換部113が行う変数変換には、恒等変換が含まれていてもよい。特に、差異情報が差異が無いことを示す場合の変数変換は、恒等変換であってもよい。
なお、入力データと正解データとの間で異なり得る態様の種類が2種類以上である場合、変換部113は、それぞれの態様に係る差異情報に基づき、それぞれ変数変換を行えばよい。一例として、差異情報が、三次元的な向きの変化を示す2つのパラメータ(α、β)で表される場合、変換部113は、潜在変数ベクトルに、αに依存する変換関数を適用した後、βに依存する変換関数を適用し、新たな潜在変数ベクトルを生成してもよい。また、αに依存する変換関数とβに依存する変換関数を並列で適用してもよい。あるいは、変換部113は、2種類以上の態様の差異のそれぞれの差異情報に基づき、1つの変換関数を決定し、その変換関数を用いて変数変換を実行してもよい。
===デコーダ114===
デコーダ114は、変換部113による変換後の潜在変数ベクトルから、出力データを生成する。デコーダ114は、例えば、ニューラルネットワーク(エンコーダ112が使用するニューラルネットワークとは異なる)を使用して、潜在変数ベクトルをニューラルネットワークの入力層に入力し、出力としてm個の成分からなる出力データを生成する。mは、デコーダ114が使用するニューラルネットワークの出力層のユニット数である。このmは、正解データの成分数と同じ値に設定される。入力データと正解データとが同じ形式で表現されるデータである場合、mは、入力データの成分数、すなわちエンコーダ112の入力層のユニット数に、一致する。ニューラルネットワークにより潜在変数ベクトルから出力データを生成することは、復号(デコード)とも呼ばれる。
デコーダ114が使用するニューラルネットワークの構造は自由に設計され得る。たとえば、層の数、(多層ニューラルネットワークである場合は)中間層の成分数、成分間の接続の仕方に、制限はない。一例として、デコーダ114は、成分数が144である入力層と、成分数が512である中間層と、成分数が784である出力層と、から成る、ニューラルネットワークを使用してもよい。
また、デコーダ114が使用するニューラルネットワークで使われる活性化関数はどのような活性化関数でもよい。活性化関数の例としては、恒等関数、シグモイド関数、ReLU関数、双曲線正接関数、等が挙げられる。
デコーダ114は、使用するニューラルネットワークにおけるパラメータ(典型的には、重みおよびバイアス)の値を、パラメータ記憶部119から読み出して、潜在変数ベクトルの復号を行う。
===パラメータ更新部115===
パラメータ更新部115は、デコーダ114により生成された出力データと、データ取得部111により取得された正解データと、の比較に基づき、エンコーダ112およびデコーダ114に用いられるニューラルネットワークのパラメータの値を更新する。
パラメータの値の更新の手順の具体例を示す。まず、パラメータ更新部115は、1組以上の、正解データと出力データとのセットについて、正解データに対する出力データの誤差を算出する。パラメータ更新部115は、誤差を求めるための誤差関数として、たとえば平均二乗誤差を用いてもよい。そして、パラメータ更新部115は、算出された誤差がより小さくなるように、新たなパラメータの値を決定する。新たなパラメータの値を決定するための手法は、一般的なオートエンコーダにおいて採用される、パラメータの値の最適化の方法として既知である方法が、用いられればよい。一例として、パラメータ更新部115は、誤差逆伝搬法を用いて勾配を計算し、Stochastic Gradient Decent(SGD)を用いてパラメータの値を決定してもよい。他に採用され得る手法として、「RMSprop」、「Adagrad」、「Adadelta」、「Adam」等が挙げられる。
そして、パラメータ更新部115は、決定した新たなパラメータの値を、パラメータ記憶部119に記録する。以降、エンコーダ112およびデコーダ114は新たなパラメータの値を使用する。以上が更新の具体的手順である。
なお、パラメータ更新部115が更新する対象のパラメータの値は、エンコーダ112が使用するニューラルネットワークの重みおよびバイアス、ならびにデコーダ114が使用するニューラルネットワークの重みおよびバイアスである。変数変換に使用される変換パラメータは、パラメータ更新部115が更新する対象のパラメータに含まれない。
なお、パラメータ更新部115は、所定の回数だけ、パラメータの値の更新を繰り返し行ってもよい。所定の回数は、例えば、学習装置31のユーザから入力インタフェースを介して所定の回数を示す数値の入力を受け取った値に決定されてもよい。
パラメータ更新部115が誤差を求めるために使用する誤差関数は、自由に設計され得る。パラメータ更新部115は、VAE(Variational AutoEncoder)で使用される誤差関数のように、潜在変数ベクトルの平均と分散の値を考慮した誤差関数を使用してもよい。
<変数導出の学習に係る処理の概要>
変数導出部110による変数導出の学習に係る処理の概要を、図4を参照しながら説明する。
まず、m個のデータ値(x、x、・・・、x)を成分として持つ入力データから、エンコーダ112のニューラルネットワークにより、n個の成分(z、z、・・・、z)を持つ潜在変数ベクトルが導出される。この潜在変数ベクトルは、変換部113による変数変換により、n個の成分(z’、z’、・・・、z’n)を持つ別の潜在変数ベクトルに変換される。この別の潜在変数ベクトルから、デコーダ114のニューラルネットワークにより、m個の成分(y’、y’、・・・、y’)を持つ出力データが生成される。
こうして生成される出力データと、入力データに対して対象の態様が異なる関係である、m個の成分(y、y、・・・、y)を持つ正解データと、のセットが、訓練用データセットとして、学習に用いられる。
<変数導出の学習に係る処理の流れ>
変数導出部110による、変数導出の学習に係る処理の流れを、図5のフローチャートを参照しながら説明する。なお、変数導出の学習に係る処理に含まれる各処理は、各処理がプログラムを実行するデバイスによって実行される場合においては、プログラムの中の命令の順序に従って実行されればよい。各処理が別個のデバイスによって実行される場合においては、処理を完了したデバイスが次の処理を実行するデバイスに通知を行うことで、次の処理が実行されればよい。なお、処理を行う各部は、例えば、めいめいの処理によって生成したデータを、学習装置31に含まれる記憶領域または外部の記憶装置に記録する。また、処理を行う各部は、めいめいの処理に必要なデータを、そのデータを生成した部から受け取るか、上記の学習装置31に含まれる記憶領域または外部の記憶装置から読み出せばよい。
まず、データ取得部111が、入力データと、正解データと、差異情報とを取得する(ステップS11)。ただし、各種のデータが取得されるタイミングは同時でなくてもよい。データが取得されるタイミングは、そのデータが使用されるステップの処理が行われる前であればいつでもよい。
次に、エンコーダ112が、入力データを潜在変数ベクトルに変換する(ステップS12)。
次に、変換部113が、差異情報が示す差異に応じた変換パラメータの値を用いて、潜在変数ベクトルを変換する(ステップS13)。
次に、デコーダ114が、変換後の潜在変数ベクトルを出力データに変換する(ステップS14)。
次に、パラメータ更新部115が、エンコーダ112およびデコーダ114に用いられるパラメータの値の更新を終了するかを判定する。
更新を終了する場合とは、例えば、パラメータ更新部115がパラメータの値の更新を行った回数が、所定の回数に達した場合である。
別の例として、更新を終了する場合とは、正解データに対する出力データの誤差が十分に小さい場合でもよい。パラメータ更新部115は、例えば、次のような場合に、誤差が十分に小さいと判定し、更新を終了すると判定してもよい。
・誤差を示す値が所定の基準値を下回った場合
・誤差をこれ以上小さくすることができない場合、または、
・誤差の減少量(すなわち、最後に行った更新の直前における誤差と更新後の誤差との差)もしくは減少率(すなわち、現在の誤差に対する減少量の比)が所定の基準値を下回った場合。
あるいは、パラメータ更新部115は、各パラメータの値の絶対変化量(すなわち、更新する場合のパラメータの値の変化量の絶対値)の平均値もしくは最大値、または変化率(すなわち、現在の値に対する絶対変化量の比)の平均値もしくは最大値が、所定の基準値を下回った場合に、更新を終了すると判定してもよい。
更新を終了しない場合は(ステップS16においてNO)、パラメータ更新部115はパラメータの値を更新し(ステップS17)、変数導出部110は再びステップS12からステップS14の処理を行う。2回目以降のステップS12およびステップS14の処理では、エンコーダ112およびデコーダ114は、更新されたパラメータの値を用いて、処理を行う。パラメータ更新部115は、ステップS14の処理により新たに生成された出力データを、再び正解データと比較し(ステップS15)、パラメータの値の更新を終了するかを判定する。このように、変数導出部110は、パラメータの更新を終了すると判定されるまで、パラメータの値の更新と、更新されたパラメータの値を用いた出力データの生成と、を繰り返す。このような繰り返しを通してパラメータの値を更新する処理が、変数導出の学習である。パラメータ更新部115は、いわば、出力データと正解データとの組を訓練用データセットとした学習により、パラメータの値を更新する。更新を繰り返し行うことでパラメータの値をより好適な値にすることを、最適化とも呼ぶ。
パラメータの値の更新を終了すると判定されたら(ステップS16においてYES)、変数導出の学習の処理は終了する。
<変数導出の学習による効果>
変数導出部110によれば、同一の対象について、異なる態様の該対象の特徴をそれぞれ表現し、かつ互いに関連性を持つ潜在変数ベクトルを、導出できる。
上述した具体例に基づくと、変数導出部110が奏する効果の例は次の通りである。
学習が完了した後の変数導出部110のエンコーダ112、変換部113およびデコーダ114は、変換パラメータに応じて、異なる態様の対象を示す、複数の画像を生成することができる。したがって、エンコーダ112が出力する潜在変数ベクトルは、画像における対象の態様が変化した場合でも、変換によってその変化を表現できる。つまり、エンコーダ112と変換部113との組み合わせによれば、異なる態様の対象の特徴をそれぞれ表現し、かつ互いに関連性を持つ潜在変数ベクトルを、生成できる。
態様の差異が定量的に表され得る差異である場合、変換部113およびデコーダ114の組は、正解データにない態様が記録されたデータを生成できる可能性がある。例えば、変数導出の学習において、ある態様(「態様SA」とする)の対象が記録されたデータおよび別の態様(「態様SC」とする)の対象が記録されたデータが、それぞれ正解データとして用いられたとする。変換部113は、態様SAから態様SCへの変化に相当する変換パラメータの値の半値を用いた変数変換により、態様SAの対象を表現する潜在変数ベクトルから、態様SAと態様SCの間の態様に相当する態様(「態様SB」とする)の対象を表現する潜在変数ベクトルを生成可能である。デコーダ114がこの潜在変数ベクトルから出力データを生成することにより、態様SBの対象が記録された出力データが生成される可能性がある。
態様の差異が定量的に表されない差異である場合であっても、変換部113およびデコーダ114の組は、正解データにない態様が記録されたデータを生成できる場合がある。例えば、変数導出の学習において、態様SAのある対象(「対象TA」とする)が記録されたデータ、態様SBの対象TAが記録されたデータ、および態様SAの別の対象(「対象TB」とする)が記録されたデータが、それぞれ正解データとして用いられたとする。この学習により、変換部113およびデコーダ114の組は、潜在変数ベクトルから、態様SAの対象TAが記録されたデータおよび態様SBの対象TAが記録されたデータを生成できる。したがって、変換部113は、態様SAの対象TBが表現された潜在変数ベクトルを変換することにより、態様SBの対象TBを表現する潜在変数ベクトルを導出することができると考えられる。そして、この変換後の潜在変数ベクトルは、デコードにより態様SBの対象TBが記録されたデータを生成することも可能であると期待される。
態様の差異が定量的に表され得る差異である場合、エンコーダ112は、入力データにない態様の対象を表現する潜在変数ベクトルを導出できる可能性がある。例えば、変数導出の学習において、態様SAの対象が記録されたデータおよび態様SCの対象が記録されたデータがそれぞれ入力データとして用いられたとする。パラメータの値が最適化された後のエンコーダ112に、態様SAと態様SCの間の態様に相当する態様SBの対象が記録されたデータを入力すると、導出される潜在変数ベクトルは、態様SAの対象を表現する潜在変数ベクトルから変数変換を行うことにより生成可能な潜在変数ベクトルに類似する(または一致する)可能性がある。すなわち、エンコーダ112は、学習に使用されていない態様の対象から、その態様とは別の態様を表現する潜在変数ベクトルに変換することが可能な潜在変数ベクトルを導出できる可能性がある。
態様の差異が定量的に表されない差異である場合であっても、エンコーダ112は、入力データにない態様の対象を表現する潜在変数ベクトルを導出できる場合がある。例えば、変数導出の学習において、態様SAの対象TAが記録されたデータ、態様SBの対象TAが記録されたデータ、および態様SAの対象TBが記録されたデータが、それぞれ入力データとして用いられたとする。この学習により、エンコーダ112は、態様SBの対象TAを表現する潜在変数ベクトルを導出可能になる。したがって、エンコーダ112は、態様SBの対象TBが記録されたデータから、態様SBの対象TBを表現する潜在変数ベクトルを導出することもできると考えられる。そして、この導出される潜在変数ベクトルから、変数変換により態様SAの対象TBを表現する潜在変数ベクトルへと変換することも可能であると期待される。
以上に述べた通り、変数導出の学習により、エンコーダ112は、異なる態様の同一の対象に対して、変換パラメータを用いた変換により互いに変換可能な潜在変数ベクトルを導出できる可能性がある。
[補足]
学習装置31は、対象の態様が異なる2つ以上のデータとそれらのデータの間の差異を示す情報(差異情報)を取得可能であれば、どのようなデータ、対象、および態様の差異を扱ってもよい。
入力データは光学画像に限られない。入力データは、態様が変化し得る対象を記録し、ニューラルネットワークによって変換され得る変数で表すことが可能なデータであれば、何でもよい。
入力データの一例は、SARデータである。SARデータは、SAR(Synthetic Aperture Radar;合成開口レーダ)によって取得されるセンシングデータである。SARデータにより記録される対象の例は、地形、構造物、車両、航空機、および船舶である。変化し得る態様の例は、SARデータの取得時の方位角、および俯角である。つまり、SARによるセンシング時の条件に起因する差異が、学習装置31が扱う差異に採用されてもよい。
例えば、入力データは、センシングデバイスによって取得されるセンシングデータの、時系列データでもよい。
例えば、入力データは、音データでもよい。音データは、音が記録されたデータである。入力データが音データである場合は、入力データは、具体的には、時間ごとの振幅、または時間窓ごとのスペクトログラムの強度等により表されればよい。
入力データが音データである場合、対象の例は、人の声、発話内容、音響イベント、および音楽、等である。音響イベントとは、悲鳴やガラスの破砕音等、何らかのイベントの発生を示す音のことである。入力データが音データである場合、異なり得る態様の例は、周波数(音の高さ)、録音場所、エコーの程度、音色、データの再生速度(テンポ)、ノイズの程度、音を発生した物の種類、音を発生した人物、またはその人物の感情の状態、等である。
[分類学習部310]
分類学習部310の構成および動作について説明する。
<構成>
図2を参照すると、分類学習部310は、データ取得部311と、変換部313と、分類部317と、パラメータ更新部315と、出力部316と、パラメータ記憶部319と、を備える。
データ取得部311と、変換部313と、分類部317と、パラメータ更新部315と、出力部316と、は、例えば、プログラムを実行する1つまたは複数のCPUにより実現される。
パラメータ記憶部319は、例えば、メモリである。パラメータ記憶部319は、ハードディスク等の補助記憶装置でもよい。別の実施形態では、パラメータ記憶部319は学習装置31の外部にあり、有線または無線により学習装置31と通信可能であるように構成されていてもよい。パラメータ記憶部319は、分類部317が行う分類において用いられるパラメータを記憶する。
なお、学習装置31は、パラメータ記憶部319とは別に、データを一時的又は非一時的に記憶する記憶装置を備えていてもよい。
===データ取得部311===
データ取得部311は、分類学習部310が使用するデータを取得する。分類学習部310が使用するデータは、エンコーダ112により導出された潜在変数ベクトルと、正解情報である。
正解情報は、後述する分類部317が分類結果として出力すべき情報として望ましいとされる情報である。正解情報は入力データとセットで与えられる。正解情報は、正解情報に関連づけられる入力データにおいて示される対象が正しく識別された場合に出力されるべき情報である。
例えば、分類部317が行う分類が、L個(Lは2以上の任意の整数)のクラスのうち対象がいずれに属するかを識別する多クラス分類である場合、正解情報は、いずれか1つの成分の値が「1」であり、他の成分の値が「0」であるような、L次元のベクトルでもよい。このようなベクトルはOne-hotデータとも呼ばれる。このOne-hotデータにおいて、成分はそれぞれクラスに関連づけられている。つまり、このOne-hotデータは、対象が、値が「1」である成分に関連づけられているクラスに分類されたことを示す。
また、例えば、分類部317が行う分類が、対象がある特定の物であるか否かを識別する二値分類である場合、正解情報は、「1」か「0」かの値をとる情報でもよい。
正解情報は、後述するパラメータ更新部315によるパラメータの値の更新において、分類部317の分類結果と比較される。
データ取得部311は、エンコーダ112により導出された潜在変数ベクトルを、潜在変数記憶部118から読み出すことにより、取得すればよい。
===変換部313===
変換部313は、エンコーダ112により導出された潜在変数ベクトルを、別の潜在変数ベクトルへと変換する。変換部313は、変換部113と同様、変換関数を用いた変数変換を行う。
変換部313が用いる変換関数は、変換部113と同じ種類の、すなわち、高々変換パラメータの値のみが異なる、変換関数である。
変換部313は、変換パラメータの様々な値を用いた複数の変数変換により、複数の別の潜在変数ベクトルを生成してもよい。
===分類部317===
分類部317は、変換部313が出力する潜在変数ベクトルに対して、分類を行う。
分類部317は、例えば、ニューラルネットワークを使用して、潜在変数ベクトルをニューラルネットワークの入力層に入力し、出力として分類結果を示す情報を生成する。
分類結果を示す情報は、例えば、分類部317が多クラス分類器として使用される場合、対象が分類先のクラスに属する確率(尤度といってもよい)の分布を示す多次元ベクトルである。このような場合の多次元ベクトルの成分の数は、分類先のクラスの個数である。分類部317が二値分類器として使用される場合、分類結果を示す情報は、対象が所定の認識対象である確率を示す数値でもよい。いずれにせよ、分類結果を示す情報は、正解情報と比較可能な形式で表現されたデータである。
分類部317が使用するニューラルネットワークの構造は自由に設計され得る。たとえば、層の数、(多層ニューラルネットワークである場合は)中間層の成分数、成分間の接続の仕方に、制限はない。また、分類部317が使用するニューラルネットワークで使われる活性化関数はどのような活性化関数でもよい。
分類部317は、使用するニューラルネットワークにおけるパラメータ(典型的には、重みおよびバイアス)の値を、パラメータ記憶部319から読み出して、分類を行う。
===パラメータ更新部315===
パラメータ更新部315は、分類部317による分類結果を示す情報と、データ取得部311により取得された正解情報と、の比較に基づき、分類部317に用いられるニューラルネットワークのパラメータの値を更新する。
パラメータの値の更新の手順の具体例を示す。まず、パラメータ更新部315は、1組以上の、分類結果を示す情報と正解情報とのセットについて、分類結果を示す情報の、正解情報に対する誤差を算出する。パラメータ更新部315は、誤差を求めるための誤差関数として、たとえば交差エントロピーを用いてもよい。そして、パラメータ更新部315は、算出された誤差がより小さくなるように、新たなパラメータの値を決定する。新たなパラメータの値を決定するための手法は、一般的な分類器の学習において採用される、パラメータの値の最適化の方法として既知である方法が、用いられればよい。一例として、パラメータ更新部315は、誤差逆伝搬法を用いて勾配を計算し、SGDを用いてパラメータの値を決定してもよい。他に採用され得る手法として、「RMSprop」、「Adagrad」、「Adadelta」、「Adam」等が挙げられる。
そして、パラメータ更新部315は、決定した新たなパラメータの値を、パラメータ記憶部319に記録する。以降、分類部317は新たなパラメータの値を使用する。以上が更新の具体的手順である。
なお、パラメータ更新部315は、所定の回数だけ、パラメータの値の更新を繰り返し行ってもよい。所定の回数は、例えば、学習装置31のユーザから入力インタフェースを介して所定の回数を示す数値の入力を受け取った値に決定されてもよい。
===出力部316===
出力部316は、パラメータ更新部315により更新されたパラメータの値の情報を、出力する。例えば、出力部316は、パラメータ更新部315が繰り返しパラメータの値を更新することにより最適化されたパラメータの値を、出力する。出力部316による出力の出力先の例には、表示装置、記憶装置、および通信ネットワークが含まれる。出力部316が情報を表示装置に出力する場合、出力部316は、表示装置が該情報を表示できるよう、情報を変換してもよい。なお、上記した表示装置および記憶装置は、学習装置31の外部のデバイスであってもよいし、学習装置31に含まれる構成要素であってもよい。
<分類の学習に係る処理の流れ>
分類学習部310による、分類の学習に係る処理の流れを、図6のフローチャートを参照しながら説明する。なお、分類の学習に係る処理に含まれる各処理は、各処理がプログラムを実行するデバイスによって実行される場合においては、プログラムの中の命令の順序に従って実行されればよい。各処理が別個のデバイスによって実行される場合においては、処理を完了したデバイスが次の処理を実行するデバイスに通知を行うことで、次の処理が実行されればよい。なお、処理を行う各部は、例えば、めいめいの処理によって生成したデータを、学習装置31に含まれる記憶領域または外部の記憶装置に記録する。また、処理を行う各部は、めいめいの処理に必要なデータを、そのデータを生成した部から受け取るか、上記の学習装置31に含まれる記憶領域または外部の記憶装置から読み出せばよい。
まず、エンコーダ112が、変数導出の学習によって最適化されたパラメータの値を用いて、入力データから潜在変数ベクトルを導出する(ステップS31)。エンコーダ112は、導出した潜在変数ベクトルを潜在変数記憶部118に記録する。
次に、データ取得部311が、エンコーダ112によって導出された潜在変数ベクトルと正解情報とを取得する(ステップS32)。正解情報は、入力データとセットで学習装置31に入力される。すなわち、正解情報は、入力データ、および、入力データから導出された潜在変数ベクトルに関連づけられている。
次に、変換部313が、潜在変数ベクトルを別の潜在変数ベクトルに変換する(ステップS33)。
次に、分類部317が、上記別の潜在変数ベクトルに対して分類を行う(ステップS34)。
次に、パラメータ更新部315が、エンコーダ112およびデコーダ114に用いられるパラメータの値の更新を終了するかを判定する。
更新を終了する場合とは、例えば、パラメータ更新部315がパラメータの値の更新を行った回数が、所定の回数に達した場合である。
別の例として、更新を終了する場合とは、正解データに対する出力データの誤差が十分に小さい場合でもよい。パラメータ更新部315は、例えば、次のような場合に、誤差が十分に小さいと判定し、更新を終了すると判定してもよい。
・誤差を示す値が所定の基準値を下回った場合
・誤差をこれ以上小さくすることができない場合、または、
・誤差の減少量(すなわち、最後に行った更新の直前における誤差と更新後の誤差との差)もしくは減少率(すなわち、現在の誤差に対する減少量の比)が所定の基準値を下回った場合。
あるいは、パラメータ更新部315は、各パラメータの値の絶対変化量(すなわち、更新する場合のパラメータの値の変化量の絶対値)の平均値もしくは最大値、または変化率(すなわち、現在の値に対する絶対変化量の比)の平均値もしくは最大値が、所定の基準値を下回った場合に、更新を終了すると判定してもよい。
更新を終了しない場合は(ステップS36においてNO)、パラメータ更新部315はパラメータの値を更新し(ステップS37)、分類学習部310は再びステップS34およびステップS35の処理を行う。2回目以降のステップS34の処理では、分類部317は、更新されたパラメータの値を用いて、分類を行う。パラメータ更新部315は、ステップS34の処理により新たに生成された分類結果を、再び正解情報と比較し(ステップS35)、パラメータの値の更新を終了するかを判定する。このように、分類学習部310は、パラメータの更新を終了すると判定されるまで、パラメータの値の更新と、更新されたパラメータの値を用いた分類とを繰り返す。このような繰り返しを通してパラメータの値を更新する処理が、分類の学習である。パラメータ更新部315は、いわば、分類結果と正解情報との組を訓練用データセットとした学習により、パラメータの値を更新する。
パラメータの値の更新を終了すると判定されたら(ステップS36においてYES)、出力部316はそのパラメータの値を出力する(ステップS38)。
<効果>
以上に説明した分類の学習の結果、更新されたパラメータの値を用いる分類部317は、様々な態様の対象を表現する潜在ベクトルのそれぞれから、正しい分類結果を出力できる。したがって、エンコーダ112と分類部317とを組み合わせることにより、様々な態様の対象を識別することが可能な識別器を生成できる。
ところで、エンコーダ112を作成するための学習においては、既に述べたように、対象があらゆる態様をとるデータを用意することは必ずしも要求されない。つまり、学習装置31によれば、対象が記録されたデータのサンプルが少ない場合でも、様々な態様の対象を識別することが可能な識別器を生成できる。
<<第2の実施形態>>
学習装置は、変数導出部110を備えていなくてもよい。学習装置は、異なる態様の同一の対象に対して、変数変換により互いに変換可能な潜在変数ベクトルを導出するように構成されたエンコーダにより導出された潜在変数ベクトルを取得できるように、構成されていればよい。
図7は、本発明の第2の実施形態に係る学習装置32の構成を示すブロック図である。学習装置32は、第1の実施形態における分類学習部310に含まれる構成、すなわち、データ取得部311と、変換部313と、分類部317と、パラメータ更新部315と、出力部316と、パラメータ記憶部319と、を備える。学習装置32はエンコーダ312と、有線または無線によって通信可能に接続される。
エンコーダ312は、例えば、第1の実施形態におけるエンコーダ112である。エンコーダ112は、第1の実施形態の説明で説明された、変数導出の学習により、最適化されたパラメータの値を用いたニューラルネットワークを用いて、潜在変数ベクトルの導出を行うように構成されている。
学習装置32によっても、様々な態様の対象を識別することが可能な識別器を生成できる。その理由は、第1の実施形態の説明で述べた理由と同じである。
なお、エンコーダ312は、第1の実施形態におけるエンコーダ112でなくてもよい。所望の機能(すなわち、異なる態様の同一の対象に対して、変数変換により互いに変換可能な潜在変数ベクトルを導出する機能)を持つエンコーダ312を構成するための別の方法を、以下説明する。
例えば、様々な態様の対象を正解データとして、互いに変換可能な潜在変数ベクトルをそれぞれの正解とする学習を行うことにより、エンコーダ312を生成し得る。この学習において、正解データには、第1の実施形態におけるデコーダ114が生成する出力データが採用され、正解となる潜在変数ベクトルには、第1の実施形態における変換部113が出力する潜在変数ベクトルが採用されてもよい。
例として、所望の機能を持つエンコーダ312を生成する方法の1つは、次の方法である。まず、図8に示されるような、変数導出部110を備える学習装置13を用意する。学習装置13は、様々な態様の対象TAがそれぞれ記録されたデータを、入力データとして使用して、第1の実施形態で説明される変数導出の学習を行う。そうすることで、エンコーダ112と変換部113とデコーダ114との組み合わせによって、様々な態様の対象TAがそれぞれ記録された出力データが出力できるようになる。次に、学習装置13は、エンコーダ112により、ある態様の対象TBが記録されたデータから、潜在変数ベクトルを導出する。そして、学習装置13は、潜在変数ベクトルを変数変換により変換し、出力データを生成することにより、未学習の態様の対象TBが記録された出力データと潜在変数ベクトルとのセットを取得する。
上記のセットを用いて、エンコーダ312は、未学習の態様の対象TBが記録されたデータから正しい潜在変数ベクトルを導出するための学習を行う。これにより、エンコーダ312は、未学習の態様の対象TBが記録されたデータから、学習済みの態様の対象TBを表現する潜在変数ベクトルに変換可能な潜在変数ベクトルを導出可能になる。
上記の方法において用意する必要があるデータは、様々な態様の対象TAがそれぞれ記録されたデータと、ある態様の対象TBが記録されたデータである。未学習の態様の対象TBが記録されたデータは、用意する必要がない。
<<第3の実施形態>>
本発明の一実施形態に係る学習装置30について説明する。図9は、学習装置30の構成を示すブロック図である。学習装置30は、データ取得部301と、変換部303と、パラメータ更新部305と、を備える。
データ取得部301は、識別対象が記録されたデータから導出された、第1の特徴量を取得する。第1の特徴量は、異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、導出された特徴量である。上記エンコーダを実装する方法は既に述べた通りである。
なお、本実施形態において、特徴量とは、エンコーダにより入力データから導出される、値の組を指す。特徴量は、対象を表す情報、データの表現、等と呼ばれてもよい。特徴量を導出することは、「特徴量を抽出する」と呼ばれることもある。上記各実施形態における、「潜在変数ベクトル」は、本実施形態の「特徴量」に相当する。特徴量が学習装置30において保持される態様は問わない。例えば、特徴量は、配列の形式で保持されていてもよいし、名前が付与された変数の値としてそれぞれ保持されていてもよい。
変換部303は、データ取得部301が取得した第1の特徴量に対し、変換パラメータを用いた変換を行うことで、第2の特徴量を生成する。
パラメータ更新部305は、分類器(不図示)による分類に使用されるパラメータ(以下、「分類パラメータ」とも表記)の値を更新する。分類器は、特徴量を入力として分類を行うよう構成されたモジュールである。上記各実施形態の分類部317は、この分類器に相当する。分類器は、学習装置30に含まれていてもよいし、含まれていなくてもよい。学習装置30と分類器の機能を持つ装置とが、互いに通信可能に接続されていてもよい。分類パラメータは、学習装置によって記憶されていてもよいし、分類器の機能を持つ装置によって記憶されていてもよい。なお、分類パラメータは、例えば、ニューラルネットワークにおいて一般的に使用される重みおよびバイアスである。
パラメータ更新部305は、分類器が、第2の特徴量を入力とした場合に識別対象に関連づけられるクラスを分類先として示す結果を出力するように、分類パラメータの値を更新する。つまり、学習装置30は、第2の特徴量と、識別対象に関連づけられるクラスを分類先として示す結果と、の組を訓練用データとして、学習を行う。
分類パラメータの値を更新するとは、例えば、分類パラメータを記憶する記憶部に、分類パラメータの新たな値を記録することである。パラメータ更新部305は、分類パラメータの新たな値を、学習装置30の外部の装置(例えば、記憶装置、表示装置または分類器を使用する情報処理装置)に、出力してもよい。
図10のフローチャートを参照しながら、学習装置30による処理の流れの例を説明する。まず、データ取得部301が、第1の特徴量を取得する(ステップS301)。次に、変換部303が、第1の特徴量に対し、変換パラメータを用いた変換を行うことで、第2の特徴量を生成する(ステップS302)。そして、パラメータ更新部305は、分類器が、第2の特徴量を入力とした場合に識別対象に関連づけられるクラスを分類先として示す結果を出力するように、分類パラメータの値を更新する(ステップS303)。
学習装置30によれば、対象が記録されたデータのサンプルが少ない場合でも、様々な態様の対象を識別することが可能な識別器を生成できる。その理由は、分類器が更新された分類パラメータの値を用いれば、第2の特徴量により表現され得る、識別対象が記録されたデータが、学習において用いられなかったとしても、正しく(すなわち、識別対象に関連づけられるクラスに)分類されるからである。
<実施形態の各部を実現するハードウェアの構成>
以上で説明された本発明の各実施形態において、各装置の各構成要素を示すブロックは、機能単位で示されている。しかし、構成要素を示すブロックは、各構成要素が別個のモジュールにより構成されることを必ずしも意味していない。
各構成要素の処理は、たとえば、コンピュータシステムが、コンピュータ読み取り可能な記憶媒体により記憶された、その処理をコンピュータシステムに実行させるプログラムを、読み出し、実行することによって、実現されてもよい。「コンピュータ読み取り可能な記憶媒体」は、たとえば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の可搬媒体、ならびに、コンピュータシステムに内蔵されるROM(Read Only Memory)およびハードディスク等の記憶装置である。「コンピュータ読み取り可能な記憶媒体」は、コンピュータシステム内部の揮発性メモリのようにプログラムを一時的に保持可能なもの、および、ネットワークや電話回線等の通信回線のように、プログラムを伝送するものも含む。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記憶されているプログラムとの組み合わせで実現できるものであってもよい。
「コンピュータシステム」とは、一例として、図11に示されるようなコンピュータ900を含むシステムである。コンピュータ900は、以下のような構成を含む。
・1つまたは複数のCPU901
・ROM902
・RAM(Random Access Memory)903
・RAM903へロードされるプログラム904Aおよび記憶情報904B
・プログラム904Aおよび記憶情報904Bを格納する記憶装置905
・記憶媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
たとえば、各実施形態における各装置の各構成要素は、その構成要素の機能を実現するプログラム904AをCPU901がRAM903にロードして実行することで実現される。各装置の各構成要素の機能を実現するプログラム904Aは、例えば、予め、記憶装置905やROM902に格納される。そして、必要に応じてCPU901がプログラム904Aを読み出す。記憶装置905は、たとえば、ハードディスクである。プログラム904Aは、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記憶媒体906に格納されており、ドライブ装置907に読み出され、CPU901に供給されてもよい。なお、記憶媒体906は、たとえば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の、可搬媒体である。
各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個のコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つのコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。
また、各装置の各構成要素の一部または全部は、その他の汎用または専用の回路、コンピュータ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。
各装置の各構成要素の一部または全部が複数のコンピュータや回路等により実現される場合には、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、コンピュータや回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。
<<付記>>
[付記1]
異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録されたデータから導出された、第1の特徴量を取得する取得手段と、
前記第1の特徴量に対し、前記変換パラメータの値を用いた変換を行うことで、第2の特徴量を生成する変換手段と、
特徴量を入力として分類を行うよう構成された分類手段が、前記第2の特徴量を入力とした場合に前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、パラメータ更新手段と、
を備える学習装置。
[付記2]
前記変換手段は、相異なる前記変換パラメータの値をそれぞれ用いた複数の変換により、前記第1の特徴量から複数の第2の特徴量を生成し、
前記パラメータ更新手段は、前記分類手段が前記複数の第2の特徴量のいずれを入力としても前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類パラメータの値を更新する、
付記1に記載の学習装置。
[付記3]
前記変換手段は、前記第1の特徴量の成分の配置を変更する前記変換を行う、
付記1または2に記載の学習装置。
[付記4]
前記データは画像であり、前記識別対象は物体または人物である、
付記1から3のいずれかに記載の学習装置。
[付記5]
前記データはSAR(Synthetic Aperture Radar)によるセンシングデータから生成される画像であり、前記態様の差異はSARによるセンシング時の条件に起因する差異である、
付記1から3のいずれかに記載の学習装置。
[付記6]
前記第2の特徴量を入力として分類を行う前記分類手段をさらに備える、付記1から5のいずれかに記載の学習装置。
[付記7]
前記エンコーダをさらに備える、付記1から6のいずれかに記載の学習装置。
[付記8]
付記1から6のいずれかに記載の学習装置により更新された前記分類パラメータの値を用いる前記分類手段により、前記エンコーダを用いて新たなデータから導出される第3の特徴量を、入力として、分類を行う、分類方法。
[付記9]
異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録されたデータから導出された、第1の特徴量を取得し、
前記第1の特徴量に対し、前記変換パラメータの値を用いた変換を行うことで、第2の特徴量を生成し、
特徴量を入力として分類を行うよう構成された分類手段が、前記第2の特徴量を入力とした場合に前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、
学習方法。
[付記10]
相異なる前記変換パラメータの値をそれぞれ用いた複数の変換により、前記第1の特徴量から複数の第2の特徴量を生成し、
前記分類手段が前記複数の第2の特徴量のいずれを入力としても前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類パラメータの値を更新する、
付記9に記載の学習方法。
[付記11]
前記第1の特徴量の成分の配置を変更する前記変換を行う、
付記9または10に記載の学習方法。
[付記12]
前記データは画像であり、前記識別対象は物体または人物である、
付記9から11のいずれかに記載の学習方法。
[付記13]
前記データはSAR(Synthetic Aperture Radar)によるセンシングデータから生成される画像であり、前記態様の差異はSARによるセンシング時の条件に起因する差異である、
付記9から11のいずれかに記載の学習方法。
[付記14]
付記9から13のいずれかに記載の学習方法により更新された前記分類パラメータの値を用いる前記分類手段により、前記エンコーダを用いて新たなデータから導出される第3の特徴量を、入力として、分類を行う、分類方法。
[付記15]
異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録されたデータから導出された、第1の特徴量を取得する取得処理と、
前記第1の特徴量に対し、前記変換パラメータの値を用いた変換を行うことで、第2の特徴量を生成する変換処理と、
特徴量を入力として分類を行うよう構成された分類手段が、前記第2の特徴量を入力とした場合に前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、パラメータ更新処理と、
をコンピュータに実行させるプログラムを記憶した、コンピュータ読み取り可能な記憶媒体。
[付記16]
前記変換処理は、相異なる前記変換パラメータの値をそれぞれ用いた複数の変換により、前記第1の特徴量から複数の第2の特徴量を生成し、
前記パラメータ更新処理は、前記分類手段が前記複数の第2の特徴量のいずれを入力としても前記識別対象に関連づけられるクラスを分類先として示す結果を出力するように、前記分類パラメータの値を更新する、
付記15に記載の記憶媒体。
[付記17]
前記変換処理は、前記第1の特徴量の成分の配置を変更する前記変換を行う、
付記15または16に記載の記憶媒体。
[付記18]
前記データは画像であり、前記識別対象は物体または人物である、
付記15から17のいずれかに記載の記憶媒体。
[付記19]
前記データはSAR(Synthetic Aperture Radar)によるセンシングデータから生成される画像であり、前記態様の差異はSARによるセンシング時の条件に起因する差異である、
付記15から17のいずれかに記載の記憶媒体。
本願発明は以上に説明した実施形態に限定されるものではない。以上に説明した実施形態の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
13、30-32 学習装置
110 変数導出部
111 データ取得部
112 エンコーダ
113 変換部
114 デコーダ
115 パラメータ更新部
118 潜在変数記憶部
119 パラメータ記憶部
310 分類学習部
301、311 データ取得部
312 エンコーダ
303、313 変換部
305、315 パラメータ更新部
316 出力部
317 分類部
900 コンピュータ
901 CPU
902 ROM
903 RAM
904A プログラム
904B 記憶情報
905 記憶装置
906 記憶媒体
907 ドライブ装置
908 通信インタフェース
909 通信ネットワーク
910 入出力インタフェース
911 バス

Claims (7)

  1. 異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録された入力データから導出された、第1の特徴量を取得する取得手段と、
    前記第1の特徴量に対し、前記第1の特徴量の成分の配置を、前記入力データと前記入力データの正解データとの間の態様の差異に応じて決定された前記変換パラメータを変換のパラメータとして用いた変換関数によって算出されたシフト量に応じて変更する変換を行うことで、前記変換パラメータに応じた差を有する複数の第2の特徴量を生成する変換手段と、
    特徴量を入力として分類を行うよう構成された分類手段が、前記複数の第2の特徴量を入力とした場合に前記正解データのクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、パラメータ更新手段と、
    を備える学習装置。
  2. 前記データは画像であり、前記識別対象は物体または人物である、
    請求項1に記載の学習装置。
  3. 前記データはSAR(Synthetic Aperture Radar)によるセンシングデータから生成される画像であり、前記態様の差異はSARによるセンシング時の条件に起因する差異である、
    請求項1に記載の学習装置。
  4. 前記第2の特徴量を入力として分類を行う前記分類手段をさらに備える、請求項1からいずれかに記載の学習装置。
  5. 前記エンコーダをさらに備える、請求項1からのいずれかに記載の学習装置。
  6. 異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録された入力データから導出された、第1の特徴量を取得し、
    前記第1の特徴量に対し、前記第1の特徴量の成分の配置を、前記入力データと前記入力データの正解データとの間の態様の差異に応じて決定された前記変換パラメータを変換のパラメータとして用いた変換関数によって算出されたシフト量に応じて変更する変換を行うことで、前記変換パラメータに応じた差を有する複数の第2の特徴量を生成し、
    特徴量を入力として分類を行うよう構成された分類手段が、前記複数の第2の特徴量を入力とした場合に前記正解データのクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、
    学習方法。
  7. 異なる態様の同一の対象がそれぞれ記録されたデータから、前記態様の差異に応じた値をとる変換パラメータを用いた変換により互いに変換可能な特徴量をそれぞれ導出するように構成された、エンコーダにより、識別対象が記録された入力データから導出された、第1の特徴量を取得する取得処理と、
    前記第1の特徴量に対し、前記第1の特徴量の成分の配置を、前記入力データと前記入力データの正解データとの間の態様の差異に応じて決定された前記変換パラメータを変換のパラメータとして用いた変換関数によって算出されたシフト量に応じて変更する変換を行うことで、前記変換パラメータに応じた差を有する複数の第2の特徴量を生成する変換処理と、
    特徴量を入力として分類を行うよう構成された分類手段が、前記複数の第2の特徴量を入力とした場合に前記正解データのクラスを分類先として示す結果を出力するように、前記分類手段による分類に使用される分類パラメータの値を更新する、パラメータ更新処理と、
    をコンピュータに実行させる学習プログラム。
JP2019559490A 2017-12-14 2017-12-14 学習装置、学習方法、および学習プログラム Active JP7184801B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/044894 WO2019116494A1 (ja) 2017-12-14 2017-12-14 学習装置、学習方法、分類方法、および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2019116494A1 JPWO2019116494A1 (ja) 2020-11-26
JP7184801B2 true JP7184801B2 (ja) 2022-12-06

Family

ID=66819132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019559490A Active JP7184801B2 (ja) 2017-12-14 2017-12-14 学習装置、学習方法、および学習プログラム

Country Status (4)

Country Link
US (1) US11270163B2 (ja)
EP (1) EP3726463A4 (ja)
JP (1) JP7184801B2 (ja)
WO (1) WO2019116494A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563953B1 (ko) * 2022-12-20 2023-08-04 국방과학연구소 영상의 잠재특징을 이용한 영상 변환방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197389A (ja) 2015-04-03 2016-11-24 株式会社デンソーアイティーラボラトリ 学習システム、学習プログラムおよび学習方法
JP7121713B2 (ja) 2019-09-17 2022-08-18 日立グローバルライフソリューションズ株式会社 洗濯機

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121713A (ja) 1993-10-21 1995-05-12 Kobe Steel Ltd パターン認識方法
JPH1115973A (ja) 1997-06-23 1999-01-22 Mitsubishi Electric Corp 画像認識装置
JP4238537B2 (ja) 2002-07-31 2009-03-18 富士ゼロックス株式会社 画像処理装置
SE528068C2 (sv) * 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
US9031294B2 (en) 2010-07-23 2015-05-12 National Institute Of Advanced Industrial Science And Technology Region segmented image data creating system and feature extracting system for histopathological images
US8532402B2 (en) 2011-06-22 2013-09-10 The Boeing Company Image registration
US9700219B2 (en) * 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US10810469B2 (en) * 2018-05-09 2020-10-20 Adobe Inc. Extracting material properties from a single image
US10719706B1 (en) * 2018-06-19 2020-07-21 Architecture Technology Corporation Systems and methods for nested autoencoding of radar for neural image analysis
US20210295167A1 (en) * 2020-03-23 2021-09-23 Ansys, Inc. Generative networks for physics based simulations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197389A (ja) 2015-04-03 2016-11-24 株式会社デンソーアイティーラボラトリ 学習システム、学習プログラムおよび学習方法
JP7121713B2 (ja) 2019-09-17 2022-08-18 日立グローバルライフソリューションズ株式会社 洗濯機

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jun Ding,et al.、Convolutional Neural Network With Data Augmentation for SAR Target Recognition、IEEE Geoscience and Remote Sensing Letters、2016.01.26、Volume 13,Issue 3、pp.364-368
Xiaoming Deng,et al.、Joint Hand Detection and Rotation Estimation by Using CNN、[online]、2016.12.08、v1、pp.1-10、[retrieved on 2022-07-12]、Retrieved from the Internet: <URL:https://arxiv.org/pdf/1612.02742.pdf>

Also Published As

Publication number Publication date
EP3726463A1 (en) 2020-10-21
WO2019116494A1 (ja) 2019-06-20
US11270163B2 (en) 2022-03-08
US20210081721A1 (en) 2021-03-18
JPWO2019116494A1 (ja) 2020-11-26
EP3726463A4 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
US11645835B2 (en) Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications
WO2021254499A1 (zh) 编辑模型生成、人脸图像编辑方法、装置、设备及介质
CN108764195B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
US20230081346A1 (en) Generating realistic synthetic data with adversarial nets
CN102411931B (zh) 用于大词汇量连续语音识别的深度信任网络
JPH07502357A (ja) 高速で収束する射影ニューラル・ネットワーク
CN108021908B (zh) 人脸年龄段识别方法及装置、计算机装置及可读存储介质
CN112508186A (zh) 训练用于图像识别的神经网络的方法和神经网络设备
JP2005202932A (ja) データを複数のクラスに分類する方法
JPWO2018207334A1 (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN114663685B (zh) 一种行人重识别模型训练的方法、装置和设备
JP2019508803A (ja) ニューラルネットワークモデルの訓練方法、装置及び電子機器
Chen et al. Coupled end-to-end transfer learning with generalized fisher information
KR20220045424A (ko) 인공 신경망을 압축하는 방법 및 장치
JP6943295B2 (ja) 学習装置、学習方法、および学習プログラム
JP7047849B2 (ja) 識別装置、識別方法、および識別プログラム
JP7184801B2 (ja) 学習装置、学習方法、および学習プログラム
KR20230096901A (ko) 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치
US12014728B2 (en) Dynamic combination of acoustic model states
CN108985371B (zh) 一种图像多分辨率字典学习方法及其应用
US20210287038A1 (en) Identifying salient features for generative networks
JP2020067954A (ja) 情報処理装置、情報処理方法及びプログラム
KR102512018B1 (ko) 클래스 인지 메모리 네트워크 기반 영상 변환 장치 및 방법
Pan A study on deep learning: Training, models and applications
KR20240105875A (ko) 음성변환을 위한 음성 데이터 학습 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220131

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220209

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220215

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220401

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220405

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220621

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220726

C28A Non-patent document cited

Free format text: JAPANESE INTERMEDIATE CODE: C2838

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221004

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20221101

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R151 Written notification of patent or utility model registration

Ref document number: 7184801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151