JP6760830B2 - 学習装置及び学習方法 - Google Patents

学習装置及び学習方法 Download PDF

Info

Publication number
JP6760830B2
JP6760830B2 JP2016230351A JP2016230351A JP6760830B2 JP 6760830 B2 JP6760830 B2 JP 6760830B2 JP 2016230351 A JP2016230351 A JP 2016230351A JP 2016230351 A JP2016230351 A JP 2016230351A JP 6760830 B2 JP6760830 B2 JP 6760830B2
Authority
JP
Japan
Prior art keywords
feature amount
learning
class
learning device
distribution characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016230351A
Other languages
English (en)
Other versions
JP2018088078A (ja
Inventor
稔 大竹
稔 大竹
河村 大輔
大輔 河村
将宏 荒川
将宏 荒川
和洋 武智
和洋 武智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2016230351A priority Critical patent/JP6760830B2/ja
Publication of JP2018088078A publication Critical patent/JP2018088078A/ja
Application granted granted Critical
Publication of JP6760830B2 publication Critical patent/JP6760830B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、学習データを基に学習を行って未学習データを正しく認識させる学習装置及び学習方法に関する。
近年、複数の学習データを基に学習を行って、未学習データに対する正しい出力を予測可能にする学習装置が開示されている(特許文献1等参照)。学習装置には、学習データを反復的に分析して傾向を判別して、未学習データに対する正しい出力を予測させる機械学習が周知である。
特開2015−185149号公報
この種の学習装置においては、未学習データを認識するにあたっての学習の判別性能(汎化性能)を確保したいニーズが高い。
本発明の目的は、学習の判別性能を確保することができる学習装置及び学習方法を提供することにある。
前記問題点を解決する学習装置は、学習対象の情報データから特徴量を抽出し、当該特徴量を学習データとして学習部が学習を行うことにより、未学習データを識別可能にする構成において、前記学習で判別する1つのクラスの前記特徴量に関して分布特性を求め、当該分布特性に基づき1つのクラスに分布する前記特徴量をシフトするシフト処理部と、前記シフト処理部の処理結果を基に、学習時に使用する2乗特徴量を生成する2乗特徴量生成部とを備えた。
本構成によれば、学習で判別する1つのクラスの特徴量の分布特性を求め、この分布特性に基づきシフトした特徴量を基に、学習時に使用する2乗特徴量を生成する。ところで、例えば全クラスの特徴量の分布特性を求めて、この分布特性でシフトした特徴量を基に2乗特徴量を生成すると、クラスの情報を用いていないため、2乗特徴量を好適な分布とすることができない。そこで、本構成では、1つのクラスの特徴量のみ使用することとしたので、全クラスの特徴量を使用する場合に比べて不要な特徴量に影響を受けずに済み、2乗特徴量を好適な分布にすることが可能となる。よって、判別性能の高い判別式を得ることが可能となる。
前記学習装置において、前記分布特性は、1つのクラスに分布する前記特徴量の平均値であることが好ましい。この構成によれば、1つのクラスの特徴量に関して、平均値を算出するという簡素な処理によって特徴量の分布特性を求めることが可能となる。
前記学習装置において、前記学習は、線形式を引いてクラス判別を行う線形パターン認識であることが好ましい。この構成によれば、判別性能の高い線形式によって、パターン認識の学習を行うことが可能となる。
前記学習装置において、前記特徴量は、1次特徴量であり、前記シフト処理部は、前記1つのクラスの前記1次特徴量の分布特性を求め、当該分布特性に基づき前記1つのクラスに分布する前記1次特徴量をシフトし、前記2乗特徴量生成部は、前記分布特性でシフトした前記1次特徴量から前記2乗特徴量を生成することが好ましい。この構成によれば、1次特徴量を2乗するという簡素な処理を通じて2乗特徴量を作成することが可能となる。
前記学習装置において、前記学習部は、前記2乗特徴量のみならず、他の種類の特徴量も用いて前記学習を実行することが好ましい。この構成によれば、例えば1次特徴量のみで学習を行うときに比べて好適な判別式を求めることが可能となるので、汎化性能の確保に一層有利となる。
前記学習装置において、前記学習は、マージン最大化を通じて判別式を算出するサポートベクターマシン又はブースティングであることが好ましい。この構成によれば、サポートベクターマシン、ブースティング又はニューラルネットワークにより算出した汎化性能の高い判別式によって学習を行うことが可能となる。
前記問題点を解決する学習方法は、請求項1〜6のうちいずれか一項に記載の学習装置を用いた学習方法において、前記学習装置のシフト処理部により、前記学習で分類する1つのクラスの前記特徴量に関して分布特性を求め、当該分布特性に基づき1つのクラスに分布する前記特徴量をシフトするステップと、前記学習装置の2乗特徴量生成部により、シフト処理の結果を基に、前記学習部が学習時に使用する2乗特徴量を生成するステップとを備えた。
本発明によれば、学習の判別性能を確保することができる。
一実施形態の学習装置の構成図。 (a)は線形式のデータを端末に登録するときの概要図、(b)は端末をモーション操作したときの概要図。 従来位置付けの学習方法における特徴量の度数分布図。 (a)は特徴量を全クラスのデータでシフトしたときの特徴量の度数分布図、(b)はそのシフトした特徴量から作成した2乗特徴量の度数分布図。 (a)は特徴量を片方のクラスのデータでシフトしたときの特徴量の度数分布図、(b)はそのシフトした特徴量から作成した2乗特徴量の度数分布図。 学習装置の作動の流れを示すフローチャート。
以下、学習装置及び学習方法の一実施形態を1〜図6に従って説明する。
図1に示すように、学習装置1は、学習対象の情報データDaを入力するデータ入力部2と、集められた情報データDaの群から特徴量xを抽出する特徴量抽出部3と、特徴量抽出部3により抽出された特徴量xを学習前に前処理を施す前処理部4と、未学習データに対して正しい出力を示せるように前処理後の特徴量xを基に学習(機械学習)を実行する学習部5とを備える。本例の学習装置1は、車両の電子キー等の端末6(図2参照)に付与された動きを識別することが可能な判別式Y(クラス判別の境界)を学習により算出する。
情報データDaは、例えば加速度センサ(Gセンサ)から出力された加速度信号であることが好ましい。特徴量xは、例えば加速度信号の波形に係る種々のパラメータからなる。特徴量xは、例えば1次特徴量x1や、2次特徴量x2などから構築されている。1次特徴量x1は、加速度信号の波形に係る「平均値」、「最大値」、「最小値」、「時間幅」、「傾き」などのパラメータからなる。2次特徴量x2は、1次特徴量から派生したパラメータである。2次特徴量x2は、例えば1次特徴量x1を2乗して求まる2乗特徴量x’や、異なる種類の1次特徴量x1同士を掛け合わせて求まる値などから構築されている。
学習部5(学習装置1の学習方式)は、特徴量xを学習データとしてサポートベクターマシン(Support Vector Machine:SVM)によりパターン認識を実行する。サポートベクターマシンは、マージン最大化が特徴の1つであり、マージン最大化により求まった判別式Yを通じてパターン識別を行う。本例のサポートベクターマシンは、線形の判別式Y(以降、線形式yと記す)により、2クラスのパターン識別を行う。学習部5は、情報データDaから抽出される複数の特徴量xから、サポートベクターマシンにより2クラス判別の線形式yを求め、クラス判別の境界である線形式yにより未学習データのクラス分けを実現可能にする。
図2(a)に示すように、学習結果の線形式yは、車両の電子キー等の端末6(メモリ9等)に書き込み登録される。そして、図2(b)に示すように、ユーザにより端末6がモーション操作されるなどの動きが端末6に付与されたとき、端末6に搭載された加速度センサから出力される加速度信号を基に線形式yから動きがクラス判別され、モーション操作がどのような操作であるのかが判定される。
図1に戻り、学習装置1は、2乗特徴量x’を生成する前処理部4の要素としてシフト処理部12及び2乗特徴量生成部13を備える。シフト処理部12は、学習で判別する1つのクラス(A,Bの片方のクラス)の特徴量xに関して分布特性を求め、特徴量xを分布特性でシフトする。本例の分布特性は、1つのクラスに分布する特徴量xの平均値である。2乗特徴量生成部13は、シフト処理部12の処理結果(シフト後の特徴量x)を基に、学習時に使用する2乗特徴量x’を生成する。2乗特徴量生成部13は、線形式yにおいて、片方のクラス(判定したい方のクラス)の1次特徴量x1の平均値でシフトした1次特徴量x1から2乗特徴量x’を生成する。
次に、図3〜図6を用い、学習装置1の作用及び効果を説明する。
図3に、学習装置1の学習処理の原理を図示する。なお、ここでは、線形式yのサポートベクターマシンの例を示し、線形式yの場合、クラス判別には一般的に1次特徴量x1を用いることが多い。同図に示されるように、例えばクラスAとクラスBとの境界(線形式y)を(1)に引いた場合、学習の判定結果は以下のようになる。
クラスAの判定条件:(1)<xのとき、判定結果:{(b),(c),(d),(e)}
クラスBの判定条件:(1)≧xのとき、判定結果:{(a)}
クラス判別の境界が(1)の場合、特徴量xの(e)が最もクラスAと判定され易い。すなわち、クラスAの分布から大きく外れて、(1)よりも大きいデータほど、クラスAと判定され易くなってしまう。
また、クラスAとクラスBとの境界(線形式y)を(2)に引いた場合、学習の判定結果は以下のようになる。
クラスAの判定条件:(2)<xのとき、判定結果:{(a),(b),(c),(d)}
クラスBの判定条件:(2)≧xのとき、判定結果:{(e)}
クラス判別の境界が(2)の場合、特徴量xの(a)が最もクラスAと判定され易い。すなわち、クラスAの分布から大きく外れて、(2)よりも大きいデータほど、クラスAと判定され易くなってしまう。
以上のように、1次特徴量x1のみで線形式yを構築する学習方法の場合、クラスAの分布の中心から離れた特徴量xをクラスAと判定し易い線形式になってしまう問題がある。そこで、クラスAの分布の中心から離れた特徴量xをクラスBと判定し易くすることができる線形式yを作成する必要がある。
続いて、図4(a),(b)に、2乗特徴量x’を使用した学習処理の具体例を図示する。まず、図4(a)に示すように、特徴量xの全データの平均値で特徴量x(1次特徴量x1)をシフトすることにより、特徴量−度数の相関図である特徴量分布図を、分布中心(特徴量「0」)が変更された特徴量x’の分布図に変換する。これにより、特徴量分布中心となる特徴量「0」が、特徴量x’の度数が多い箇所に移動する。図4(b)に示すように、特徴量シフト後、シフトした特徴量x’を2乗することにより、2乗特徴量x’を演算する。これにより、正値のみ存在する特徴量分布図となる。
ここで、クラスAとクラスBとの境界(線形式y)を(3)に引いた場合、学習の判定結果は以下のようになる。
クラスAの判定条件:(3)<x’のとき、判定結果:{(b),(c),(d)}
クラスBの判定条件:(3)≧x’のとき、判定結果:{(a),(e)}
クラス判別の境界が(3)の場合、クラスAの分布中心(c)から距離が等しい(b),(d)のうち、(d)の方がクラスAと判定され易い。すなわち、分布中心である(c)が最もクラスAと判定され易くなる訳ではなく、(3)から遠い(d)も(c)と同程度にクラスAと判定され易くなってしまう。
図5(a),(b)に、本発明の学習処理の具体例を図示する。まずは、学習装置1に情報データDaを入力する。このとき、いまから入力する情報データDaがA,Bのどちらのクラスかを指定して情報データDaが学習装置1に入力される。ここでは、クラスAとして例えば端末6を振る操作を指定して情報データDaが学習装置1に入力され、クラスBとして例えば端末6を叩く操作を指定して情報データDaが学習装置1に入力される。
図5(a)に示すように、シフト処理部12は、特徴量x(1次特徴量x1)をクラスAの平均値でシフトする。本例の場合、情報データDaを入力するときに情報データDaがクラスA,Bのどちらのものであるのかを指定しているので、どの特徴量x(1次特徴量x1)がクラスAなのかを予め把握できている。また、シフト対象にクラスAを使用するのは、クラス判別したい対象がクラスAだからである。特徴量x(1次特徴量x1)をクラスAの平均値でシフトすると、クラスAの分布中心が分布基準「0」に一致した特徴量分布図に変換される。シフト処理部12は、シフト後の特徴量x’を2乗特徴量生成部13に出力する。
図5(b)に示すように、2乗特徴量生成部13は、シフト処理部12から取得したシフト後の特徴量x’を2乗して、2乗特徴量x’を生成する。2乗特徴量x’は、正値のみ存在する特徴量分布図となる。本例の場合、2乗特徴量x’の分布図においては、(c)が分布基準「0」の座標に位置し、(b)、(d)が同じ座標上に位置する。
ここで、クラスAとクラスBとの境界(線形式y)を(4)に引いた場合、学習の判定結果は以下のようになる。
クラスAの判定条件:(4)<x’のとき、判定結果:{(b),(c),(d)}
クラスBの判定条件:(4)≧x’のとき、判定結果:{(a),(e)}
同図からも分かる通り、クラス判別の境界が(4)の場合、クラスAの分布中心(c)から距離が等しい(b),(d)は、クラスAの判定され易さが等しくなる。また、分布中心である(c)を、最もクラスAと判定され易くすることも可能となる。さらに、学習データにないクラスBのデータが入力されたときには、クラスAの分布から離れていれば、クラスBと判定され易くなる。
続いて、図6を用い、学習装置1の作動のまとめを説明する。
ステップ100において、データ入力部2は、学習装置1の外部から複数の情報データDaを取得する。このとき、情報データDaは、属するクラスがA,Bのどちらであるのかが指定されて学習装置1に入力される。
ステップ101において、特徴量抽出部3は、データ入力部2が入力した情報データDaから、種々の特徴量xを抽出する。特徴量抽出部3は、抽出した特徴量xを学習部5に出力するとともに、種々の特徴量xのうち1次特徴量x1を前処理部4に出力する。
ステップ102において、シフト処理部12は、学習で分類する1つのクラス(本例は片方のクラスA)の特徴量x(本例は1次特徴量x1)に関して平均値を求め、特徴量x(本例は1次特徴量x1)を平均値でシフトする。すなわち、分類したいクラスAの1次特徴量x1を平均化し、この平均値を用いてクラスAの1次特徴量x1をシフトする。
ステップ103において、2乗特徴量生成部13は、シフト後の特徴量x’を2乗して、所望の2乗特徴量x’を生成する。2乗特徴量生成部13は、生成した2乗特徴量x’を学習部5に出力する。
ステップ104において、学習部5は、特徴量抽出部3から取得した特徴量x(1次特徴量x1、2次特徴量x2)と、前処理部4から取得した2乗特徴量x’とを基に学習を実行し、未学習データをパターン識別可能な線形式yを算出する。そして、この線形式yが端末6に登録されて、端末6におけるモーション操作判定が可能にされる。
さて、本例の場合、学習で判別する1つのクラス(本例はクラスA)の特徴量xの分布特性(本例は平均値)を求め、この分布特性に基づきシフトした特徴量x’を基に、学習時に使用する2乗特徴量x’を生成する。ところで、例えば全クラスの特徴量xの分布特性(具体的には平均値)を求めて、この分布特性でシフトした特徴量x’を基に2乗特徴量x’を生成すると、クラスの情報を用いていないため、2乗特徴量x’を好適な分布とすることができない(図4参照)。そこで、本例では、1つのクラス(本例は片方のクラスA)の特徴量x’のみ使用することとしたので、全クラスの特徴量x’を使用する場合に比べて不要な特徴量x’に影響を受けずに済み、2乗特徴量x’を好適な分布にすることが可能となる(図5参照)。よって、判別性能の高い判別式Y(本例は線形式y)を得ることができる。
本例の分布特性は、1つのクラス(本例はクラスA)に分布する特徴量x(本例は1次特徴量x1)の平均値である。よって、1つのクラスの特徴量xに関して、平均値を算出するという簡素な処理によって特徴量xの分布特性を求めることができる。
本例の学習は、線形式を引いてクラス判別を行う線形パターン認識である。よって、判別性能の高い線形式によって、パターン認識の学習を行うことができる。
2乗特徴量生成部13は、1つのクラスに含まれる1次特徴量x1を分布特性でシフトした値により2乗特徴量x’を生成する。よって、1次特徴量x1を2乗するという簡素な処理を通じて2乗特徴量x’を作成することができる。
学習部5は、2乗特徴量x’のみならず、他の種類の特徴量も用いて学習を実行する。よって、例えば1次特徴量x1のみで学習を行うときに比べて好適な判別式Y(本例は線形式y)を求めることが可能となるので、汎化性能の確保に一層有利となる。
学習は、マージン最大化を通じて判別式Y(本例は線形式y)を算出するサポートベクターマシンである。よって、サポートベクターマシンにより算出した汎化性能の高い判別式Y(本例は線形式y)によって学習を行うことができる。
なお、実施形態はこれまでに述べた構成に限らず、以下の態様に変更してもよい。
・動き判定を行うための判別式Y(線形式y)を算出することに限定されず、判定対象は特に限定されない。
・情報データDaは、加速度データに限らず、種々のデータに変更してもよい。
・クラスAで特徴量xをシフトすることに限定されず、クラスBで特徴量xをシフトするなど、特徴量xを他のクラスでシフトしてもよい。
・2乗特徴量x’は、1次特徴量x1から算出されることに限定されない。例えば、2次特徴量x2を2乗して求めるなど、他の形式に変更可能である。
・分布特性は、特徴量xの平均値に限定されず、例えば特徴量xの分布の中央値など、他に変更してもよい。
・サポートベクターマシンは、線形パターン認識手法をとるものに限定されず、例えば非線形であってもよい。
・端末6は、電子キーに限定されず、他の機器や装置に変更可能である。
・学習は、サポートベクターマシンに限定されず、ブースティングやニューラルネットワークなどの他の方式を採用してもよい。また、学習は、例えばパーセプトロン、線形重回帰分析などでもよい。
次に、上記実施形態及び別例から把握できる技術的思想について、以下に追記する。
(イ)学習対象の情報データから学習データとして特徴量を抽出し、当該特徴量を用いて学習部が学習を行うことにより、未学習データを識別可能にする学習プログラムにおいて、前記学習で分類する1つのクラスの前記特徴量に関して分布特性を求め、当該分布特性を基に前記特徴量をシフトするステップと、シフト処理の結果を基に、前記学習部が学習時に使用する2乗特徴量を生成するステップとをコンピュータに実行させることを特徴とする学習プログラム。
1…学習装置、2…データ入力部、3…特徴量抽出部、4…前処理部、5…学習部、12…シフト処理部、13…2乗特徴量生成部、Da…情報データ、x…特徴量、x1…1次特徴量、x2…2次特徴量、x’…シフト後の特徴量、x’…2乗特徴量、Y…判別式、y…線形式。

Claims (7)

  1. 学習対象の情報データから特徴量を抽出し、当該特徴量を学習データとして学習部が学習を行うことにより、未学習データを識別可能にする学習装置において、
    前記学習で判別する1つのクラスの前記特徴量に関して分布特性を求め、当該分布特性に基づき1つのクラスに分布する前記特徴量をシフトするシフト処理部と、
    前記シフト処理部の処理結果を基に、学習時に使用する2乗特徴量を生成する2乗特徴量生成部とを備えたことを特徴とする学習装置。
  2. 前記分布特性は、1つのクラスに分布する前記特徴量の平均値である
    請求項1に記載の学習装置。
  3. 前記学習は、線形式を引いてクラス判別を行う線形パターン認識である
    請求項1又は2に記載の学習装置。
  4. 前記特徴量は、1次特徴量であり、
    前記シフト処理部は、前記1つのクラスの前記1次特徴量の分布特性を求め、当該分布特性に基づき前記1つのクラスに分布する前記1次特徴量をシフトし、
    前記2乗特徴量生成部は、前記分布特性でシフトした前記1次特徴量から前記2乗特徴量を生成する請求項1〜3のうちいずれか一項に記載の学習装置。
  5. 前記学習部は、前記2乗特徴量のみならず、他の種類の特徴量も用いて前記学習を実行する請求項1〜4のうちいずれか一項に記載の学習装置。
  6. 前記学習は、マージン最大化を通じて判別式を算出するサポートベクターマシン又はブースティングである請求項1〜5のうちいずれか一項に記載の学習装置。
  7. 請求項1〜6のうちいずれか一項に記載の学習装置を用いた学習方法において、
    前記学習装置のシフト処理部により、前記学習で分類する1つのクラスの前記特徴量に関して分布特性を求め、当該分布特性に基づき1つのクラスに分布する前記特徴量をシフトするステップと、
    前記学習装置の2乗特徴量生成部により、シフト処理の結果を基に、前記学習部が学習時に使用する2乗特徴量を生成するステップとを備えたことを特徴とする学習方法。
JP2016230351A 2016-11-28 2016-11-28 学習装置及び学習方法 Active JP6760830B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016230351A JP6760830B2 (ja) 2016-11-28 2016-11-28 学習装置及び学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016230351A JP6760830B2 (ja) 2016-11-28 2016-11-28 学習装置及び学習方法

Publications (2)

Publication Number Publication Date
JP2018088078A JP2018088078A (ja) 2018-06-07
JP6760830B2 true JP6760830B2 (ja) 2020-09-23

Family

ID=62493525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016230351A Active JP6760830B2 (ja) 2016-11-28 2016-11-28 学習装置及び学習方法

Country Status (1)

Country Link
JP (1) JP6760830B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2763398B2 (ja) * 1990-11-20 1998-06-11 キヤノン株式会社 パターン認識装置
JP2000305606A (ja) * 1999-04-26 2000-11-02 Toyo Electric Mfg Co Ltd 配水需要量予測方法
JP3480563B2 (ja) * 1999-10-04 2003-12-22 日本電気株式会社 パターン識別のための特徴抽出装置
JP5486569B2 (ja) * 2011-09-05 2014-05-07 日本電信電話株式会社 パターン識別方法、パターン識別装置、およびプログラム

Also Published As

Publication number Publication date
JP2018088078A (ja) 2018-06-07

Similar Documents

Publication Publication Date Title
US10402627B2 (en) Method and apparatus for determining identity identifier of face in face image, and terminal
CN107992887B (zh) 分类器生成方法、分类方法、装置、电子设备及存储介质
CN111783505A (zh) 伪造人脸的识别方法、装置和计算机可读存储介质
CN104680120A (zh) 一种人脸检测的强分类器的生成方法及装置
CN103716204A (zh) 一种基于维纳过程的异常入侵检测集成学习方法及装置
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
CN105404886A (zh) 特征模型生成方法和特征模型生成装置
CN109685104B (zh) 一种识别模型的确定方法和装置
KR102433598B1 (ko) 데이터 경계 도출 시스템 및 방법
CN107067022B (zh) 图像分类模型的建立方法、建立装置和设备
CN113343123B (zh) 一种生成对抗多关系图网络的训练方法和检测方法
CN110097120B (zh) 网络流量数据分类方法、设备及计算机存储介质
CN110781467A (zh) 异常业务数据分析方法、装置、设备及存储介质
CN113918471A (zh) 测试用例的处理方法、装置及计算机可读存储介质
KR101590896B1 (ko) 일반화 성능을 갖는 심화학습 장치 및 방법, 그 방법을 수행하기 위한 기록 매체 및 장치
JP6573233B2 (ja) 認識容易性指標算出装置、方法、及びプログラム
JP6760830B2 (ja) 学習装置及び学習方法
CN114445716A (zh) 关键点检测方法、装置、计算机设备、介质及程序产品
CN112597699B (zh) 一种融入客观赋权法的社交网络谣言源识别方法
JP2018088080A (ja) 学習装置及び学習方法
CN110414845B (zh) 针对目标交易的风险评估方法及装置
CN114005184A (zh) 一种基于少量样本的手写签名真伪识别方法和装置
Lee et al. Online dependence clustering of multivariate streaming data using one‐class SVMs
JP6786364B2 (ja) 学習装置及び学習方法
CN114065867B (zh) 一种数据分类方法、系统及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200903

R150 Certificate of patent or registration of utility model

Ref document number: 6760830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150